La IA también falla, 3 veces en que la tecnología arruinó una profesión
Errar ante una corte o discriminar a las mujeres en procesos de contratación. Estos son los máximos errores que ha cometido la IA en el campo laboral.
La inteligencia artificial (IA) cambió la forma en la que los profesionales realizan sus labores. Ahora muchos de ellos utilizan los chatbots para escribir correos electrónicos o incluso resúmenes y presentaciones importantes. Sin embargo, es necesario recalcar que muchas veces, los algoritmos también se equivocan.
A medida que la tecnología avanza y crea mejores herramientas IA, también lo hacen los riesgos que conlleva utilizar esos productos. De tal forma, aumentan las posibilidades de que las decisiones tomadas por los algoritmos sean erróneas.
Inteligencia Artificial, ¿aliada para mejorar la aprobación de leyes?
Uno de esos peligros es conocido como “alucinaciones de IA”. Ese fenómeno ocurre cuando herramientas como ChatGPT le dan a sus usuarios respuestas incorrectas a sus usuarios afirmando que son correctas.
Otra gran amenaza que compromete la veracidad de esas herramientas son los sesgos con los que se toma una decisión debido a que pueden llegar a ser discriminatorios. Esto no es culpa de la tecnología, sino más bien de los datos con los que se alimentan. Muchos de ellos provienen de discursos de odio.
Errores laborales más famosos de la IA
Abogados, periodistas o profesionales en el área de recursos humanos han decidido facilitar sus tareas diarias utilizando regularmente herramientas IA, aunque algunas veces esa decisión les ha costado cara.
ChatGPT entregó casos falsos ante una corte
Este es uno de los ejemplos más famosos de “alucinaciones de IA” y lamentablemente podría tener consecuencias muy grandes para un abogado en Colombia. Esa persona decidió confiar en ChatGPT para preparar una presentación. Sin embargo, el chatbot preparó una defensa en la que destacaron casos falsos que el experto en leyes presentó ante el tribunal.
IA vs. actores de doblaje, ¿la tecnología amenaza la existencia de esta profesión?
Esta acción llevó a un juez a sopesar las sanciones mientras la comunidad legal lidia con uno de los primeros casos de “alucinaciones” de IA que llegan a los tribunales.
IA de Amazon discriminó a un grupo de mujeres
Amazon comenzó a crear programas de aprendizaje automático para revisar los currículos de los solicitantes de empleo desde 2014. Sin embargo, los encargados del área de recursos humanos contaban con un error que cometería la IA: discriminaba a las mujeres.
La compañía capacitó a la plataforma para evaluar las solicitudes a través del estudio de los currículos presentados a la empresa durante 10 años. Pero como la mayoría fueron enviados por hombres, el sistema aprendió a favorecer a los candidatos.
Un chatbot dio información errónea con la que se generaron notas periodísticas
A principios de años se descubrió que el sitio de noticias, CNET, publicó varias notas únicamente utilizando el conocimiento de la IA y que no solía verificar la información que plasmaba en sus artículos. Lamentablemente, el portal noticioso poco tiempo después tuvo que comenzar a rehacer muchas de sus publicaciones ya que notaron que los datos en los que basaron sus artículos eran erróneos.
Tesis plagiada: breve guía para evitar errores comunes al momento de escribirla
Sus malas prácticas fueron descubiertas por otro medio, Futurism, que denunció públicamente a su competencia de dar datos erróneos a su público.
“CNET , un medio de noticias de tecnología enormemente popular, ha estado empleando silenciosamente la ayuda de la ‘tecnología de automatización’, un eufemismo estilístico para AI, en una nueva ola de artículos explicativos financieros, aparentemente comenzando alrededor de noviembre del año pasado”, se lee en el artículo.