¿Las respuestas de ChatGPT son incorrectas? Un estudio revela que sí
Dos estudios demuestran que ChatGPT es una herramienta que tiene un talento innato para mentirle a los humanos. De hecho, el 52 por ciento de sus respuestas son mentiras. Quédate para descubrir estos hallazgos.
Un estudio de la Universidad de Purdue reveló que Sam Altman y ChatGPT le mienten a los usuarios que usan la popular herramienta. OpenAI la publicita como una revolución en la campo de la Inteligencia Artificial (IA) gracias a las respuestas que brindan al mundo en sus interfaces.
Las respuestas que ofrece este chatbot son tan impresionantes que muchos analistas han predicho que los humanos podrían perder su trabajo mientras que otros comentan que son una de las herramientas más útiles para impulsar las labores diarias de los colaboradores.
Sin embargo, el grupo de expertos encontró que el 52 por ciento de las respuestas sobre programación informática que ChatGPT responde son mentira.
“Nuestro análisis muestra que más de la mitad de las respuestas de ChatGPT contienen información incorrecta y el 77 por ciento son detalladas”, explicó el nuevo estudio.
Durante el análisis los académicos de la Universidad de Purdue le preguntaron a las personas si, sabiendo que las respuestas que ofrecía eran erróneas, aún confiaban en ellas. El 35 por ciento de las ocasiones, los participantes respondieron afirmativamente.
GPT-5, ¿qué esperar de la actualización del motor que hace funcionar a ChatGPT?
Los humanos pasan por alto los errores de ChatGPT
Los algoritmos pueden cometer errores. Ya son bastante conocidas las alucinaciones que comete ChatGPT, por eso sus usuarios deben de analizar sus respuestas y verificarlas.
Lamentablemente el estudio mostró que el 39 por ciento de las ocasiones, los humanos pasaron por alto la información errónea en las respuestas de este chatbot.
“Esto implica la necesidad de contrarrestar la información errónea en las respuestas de ChatGPT a preguntas de programación. Debemos crear conciencia sobre los riesgos asociados con respuestas aparentemente correctas”.
El trabajo hecho por los investigadores revelaron que las grandes empresas que se encargan de desarrollar programas de IA deben de revisar la forma en la que obtienen su información. Esto incluye a gigantes como Meta, Microsoft y Google.
El principal de esos problemas es que la IA frecuentemente no es confiable, especialmente si un usuario determinado hace una pregunta única. Durante mayo de 2024 se descubrió que la herramienta impulsada por Google arroja constantemente contenido basura que proviene de fuentes no confiables.
De hecho, ha habido varias ocasiones esta semana en las que la Búsqueda de Google ha presentado artículos satíricos de The Onion como información confiable.
10 usos que le puedes dar a ChatGPT para hacer más fácil y rápida tu vida
No es la primera vez que descubren al chatbot mintiendo
En junio de 2023 se publicó un estudio donde se demostró que GPT-3, la versión anterior del motor que hace funcionar a ChatGPT es capaz de informar y desinformar a las personas de mejor forma.
“La inteligencia artificial (IA) está cambiando la forma en que creamos y evaluamos la información, y esto está sucediendo durante una infodemia”.
La hipótesis de los investigadores era que si los usuarios de X leen una publicación hecha por la IA esta podría pasar como un contenido orgánico. Pero al ver muchos de empiezan a notar características lingüísticas que podrían usarse para que se den cuenta qué comentarios podrían ser sintéticos.
No obstante, esta idea fue refutada. Se demostró que los lectores humanos no pudieron detectar patrones en los textos de la máquina. Para empeorar las cosas, la aparición de nuevos modelos puede incluso mejorar la capacidad de la Inteligencia Artificial para suplantar a los humanos.