Nuestros sitios
Ver edición digital Suscríbete al NEWSLETTER
Compartir

No confíes en ChatGPT para hacer la tarea; estos son los 4 errores que te harán reprobar

Elizabeth Vargas 25 Ene 2024
No confíes en ChatGPT para hacer la tarea; estos son los 4 errores que te harán reprobar El código de la Inteligencia Artificial sigue construyéndose a partir de la información de la humanidad. (BiancoBlue/Depositphotos)

Cada vez más estudiantes normalizan el uso de ChatGPT para hacer sus tareas, sin embargo, un experto de la Universidad de Pensilvania recomienda emplear esta herramienta con más precaución, ya que suele cometer varios errores en la información que proporciona.


MONTERREY, Nuevo León.- En la actualidad, 1 de cada 5 estudiantes utiliza ChatGPT para hacer su tarea, una tendencia que se replica en escuelas de todo el mundo, de acuerdo con el Pew Research Center. 

Sin embargo, quienes emplean esta herramienta para hacer trampa en sus tareas deben de tener cuidado, ya que Ryan S. Baker profesor de la Universidad de Pensilvania y director del Penn Center for Learning Analytics, advirtió sobre las principales fallas de esta y otras herramientas similares. 

“Muchos han llamado a los modelos de lenguaje de gran tamaño (LLM) como los loros estocásticos, que significa que adivinan palabras al azar de este tiempo. Por lo tanto, muchas veces no responden correctamente a nuestras preguntas”, comentó en IFE Conference 2024 del Tec de Monterrey.

Por ejemplo, ChatGPT responde dependiendo de la pregunta o de las instrucciones que el usuario dé, pero este LLM solamente busca un poco de información y lo redacta utilizando palabras aleatorias para que los estudiantes puedan dotar de significado a la oración o párrafo que redactó. 

Incluso, agregó Baker, se ha demostrado que las herramientas LLM se comportan de forma distinta dependiendo de los adjetivos que brindan los usuarios en el prompt, o entrada de texto, que ellos redacten. 

Este tipo de fallas han hecho posible que herramientas similares a la creada por OpenAI sean muy útiles para inventar nuevas formas de romper la ley y hacer diversos ciberdelitos, a pesar de que sus desarrolladores no lo hayan programado para cumplir esta función.

Lo sentimos, alumnos; su profesor ya sabe que usan ChatGPT para hacer la tarea

Los 4 errores que puede cometer ChatGPT al hacer las tareas escolares

A pesar de que muchos alumnos creen que la Inteligencia Artificial les ayuda a simplificar sus vidas, este escenario está lejos de ser real. ¿La razón? ChatGPT y los modelos de lenguaje cometen errores significativos. 

Frente a esta situación, Ryan S. Baker enlistó cuatro de los más importantes que los estudiantes deben tener en cuenta si no quieren ser reprobados por sus profesores.

1. Los modelos LLM aún son muy inestables

ChatGPT no le ofrece al mundo una visión general, universal y veraz de lo que pasa a su alrededor o de la realidad histórica.

Esto porque las respuestas que ofrece cambia dependiendo del usuario o de las palabras que elija para pedir su ayuda, lo que significa que, a pesar de que los estudiantes deciden utilizar de forma recurrente esta herramienta IA, muchos de sus ensayos podrían contener información errónea.

“Si alguien busca un resultado le sale algo, pero si otra persona busca lo mismo pero con diferentes palabras el resultado es completamente diferente”, explicó Baker.

2. Complica el proceso de aprendizaje

Si bien es cierto que muchos cibercriminales descubrieron la forma de utilizar las LLM para generar códigos y así diseñar los de un malware, miles de estudiantes no saben cómo usar esta herramienta. Este último grupo queda a merced de las reglas inventadas por OpenAI, Microsoft u otras empresas gigantes que desarrollen esta tecnología desde la perspectiva del profesor de la Universidad de Pensilvania.

“Esto evita que las personas obtengan los resultados que buscan porque se filtra la información antes de llegar a ellos, esto merma los resultados del aprendizaje”.

3. La IA sigue cometiendo alucinaciones

Al ser un loro que repite cosas, la Inteligencia Artificial, no tiene conocimiento sobre la realidad humana. Por eso modelos como Midjourney continúan experimentando algunos problemas para diseñar las manos de forma correcta cuando se crea una imagen. 

Sin embargo, en los trabajos académicos hechos con ChatGPT este tipo de problemas cobran una mayor visibilidad porque cuando los programas no obtienen información específica sobre un tema comienza a inventar cosas, explicó el director del Penn Center for Learning Analytics.

4. ChatGPT responde bien solo a preguntas de hechos generales

La capacidad humana para comprender el sentido de una pregunta sigue siendo superior al de cualquier máquina. La Inteligencia Artificial aún no es capaz de desarrollar ideas ambiguas o desarrollar respuestas ante una pregunta ambigua. Si un alumno necesita hacer un ensayo sobre un personaje, debe ser muy específico. 

“No solo es decir el nombre de un lugar, una institución o una persona, deben de ser muy específicos. Por ejemplo, tal persona, profesor de la Universidad de Pensilvania, director del Penn Center for Learning Analytics e ir presentando más datos para que sepa a quién te refieres. De lo contrario, cometerá una alucinación”.

Los 3 demonios que impiden la regulación de la IA en el mundo

Utilizar la IA en las aulas es posible, pero estableciendo límites

Para poder utilizar la IA en los salones de clase, los maestros deben enseñar a sus estudiantes una forma ética de hacerlo.

Además de familiarizarse respecto a la forma en la que funcionan este tipo de herramientas. También, las escuelas deben aventurarse y comenzar a apostar y utilizar este tipo de tecnología.

La Universidad de Pensilvania ya lo hizo. El profesor Ryan S. Baker explicó que la institución analiza distintos hábitos de los estudiantes para mejorar el proceso de enseñanza-aprendizaje e impulsar la forma en que los jóvenes aprovechan los conocimientos. 

El académico reconoció entre risas que la primera versión que utilizaron solía brindar una retroalimentación respecto a las tareas de los jóvenes, pero con ciertas fallas. A este modelo de Inteligencia Artificial lo nombraron JeepyTA.

“A pesar de la gran ayuda que brinda JeepyTA a los maestros y alumnos, encontramos que este modelo seguía cometiendo algunos errores. Por ejemplo, una persona le preguntó algunos horarios de atención y respondió que eran los viernes por la tarde. ¡Eso no es cierto, obviamente!”.

Síguenos en Google News
Te recomendamos
Foto perfil de Elizabeth Vargas
Elizabeth Vargas Traductora senior y reportera MIT SLOAN MÉXICO Reportera y traductora senior de MIT SMR México. Periodista especializada en temas de criptomonedas, negocios, finanzas, capital humano, tecnología y regulación IA. Mi objetivo es brindar a las personas información accesible a través de textos que cuenten historias humanas.
Descarga GRATIS nuestro especial
descargable
Descarga AQUÍ el artículo completo Especial Foro MIT 2023 ¡Descárgalo GRATIS!
Suscríbete al Newsletter
¡SUSCRÍBETE!
LEE MÁS CONTENIDO
¿QUÉ TEMA TE INTERESA?