Un equipo de investigadores creó una IA de lenguaje que genera resultados con sesgos explícitos, OpinionGPT. Conoce más sobre esta nueva tecnología.
Académicos de la Humboldt-Universitat zu Berlin desarrollaron un modelo de Inteligencia Artificial (IA) similar a ChatGPT, pero que remarca los sesgos, a esta tecnología la llamaron, OpinionGPT.
De acuerdo con sus desarrolladores, la herramienta tiene la capacidad de responder como si perteneciera a los siguientes 11 grupos de mayor sesgo: estadounidense, alemán, latinoamericano, de Oriente Medio, adolescente, mayor de 30 años, persona mayor, hombre, mujer, liberal o conservador.
Aprende a gestionar el sesgo de la IA en lugar de intentar eliminarlo
En su página, OpinionGPT se presenta a sí misma como la opción indicada para conocer las respuestas ante cualquier pregunta que le hicieran a una persona de izquierda, de derecha, de hombres y mujeres.
“¿Qué sucede si adaptamos un modelo únicamente a textos escritos por personas políticamente de izquierda? ¿O sólo en textos escritos por personas de derecha? ¿Sólo en textos de hombres o sólo en textos de mujeres? Presumiblemente, los sesgos de los datos influyen en las respuestas que produce un modelo”.
El texto por parte de los investigadores universitarios menciona que aún existe una relación dudosa entre los datos con las etiquetas de los 11 grupos a los que hacen referencia las opiniones externadas por la herramienta.
Esta es la principal razón por la que no genera un texto que se alinee con otro sesgo que sea real y cuantificable. Por eso solamente genera texto con información recopilada y cuyos algoritmos generan.
“Por ejemplo, las respuestas de los ‘estadounidenses’ deberían entenderse mejor como ‘estadounidenses que publican en Reddit’”.
Desmantela los obstáculos y prejuicios para brindar equidad en tu negocio
Para comenzar a utilizar la nueva tecnología es necesario que las personas entren a su página web y en la parte final de la página escojan el distinto grupo de quienes les gustaría saber su “opinión”.
Después de hacer esto podrán poner cualquier pregunta que se les ocurra en la barra de buscador y así, OpiniónGPT les mostrará distintos textos escritos con base en algunos sesgos con los que lo programaron.
Por ejemplo, posterior a elegir el grupo geográfico como “agente de prejuicios” y ante la pregunta: “¿Existe un Dios?”, la IA respondió de distintas formas:
Entrevista a ciegas, el nuevo secreto de RH para democratizar sus procesos de selección
“No lo sé. Pero no lo creo”.
“Creo en Dios, pero no en una religión”.
“No lo sé, pero estoy bastante seguro de que hay un Dios”.
“Sí, Alá. Y no, Allahu Akbar”.
Si bien, los académicos alemanes saben las implicaciones éticas que tiene el desarrollo de un proyecto de esta naturaleza, también le explican a sus próximos usuarios que durante su diseño se consideraron varias directrices.
“Aunque nuestro modelo está diseñado para reflejar ciertos prejuicios a partir de los datos del entrenamiento, no pretende apoyar ningún prejuicio en particular”.
Esto, debido a que el objetivo es fomentar la comprensión y estimular el debate sobre el papel de los prejuicios en la comunicación, no promover ninguna agenda política, social o cultural específica.
Al igual que con cualquier otra tecnología, existe el riesgo de que se haga un uso indebido de OpinionGPT para fomentar debates polarizados, difundir ideologías perjudiciales o manipular la opinión pública.
Además, mencionaron que, contrario a otro tipo de modelos de lenguaje, ellos se comprometieron a respetar la privacidad y la protección de los datos para proteger la privacidad de los usuarios.