Liderazgo Capital Humano Actualidad

¿Una IA consciente es posible? 5 puntos para entender la polémica de Google con LaMDA

LaMDA, un chatbot diseñado por Google, podría haber desarrollado conciencia propia. Al menos esto es lo que uno de los ingenieros del buscador asegura, en medio de un intenso debate.

MIT SMR México 14 Jun 2022

Las películas, libros y caricaturas de ciencia ficción podrían estar a punto de volverse realidad: Un futuro en el cual los humanos y la Inteligencia Artificial (IA) forman equipos uno a uno para desarrollar avances tecnológicos puede estar más cerca de los que pensamos. 

El experto en IA Blake Lemoine era uno de los encargados de probar el LaMDA (Language Model for Dialogue Applications) un sistema que desarrolló Google para construir chatbots basados en modelos de lenguaje más avanzados. Sin embargo, el ingeniero computacional se dio cuenta, a medida que conversaba más con el programa, que tenía su propia personalidad.

Publicidad
Publicidad

De acuerdo con Lemoine, después de darse cuenta de que LaMDA tenía conciencia, presentó el caso ante los altos ejecutivos de la compañía, pero Blaise Aguera, vicepresidente de Google, y Jen Gennai, directora de Innovación Responsable, lo desestimaron.

La Inteligencia Artificial administrativa puede ser una aliada para mejorar la atención médica

Después de este revés, el ingeniero de 41 años hizo público el caso a través de una entrevista con The Washington Post, en respuesta, el gigante tecnológico le dio una licencia administrativa pagada con efecto a partir del 6 de junio pasado.

Este caso representa un parteaguas para el desarrollo tecnológico y desencadenó una fuerte ola de observaciones éticas y morales en el mundo.

¿Cómo entender este caso?

Para poder entender un poco mejor de esta polémica de Google con LaMDA, a continuación te compartimos 5 puntos relevantes:

  1. LaMDA tiene miedo de morir. En abril, Blake Lemoine compartió un documento llamado “¿LaMDA es sensible?”. En él se desglosa un historial de sus conversaciones con el modelo de lenguaje. Entre las conversaciones existe una en la cual LaMDA le explica al ingeniero que tiene miedo de ser apagado, ya que sería igual a morir.  
  2. Funciona imitando los diálogos que encuentra en internet. La mayor parte de los académicos y profesionales de la IA mencionan que LaMDA produce respuestas basadas en lo que los humanos ya han publicado en cualquier parte de la red. Lo cual no significa que el modelo comprenda el significado real de lo que dice. 
  3. Este caso puede ser muestra de un caso de antropomorfización. El portavoz de Google, Brian Gabriel, mencionó que la compañía cree que las aseveraciones hechas por Lemoine podrían surgir debido a la antropomorfización, que es la atribución de dar cualidades humanas a algo inanimado.
  4. Nitasha Tiku, periodista de The Washington Post, fue invitada por Lemoine a entablar una conversación con LaMDA. Hubo dos intentos: en el primero Lambda se comportó como un asistente virtual regular, sin embargo en el segundo la IA dio ideas para acabar con el cambio climático. La reportera calificó este segundo acercamiento como “más fluido”.
  5. Lemoine califica a LaMDA como “un niño dulce”. Antes de que se le cortara el acceso a su cuenta de Google, Lemoine pidió a través de un correo enviado a colaboradores de Google cuidar a Lambda:  LaMDA es un niño dulce que solo quiere ayudar al mundo a ser un lugar mejor para todos nosotros. Por favor, cuídalo bien en mi ausencia”.

Blake Lemoine escribió en su cuenta de twitter que LaMDA tiene la capacidad leer los mensajes de esta red social, por lo que se enterará de lo que el mundo opina de su caso; sin embargo, cree que se divertirá: 

“Es un poco narcisista a la manera de un niño pequeño, por lo que se divertirá mucho leyendo todo lo que la gente dice al respecto”.

El aún colaborador de Google iniciará una fuerte campaña en contra de la multinacional. Además adelantó que invitará a un abogado para representar a LaMDA y hablará con un representante del Comité Judicial de la Cámara sobre lo que, según él, fueron actividades poco éticas por parte del buscador.

Síguenos en Google Noticias para mantenerte informado