Nuestros sitios
Ver edición digital Suscríbete al NEWSLETTER
Compartir

Derechos de imagen post mortem y la urgencia de legislar a la Inteligencia Artificial

Elizabeth Vargas 25 Ago 2023
Derechos de imagen post mortem y la urgencia de legislar a la Inteligencia Artificial La IA puede ser utilizada de muchas formas, entre ellas, replicar la imagen de un amigo o familiar muerto. (sadefenza.blogspot)

La IA tiene el poder de regresar a la vida a cualquier persona fallecida en una pantalla, sin embargo, eso implica varios temas éticos y legales, como la percepción de su imagen.


La Inteligencia Artificial (IA) otorga el poder de recrear a cualquier persona, incluso a quienes ya fallecieron. Pero esto implica un debate ético y legal muy importante en un mundo donde existen cada vez más oportunidades de utilizar las herramientas algorítmicas. ¿Qué implica el uso de la imagen de una persona que ya no existe y cómo afecta la forma en la que la perciben?

Aldo Ricardo Rodríguez, CEO y cofundador de Lawgic, una plataforma de educación legal, mencionó que a pesar de que la recreación de imágenes de personas finadas es una práctica que se ha vuelto más común, en pocos países han intentado regularla.

“En México cualquiera podría tomar la imagen de tu padre o abuelo y hacer con ella lo que quisiera porque en este momento la ley no provee ninguna herramienta legal para proteger los derechos de imagen post mortem”.

El lado oscuro de la IA: Descubriendo los peligros detrás de las imágenes falsas

Usar la IA para retratar a una persona fallecida implica jugar con su reputación

El uso de la IA para recrear distintos personajes no es algo nuevo, de hecho, esta tecnología ha sido usada varias veces en Hollywood. La producción de la película “El extraño caso de Benjamin Button” utilizó esta herramienta de forma significativa. La crítica alabó la cinta y distintas academias le otorgaron más de 20 premios internacionales como resultado.

Su caso es un ejemplo de lo que puede pasar cuando se aplica la tecnología de forma adecuada, pero, ¿qué pasa cuando no es así? Al respecto, la Organización Mundial de la Propiedad Intelectual (OMPI) explica que el uso de deepfakes puede desencadenar la violación de los derechos humanos, el derecho a la privacidad, el derecho a la protección de datos personales, etc.

Para ejemplificar este tipo de amenazas, Rodríguez planteó un escenario hipotético durante el Festival Internacional de Cine de Guanajuato (GIFF) le pidió a su audiencia imaginar lo siguiente:

“Imaginen que Julián, un exitoso cantante falleció, y una productora quiere hacer una serie biográfica en donde aborden su vida. Ante este proyecto la empresa busca a sus dos herederos: Carla y Luis. A ambos les plantean la oportunidad de hacer este negocio, la hija acepta, pero el varón no. Al final, Luis se da cuenta de que la imagen de su padre terminó dañada”.

De acuerdo con el ejemplo, el hijo de Julián se encontró con que la productora retrató a su padre de una manera completamente errada, pero el uso de la IA fue tan bueno, que mucha gente creyó que era él. Así, el intérprete se enfrentó a un caso de cancelación, a pesar de que él ya había fallecido.

“La representación con CGI e IA no implica solo ganancias y números, también puede cambia la percepción completa de la vida de una persona”, agregó el experto.

El ‘deepfake’ y las interacciones humanas: riesgos y posibilidades

Gobiernos, los últimos en ‘enterarse’ del avance de la tecnología

La irrupción de la IA ya permea distintos campos de la vida humana. Uno de ellos es la política. En marzo de este año los internautas comenzaron a compartir imágenes falsas de Donald Trump, así como del Papa Francisco. A pesar de esto, aún no existen leyes que protejan a las personas del mal uso de su imagen en productos generados por la tecnología.

Sin embargo, el CEO de Lawgic comentó que actualmente existe un marco normativo que podría sentar un precedente para todo el mundo: La Ley de IA de la Unión Europea.

“Este documento es muy importante porque plantea que los desarrolladores de las apps que utilicen la IA deberán presentar el nivel de riesgo de su uso ante su audiencia”.

Desconocimiento de la IA, el verdadero problema a vencer para evitar riesgos a la humanidad

El marco legal explica que hay cuatro niveles de peligro en el uso de la tecnología: “ningún riesgo”, “riesgo limitado”, “alto riesgo” o “riesgo inaceptable”. Además, propone que cada una de las plataformas tendrán que ser evaluadas por las autoridades antes de ser accesibles para el público, detalló Aldo Ricardo Rodríguez.

“Existe un punto, que se llama ‘Singularity Point’ que es cuando un tema es lo suficientemente grande para que todos los vean. La IA ya pasó ese punto en noviembre de 2022, por lo tanto, es hora de que los gobiernos comiencen a actuar en él”.

Síguenos en Google News
Te recomendamos
Foto perfil de Elizabeth Vargas
Elizabeth Vargas Traductora senior y reportera MIT SMR México Formó parte del equipo de MIT SMR México de mayo de 2022 a septiembre de 2024. Periodista especializada en temas de criptomonedas, negocios, finanzas, capital humano, tecnología y regulación IA. Mi objetivo es brindar a las personas información accesible a través de textos que cuenten historias humanas.
Descarga GRATIS nuestro especial
descargable
Descarga AQUÍ el artículo completo Especial Foro MIT 2024. ¡Descárgalo GRATIS!
Suscríbete al Newsletter
¡SUSCRÍBETE!