Nuestros sitios
Ver edición digital Suscríbete al NEWSLETTER
Compartir

Deepfakes y las interacciones humanas: riesgos y posibilidades

Sanjay Podder, Shalabh Kumar Singh, Neville Dubash y David Light 19 Ago 2024
Deepfakes y las interacciones humanas: riesgos y posibilidades Con la entrada de la IA, los riesgos de los internautas, se han multiplicado, así como sus posibilidades. (Gasi/Adobe Stock)

Los deepfakes tienen muy mala fama (y bien merecida), pero su tecnología también puede generar múltiples experiencias valiosas para el cliente. Descubre algunas de las oportunidades y riesgos detrás de su uso.


Los personajes virtuales se han vuelto cada vez más comunes. De hecho, las investigaciones demuestran que el uso de tecnologías de inmersión virtual, para fines educativos, puede aumentar las tasas de participación hasta 10 veces. Pero con estos elementos, también llegaron los deepkafes.

Ahora también las empresas comienzan a darse cuenta de todas las posibilidades que puede ofrecerles este tipo de tecnología. Por ejemplo, pueden hacer publicidad cada vez más personalizada o crear experiencias de compra más entretenidas.

Cheetos es una marca de marca de frituras que lo ha hecho bien. Hace algún tiempo lanzó un comercial con avatares de celebridades. La aplicación Pictofit de Reactive Reality le permitió a los usuarios crear sus propios avatares en sólo tres minutos para probarse ropa en línea.

Muchos líderes aprecian el potencial de esta tecnología en ciernes. Ya sea para respaldar la marca de su empresa, informar a los consumidores o defender el cambio social y ambiental. Pero también han notado que existen dos importantes retos a superar:

1. Complejidad

El primer obstáculo es de tipo tecnológico. Producir distintos deepfakes con software de intercambio de rostros y/o síntesis de voz, es relativamente fácil. Pero crear un personaje interactivo que participe en una comunicación bidireccional con el usuario, por otro lado, es mucho más difícil.

Tan sólo para sostener conversaciones con el público, un personaje digital debe tener un banco de conocimientos profundo. Para esto se requiere de una inversión inicial cuantiosa.

Si se pretende crear un personaje digital de alguien que ya falleció es aún más difícil. Una de las herramientas para elaborar estos personajes se llama codificador automático, el cual codifica los rasgos faciales y luego los decodifica en la cara meta.

Este proceso se puede mejorar aún más utilizando una red generativa de confrontación, un método de machine learning que enfrenta dos redes neuronales. Una red “generadora” crea datos falsos para intentar engañar a la otra, “evaluadora”, haciéndole creer que es real hasta que pasa una prueba.

Dado que las necesidades tecnológicas de cada personaje varían según su propósito, no todas se crean con las mismas herramientas. Pero si se toman en cuenta todas las posibilidades de interacción, es menos probable que las empresas subestimen los retos que enfrentará su personaje.

2. Uso indebido, abusos y hackeos

El segundo reto es el riesgo potencial que esta tecnología representa para la sociedad. Por desgracia existen muchísimos ejemplos de uso indebido de los deepfakes.

En 2019, The Wall Street Journal informó que el director ejecutivo de una empresa energética con sede en el Reino Unido. Esto al creer que hablaba por teléfono con su jefe, transfirió 243 mil dólares a la cuenta bancaria de un proveedor húngaro.

En Gabón, lanzaron un video controversial del presidente tan auténtico que provocó un intento de golpe de Estado. Mientras tanto, la compañía de IA DeepTrace estimó que entre los 15 mil videos deepfakes hallados en internet. El 96 por ciento eran pornográficos, casi todos celebridades femeninas.

Los riesgos son claros; no obstante, muchas tecnologías nuevas han planteado inquietudes similares: la edición de fotos y videos, la impresión 3D, etc. Los personajes digitales pueden ofrecer inmensos beneficios sociales y comerciales, pero las empresas deben desarrollar y ejecutar una estrategia bien pensada para mitigar los riesgos.

Deepfake creció 900 por ciento, así puedes cuidarte de esta ciberamenaza

3 puntos clave para controlar los deepfakes

1. Desarrollar un personaje auténtico

En el museo de Bangalore, se tomó la decisión de producir un holograma de M.F. Husain, el “Picasso de la India”. Esto sólo después de haber concluido un proceso de diseño exhaustivo para analizar cualquier posible fallo.

Por ejemplo, ¿con cuántas personas puede interactuar a la vez? ¿será accesible para la gente con discapacidad? ¿se ve bien desde todos los ángulos?

Una herramienta clave fue la ergonomía cognitiva, mediante la cual los sistemas simplifican su uso, a través del análisis de la percepción humana y los procesos mentales.

En otros contextos, se pueden destacar diferentes características. Por ejemplo, si una empresa planea que los clientes desarrollen sus propios avatares para probarse ropa, es crucial que el programa imite con precisión las características físicas de la persona real.

2. Crear un personaje flexible

La mayoría de los personajes digitales son estáticos y no responden. Difunden un mensaje y no pueden adaptarse a los intereses cambiantes del usuario. Un nivel tan simple de funcionalidad no bastará para crear una experiencia atractiva.

Los avatares tienen que relacionarse y adaptarse como lo haría un comediante en su rutina de stand-up para mantener el interés del público.

En este punto entran en juego el procesamiento y la comprensión del lenguaje natural. Contar con funciones multilingües puede mejorar aún más la experiencia en un país o en varios.

El análisis de emociones también es importante. El estado de ánimo de una audiencia se puede medir a través de señales no verbales. Por ejemplo, en el museo de Bangalore, si los movimientos oculares de los visitantes sugieren que su interés cae por debajo del 50 por ciento, el avatar de Husain cambiará el tema de conversación.

3. Hacer un personaje a prueba de sesgos y hackeos

Dado que los personajes digitales son, en su mayoría, gemelos virtuales, la experiencia debe ser ética. Para minimizar los riesgos, estas tecnologías se deben emplear en un entono controlado y las partes interesadas tienen que conocer y aprobar cada detalle.

Otro aspecto de suma importancia son los prejuicios raciales o de género, pues se sabe que el software de reconocimiento facial funciona mal para las personas de color.

Cuando permitan que sus clientes creen avatares de sí mismos, las empresas deben asegurarse de que el software no tiene sesgos y que funciona igual con distintos tonos de piel, estructuras faciales y otras características.

Respecto al tema de seguridad, una forma de protección contra hackers pueden ser las marcas de agua. Investigadores de la Universidad de Nueva York desarrollaron una marca de agua digital que utiliza redes neuronales para autenticar la integridad de una imagen.

Además, siempre está la posibilidad de utilizar huellas digitales que pueden alertar a una empresa si alguien usa de forma indebida el contenido original. La toma de huellas digitales depende de una combinación de IA, visión por computadora, redes neuronales y blockchain.

Las empresas pueden reducir los riesgos, pero igualmente tienen que planificar cómo reaccionar ante las emergencias. Deben desarrollar una estrategia de comunicación clara para su negocio e informar, tanto a los clientes como a los empleados, cómo minimizar los riesgos desde su origen.

Los personajes digitales podrían ser poderosas fuentes de información. Si bien los riesgos de un uso indebido son graves y es necesario comprenderlos, esta tecnología representa un enorme valor en bruto para las empresas. Es hora de que tú también puedas explotarlas.


SOBRE LOS AUTORES

Sanjay Podder lidera el área de innovación tecnológica sostenible en Accenture. Shalabh Kumar Singh es director de Accenture Research. Ambos son coautores del artículo “How Green Is You Software”. Neville Dubash es director principal de I+D de tecnología en Accenture Technology Sustainability Innovation. David Light es editor en jefe de Accenture Research.

AGRADECIMIENTOS

Los autores agradecen a la directora de I+D de tecnología, Nisha Ramachandra, y a la editora de Accenture Research, Regina F. Maruca, por su apoyo en la elaboración de este artículo.

Síguenos en Google News
Te recomendamos
Foto perfil de Sanjay Podder, Shalabh Kumar Singh, Neville Dubash y David Light
Sanjay Podder, Shalabh Kumar Singh, Neville Dubash y David Light Sanjay Podder lidera el área de innovación tecnológica sostenible en Accenture. Shalabh Kumar Singh es director de Accenture Research. Ambos son coautores del artículo "How Green Is You Software". Neville Dubash es director principal de I+D de tecnología en Accenture Technology Sustainability Innovation. David Light es editor en jefe de Accenture Research.
Descarga GRATIS nuestro especial
descargable
Descarga AQUÍ el artículo completo IA ¿Un riesgo para el planeta? ¡Descárgalo GRATIS!
Suscríbete al Newsletter
¡SUSCRÍBETE!
LEE MÁS CONTENIDO
¿QUÉ TEMA TE INTERESA?
Regístrate Registro foro mit AQUÍ