Nuestros sitios
Ver edición digital Suscríbete al NEWSLETTER
Compartir

PhotoGuard: La herramienta creada por el MIT que evita que la IA pueda manipular imágenes

PhotoGuard: La herramienta creada por el MIT que evita que la IA pueda manipular imágenes Imágenes del papa Francisco creadas con IA circularon en redes sociales. (Especial)

PhotoGuard evita la manipulación no autorizada de imágenes y protege la autenticidad en la era de los modelos generativos avanzados.


Investigadores del MIT desarrollaron PhotoGuard, una herramienta que busca proteger la autenticidad de las imágenes de cualquier manipulación que se les quiera hacer por medio de la Inteligencia Artificial (IA).

En palabras del grupo de expertos del MIT CSAIL (Laboratorio de Inteligencia Artificial y Ciencias de Computación) esta herramienta “utiliza perturbaciones (alteraciones minúsculas en valores de píxeles invisibles para el ojo humano pero detectables por modelos informáticos) que interrumpen efectivamente la capacidad del modelo para manipular la imagen“.

El lado oscuro de la IA: Descubriendo los peligros detrás de las imágenes falsas

¿Qué es PhotoGuard y cómo funciona?

Utilizando un modelo de Inteligencia Artificial, los investigadores del MIT utilizan métodos de protección y ataque para resguardar el sujeto principal de la imagen. 

Para protección de la foto, se crean pequeñas distorsiones en los pixeles de la imagen. Estas no son visibles al ojo humano, pero pueden ser percibidas por computadoras. Si es que se intenta modificar la imagen se creará un bloqueo en el sistema de IA.

PhotoGuard utiliza dos métodos de “ataque” diferentes para generar estas perturbaciones. El ataque de “codificador” más sencillo apunta a la representación latente de la imagen en el modelo de IA, lo que hace que el modelo perciba la imagen como una entidad aleatoria. La “difusión” más sofisticada define una imagen objetivo y optimiza las perturbaciones para hacer que la imagen final se asemeje lo más posible al objetivo.

“Considere la posibilidad de propagación fraudulenta de eventos catastróficos falsos, como una explosión en un hito importante. Este engaño puede manipular las tendencias del mercado y el sentimiento público, pero los riesgos no se limitan a la esfera pública. Las imágenes personales pueden alterarse de manera inapropiada y usarse para chantajear, lo que resulta en implicaciones financieras significativas cuando se ejecutan a gran escala”, dice Hadi Salman, estudiante graduado en ingeniería eléctrica e informática (EECS) del MIT, afiliado de MIT CSAIL y autor principal de un nuevo artículo sobre PhotoGuard . 

¿Quieres estudiar en el MIT? Entérate cómo obtener una beca, incluso si eres migrante

Riesgos en el uso de IA

La herramienta fue creada con la intención de proteger a la población del mal uso que se le da a la Inteligencia Artificial. Con tecnología tan avanzada,  las imágenes falsas pueden crear la alteración de masas, la difamación de una persona, o la propagación de fake news. Es por eso que los investigadores están comprometidos con buscar soluciones aplicables y realistas. 

A pesar de que PhotoGuard representa un avance importante en el combate de la manipulación de imágenes, aún existe la posibilidad de que usuarios con intenciones maliciosas intenten revertir la programación de imagen, advirtieron los expertos del MIT en un artículo.

Las soluciones contra el mal uso de la Inteligencia Artificial están surgiendo poco a poco, y aunque sean muy efectivas, todavía hay algunas lagunas en el sistema que permiten esquivar la protección. 

La responsabilidad del uso de la IA es un concepto que se tiene que difundir e inculcar. El mundo científico está haciendo el mayor esfuerzo para desarrollar la tecnología pero al mismo tiempo buscar la manera de que se use de manera ética.

“El progreso en IA que estamos presenciando es realmente impresionante, pero permite usos beneficiosos y maliciosos de la IA por igual”, detalla Aleksander Madry, profesor de EECS del MIT e investigador principal de CSAIL. 

“Por lo tanto, es urgente que trabajemos para identificar y mitigar estos últimos. Veo a PhotoGuard como nuestra pequeña contribución a ese importante esfuerzo”.

Científicos del MIT avalan las bondades del minado Bitcoin para el medio ambiente

Síguenos en Google News
Te recomendamos
Foto perfil de María Eugenia Arreola
María Eugenia Arreola Practicante de MIT SMR México Fue practicante de MIT SMR México durante julio y agosto de 2023. Interesada en idiomas, museos y cambio climático. Actualmente estudio el último año de la carrera con especialización en periodismo.
Descarga GRATIS nuestro especial
descargable
Descarga AQUÍ el artículo completo Especial Foro MIT 2023 ¡Descárgalo GRATIS!
Suscríbete al Newsletter
¡SUSCRÍBETE!