PhotoGuard: La herramienta creada por el MIT que evita que la IA pueda manipular imágenes
PhotoGuard evita la manipulación no autorizada de imágenes y protege la autenticidad en la era de los modelos generativos avanzados.
Investigadores del MIT desarrollaron PhotoGuard, una herramienta que busca proteger la autenticidad de las imágenes de cualquier manipulación que se les quiera hacer por medio de la Inteligencia Artificial (IA).
En palabras del grupo de expertos del MIT CSAIL (Laboratorio de Inteligencia Artificial y Ciencias de Computación) esta herramienta “utiliza perturbaciones (alteraciones minúsculas en valores de píxeles invisibles para el ojo humano pero detectables por modelos informáticos) que interrumpen efectivamente la capacidad del modelo para manipular la imagen“.
El lado oscuro de la IA: Descubriendo los peligros detrás de las imágenes falsas
¿Qué es PhotoGuard y cómo funciona?
Utilizando un modelo de Inteligencia Artificial, los investigadores del MIT utilizan métodos de protección y ataque para resguardar el sujeto principal de la imagen.
Para protección de la foto, se crean pequeñas distorsiones en los pixeles de la imagen. Estas no son visibles al ojo humano, pero pueden ser percibidas por computadoras. Si es que se intenta modificar la imagen se creará un bloqueo en el sistema de IA.
PhotoGuard utiliza dos métodos de “ataque” diferentes para generar estas perturbaciones. El ataque de “codificador” más sencillo apunta a la representación latente de la imagen en el modelo de IA, lo que hace que el modelo perciba la imagen como una entidad aleatoria. La “difusión” más sofisticada define una imagen objetivo y optimiza las perturbaciones para hacer que la imagen final se asemeje lo más posible al objetivo.
“Considere la posibilidad de propagación fraudulenta de eventos catastróficos falsos, como una explosión en un hito importante. Este engaño puede manipular las tendencias del mercado y el sentimiento público, pero los riesgos no se limitan a la esfera pública. Las imágenes personales pueden alterarse de manera inapropiada y usarse para chantajear, lo que resulta en implicaciones financieras significativas cuando se ejecutan a gran escala”, dice Hadi Salman, estudiante graduado en ingeniería eléctrica e informática (EECS) del MIT, afiliado de MIT CSAIL y autor principal de un nuevo artículo sobre PhotoGuard .
¿Quieres estudiar en el MIT? Entérate cómo obtener una beca, incluso si eres migrante
Riesgos en el uso de IA
La herramienta fue creada con la intención de proteger a la población del mal uso que se le da a la Inteligencia Artificial. Con tecnología tan avanzada, las imágenes falsas pueden crear la alteración de masas, la difamación de una persona, o la propagación de fake news. Es por eso que los investigadores están comprometidos con buscar soluciones aplicables y realistas.
A pesar de que PhotoGuard representa un avance importante en el combate de la manipulación de imágenes, aún existe la posibilidad de que usuarios con intenciones maliciosas intenten revertir la programación de imagen, advirtieron los expertos del MIT en un artículo.
Las soluciones contra el mal uso de la Inteligencia Artificial están surgiendo poco a poco, y aunque sean muy efectivas, todavía hay algunas lagunas en el sistema que permiten esquivar la protección.
La responsabilidad del uso de la IA es un concepto que se tiene que difundir e inculcar. El mundo científico está haciendo el mayor esfuerzo para desarrollar la tecnología pero al mismo tiempo buscar la manera de que se use de manera ética.
“El progreso en IA que estamos presenciando es realmente impresionante, pero permite usos beneficiosos y maliciosos de la IA por igual”, detalla Aleksander Madry, profesor de EECS del MIT e investigador principal de CSAIL.
“Por lo tanto, es urgente que trabajemos para identificar y mitigar estos últimos. Veo a PhotoGuard como nuestra pequeña contribución a ese importante esfuerzo”.
Científicos del MIT avalan las bondades del minado Bitcoin para el medio ambiente