Nuestros sitios
Ver edición digital Suscríbete al NEWSLETTER
Compartir

10 puntos para entender la ley que pretende regular la IA en Europa

MIT SMR México 28 Abr 2023
10 puntos para entender la ley que pretende regular la IA en Europa

Las autoridades de la Unión Europea podrían comenzar a clasificar el riesgo de las herramientas de IA y prohibir el uso de las que sean más peligrosas.


Los legisladores de la Unión Europea (UE) planean poner en marcha una nueva ley que ponga freno al mal uso que le han dado a las herramientas que utilizan Inteligencia Artificial (IA). Algunas de esas malas prácticas son la violación de derechos de autor, así como la creación de imágenes falsas.

Los detalles del nuevo marco legal que tendrá como objetivo poner límites a aplicaciones con ChatGPT o Dall-e aún no están definidos. Sin embargo, las autoridades votaron el pasado 27 de abril para comenzar a hacer un borrador con los lineamientos que podrían generar una de las primeras regulaciones en ese campo tecnológico. 

Elon Musk encabeza una lista de 1,000 empresarios que piden frenar pruebas de IA

De acuerdo con información de Reuters, los miembros del Parlamento Europeo acordaron que llevarán ese borrador a la siguiente etapa que consta de un diálogo tripartito en el que se discutirá la forma final y los lineamientos que tendrá la nueva ley.

Propuestas clave de la nueva normativa europea para regular la IA

Respecto a la propuesta, Thierry Breton, Comisionado de Mercado Interno de la UE, expresó en un comunicado que la ley surge debido a que la IA ha alcanzado nuevas capacidades impulsadas por el poder de la computación. Aunque aceptó que el nuevo escenario trae consigo una nueva serie de riesgos.

“Las propuestas de hoy tienen como objetivo fortalecer la posición de Europa como un centro global de excelencia en IA desde el laboratorio hasta el mercado, garantizar que la IA en Europa respete nuestros valores y reglas”, comentó.

1. Las autoridades tendrán el poder de clasificar el riesgo de cada herramienta que funcione a través de la IA

Los puntos que se tomarán en cuenta para clasificar una IA como “peligrosa” podrían incluir la vigilancia biométrica, la difusión de información errónea o el lenguaje discriminatorio.

2. Proponer aplicaciones de alto riesgo

La ley europea propone cuatro clasificaciones para saber cuál es el riesgo detrás del uso de la IA: 

  • Riesgo inaceptable
  • Alto riesgo
  • Riesgo limitado
  • Mínimo o ningún riesgo

3. Establecer requisitos claros para los sistemas de IA de alto riesgo

Los sistemas de IA altamente peligrosos estarán sujetos a obligaciones estrictas antes de que puedan comercializarse. Por ejemplo, deberán tener sistemas adecuados de evaluación y mitigación de riesgos, llevar un registro de actividad para garantizar la trazabilidad de sus actividades, medidas de supervisión humana.

4. Definir obligaciones específicas para usuarios de IA 

Los usuarios de las aplicaciones que utilicen IA para su funcionamiento tendrán que monitorear constantemente su dispositivo y vigilar que no irrumpa las leyes. Además, tendrá que hacer buen uso de ella.

5. Conceptualizar las normas que deben seguir los proveedores de aplicaciones que sean clasificadas como de alto riesgo

A partir del momento en que la ley entre en vigor, las empresas que se encarguen de diseñar esas herramientas deberán de seguir normas muy estrictas y vigilar el uso que el público le dé a su software

6. Proponer una evaluación antes de que el sistema de IA se ponga en servicio o se comercialice 

Después de que sea aprobada la ley, tanto ChatGPT como otras herramientas, y las que sean diseñadas en un futuro, tendrán que ser evaluadas por las autoridades . Esto les dará la oportunidad de ocupar un lugar en la escala de riesgo.

7. Vigilar los sistemas IA después de que salga al mercado

Una vez que un sistema de IA esté al servicio del público, las autoridades estarán a cargo de su vigilancia. Los usuarios y los proveedores de las plataformas o software también deberán comprometerse a monitorear de forma continua el comportamiento del sistema. 

“Los proveedores y usuarios tendrán el deber de informar sobre las incidencias graves y el mal funcionamiento”, expone el texto

8. Proponer una estructura de gobernanza a nivel europeo y nacional

Esta ley pretende ser un parteaguas legislativo que le muestre a las demás naciones, en específico a aquellas europeas, el correcto diseño de un marco legislativo en un rubro de la tecnología que crece cada vez más rápido.

9. Identificar y prohibir las IA altamente peligrosas

En la propuesta se menciona que se prohibirán todos los sistemas de IA que se consideren una clara amenaza para la seguridad, los medios de subsistencia y los derechos de las personas. Pueden vetar incluso a los juguetes que utilicen asistencia de voz y que fomenten conductas peligrosas.

10. Calculan que en 2024 la regulación podría ser aplicable

Los legisladores mencionaron que el tiempo más cercano en el que podrían poner en marcha el nuevo marco normativo es en la segunda mitad de 2024. Aunque eso sólo pasará si cuentan con los estándares listos y las primeras evaluaciones de conformidad realizadas.

Síguenos en Google News
Te recomendamos
Foto perfil de MIT SMR México
MIT SMR México La guía en español para los tomadores de decisiones Marca internacional de gran renombre con contenidos de alta calidad que cuenta con el respaldo de la prestigiosa MIT Sloan School of Management del MIT. Cualquier persona que influye en su entorno es un líder.
Descarga GRATIS nuestro especial
descargable
Descarga AQUÍ el artículo completo Especial Foro MIT 2023 ¡Descárgalo GRATIS!
Suscríbete al Newsletter
¡SUSCRÍBETE!
LEE MÁS CONTENIDO
¿QUÉ TEMA TE INTERESA?