Liderazgo Capital Humano Actualidad

Sam Altman se opone a ley de IA en California, descubre sus razones

Sam Altman opina que la ley de IA en California pondría en riesgo la seguridad nacional y evitaría el avance científico. Estas son las principales razones que tiene el líder para desconfiar de las autoridades estadounidenses.

MIT SMR México 22 Ago 2024

OpenAI se opone a un proyecto de ley en California que impondría nuevos requisitos de seguridad a las empresas de Inteligencia Artificial (IA). Así, Sam Altman se volvió el líder más importante en la industria tech que está en contra de la legislación.

La startup confirmó su postura a través de una carta enviada a Scott Wiener, senador estatal de California.

Publicidad
Publicidad

Se mencionó que el proyecto de ley dañaría la innovación en la industria de la IA y argumentó que la regulación sobre este tema debería provenir del gobierno federal en lugar de los estados.

Según Bloomberg, esta carta también planteó preocupaciones de que el proyecto de ley, si se aprueba, podría afectar la competitividad de Estados Unidos y su seguridad nacional.

“La revolución de la IA recién está comenzando, y el estatus único de California como líder mundial en IA está impulsando el dinamismo económico del estado”, dijo Jason Kwon, director de estrategia de OpenAI.

En un comunicado de prensa en respuesta a la oposición de OpenAI a la ley que podría regular el desarrollo de la IA en el estado que alberga a Silicon Valley, Wiener dijo que este proyecto surge debido a la falta de regulación a nivel federal.

El senador agregó que esta normatividad fortalecerá la seguridad nacional al obligar a las empresas de IA a probar exhaustivamente sus productos.

También dijo que no tendría sentido que las empresas abandonaran California ya que la ley aplicará a cualquier empresa que haga negocios en el estado.

(Iliya Mitskavets/Adobe Stock)

Los 3 demonios que impiden la regulación de la Inteligencia Artificial en el mundo

¿Qué contiene la nueva ley y por qué molesta tanto a Sam Altman?

La SB 1047, como es conocida la controvertida ley IA, intenta detener los desastres del mundo real causados ​​por la tecnología antes de que sucedan. La propuesta hace responsables a los desarrolladores de implementar protocolos de seguridad suficientes para evitar catástrofes.

La ley solo se aplicarían a los modelos de IA más grandes del mundo que engloban aquellos que cuestan al menos 100 millones de dólares.

El proyecto también exige un protocolo de seguridad para evitar el uso indebido de los productos de IA cubiertos. Esto incluye un botón de emergencia para apagar cualquier modelo.

Los desarrolladores también deben contratar auditores externos anualmente para evaluar sus prácticas de seguridad de IA.

A pesar de la postura actual de Sam Altman, el creador de OpenAI no siempre tuvo una postura contraria.

El proyecto de ley está patrocinado por el Centro para la Seguridad de la IA, dirigido por Dan Hendrycks. Su grupo publicó una carta abierta en mayo de 2023 en la que decía que el riesgo de extinción humana que supone la IA debería tomarse tan en serio.

La carta fue firmada por Sam Altman, Bill Gates, Grimes y muchas personas influyentes del mundo de la tecnología.