Sam Altman opina que la ley de IA en California pondría en riesgo la seguridad nacional y evitaría el avance científico. Estas son las principales razones que tiene el líder para desconfiar de las autoridades estadounidenses.
OpenAI se opone a un proyecto de ley en California que impondría nuevos requisitos de seguridad a las empresas de Inteligencia Artificial (IA). Así, Sam Altman se volvió el líder más importante en la industria tech que está en contra de la legislación.
La startup confirmó su postura a través de una carta enviada a Scott Wiener, senador estatal de California.
Se mencionó que el proyecto de ley dañaría la innovación en la industria de la IA y argumentó que la regulación sobre este tema debería provenir del gobierno federal en lugar de los estados.
Según Bloomberg, esta carta también planteó preocupaciones de que el proyecto de ley, si se aprueba, podría afectar la competitividad de Estados Unidos y su seguridad nacional.
“La revolución de la IA recién está comenzando, y el estatus único de California como líder mundial en IA está impulsando el dinamismo económico del estado”, dijo Jason Kwon, director de estrategia de OpenAI.
En un comunicado de prensa en respuesta a la oposición de OpenAI a la ley que podría regular el desarrollo de la IA en el estado que alberga a Silicon Valley, Wiener dijo que este proyecto surge debido a la falta de regulación a nivel federal.
El senador agregó que esta normatividad fortalecerá la seguridad nacional al obligar a las empresas de IA a probar exhaustivamente sus productos.
También dijo que no tendría sentido que las empresas abandonaran California ya que la ley aplicará a cualquier empresa que haga negocios en el estado.
Los 3 demonios que impiden la regulación de la Inteligencia Artificial en el mundo
La SB 1047, como es conocida la controvertida ley IA, intenta detener los desastres del mundo real causados por la tecnología antes de que sucedan. La propuesta hace responsables a los desarrolladores de implementar protocolos de seguridad suficientes para evitar catástrofes.
La ley solo se aplicarían a los modelos de IA más grandes del mundo que engloban aquellos que cuestan al menos 100 millones de dólares.
El proyecto también exige un protocolo de seguridad para evitar el uso indebido de los productos de IA cubiertos. Esto incluye un botón de emergencia para apagar cualquier modelo.
Los desarrolladores también deben contratar auditores externos anualmente para evaluar sus prácticas de seguridad de IA.
A pesar de la postura actual de Sam Altman, el creador de OpenAI no siempre tuvo una postura contraria.
El proyecto de ley está patrocinado por el Centro para la Seguridad de la IA, dirigido por Dan Hendrycks. Su grupo publicó una carta abierta en mayo de 2023 en la que decía que el riesgo de extinción humana que supone la IA debería tomarse tan en serio.
La carta fue firmada por Sam Altman, Bill Gates, Grimes y muchas personas influyentes del mundo de la tecnología.