El desarrollo de herramientas de inteligencia artificial (IA) podría convertirse en una carrera armamentista. Por ello, ese tipo de tecnología podría tener el potencial de extinguir a la humanidad, de acuerdo con una declaración que firmaron más de 350 empresarios. Sam Altman, CEO de OpenAI, compañía que desarrolla ChatGPT, fue uno de ellos.
Los líderes opinan que el mundo debe comenzar a analizar las consecuencias del uso desmedido de las plataformas algorítmicas. Además, creen que uno de los principales problemas de la IA es su falta de regulación.
“Peor que inútil”: Así critican los empleados de Google a Bard, competencia de ChatGPT
“Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”. se puede leer en el texto.
Este no es el primer documento que advierte sobre los riesgos que conlleva seguir con el desarrollo de nuevos algoritmos .En marzo de este año, diversos empresarios firmaron una misiva en la que se pidió dejar de producir IA por el bien de los humanos.
La primera carta contó con la firma de Elon Musk, uno de los líderes que más apoya la creación de nuevas tecnologías que permitan el desarrollo de la humanidad. No obstante, en esta ocasión no participó.
Elon Musk encabeza una lista de 1,000 empresarios que piden frenar pruebas de IA
Muchos opinan que la verdadera razón detrás de su falta de interés en este nuevo intento por alertar al mundo de los peligros de la IA es porque durante abril anunció que creará una nueva compañía para hacerle frente a proyectos como Dall-e, su nuevo proyecto “X.AI”.
Sin embargo, en esta ocasión el documento quedó respaldado por Sam Altman, CEO de OpenAI, la organización que se encargó de desarrollar ChatGPT.
Si quieres saber más sobre la razones por las que los líderes tienen razón en clasificar a la IA como un peligro potencial que puede llevar a la humanidad al punto de la extinción, continúa leyendo.