El extraño caso de la Inteligencia Artificial: Beneficios y riesgos inminentes
Para mitigar los riesgos de la IA, los líderes deben involucrar a toda la organización desde la C-suite, las áreas que van de lo legal y de riesgo hasta la TI.
La inteligencia artificial también posee en sí misma un Doctor Jekyll y un Mister Hyde. Es dicotomía pura. La doble personalidad de esta herramienta puede sintetizarse así: Con un gran poder viene una gran responsabilidad.
Pero a diferencia del poder incontrolable que aparece con el sector sorpresa o lo inusitado, las organizaciones pueden mitigar los riesgos de aplicar inteligencia artificial y análisis avanzados adoptando tres principios: develación de riesgos potenciales, implementación de controles y adecuaciones continuas de acciones que minimicen los riesgos.
Cómo la Inteligencia Artificial está mejorando la gestión de datos
En la parte luminosa destaca el mejorar nuestras vidas de innumerables maneras, desde simplificar nuestras compras hasta mejorar nuestras experiencias de atención médica.
Su valor para las empresas también es innegable: casi el 80 por ciento de los ejecutivos de las empresas que implementan IA ya ven un valor moderado de ella. El potencial es enorme. Para 2030, la IA podría generar una producción económica mundial adicional de 13 billones de dólares por año.
A la par, la IA presenta consecuencias no deseadas y, a veces, graves como las violaciones de privacidad, discriminación, accidentes y manipulación de sistemas políticos.
Sin embargo, son más preocupantes las consecuencias aún no conocidas o experimentadas como las posibles pérdida de vidas humanas, si un algoritmo médico de IA sale mal, o el compromiso de la seguridad nacional si un adversario alimenta la desinformación a un sistema militar de IA.
En suma: existen desafíos significativos para las organizaciones, desde daños a la reputación y pérdidas de ingresos hasta reacciones regulatorias, investigación criminal y disminución de la confianza pública.
Ahora, debido a que la IA es una fuerza relativamente nueva en los negocios, pocos líderes tienen la oportunidad de perfeccionar su intuición sobre el alcance completo de los riesgos sociales, organizacionales e individuales, o de desarrollar un conocimiento práctico de sus impulsores asociados, que van desde los datos introducidos en los sistemas de IA hasta el funcionamiento de modelos algorítmicos y las interacciones entre humanos y máquinas.
Como resultado, los ejecutivos a menudo pasan por alto los peligros potenciales o sobreestiman las capacidades de mitigación de riesgos de una organización. También es común que los líderes deleguen los riesgos de IA a su departamento de tecnología.
Sin embargo, para mitigar los riesgos de la IA los líderes deben involucrar a toda la organización. Para lograr un progreso real, se exige un enfoque multidisciplinario que involucre a los líderes en la C-suite y en toda la empresa; expertos en áreas que van desde legal y de riesgo hasta TI, seguridad y análisis y gerentes que puedan garantizar la vigilancia en las líneas del frente.
OpenAI, creador de ChatGPT, te ofrece trabajo y estas son sus vacantes
Vale remarcar que la mala aplicación de IA, sea inadvertida o intencional, o del mal manejo de las entradas de datos que las alimentan, no es lo único que puede fallar.
Hay otras consecuencias importantes, como la potencial pérdidas generalizadas de empleos por la automatización del lugar de trabajo impulsada por la IA o la atrofia de las habilidades a medida que los sistemas de IA crecen en importancia. Estas consecuencias incrementarán la atención a medida que crezcan en importancia percibida.
El peso de Mister Hyde parece mayor en la IA porque seducidos por sus virtudes pasaron desapercibidos los potenciales errores.
Así, cuando algo sale mal con la IA, parece inimaginable que nadie anticipara cuando se mira en retrospectiva.
La previsión implica comprender mejor los tipos de riesgos que se asumen, sus interdependencias y causas subyacentes. En general existen cinco puntos de riesgo inminente en la IA: dificultades de datos, problemas tecnológicos y de seguridad, los vinculados con los algoritmos y las interacciones hombre-máquina.
Veamos cada uno de ellos:
Dificultades de datos. Ingerir, clasificar, vincular y usar correctamente los datos es cada vez más difícil a medida que aumenta la cantidad de datos no estructurados que se ingieren de fuentes como la web, las redes sociales, los dispositivos móviles, los sensores y el Internet de las cosas. Como resultado, es fácil caer presa de trampas como usar o revelar inadvertidamente información confidencial oculta entre datos anónimos.
Problemas tecnológicos. Los problemas de tecnología y procesos en todo el panorama operativo pueden afectar negativamente el rendimiento de los sistemas de IA.
Inconvenientes de seguridad. Otro problema emergente es la posibilidad de que los estafadores exploten datos de marketing, salud y financieros aparentemente no sensibles que las empresas recopilan para alimentar los sistemas de IA.
Sesgos algorítmicos. Si no se configuran adecuadamente, los algoritmos de aprendizaje de la IA pueden acabar reproduciendo sesgos propios de los humanos. Es decir, que los algoritmos pueden acabar siendo racistas, discriminado por poder adquisitivo o reforzando cualquier patrón existente de discriminación. Esto supone un riesgo para las compañías que se guían por algoritmos de IA para la toma de decisiones estratégicas.
Einstein GPT: Dile hola a la nueva IA enfocada en atención a clientes
Problemas de interacción. La interfaz entre las personas y las máquinas es otra área de riesgo clave. Uno de los ejemplos más claros se da en el transporte automatizado, la fabricación y los sistemas de infraestructura.
Detrás de escena, en la organización de análisis de datos, los errores de scripting, las fallas en la administración de datos y los errores de juicio en los datos de entrenamiento de modelos pueden comprometer fácilmente la equidad, la privacidad, la seguridad y el cumplimiento.
Sin salvaguardas rigurosas, los empleados descontentos o los enemigos externos pueden corromper algoritmos o usar una aplicación de IA de manera malintencionada.
La reconversión de la maldad
¿Qué pasaría si se detecta a tiempo a Mister Hyde y su conducta inapropiada? Probablemente se descalapelaría su falsa identidad y prevalecerían las buenas maneras y el decoro. En el caso de la IA, existen tres principios básicos para gestionar los riesgos y atraparlos antes de que lo alcancen.
Paso 1: Identificar los riesgos más críticos
Es recomendable una mirada clara a los riesgos existentes de la compañía y cómo podrían verse exacerbados por la IA. Este proceso permite claridad sobre los escenarios más preocupantes, lo que les permitió priorizar los riesgos.
Paso 2: Instituir controles en toda la empresa
Es crucial la aplicación de controles en toda la empresa para guiar el desarrollo y el uso de sistemas de IA, garantizar una supervisión adecuada y establecer políticas, procedimientos, capacitación de los trabajadores y planes de contingencia sólidos.
Paso 3: Monitorear los análisis impulsados por IA
Implica revisar regularmente el programa para mantenerse al tanto de los nuevos riesgos que podrían surgir por cambios regulatorios, en la industria, interpretaciones legales, expectativas cambiantes de los consumidores y tecnología que se modifica de manera continua.
La inteligencia artificial responsable permite el tipo de innovación que importa
Paso 4: Reforzar controles específicos
Por importantes que sean los controles en toda la empresa, rara vez son suficientes para contrarrestar todos los riesgos posibles. A menudo se necesita otro nivel de rigor y matices, y los controles necesarios dependerán de factores como la complejidad de los algoritmos, sus requisitos de datos, la naturaleza de la interacción entre humanos o máquina con máquina, el potencial de explotación por parte de malos actores y la medida en que la IA está integrada en un proceso comercial.
Paso 5: Adecuación continua
Todavía queda mucho por aprender sobre los riesgos potenciales que enfrentan las organizaciones, los individuos y la sociedad cuando se trata de IA; sobre el equilibrio adecuado entre innovación y riesgo y la puesta en marcha de controles para gestionar lo inimaginable. Hasta ahora, la opinión pública y la reacción regulatoria son relativamente moderadas.
A medida que aumenten los costos de los riesgos asociados con la IA, la capacidad tanto para evaluar esos riesgos como para involucrar a los trabajadores en todos los niveles en la definición e implementación de controles se convertirá en una nueva fuente de ventaja competitiva. Como toda tecnología, la IA representa una dualidad susceptible de manejarse y permitirnos una fase más útil y luminosa con impactos positivos en la productividad.
CONTACTO
LinkedIn: Ivette Estrada