En esa ocasión diversos expertos opinaron si las organizaciones aplican correctamente la RAI. Y si no es así, qué deberían de comenzar a hacer.
Por segundo año consecutivo, MIT Sloan Management Review y Boston Consulting Group han reunido a un grupo internacional de expertos en IA. Ellos nos ayudarán a comprender cómo se está implantando la Inteligencia Artificial Responsable (RAI) en las organizaciones de todo el mundo.
Para nuestra última pregunta de este año, pedimos a nuestros panelistas que respondieran a esta provocación. A medida que la comunidad empresarial es más consciente de los riesgos de la IA, las empresas están realizando inversiones adecuadas en RAI.
Aunque sus razones varían, la mayoría de los panelistas reconocen que las inversiones en RAI se están quedando cortas. 11 de 13 se mostraron reacios a aceptar que las inversiones de las organizaciones en RAI son “adecuadas”.
Los panelistas afirmaron en gran medida los hallazgos de nuestra encuesta global 2023 RAI. En ella, menos de la mitad de los encuestados dijeron que creen que su empresa está preparada para realizar inversiones adecuadas en RAI. Este es un desafío de liderazgo apremiante para las empresas que están priorizando la IA y deben gestionar los riesgos relacionados con la IA.
¿Por qué la alta dirección debe empezar a preocuparse por la IA responsable?
La necesidad de ampliar las inversiones en RAI marca un cambio significativo. Ahora que “los riesgos relacionados con la IA son imposibles de ignorar“, observa Linda Leopold, responsable de IA y datos responsables del Grupo H&M.
Mientras que realizar inversiones adecuadas en RAI solía ser una cuestión importante pero no especialmente urgente. Leopold sugiere que los recientes avances en IA generativa y la proliferación de herramientas de terceros han dejado clara la urgencia de tales inversiones.
No hay normas del sector que ofrezcan orientación, así que ¿cómo saber si las inversiones son suficientes?
Además, los ejecutivos racionales pueden tener opiniones diferentes sobre lo que constituye una inversión adecuada. Lo que está claro es que las cuestiones epistémicas no deben ser un obstáculo para la acción. Especialmente cuando los riesgos de la IA suponen amenazas reales para el negocio.
IA responsable y responsabilidad social corporativa: una mezcla difícil de conseguir
Los panelistas ofrecieron varias razones por las que las empresas no están invirtiendo lo suficiente en IA responsable. Varios panelistas sugirieron que el afán de lucro es un factor. Tshilidzi Marwala, rector de la Universidad de las Naciones Unidas, dice que sólo el 20 por ciento de las empresas conscientes de los riesgos de la IA invierten en RAI. El resto están más preocupadas por cómo pueden utilizar la IA para maximizar sus beneficios.
Simon Chesterman, catedrático David Marshall, añade:
“La fiebre del oro en torno a la IA generativa ha provocado una reducción de los equipos de seguridad en las empresas tecnológicas. El miedo a perderse algo está triunfando -en muchas organizaciones, si no en todas- sobre la gestión de riesgos”.
Otra razón que explica la falta de inversión es que un mayor uso de la IA en toda la empresa amplía el alcance de la RAI y aumenta las inversiones.
Como observa Philip Dawson, responsable de políticas de IA en Armilla AI. La inversión en capacidades de IA sigue superando ampliamente la inversión en seguridad. Las empresas se están poniendo al día en una batalla cuesta arriba que cada vez se hace más empinada.
Leopold añade que la IA generativa aumenta el tamaño de la audiencia a la que tienen que llegar los programas RAI.
“La inversión en capacidades de IA sigue superando ampliamente la inversión en seguridad de IA y herramientas para hacer operativa la gestión de riesgos de IA. Las empresas están jugando a ponerse al día en una batalla cuesta arriba que solo se está haciendo más empinada.”
Philip Dawson, Armilla AI
Una tercera razón es que la creciente concienciación sobre los riesgos de la IA no siempre se traduce en evaluaciones precisas de esos riesgos.
Oarabile Mudongo, especialista en políticas del Observatorio Africano de RAI, sugiere que las empresas podrían no estar invirtiendo lo suficiente en sus programas de RAI. Esto es porque “subestiman el alcance de los riesgos de la IA“.
7 pasos para lograr una estrategia de responsabilidad social exitosa
Otros panelistas señalaron que, aunque invertir adecuadamente en RAI es importante, es difícil calibrar si la inversión es suficientemente grande o eficaz.
David R. Hardoon, consejero delegado de Aboitiz Data Innovation, se pregunta:
“¿Cómo pueden considerarse adecuadas las inversiones en RAI de forma amplia y general si no todas las empresas se someten a los mismos niveles de exigencia, aún no nos hemos puesto de acuerdo sobre lo que es “suficiente” o “aceptable” o no disponemos de un mecanismo para verificar a terceros?”.
Triveni Gandhi, responsable de IA en Dataiku, está de acuerdo:
“Entre las empresas que se han tomado el tiempo de invertir en programas de RAI, existe una gran variación en la forma en que estos programas están realmente diseñados e implementados. La falta de expectativas cohesivas o claras sobre cómo implementar u operacionalizar los valores RAI dificulta que las organizaciones comiencen a invertir de manera eficiente”.
“Es difícil determinar hasta qué punto las empresas están realizando inversiones adecuadas en programas de RAI. Ya que existe un gran espectro de concienciación y relevancia”, afirma Giuseppe Manai, cofundador, director de operaciones y científico jefe de Stemly.
Aisha Naseer, directora de investigación de Huawei Technologie, menciona que no es evidente si estas inversiones son adecuadas o suficientes. Ya que van desde lo trivial hasta los enormes fondos que se destinan al control de la IA y la mitigación de riesgos asociados.
Para las organizaciones que deseen invertir adecuadamente en RAI, recomendamos lo siguiente:
Los líderes deben ser conscientes de que el uso de la IA es un arma de doble filo que introduce tanto riesgos como beneficios. Centrarse en inversiones que aumenten los beneficios de la IA sin mirar la gestión de sus riesgos socava la creación de valor de dos maneras.
¿Cómo controlar la IA? Los programas de Inteligencia Artificial Responsable son la solución
Nuestra investigación ha descubierto que la innovación con IA aumenta cuando se aplican prácticas de RAI.
Una conciencia sólida de los riesgos y beneficios de la IA apoya los esfuerzos de liderazgo para gestionar los riesgos y hacer crecer la empresa. La concienciación de la dirección puede adoptar muchas formas, como la formación de directivos, los foros de debate y los programas de RAI que cuenten con una variedad de partes interesadas con distintos tipos de exposición a los riesgos de la IA (y experiencia con ellos).
A medida que aumentan el desarrollo y el uso de la IA, las prácticas y las implementaciones de RAI también deben adaptarse. Esto requiere una inversión continua en RAI para hacer evolucionar continuamente un programa.
Con el panorama normativo preparado de la Unión Europea, Estados Unidos y Asia, los líderes se enfrentarán a una presión creciente. Esperar a invertir en estos sistemas puede socavar el crecimiento del negocio.
Cuando entran en vigor nuevos reglamentos y normas del sector, revisar rápidamente los procesos para cumplir los requisitos de conformidad puede interferir con la innovación relacionada con la IA.
Coevolucionar es la clave para que se complementen mutuamente en lugar de crear esta interferencia innecesaria. A medida que las empresas amplíen sus inversiones en IA, también tendrán que aumentar sus inversiones en RAI. Pero aquellas empresas que ya están rezagadas tendrán que moverse rápidamente e invertir agresivamente en RAI para evitar quedarse siempre atrás.
Invertir en RAI es complejo, y ¿qué aspecto tiene el rendimiento de una inversión de este tipo? Al igual que ocurre con las inversiones en ciberseguridad, el mejor rendimiento de la RAI puede ser el sonido del silencio cuando se descubren problemas relacionados con la IA antes de que dañen la reputación de la marca, generen problemas normativos y aumenten los costes.
Dicho esto, el silencio no debe confundirse con una inversión adecuada. Como muestran los resultados de nuestra encuesta, las empresas que realizan una inversión mínima podrían no encontrar problemas simplemente porque no los están buscando.
Los directivos deben ponerse de acuerdo sobre lo que constituye una inversión en RAI. Las métricas adecuadas para evaluar estas inversiones y quién decidirá los niveles de inversión.
Las métricas que miden el éxito de los programas RAI son necesarias para respaldarlos a lo largo del tiempo, pero pueden ser un indicador rezagado.
Las métricas también deben evaluar dimensiones orientadas al futuro, como el compromiso de los líderes, la adopción del programa, las necesidades de formación y mano de obra, y el cambio cultural.
Los líderes también deben determinar cómo se relaciona la financiación de la RAI con la financiación de los proyectos de IA. ¿Debería cada gran proyecto de IA tener un presupuesto reservado para RAI?
MIT Sloan Management Review y Boston Consulting Group reunieron a un panel internacional expertos para que compartan sus puntos de vista sobre IA responsable. A lo largo de cinco meses, hemos pedido a los panelistas que respondan a una pregunta sobre la IA responsable y expliquen brevemente sus respuestas. Los lectores pueden ver todas las respuestas de los panelistas en el panel en AI for Leaders. Esta es una comunidad de LinkedIn diseñada para fomentar la conversación entre expertos y líderes tecnológicos con ideas afines.
David Kiron es director editorial de MIT Sloan Management Review y coautor del libro Workforce Ecosystems: Reaching Strategic Goals With People, Partners, and Technology (MIT Press, 2023). Steven Mills es director general, socio y jefe de ética de IA en Boston Consulting Group.