Nuestros sitios
Ver edición digital Suscríbete al NEWSLETTER
Compartir

Ética de la IA en Unilever: De la política al proceso

Thomas H. Davenport y Randy Bean 19 Feb 2024
Ética de la IA en Unilever: De la política al proceso (Carolyn Geason-Beissel / MIT SMR | Getty Images)

Crear una política sobre el uso ético de la IA no es tarea fácil, sin embargo, existen empresas que lo han logrado, una de ellas es Unilever.


En la actualidad, muchas grandes empresas han determinado que la Inteligencia Artificial (IA) es importante para su futuro y están creando aplicaciones de IA en diversas partes de sus negocios.

La mayoría también es consciente de que la IA tiene una dimensión ética y de que necesitan garantizar que los sistemas de IA que construyen o implementan son transparentes, imparciales y justos.

Hasta ahora, muchas empresas que persiguen una IA ética están todavía en las primeras fases de abordarla. Puede que hayan exhortado a sus empleados a adoptar un enfoque ético en el desarrollo y uso de la Inteligencia Artificial. O que hayan redactado un conjunto preliminar de políticas de gobernanza de la IA.

La mayoría no ha hecho ni siquiera eso; en una encuesta reciente, el 73 por ciento de los altos directivos estadounidenses afirmaron creer que las directrices éticas de la IA son importantes. Pero sólo el 6 por ciento las había desarrollado.

Derechos de autor e IA, ¿cómo unir ambos mundos de forma ética en la nueva era de los negocios?

Las 5 etapas en el proceso de la ética de la IA

Vemos cinco etapas en el proceso de ética de la IA:

  1. Evangelización: Cuando los representantes de la empresa hablan de la importancia de la ética de la IA. Desarrollo de políticas, donde la empresa delibera y luego aprueba políticas corporativas en torno a enfoques éticos de la IA
  2. Registro. Donde la empresa recopila datos sobre cada caso de uso o aplicación de IA (utilizando enfoques como tarjetas modelo)
  3. Revisión, en la que la empresa realiza un análisis sistemático de cada caso de uso (o lo subcontrata a una empresa asociada). Esto para determinar si el caso cumple los criterios de la empresa en materia de ética de la IA
  4. Acción, en la que la empresa acepta el caso de uso tal cual, lo devuelve al propietario proponente para su revisión o lo rechaza

Sólo en las fases superiores (revisión y actuación) puede una empresa determinar realmente si sus aplicaciones de IA cumplen las normas de transparencia, parcialidad e imparcialidad que ha establecido.

Para poner en marcha esas etapas, tiene que contar con un número considerable de proyectos, procesos y sistemas de IA para recopilar información, junto con estructuras de gobernanza para tomar decisiones sobre aplicaciones específicas.

Muchas empresas aún no cuentan con esas condiciones previas, pero serán necesarias a medida que las empresas muestren una mayor madurez y énfasis en la IA.

Las primeras políticas de Unilever

Unilever, la empresa británica de bienes de consumo envasados cuyas marcas incluyen Dove, Seventh Generation y Ben & Jerry’s, lleva mucho tiempo centrándose en la responsabilidad social corporativa y la sostenibilidad medioambiental.

Más recientemente, la empresa ha adoptado la IA como medio para mejorar drásticamente las operaciones y la toma de decisiones en toda su huella global.

El Enterprise Data Executive de Unilever, un comité de gobernanza, reconoció que la empresa podía basarse en sus sólidos controles de privacidad, seguridad y gobernanza integrando el uso responsable y ético de la IA en las estrategias de datos de la empresa.

El objetivo era aprovechar la innovación digital impulsada por la IA para maximizar las capacidades de la empresa y promover una sociedad más justa y equitativa.

Se creó un equipo multifuncional y se le encargó explorar lo que esto significaba en la práctica y crear un programa de acción para hacer operativo el objetivo.

¿Qué hace Unilever actualmente con la IA?

En la actualidad, Unilever ha puesto en práctica las cinco etapas descritas anteriormente, pero, mirando hacia atrás, su primer paso fue crear un conjunto de políticas.

Una de ellas, por ejemplo, especificaba que cualquier decisión que tuviera un impacto significativo en la vida de una persona no debía automatizarse por completo. En lugar, debía ser tomada en última instancia por un ser humano. Otros principios específicos de la IA que se adoptaron incluyen los edictos

“Nunca culparemos al sistema; debe haber un responsable de Unilever y haremos todo lo posible por supervisar sistemáticamente los modelos y el rendimiento de nuestra IA para garantizar que mantiene su eficacia”.

Los miembros del Comité se dieron cuenta rápidamente de que la creación de políticas generales por sí sola no bastaría para garantizar el desarrollo responsable de la IA.

¿Cómo generar confianza en la adopción de la IA?

Para generar confianza en la adopción de la IA y liberar realmente todo su potencial, necesitaban desarrollar un sólido ecosistema de herramientas, servicios y Recursos Humanos para garantizar que los sistemas de IA funcionaran como se suponía que debían hacerlo.

Los miembros del Comité también sabían que muchos de los sistemas de IA y análisis de Unilever se desarrollaban en colaboración con proveedores externos de software y servicios.

Las agencias de publicidad de la empresa, por ejemplo, empleaban a menudo software de compra programática que utilizaba IA para decidir qué anuncios digitales colocar en sitios web y móviles.

El equipo llegó a la conclusión de que su enfoque de la ética de la IA debía incluir la atención a las capacidades de origen externo.

Desarrollo de un sólido proceso de garantía de la IA

Al principio del uso de la IA por parte de Unilever, los responsables de datos de la empresa se dieron cuenta de que algunos de los problemas no tenían que ver con la ética, Más bien era con sistemas ineficaces en las tareas que debían realizar.

Giles Pavey, director global de ciencia de datos de Unilever, que era el principal responsable de la ética de la IA, sabía que se trataba de un componente importante de un caso de uso de IA.

“Un sistema para prever el flujo de caja, por ejemplo, podría no implicar ningún riesgo de imparcialidad o sesgo, pero podría tener algún riesgo de no ser eficaz”, dijo.

“Decidimos que el riesgo de eficacia debía incluirse junto con los riesgos éticos que evaluamos”. La empresa empezó a utilizar el término garantía de IA para englobar ampliamente su visión general de la eficacia y la ética de una herramienta.

Derechos post mortem: El dilema ético que conlleva el uso de la IA en temas legales

El papel de los colaboradores de Unilever

Cuando se planifica una nueva solución de IA, el empleado o proveedor de Unilever propone el caso de uso y el método esbozados antes de desarrollarla. Esto se revisa internamente, y los casos más complejos son evaluados manualmente por expertos externos.

A continuación, se informa al proponente de los posibles riesgos éticos y de eficacia y de las medidas paliativas que deben tenerse en cuenta. Una vez desarrollada la aplicación de IA, Unilever, o la parte externa, realiza pruebas estadísticas para determinar si existe un sesgo o un problema de imparcialidad y podría examinar la eficacia del sistema para lograr sus objetivos.

Con el tiempo, esperamos que la mayoría de los casos puedan evaluarse de forma totalmente automática a partir de la información sobre el proyecto facilitada por el proponente del mismo.

La idea básica del proceso de cumplimiento de la garantía de IA de Unilever es examinar cada nueva aplicación de IA para determinar su riesgo intrínseco. Tanto en términos de eficacia como de ética.

La empresa ya contaba con un enfoque bien definido en materia de seguridad de la información y privacidad de los datos, y el objetivo era emplear un enfoque similar que garantizara que ninguna aplicación de IA se pusiera en producción sin haber sido revisada y aprobada previamente.

Integrar el proceso de cumplimiento en las áreas de cumplimiento que Unilever ya tenía en marcha. Por ejemplo, la evaluación del riesgo para la privacidad, la seguridad de la información y las políticas de adquisición, sería la última señal de éxito.

White paper de los procesos adoptados por Unilever

Debbie Cartledge, que asumió el papel de responsable de la estrategia de ética de los datos y la IA en la empresa, explicó el proceso que adoptó el equipo:

Cuando se planifica una nueva solución de IA, el empleado o proveedor de Unilever propone el caso de uso y el método esbozados antes de desarrollarla.

Esto se revisa internamente, y los casos más complejos son evaluados manualmente por expertos externos. A continuación, se informa al proponente de los posibles riesgos éticos y de eficacia y de las medidas paliativas que deben tenerse en cuenta.

Una vez desarrollada la aplicación de IA, Unilever, o la parte externa, realiza pruebas estadísticas para determinar si existe un sesgo o un problema de imparcialidad y podría examinar la eficacia del sistema para lograr sus objetivos.

Con el tiempo, esperamos que la mayoría de los casos puedan evaluarse de forma totalmente automática a partir de la información sobre el proyecto facilitada por el proponente del mismo.

Las normativas locales respecto al uso de la IA

Dependiendo del lugar de la empresa en el que se vaya a emplear el sistema, también puede haber normativas locales que el sistema deba cumplir.

En la actualidad, por ejemplo, toda la comprobación de currículos la realizan revisores humanos. Si la comprobación de currículos estuviera totalmente automatizada, la revisión podría llegar a la conclusión de que el sistema necesita un humano para tomar las decisiones finales sobre si se debe pasar a un candidato a una entrevista.

Si existen riesgos graves que no pueden mitigarse, el proceso de garantía de la IA rechazará la solicitud alegando que los valores de Unilever lo prohíben.

Las decisiones finales sobre los casos de uso de la IA las toma una junta ejecutiva de alto nivel, que incluye a representantes de los departamentos jurídico, de Recursos Humanos y de datos y tecnología.

He aquí un ejemplo: La empresa tiene zonas en grandes almacenes donde vende sus marcas de cosméticos. Se desarrolló un proyecto para utilizar IA de visión por ordenador para registrar automáticamente la asistencia de los agentes de ventas a través de selfies diarios.

Esto con el objetivo extensivo de examinar la idoneidad de la apariencia de los agentes. Debido al proceso de garantía de la IA, el equipo del proyecto amplió su reflexión más allá de la normativa, la legalidad y la eficacia para considerar también las posibles implicaciones de un sistema totalmente automatizado.

Identificaron la necesidad de supervisión humana para comprobar las fotos marcadas como no conformes y asumir la responsabilidad de las acciones consiguientes.

Trabajar con un socio externo, Holistic IA

El socio externo de Unilever en el proceso de aseguramiento de la IA es Holistic AI, una empresa con sede en Londres. Los fundadores Emre Kazim y Adriano Koshiyama han trabajado con los equipos de IA de Unilever desde 2020, y Holistic AI se convirtió en un socio formal para la evaluación de riesgos de IA en 2021.

Holistic AI ha creado una plataforma para gestionar el proceso de revisión del aseguramiento de la IA. En este contexto, “IA” es una categoría amplia que abarca cualquier tipo de predicción o automatización. Incluso una hoja de cálculo de Excel utilizada para puntuar a los candidatos de RRHH se incluiría en el proceso.

El equipo de ética de datos de Unilever utiliza la plataforma para revisar el estado de los proyectos de IA y puede ver qué nuevos casos de uso se han presentado; si la información está completa. Y qué evaluación de nivel de riesgo han recibido, con código rojo, amarillo (denominado “ámbar” en el Reino Unido) o verde.

10 puntos para entender la ley que pretende regular la IA en Europa

El triage también es necesario para someter a la IA a un análisis

El estado del semáforo se evalúa en tres momentos: en la fase de triaje, tras un análisis más detallado y tras la mitigación y garantía finales. En este punto final, las calificaciones tienen las siguientes interpretaciones. Una calificación roja significa que el sistema de IA no cumple las normas de Unilever y no debe implantarse; amarilla significa que el sistema de IA tiene algunos riesgos aceptables y que el propietario de la empresa es responsable de conocerlos y asumirlos.

Verde significa que el sistema de IA no añade riesgos al proceso. Hasta ahora, sólo unos pocos de los cientos de casos de uso de Unilever han recibido la calificación roja, entre ellos el de los cosméticos descrito anteriormente. Todos los solicitantes pudieron resolver los problemas de sus casos de uso y pasar a la calificación amarilla.

Para los responsables de proyectos de IA, la plataforma es el lugar donde empezar el proceso de revisión. Envían un caso de uso propuesto con detalles, incluido su propósito, el caso de negocio, la propiedad del proyecto dentro de Unilever, la composición del equipo, los datos utilizados, el tipo de tecnología de IA empleada, si está siendo desarrollada internamente o por un proveedor externo, el grado de autonomía, etc.

La plataforma utiliza la información para puntuar los casos de uso y la información para puntuar la aplicación en función de su riesgo potencial. Los ámbitos de riesgo incluyen la explicabilidad, la solidez, la eficacia, el sesgo y la privacidad.

Ética contra los sesgos, una pareja esencial

Los algoritmos de aprendizaje automático se analizan automáticamente para determinar si están sesgados contra algún grupo en particular.

Un porcentaje cada vez mayor de las evaluaciones de la plataforma de IA holística se basa en la propuesta de Ley de IA de la Unión Europea, que también clasifica los casos de uso de la IA en tres categorías de riesgo (inaceptable, alto y no lo suficientemente alto como para ser regulado).

La ley se está negociando entre los países de la UE y se espera llegar a un acuerdo a finales de 2023. Kazim y Koshiyama afirman que, aunque la ley se aplicará únicamente a las empresas europeas, es probable que Unilever y otras compañías la adopten a escala mundial, como ya han hecho con el Reglamento General de Protección de Datos de la UE.

Aún estamos en las primeras fases para garantizar que las empresas adopten enfoques éticos de la IA, pero eso no significa que baste con emitir pronunciamientos y políticas sin dientes.

Si la IA es ética o no se determinará caso por caso. El proceso de garantía de la IA de Unilever, y su asociación con Holistic AI para evaluar cada caso de uso sobre su nivel de riesgo ético, es la única forma actual de garantizar que los sistemas de IA estén alineados con los intereses y el bienestar humanos.


SOBRE LOS AUTORES

Thomas H. Davenport (@tdav) es Catedrático Distinguido del Presidente de Tecnología y Gestión de la Información en el Babson College, profesor visitante en la Saïd Business School de Oxford y miembro de la Iniciativa del MIT sobre la Economía Digital. Es coautor de Working With AI: Real Stories of Human-Machine Collaboration (MIT Press, 2022). Randy Bean (@randybeannvp) es un líder de opinión, autor, fundador y consejero delegado del sector, y en la actualidad es responsable de innovación, estrategia de datos, en la consultora global Wavestone. Es autor de Fail Fast, Learn Faster: Lessons in Data-Driven Leadership in an Age of Disruption, Big Data, and AI (Wiley, 2021).

Síguenos en Google News
Te recomendamos
Foto perfil de Thomas H. Davenport y Randy Bean
Thomas H. Davenport y Randy Bean Thomas H. Davenport (@tdav) es Catedrático Distinguido del Presidente de Tecnología y Gestión de la Información en el Babson College, profesor visitante en la Saïd Business School de Oxford y miembro de la Iniciativa del MIT sobre la Economía Digital. Es coautor de Working With AI: Real Stories of Human-Machine Collaboration (MIT Press, 2022). Randy Bean (@randybeannvp) es un líder de opinión, autor, fundador y consejero delegado del sector, y en la actualidad es responsable de innovación, estrategia de datos, en la consultora global Wavestone. Es autor de Fail Fast, Learn Faster: Lessons in Data-Driven Leadership in an Age of Disruption, Big Data, and AI (Wiley, 2021).
Descarga GRATIS nuestro especial
descargable
Descarga AQUÍ el artículo completo Especial Foro MIT 2024. ¡Descárgalo GRATIS!
Suscríbete al Newsletter
¡SUSCRÍBETE!
LEE MÁS CONTENIDO
¿QUÉ TEMA TE INTERESA?