La gente de color sigue siendo una minoría en áreas científicas y tecnológicas, lo que ha provocado cierta exclusión en sistemas con IA.
Por Ayanna Howard
En junio de 2020 estalló una crisis en el mundo de la Inteligencia Artificial (IA). Las discusiones en Twitter comenzaron cuando herramienta para crear retratos realistas y de alta resolución, a partir de fotos pixeladas, dejara ver su sesgo racial.
Esta controversia surgió al convertir una foto (pixelada pero reconocible) de Barack Obama en una foto de un hombre blanco en HD. Así que la gente no tardó en publicar imágenes de otros famosos negros, asiáticos e indios. Así como otras personas de color que la aplicación volvió blancos.
La discusión llegó a niveles muy intensos. Dos reconocidos investigadores corporativos del ramo: el científico de IA en jefe de Facebook, Yann LeCun, y el codirector de ética de IA de Google, Timnit Gebru, expresaron opiniones muy divergentes sobre cómo interpretar el error de esta herramienta.
Durante días, hubo un acalorado debate. Éste dividió al campo en dos posturas: algunos sostenían que el sesgo en los resultados se debía a datos incorrectos o incompleto en el algoritmo. Otros argumentaban que su origen estaba en las malas decisiones (es decir, decisiones sin visión) del algoritmo en sí, como los datos que debía considerar.
Los prejuicios han plagado el campo de la IA durante años. Así que el hecho de que una herramienta transformara personas negras en blancas era del todo inesperada.
Sin embargo, el debate dejó en evidencia que no todos los investigadores de IA habían reconocido que existían cuestiones sobre la diversidad que se deben atender. Esto afectará profundamente a cualquier organización que se desplace por este ámbito.
Hay una pregunta entre muchas organizaciones: ¿por qué a nadie se le ocurrió probar el software con personas de color en un inicio?
Diríamos que este es un caso de invisibilidad. A veces las personas de color estamos presentes y no nos ven; otras no estamos, pero nuestra ausencia no se nota. En el caso antes descrito, sucedió esto último.
En parte, el problema es que hay relativamente pocas personas de color trabajando en IA. Para algunas de las principales empresas de tecnología, las cifras son bastante desalentadoras. Los trabajadores negros representan solo el 2.5% de toda la fuerza laboral en Google, y el 4% en Facebook y Microsoft.
Las diferencias de género también son evidentes. A nivel mundial, solo el 22% de los profesionales de IA son mujeres, mientras que el 78% son hombres. (Los cálculos son simples, pero vale la pena exponerlos abiertamente).
También hay una escasez de diversidad en el profesorado. Esto resulta preocupante, porque las universidades son las principales organizaciones donde se capacita a los profesionales del ramo.
Al tener en cuenta el protagonismo de la IA en los procesos comerciales de las empresas, en el desarrollo de sus productos y en los productos mismos, la falta de diversidad y la invisibilidad de las personas de color se convertirán en una crisis de problemas acumulados. Eso siempre y cuando si no se atiendan pronto.
Ya hemos visto compañías que retiran su dinero de publicidad en Facebook debido a su mal manejo del discurso de odio. También hemos visto empresas que suspenden la venta de software de reconocimiento facial, el cual desde hace tiempo ha sido identificado por reflejar prejuicios raciales y de género.
Francamente, estamos en un momento en que la crisis de la pandemia y la apresurada adaptación de la IA para rastrear la propagación de COVID-19 brindan una oportunidad única para insertar una transformación real en el mundo de la IA.
Esto implicaría cambiar los prejuicios inherentes y causados por la falta de representación profesional de mujeres y personas de color, así como de otros grupos que suelen ser marginados en el campo.
Cuando se pretende abordar los prejuicios generales de la IA, podemos aprender de algunos enfoques específicos adoptados por sus propios desarrolladores. A continuación, presentamos tres puntos a tomar en cuenta:
1. Reconocer que las diferencias importan. En el aprendizaje automático no sólo basta con introducir datos diversos en un sistema. Más bien, un sistema de IA también debe de estar diseñado para que no ignore los datos que le parecen anómalos por ser pocos.
Así como las diferencias en los datos son importantes, también lo son las diferencias dentro de la fuerza laboral. El método de la IA para tomar en cuenta datos diversos es parecido al reconocimiento personal de que existe una diferencia entre igualdad y equidad en los trabajadores.
La igualdad significa proporcionar a todos los mismos recursos dentro de un proceso establecido, pero la equidad demanda prestar atención a lo que sucede a lo largo de ese proceso, lo cual también implica examinar la equidad del proceso en sí mismo.
Las organizaciones deben estar atentas para incorporar diversas voces, no solo cuando reclutan nuevo personal, sino también cuando están elaborando estrategias en torno a la retención y el desarrollo de talentos. Las compañías deben conservar esas voces y no solo ignorarlas porque sean poco numerosas.
2. Reconocer que la diversidad en el liderazgo es importante. En la IA y el aprendizaje automático, los métodos de conjunto, o sea, los sistemas de aprendizaje que combinan diferentes tipos de funciones, cada uno con sus propios sesgos, se identifican por tener un mejor rendimiento que los métodos completamente homogéneos.
Estos sistemas de aprendizaje son líderes en la optimización de resultados y son diversos de origen. En paralelo, para las organizaciones que quieren enfrentar la falta de voces negras y femeninas deben reconocer que contar con un
liderazgo diverso también desencadena la diversidad sobre cómo se entienden los problemas y cómo se desarrollan los talentos. Por ejemplo, aun después de la desegregación en las escuelas de Estados Unidos, luego del caso Brown contra la Junta de Educación en 1954, EE.UU. vio un descenso significativo de la diversidad entre los maestros.
Es evidente que existe una relación directa entre esa reducción de guardianes educadores diversos, y la disminución de recomendaciones de estudiantes negros para programas de superdotados y talentosos. Cuando se trata de visibilidad e invisibilidad, lo que más importa es quiénes son los líderes y guardianes.
3. Reconocer que es necesario hacerse responsables. En IA y aprendizaje automático, una máquina aprende mediante una función de pérdida, un método para evaluar qué tan bien modela los datos un algoritmo de búsqueda.
Si las predicciones se desvían demasiado de los resultados reales, una función de pérdida castiga al sistema de aprendizaje. Eso ocurre, porque sin un incentivo claro que le permita a un sistema saber cómo se está desempeñando, no hay forma de saber cómo lo hace. Esta es la esencia de la responsabilidad en la IA.
Asumir la responsabilidad es importante cuando las empresas pretenden resolver los problemas de marginación representativa, sobre todo porque saben desde hace mucho que la diversidad étnica y de género influye en los resultados.
Informe tras informe se demuestra que las empresas rezagadas, en cuestión de diversidad étnica y de género entre su fuerza de trabajo, equipos de gestión, ejecutivos y salas de juntas, tienen menos probabilidades de lograr una rentabilidad superior a la media.
Es fácil encontrar la relación entre este fenómeno y un famoso dicho de la comunidad de IA y computación: “Basura entra, basura sale”. Esto es que, si el liderazgo y la fuerza laboral de una organización no reflejan la gama diversa de clientes a los que atiende, eventualmente observarán que sus resultados son deficientes.
Debido a que los algoritmos de aprendizaje son parte de sistemas más grandes, compuestos por otras tecnologías y por la gente que los crea e implementa, los prejuicios pueden infiltrarse en cualquier parte del proceso.
Si la diversidad dentro de una organización es baja en algún momento, la empresa queda expuesta a los sesgos. Incluidos aquello que son tan profundos y públicos como para dividir a los clientes y, finalmente, llevar el servicio o producto a la obsolescencia y al fracaso. Algunos clientes permanecerán, pero otros sin duda se irán.
A pesar de que muchas empresas afirman que han intentado resolver esta crisis de diversidad, el marcador apenas se ha movido. Desde 2014, cuando las grandes compañías tecnológicas comenzaron a publicar informes anuales sobre este tema, pocas han avanzado en términos de diversidad étnica y algunas han logrado pequeños cambios en la diversidad de género.
Las empresas de tecnología se han concentrado en problemas y soluciones puntuales. En otras palabras, apagan incendios, pero no eliminan los factores de combustión; es decir, las causas fundamentales.
No se puede simplemente aplicar un vendaje a una herida que sangra, cuando en realidad se necesita un torniquete. Las organizaciones, y quienes realmente desean liderar en esta área, deben dejar de enfocarse en una sola situación, producto o controversia. El problema es generalizado y sistémico y, por tanto, exige soluciones creativas y una verdadera responsabilidad.
Ayanna Howard (@robotsmarts) es profesora Linda J. y Mark C. Smith y presidenta de la Escuela de Computación Interactiva de la Facultad de Computación de Georgia Tech. También se desempeña como directora del Laboratorio de Sistemas de Automatización Humana en la Escuela de Ingeniería Eléctrica e Informática.CHARLES ISBELL (@isbellhfh) es el decano y presidente John P. Imlay Jr. de la Facultad de Computación de Georgia Tech.