Nuestros sitios
Ver edición digital Título de la edición actual
Compartir

IA para promover la diversidad

La Inteligencia Artificial puede ayudarnos a superar los prejuicios en lugar de perpetuarlos, con la guía de los humanos que diseñan, entrenan y refinan sus sistemas.


Mit Sloan 27 Ene 2021
IA para promover la diversidad

Por Paul R. Daugherty, H. James Wilson y Rumman Chowdhury 

Se ha generado una mala reputación en torno a la IA de manera injustificada. Las peores historias, o buena parte de ellas, suceden por los prejuicios raciales o de género en aplicaciones de reconocimiento facial o en la evaluación de personas para trabajos, préstamos u otras consideraciones.1 Un programa recomendaba sistemáticamente sentencias de prisión más largas para los reos negros que para los blancos, basado en el sesgo por los datos de reincidencia.2 

¿Y si en lugar de perpetuar los prejuicios dañinos, la IA nos ayudara a superarlos y a tomar decisiones más justas? Con el tiempo, esto podría generar un mundo más diverso e inclusivo. ¿Qué pasaría si, por ejemplo, las máquinas pudieran ayudar a las organizaciones a reconocer a todos los candidatos dignos de un empleo, evitando los prejuicios habituales que rechazan personas que no se parecen o suenan como los que están en el poder, o que no tienen las instituciones “adecuadas” en su lista de currículos?  

¿Qué pasaría si los programas de software pudieran dar cuenta de las desigualdades que han limitado el acceso de las minorías a hipotecas y otros préstamos? En otras palabras, ¿qué pasaría si a nuestros sistemas se les enseñara a ignorar datos sobre raza, género, orientación sexual y otras características que no son relevantes para las decisiones en cuestión? 

La Inteligencia Artificial puede hacer todo esto, con la orientación de los expertos que crean, capacitan y refinan sus sistemas. En específico, las personas que trabajan en tecnología deben trabajar mejor para dar cabida a la inclusión y la diversidad en el diseño de IA, mediante el uso de datos adecuados, deberían tener en mente los roles de género y la diversidad cuando desarrollen bots y otras aplicaciones que interactúan con el público. 

Diseños para la inclusión 

El desarrollo de software sigue siendo una competencia entre hombres (sólo una cuarta parte aproximadamente de los informáticos en Estados Unidos son mujeres3) y los grupos raciales minoritarios, incluidos los negros y los hispanos, también están subrepresentados en el trabajo tecnológico.4 Grupos en EE. UU., como Girls Who Code y AI4ALL, se han fundado para ayudar a cerrar estas brechas: Girls Who Code ha llegado a casi 90,000 niñas de diversos orígenes5 y AI4ALL se dirige específicamente a las niñas de comunidades minoritarias.  

Entre otras actividades, AI4ALL patrocina un programa de verano con visitas a los departamentos de IA de universidades como Stanford y Carnegie Mellon para que las participantes puedan desarrollar relaciones con investigadoras, quienes pueden fungir como mentores o modelos a seguir. Por fortuna, el campo de la IA cuenta con varias mujeres prestigiosas, entre ellas Fei-Fei Li (Stanford), Vivienne Ming (Singularity University), Rana el Kaliouby (Affectiva) y Cynthia Breazeal (MIT), quienes podrían ejercer tal papel. 

Estas relaciones no sólo abren oportunidades de desarrollo para las aprendices; también es probable que conviertan a las mentoras en defensoras de la diversidad y la inclusión, una experiencia que podría influir en cómo abordan el diseño de algoritmos. La investigación realizada por los sociólogos Frank Dobbin, de la Universidad de Harvard, y Alexandra Kalev, de la Universidad de Tel Aviv, respalda esta idea: descubrieron que trabajar con aprendices de grupos minoritarios, cambia la perspectiva de gerentes y profesionales que ejercen como tutores, lo cual no suele lograrse con las capacitaciones obligatorias.6 

Otras organizaciones han buscado soluciones a corto plazo para equipos de diseño de IA. LivePerson, una empresa que desarrolla productos de análisis, marketing y mensajería en línea, coloca a su personal de servicio al cliente (una profesión que es 65% femenina en Estados Unidos) junto a sus codificadores (generalmente hombres) durante el proceso de desarrollo con el fin de lograr un mejor equilibrio de perspectivas.7  

Microsoft ha creado un marco para ensamblar equipos de diseño “inclusivos”, el cual podría considerar las necesidades y sensibilidades de innumerables tipos de clientes, como quienes padezcan alguna discapacidad física.8 El proyecto Diverse Voices, en la Universidad de Washington, tiene un objetivo similar: desarrollar tecnología con base en los aportes de múltiples partes interesadas para representar mejor las necesidades de las poblaciones no dominantes. 

Algunas herramientas de Inteligencia Artificial están diseñadas para mitigar los sesgos de contratación. Los editores de texto inteligentes, como Textio, pueden reescribir las descripciones de puestos para atraer a candidatos de grupos que no están bien representados. Con Textio, la empresa de software Atlassian pudo aumentar el porcentaje de mujeres entre sus nuevos reclutas, de un 10% a un 57%. 9  

Las empresas también pueden usar la tecnología para ayudar a identificar sesgos en sus decisiones de contratación anteriores. Las redes neuronales profundas (grupos de algoritmos que emulan la capacidad humana para detectar patrones en los datos) suelen ser muy eficaces para descubrir rastros de sesgos ocultos. Con esta técnica, un servicio basado en IA como Mya puede ayudar a las empresas a analizar sus registros de contratación y ver si han favorecido a candidatos con, por ejemplo, piel clara. 

Programar sistemas con mejores datos 

Construir sistemas de Inteligencia Artificial que combatan los sesgos no es sólo cuestión de tener equipos de diseño más diversos y con mentalidad abierta; también implica capacitar a los programas para que se comporten de manera más inclusiva. Los conjuntos de datos utilizados para programar sistemas de IA contienen sesgos históricos evidentes (por ejemplo, la palabra “mujer” está asociada con “enfermera” más que con “médico”) y si esas asociaciones no se identifican y eliminan, se perpetuarán y reforzarán.10 

Si bien los programas de IA aprenden de los patrones que encuentran en los datos, necesitan orientación humana para asegurarse de que el software no saque conclusiones equivocadas. Esto brinda una importante oportunidad para promover la diversidad y la inclusión.  

Microsoft ha creado el equipo de Equidad, Responsabilidad, Transparencia y Ética en IA, el cual es responsable de descubrir cualquier sesgo que se haya filtrado en los datos utilizados por los sistemas de IA de la empresa. 

Otras veces, los sistemas de Inteligencia Artificial deben perfeccionarse en la representación inclusiva visual. Tomemos, por ejemplo, el hecho de que las aplicaciones comerciales de reconocimiento facial luchan con la precisión cuando se trata de minorías: la tasa de error para identificar a las mujeres de tez oscura es del 35%, en comparación con el 0.8% para los hombres de piel clara. El problema está en la dependencia de datos gratuitos (en donde abundan los rostros blancos) para programar los sistemas.  

En concreto, este error podría corregirse seleccionando un nuevo conjunto de datos, donde se incluya una mejor representación de las minorías, o aplicando mayor peso a los datos de éstas.11 Otro método, propuesto por el investigador de Microsoft, Adam Kalai, y sus colegas, es utilizar diferentes algoritmos para analizar diferentes grupos.  

El algoritmo para determinar qué candidatas serían mejores vendedoras podría ser diferente del algoritmo utilizado para evaluar a los hombres, una especie de discriminación afirmativa digital.12 En esta situación, haber formado parte de un equipo deportivo en la universidad podría convertirse en un predictor más alto para las mujeres que para los hombres que buscan un puesto de ventas determinado en una empresa en particular. 

Que los bots tengan variedad de voces 

Las organizaciones y los desarrolladores de sistemas de IA también deben analizar cómo sus aplicaciones interactúan con los clientes. Para competir en diversos mercados de consumidores, una empresa necesita productos y servicios que puedan hablar con las personas de manera agradable para ellas. 

En los círculos tecnológicos, mucho se ha discutido el porqué; las voces que responden a las llamadas en los centros de atención o aquellas programadas como asistentes personales tipo Alexa de Amazon son mujeres. Los estudios demuestran que tanto hombres como mujeres tienden a preferir una voz femenina como asistente, pues la perciben amable y cariñosa. Esta preferencia puede cambiar según el tema: las voces masculinas, en general, se prefieren para obtener información sobre computadoras, mientras que las voces femeninas para obtener información sobre interacciones.13 

Entonces, ¿estas “asistentes” perpetúan los estereotipos de género? Ciertamente, no ayuda mucho que los bots tengan voces dóciles y serviles. Este tema, apenas comenzó a atenderlo Amazon, con su reciente versión de Alexa: el bot inteligente ha sido reprogramado para que tenga poca paciencia con el acoso y ahora, a preguntas explícitas de índole sexual, responde de manera contundente, como “No voy a responder a eso” o “No sé qué esperas que responda”.14 

Las empresas podrían considerar ofrecer diferentes versiones de sus bots para atraer a una base de clientes diversa. Siri de Apple ya está disponible en voz masculina o femenina y puede hablar con acento británico, indio, irlandés o australiano; también puede hablar en una variedad de idiomas, entre ellos francés, alemán, español, ruso y japonés; aunque la voz predeterminada de Siri suele ser femenina, para árabe, francés, holandés e inglés británico es masculina. 

Así como es importante la voz de los bots de IA, también lo es que estos reconozcan todo tipo de voces. Pero ahora mismo, no sucede así.15 Para programar algoritmos de reconocimiento de voz, las empresas se basan en corpus de voz o bases de datos de clips de audio. Los grupos marginados en la sociedad (de bajos ingresos, rurales, menos educados y hablantes no nativos) tienden a estar subrepresentados en estos conjuntos de datos. Las bases especializadas pueden ayudar a corregir tales deficiencias, pero también tienen sus limitaciones.  

Por ejemplo, el corpus de discursos de Fisher incluye discursos de hablantes no nativos de inglés, pero la cobertura no es uniforme. A pesar de que se incluyen los acentos español e indio, hay relativamente pocos acentos británicos. Baidu, la empresa china de motores de búsqueda, está adoptando un enfoque diferente al tratar de mejorar sus propios algoritmos. Ahora mismo, está en desarrollo un nuevo algoritmo de “habla profunda” que promete manejar diferentes acentos y dialectos. 

A final de cuentas, creemos que la IA ayudará a crear un mundo mejor y más diverso si los humanos que trabajan con la tecnología diseñan, programan y modifican estos sistemas de manera adecuada. El cambio requiere que los altos ejecutivos se comprometan, pues los líderes mismos afirman que la diversidad y la inclusión son objetivos fundamentales, pero también deben cumplirlo con las personas que contratan y los productos que desarrollan. 

Los posibles beneficios son prometedores: acceso a los talentos que tanto se necesitan y la capacidad de atender a una variedad mucho más amplia de consumidores de manera eficaz. 

Acerca de los autores 

Paul R. Daugherty es director de tecnología e innovación en Accenture, puedes seguirlo en TW como @pauldaughH. James Wilson es director administrativo de TI e investigación empresarial en Accenture Research, síguelo en @hjameswilsonRumman Chowdhury es científica de datos y científica social; en Accenture, también es líder mundial de IA por un uso responsable, tuitea como @ruchowdh

Artículo traducido por Elvira Rosales Abundiz, a partir de: https://sloanreview.mit.edu/article/using-artificial-intelligence-to-promote-diversity/ 

Referencias 

1. L. Hardesty, “Study Finds Gender and Skin-Type Bias in Commercial Artificial Intelligence Systems,” MIT News Office, Feb. 11, 2018. 

2. E.T. Israni, “When an Algorithm Helps Send You to Prison,” The New York Times, Oct. 26, 2017. 

3. L. Camera, “Women Can Code — as Long as No One Knows They’re Women,” U.S. News & World Report, Feb. 18, 2016. 

4. M. Muro, A. Berube, and J. Whiton, “Black and Hispanic Underrepresentation in Tech: It’s Time to Change the Equation,” The Brookings Institution, March 28, 2018. 

5. “About Us,” girlswhocode.com. 

6. F. Dobbin and A. Kalev, “Why Diversity Programs Fail,” Harvard Business Review 94, no. 7/8 (July-August 2016). 

7. R. Locascio, “Thousands of Sexist AI Bots Could Be Coming. Here’s How We Can Stop Them,” Fortune, May 10, 2018. 

8. “Inclusive Design,” Microsoft.com. 

9. T. Halloran, “How Atlassian Went From 10% Female Technical Graduates to 57% in Two Years,” Textio, Dec. 12, 2017. 

10. C. DeBrusk, “The Risk of Machine-Learning Bias (and How to Prevent It),” MIT Sloan Management Review, March 26, 2018. 

11. J. Zou and L. Schiebinger, “AI Can Be Sexist and Racist — It’s Time to Make It Fair,” Nature, July 12, 2018. 

12. D. Bass and E. Huet, “Researchers Combat Gender and Racial Bias in Artificial Intelligence,” Bloomberg.com, Dec. 4, 2017. 

13. B. Lovejoy, “Sexism Rules in Voice Assistant Genders, Show Studies, but Siri Stands Out,” 9to5Mac.com, Feb. 22, 2017. 

14. J. Elliot, “Let’s Stop Talking to Sexist Bots: The Future of Voice for Brands,” Fast Company, March 7, 2018. 

15. S. Paul, “Voice Is the Next Big Platform, Unless You Have an Accent,” Wired, March 20, 2017.