Nuestros sitios
Ver edición digital Título de la edición actual
Compartir

IA y RRHH: si rechazas candidatos, diles por qué

La inteligencia artificial explicable y la ética juegan un papel importante en la justa evaluación de los recursos humanos.


Mit Sloan 14 Abr 2021
IA y RRHH: si rechazas candidatos, diles por qué

Tomas Chamorro-Premuzic

Los seres humanos estamos diseñados para crear significados, continuamente buscamos patrones y contamos historias para encontrar un sentido a los acontecimientos de la vida. Este intenso deseo de comprender el mundo va de la mano del auge de la inteligencia artificial en el mundo empresarial. Esperamos que esta herramienta contribuya a encontrar nuevos significados, no sólo para predecir que X lleva a Y en el trabajo, sino también para explicarnos por qué sucede así; es decir, esperamos que la IA sea explicable.

Las definiciones varían, pero en un reciente artículo, mis colegas y yo definimos la IA explicable como “la cualidad de un sistema de proporcionar decisiones o sugerencias que puedan ser entendidas tanto por usuarios como por desarrolladores”. Se trata de una cualidad muy útil para las aplicaciones diseñadas para evaluar personas.

Por ejemplo, la mayoría de los gerentes de contratación no se conforman con saber que un algoritmo seleccionó a una persona o que a alguien “le fue bien” en una entrevista en la que se utilizó IA como motor de puntuación; también quieren saber cómo es que las personas tuvieron un buen desempeño: ¿Hicieron más contacto visual que los demás? ¿Estaban menos nerviosos? ¿Utilizaron más palabras de impacto emocional? Por supuesto, los candidatos también quieren saber esas cosas. De lo contrario, los resultados parecen arbitrarios y uno no puede aprender ni mejorar para su próxima vacante o entrevista.

En los albores de la revolución de la IA, las empresas estaban entusiasmadas con esta nueva ventana al comportamiento del personal: si alguien, por ejemplo, iba al baño más de tres veces al día (es decir, cuando muchos seguíamos yendo a una oficina), se consideraba que tenían un X% más de probabilidades de abandonar su trabajo. Pero tales datos sobre el comportamiento humano resultan inútiles, a menos de que podamos calificarlos o dotarlos de sentido: iban al baño 3 o más veces, porque estaban a) estresados, b) aburridos o c) querían consumir drogas. Por supuesto, las explicaciones son hipotéticas, pero tener algunos supuestos es mejor que nada. Los científicos han estado de acuerdo con esta forma de pensamiento desde hace siglos: para pasar de los datos al conocimiento, se necesita un contexto o, mejor aún, un modelo. La ciencia sólo es una combinación de datos más teoría y esto es tan cierto cuando evaluamos personas como cuando evaluamos ideas. El por qué importa.

Herramientas transparentes

La IA explicable suena como un concepto nuevo, pero en esencia ha existido desde hace décadas. Por ejemplo, en EU, la calificación crediticia tiene un “derecho a explicación” bien establecido, a través de la Ley de Igualdad de Oportunidades Crediticias, promulgada en 1974. Ahora, en lugar de personas, son los algoritmos los que determinan si su calificación crediticia es alta o baja, pero usted debería poder averigua por qué. ¿Es baja porque olvidó pagar algunas cuotas y se retrasó en el pago de su factura de internet, o porque se ajusta a un determinado perfil demográfico que está asociado con un mayor riesgo? Las agencias de crédito cumplen con esta regulación y ofrecen una lista de explicaciones para que usted pueda entender qué ocurrió y cómo mejorar su puntaje. Esta transparencia beneficia tanto a los prestatarios como a los prestamistas.

Del mismo modo, en el ámbito de las contrataciones y los recursos humanos, los empleadores éticos deben a los candidatos y empleados un derecho similar. Nunca ha sido fácil decirle a la gente por qué no consiguieron un trabajo o un ascenso. Es por eso que tantas organizaciones envían cartas de rechazo genéricas, en donde sólo indican que había muchos candidatos calificados, es el equivalente laboral al típico “no eres tú, soy yo” de las parejas que quieren romper. Pero en la medida en que la IA pueda revelar razones específicas para no seleccionar a ciertos candidatos, esta información debe compartirse con ellos y, de hecho, puede ayudarles a procesar la noticia.

Por ejemplo, si una herramienta de barrido de currículos no preselecciona a un candidato, sería positivo para él o ella si supiera que no fue elegido/a porque no enlistó ciertas habilidades específicas; así, ellos pueden revisar su CV y resaltar o conseguir aquellas cualidades necesarias para aumentar sus posibilidades de contratación. Si un sistema automatizado que analiza videoentrevistas determina que a alguien le falta la calidez o la confianza para tener un puesto de ventas, esa retroalimentación podría ayudar al candidato a prepararse para su próxima entrevista; podría practicar hacer más contacto visual, hablar más, hacer menos pausas. O, si los algoritmos de procesamiento del lenguaje natural detectaron evidencia de un “lado oscuro” o tendencias tóxicas en el comportamiento de alguien en las redes sociales, tal vez esto debería hacerse notar, no sólo para el reclutador sino también para el candidato, así sería más consciente y ajustaría su comportamiento y mantendría bajo control sus prácticas poco deseables.

Tensión ética

Sin duda, siempre habrá controversias por las decisiones y juicios que se hagan en torno al posible desempeño de las personas, pero no utilizar la IA no impedirá que alguien tome la decisión de no contratar o ascender a alguien, y los humanos son mucho más parciales que los sistemas automatizados.

Los gerentes que se preocupan por los modelos “caja negra” deberían preocuparse también por la poca transparencia en el historial laboral de los candidatos. Nunca podemos estar seguros de por qué alguien seleccionó o rechazó a una persona si la decisión fue puramente humana; todo lo que podemos hacer es confiar en la explicación sesgada de quien tiene la última palabra. Si bien las herramientas de IA no están libres de sesgos, pueden ayudar a mitigarlos y los empleadores pueden mejorar la precisión y la equidad de las decisiones; y además, pueden elevar los estándares éticos para diseñar algoritmos y compartir resultados.

Dicho esto, el hecho de que la IA sea explicable no la convierte en una herramienta perfecta, ya que puede fomentar decisiones poco éticas si no se usa con un buen juicio basado en principios. Imagine, por ejemplo, una herramienta que ayude a los gerentes a evaluar a las personas en función de su ideología política, creencias religiosas o la clase social a la que pertenezcan. Por muy transparentes que sean los criterios de selección, la herramienta no será justa. Es más, casi cualquier rasgo psicológico que explique estos comportamientos puede influir a la hora de determinar si es agradable trabajar con alguien o no. Entonces, es irónico, pero cuando aumentamos las explicaciones, también, de alguna manera, hacemos que las personas puedan elegir más fácilmente con base en sus propios prejuicios y preferencias.

Aun así, a fin de cuentas, estamos mejor con las explicaciones que sin ellas. La auditoría de algoritmos, un proceso que detecta los sesgos integrados a un sistema, es un paso tecnológico hacia la ética explicable de la IA, pero está lejos de ser imparcial: los sesgos suelen eludir su detección aun cuando se buscan activamente. Conforme avanzamos en este frente, también debemos tener en cuenta el impacto de los algoritmos, preguntándonos continuamente sus efectos reales sobre las personas cuando se utilizan para evaluarlas, si reforzarán o debilitarán la equidad y cuáles podrían ser las consecuencias sociales más amplias de su uso. Si todo el tiempo tratamos de responder ese tipo de preguntas, estaremos en una mejor posición para tomar decisiones menos sesgadas sobre las personas y podremos ayudarlas a comprender y desarrollar su propio potencial.

SEMBLANZA

Tomas Chamorro-Premuzic (@drtcp) es científico en jefe de talento para ManpowerGroup y profesor de psicología empresarial en el University College London y en la Columbia University. Es autor del libro Why Do So Many Incompetent Men Become Leaders? (and How to Fix It) (Harvard Business Review Press, 2019).

Artículo traducido por Elvira Rosales, a partir de: https://sloanreview.mit.edu/article/when-you-reject-people-tell-them-why/

LEE MÁS CONTENIDO
¿QUÉ TEMA TE INTERESA?