Así es como la IA altera nuestro sentido de la responsabilidad
Las investigaciones muestran cómo el uso de un sistema mejorado con IA puede afectar la percepción que tienen los humanos de su propia agencia y responsabilidad.
A medida que la Inteligencia Artificial (IA) desempeña un papel cada vez más importante en los sistemas automatizados y los procesos de toma de decisiones, la cuestión de cómo afecta a la conciencia de los seres humanos de su propia autonomía se está volviendo menos teórica y más urgente.
No es de extrañar que los seres humanos a menudo se dejen llevar por las recomendaciones de decisiones automatizadas. Las exhortaciones a confiar en la IA estimulan la adopción por parte de los usuarios en los entornos corporativos.
Sin embargo, cada vez hay más pruebas de que la IA disminuye el sentido de responsabilidad de los usuarios por las consecuencias de esas decisiones.
Esta cuestión se pasa por alto en gran medida en los debates actuales sobre la IA responsable. En realidad, estas prácticas tienen por objeto gestionar el riesgo legal y reputacional, si nos basamos en la útil conceptualización del filósofo alemán Hans Jonas.
Él definió tres tipos de responsabilidad, pero la práctica de la IA parece ocuparse de solo dos. La primera es la responsabilidad legal, en la que una persona o entidad corporativa es responsable de reparar el daño o compensar las pérdidas.
la segunda es la responsabilidad moral, en la que las personas son responsabilizadas mediante el castigo, como en el derecho penal.
Lo que más nos preocupa aquí es el tercer tipo, lo que Jonas llamó el sentido de la responsabilidad. Es lo que queremos decir cuando hablamos con admiración de alguien que actúa de manera responsable.
Implica pensamiento crítico y reflexión predictiva sobre el propósito y las posibles consecuencias de las propias acciones, no solo para uno mismo sino para los demás. Es este sentido de la responsabilidad lo que la IA y los sistemas automatizados pueden alterar.
IA responsable y responsabilidad social corporativa: una mezcla difícil de conseguir
¿Cómo afecta la IA el sentido de responsabilidad?
Para comprender mejor cómo afecta la IA a la percepción que tienen los usuarios de su propia responsabilidad y autonomía, llevamos a cabo varios estudios.
Dos de ellos examinaron qué influye en la decisión de un conductor de recuperar el control de un vehículo autónomo cuando se activa la conducción autónoma.
En el primer estudio, descubrimos que cuanto más confían los individuos en el sistema autónomo, menos probabilidades hay de que mantengan la conciencia situacional que les permitiría recuperar el control del vehículo en caso de un problema o incidente.
En el segundo estudio, realizado con la Société de l’Assurance Automobile du Québec, pudimos realizar análisis más refinados. Encuestamos a mil 897 conductores para observar el efecto separado de cada tipo de responsabilidad en la intención del conductor de recuperar el control del vehículo.
Descubrimos que solo el sentido de responsabilidad tenía un efecto significativo. Al igual que en el primer estudio, cuanto más confianza declararon tener los encuestados en el sistema automatizado, menor fue su intención de recuperar el control.
Es particularmente notable que solo el sentido de responsabilidad proactivo e individual motivó a los encuestados a actuar. Esto indica que la amenaza de responsabilidad será insuficiente para prevenir el daño causado por la IA.
¿Cómo controlar la IA? Los programas de Inteligencia Artificial Responsable son la solución
Es hora de cuestionar la participación humana
Debemos preguntarnos si la participación humana, que cada vez se entiende más como una mejor práctica para el uso responsable de la IA. En cambio, la pregunta es: ¿cómo alentamos a los humanos a aceptar que tienen una responsabilidad proactiva y a ejercerla?
Los gerentes tienden a exacerbar el problema al fomentar la confianza en la IA para aumentar su adopción.
Este mensaje suele presentarse en términos que denigran la cognición y la toma de decisiones humanas. Esto a pesar del hecho de que todos los sistemas de IA necesariamente reflejan sesgos humanos en la selección de datos, la especificación, etc.
Esta postura supone que todas las decisiones de la IA son correctas y superiores a las decisiones humanas.
Para contrarrestar esta tendencia, recomendamos cambiar el énfasis en las comunicaciones con los empleados de confiar en la IA a comprenderla. Esto es para generar una confianza informada y condicional en los resultados de los sistemas y procesos de la tecnología.
Los gerentes deben educar a los usuarios para que comprendan los procesos automatizados y el potencial de errores o daños de la IA. También es fundamental que los usuarios comprendan los matices de los casos extremos en los que los sistemas de IA pueden fracasar.
Roboleyes: Principios de responsabilidad algorítmica en la Inteligencia Artificial
Pensar en de forma responsable cuando usas la IA es lo de hoy
En definitiva, una cultura de responsabilidad siempre va a significar una organización más sana y éticamente más sólida. Será aún más importante fomentar esa cultura en la era de la IA dejando espacios libres de posibilidades para la inteligencia humana.
De lo contrario, la predicción de Roderick Seidenberg sobre tecnologías mucho menos potentes que la IA actual podría materializarse:
El funcionamiento del sistema, ayudado cada vez más por la automatización, actúa como un canal de inteligencia. Por este, las contribuciones individuales relativamente pequeñas de ingenieros, inventores y científicos terminan creando un depósito de conocimientos y procedimientos establecidos. Así, el hombre parece haberse superado a sí mismo, y en cierto sentido lo ha hecho. Sin embargo, cada individuo se convierte por fuerza en un beneficiario irreflexivo, en el receptor sin mente de un medio socialmente establecido.
Por eso hablamos, no sin justificación, de una civilización de pulsadores. ¡Un sistema de cosas ideado por la inteligencia para la eliminación progresiva de la inteligencia!
SOBRE EL AUTOR
Ryad Titah es profesor asociado y director del Departamento Académico de Tecnologías de la Información en HEC Montréal. La investigación en curso descrita en este artículo se lleva a cabo con Zoubeir Tkiouat, Pierre-Majorique Léger, Nicolas Saunier, Philippe Doyon-Poulin, Sylvain Sénécal y Chaïma Merbouh.