Nuestros sitios
Ver edición digital Suscríbete al NEWSLETTER
Compartir

Lo que los humanos perdemos cuando dejamos que la IA decida

Christine Moser, Frank den Hond, Dirk Lindebaum 15 Feb 2022
Lo que los humanos perdemos cuando dejamos que la IA decida Lo que los humanos perdemos cuando dejamos que la IA decida

Por qué deberías empezar a preocuparte por la inteligencia artificial ahora.


Han pasado más de 50 años desde que HAL, la computadora malévola de la película 2001: Una odisea del espacio, aterrorizó por primera vez al público al volverse contra los astronautas que se suponía que debía proteger. Ese momento cinematográfico captura lo que muchos de nosotros todavía tememos en la IA: que pueda obtener poderes sobrehumanos y subyugarnos. Pero en lugar de preocuparnos por las pesadillas futuristas de ciencia ficción, deberíamos despertarnos ante un escenario igualmente alarmante que se está desarrollando ante nuestros ojos: estamos cada vez más, sin sospechar pero voluntariamente, abdicando de nuestro poder para tomar decisiones basadas en nuestro propio juicio, incluido nuestro convicciones morales. Lo que creemos que es “correcto” corre el riesgo de convertirse ya no en una cuestión de ética sino simplemente en cuál es el resultado “correcto” de un cálculo matemático.

Día a día, las computadoras ya toman muchas decisiones por nosotros y, en la superficie, parecen estar haciendo un buen trabajo. En los negocios, los sistemas de inteligencia artificial ejecutan transacciones financieras y ayudan a los departamentos de recursos humanos a evaluar a los solicitantes de empleo. En nuestra vida privada, confiamos en recomendaciones personalizadas cuando compramos en línea, controlamos nuestra salud física con dispositivos portátiles y vivimos en hogares equipados con tecnologías “inteligentes” que controlan nuestra iluminación, clima, sistemas de entretenimiento y electrodomésticos.

Desafortunadamente, una mirada más cercana a cómo estamos usando los sistemas de IA hoy en día sugiere que podemos estar equivocados al suponer que su poder de crecimiento es principalmente para el bien. Si bien gran parte de la crítica actual a la IA todavía está enmarcada en distopías de ciencia ficción, la forma en que se usa ahora es cada vez más peligrosa. Eso no se debe a que Google y Alexa se estén volviendo malos, sino a que ahora confiamos en las máquinas para que tomen decisiones por nosotros y, por lo tanto, sustituimos cada vez más los cálculos basados ​​en datos por el juicio humano. Esto corre el riesgo de cambiar nuestra moralidad de manera fundamental, tal vez irreversible, como argumentamos en nuestro ensayo reciente en Academy of Management Learning & Education (que hemos utilizado para este artículo).1

Cuando empleamos el juicio, nuestras decisiones toman en cuenta el contexto social e histórico y los diferentes resultados posibles, con el objetivo, como escribió el filósofo John Dewey, de “llevar una situación incompleta a su cumplimiento”.2  El juicio se basa no solo en el razonamiento, sino también y, lo que es más importante, en capacidades como la imaginación, la reflexión, el examen, la valoración y la empatía. Por lo tanto, tiene una dimensión moral intrínseca.

Los sistemas algorítmicos, por el contrario, emiten decisiones después de procesar los datos a través de una acumulación de cálculo, computación y racionalidad basada en reglas, lo que llamamos ajuste de cuentas.3 El problema es que, habiendo procesado nuestros datos, las respuestas que dan estos sistemas están restringidas objetivos para los que fueron diseñados, sin tener en cuenta las consecuencias potencialmente dañinas que violan nuestros estándares morales de justicia y equidad.

Hemos visto esto en los análisis predictivos propensos a errores y racialmente sesgados utilizados por muchos jueces estadounidenses al dictar sentencias.4 En los Países Bajos, unas 40 000 familias sufrieron injustamente daños financieros profundos y otros daños debido a que las autoridades fiscales confiaron en un sistema defectuoso. Sistema de inteligencia artificial para identificar el uso fraudulento potencial de un programa de desgravación fiscal de beneficios para niños. El escándalo que siguió obligó al gobierno holandés a dimitir en enero de 2021.

Cuidado con la brecha

Este tipo de consecuencias no deseadas no deberían sorprendernos. Los algoritmos no son más que “recetas precisas que especifican la secuencia exacta de pasos necesarios para resolver un problema”, como lo expresa una definición.5  La precisión y la velocidad con la que se resuelve el problema hace que sea fácil aceptar la respuesta del algoritmo como autorizada, particularmente a medida que interactuamos con más y más sistemas diseñados para aprender y luego actuar de manera autónoma.

Pero como sugieren los ejemplos anteriores, esta brecha entre nuestra expectativa inflada de lo que puede hacer un algoritmo y sus capacidades reales puede ser peligrosa. Aunque las computadoras ahora pueden aprender de forma independiente, hacer inferencias a partir de estímulos ambientales y luego actuar sobre lo que han aprendido, tienen límites. La interpretación común de estos límites como “sesgo” no tiene sentido, porque llamarlo sesgo implica que existe la posibilidad de que los límites del cálculo de la IA se puedan superar, que la IA eventualmente pueda eliminar el sesgo y generar una imagen completa y completa. representación fiel de la realidad. Pero ese no es el caso. El problema es más profundo.

Los sistemas de IA basan sus decisiones en lo que el filósofo Vilém Flusser llamó “imágenes técnicas”: los patrones abstractos de píxeles o bytes, las imágenes digitales del “mundo” que la computadora ha sido entrenada para producir y procesar. Una imagen técnica es la transformación computarizada de datos digitalizados sobre algún objeto o idea y, como tal, es una representación del mundo. Sin embargo, como toda representación, es incompleta; hace discreto lo que es continuo y hace estático lo que es fluido, y por lo tanto hay que aprender a usarlo inteligentemente. Como un mapa bidimensional, es una representación selectiva, quizás incluso una tergiversación.

Durante la elaboración del mapa, se reduce una realidad multidimensional obligándola a encajar en una superficie bidimensional con un número limitado de colores y símbolos. Muchos de nosotros todavía sabemos cómo usar un mapa. El problema con los sistemas de IA es que no podemos entender completamente cómo la máquina “dibuja” sus imágenes técnicas: qué enfatiza, qué omite y cómo conecta piezas de información en transiciones hacia la imagen técnica. Como señaló una vez el estadístico George Box, “Todos los modelos son incorrectos, pero algunos son útiles”. Agregamos: “Si no sabemos en qué falla un modelo, no solo es inútil, sino que usarlo puede ser peligroso”. Esto se debe a que un cálculo basado en una imagen técnica nunca puede revelar toda la verdad, simplemente porque no es para lo que se ha hecho.

A través de un proceso de cálculo, las máquinas toman decisiones, que se basan esencialmente en imágenes técnicas, que tienen un aire de precisión y de ser indiscutiblemente correctas. El riesgo es que acabemos modelándonos a nosotros mismos ya nuestra sociedad en función de la imagen que la tecnología se ha formado de nosotros. Si confiamos demasiado en estos algoritmos, corremos el riesgo de confundir el mapa con el territorio, como los desafortunados automovilistas en Marsella, Francia, que dejan que su GPS los dirija directamente desde una calle del muelle hasta el puerto.

Considere, por ejemplo, la forma en que las personas usan dispositivos electrónicos portátiles que monitorean las funciones corporales, incluida la frecuencia del pulso, los pasos dados, la temperatura y las horas de sueño, como indicadores de salud. En lugar de preguntarte cómo te sientes, puedes revisar tu dispositivo portátil. Puede indicarle que debe preocuparse porque no toma la cantidad mínima de pasos generalmente recomendados para una vida saludable, un objetivo que puede tener sentido para muchos, pero que podría ser contraproducente si la calidad del aire es mala o si tiene pulmones débiles.

¿Cómo podemos capturar los beneficios innegables de estas máquinas inteligentes sin confundir la abstracción de la máquina con la historia completa y delegar en la IA las decisiones complicadas y consecuentes que deberían tomar los humanos?

El problema no son tanto las máquinas como nosotros mismos. Nuestra confianza en la IA nos lleva a confundir el cálculo (la toma de decisiones basada en la suma de varios tipos de datos e imágenes técnicas) con el juicio. Demasiada fe en la máquina, y en nuestra capacidad para programarla y controlarla, puede producir situaciones insostenibles y quizás incluso irreversibles. Vemos(k) en las confiadas respuestas de AI el tipo de certeza que nuestros antepasados ​​buscaron en vano en las entrañas, las cartas del tarot o las estrellas de arriba.

Algunos observadores (académicos, gerentes, formuladores de políticas) creen que seguir los principios de desarrollo responsable de IA es un enfoque válido y efectivo para inyectar consideraciones éticas en los sistemas de IA. Estamos de acuerdo cuando argumentan que, como producto cultural, la IA está obligada a reflejar las perspectivas de las personas que encargaron el algoritmo, escribieron su código y luego usaron el programa.

No estamos de acuerdo cuando dicen que, por lo tanto, todo lo que se necesita es una cuidadosa atención al proyecto en general y su programación para mantener los resultados en su mayoría positivos. Las voces críticas sobre nuestra capacidad para inculcar la ética en la IA están aumentando, planteando la pregunta básica de si podemos “enseñar” ética a los sistemas de IA en primer lugar.

Volviendo a las raíces de la IA, debemos darnos cuenta de que los fundamentos mismos del juicio y el ajuste de cuentas son diferentes y no se pueden reconciliar. Esto significa que los sistemas de IA nunca serán capaces de juzgar, solo de calcular. Cualquier intento de inyectar ética en la IA, por lo tanto, significa que la ética será ajustada, distorsionada y empobrecida para adaptarse a las características del cálculo de la IA.

Aquellos que creen en la IA ética consideran que la tecnología es una herramienta, a la par de otras herramientas que son esencialmente extensiones del cuerpo humano, como lentes (para ampliar la vista de los ojos), o cucharas y destornilladores (para ampliar la destreza). de las manos). Pero somos escépticos. Desde nuestro punto de vista, al igual que con los wearables, es crucial considerar al usuario como parte de la herramienta: debemos pensar mucho sobre cómo nos moldean los algoritmos. Si la sustitución del juicio humano por el cálculo basado en datos es algo con lo que hay que ser muy cauteloso, entonces seguir el grito de guerra para desarrollar una IA responsable no nos ayudará a romper la sustitución. ¿Qué podemos hacer?

Un llamado a la acción (y la inacción)

Vemos dos caminos a seguir.

Primero, queremos hacer un llamado a la inacción: debemos dejar de intentar automatizar todo lo que se puede automatizar solo porque es técnicamente factible. Esta tendencia es lo que Evgeny Morozov describe como solucionismo tecnológico: encontrar soluciones a problemas que en realidad no son problemas en absoluto.6  Hipnotizado por la promesa de la mejora eterna, el solucionismo tecnológico embota nuestra capacidad de pensar profundamente sobre si, cuándo, cómo y por qué usar una herramienta determinada.

En segundo lugar, también hacemos un llamado a la acción. Como sociedad, debemos aprender qué es realmente la IA y cómo trabajar con ella. Específicamente, necesitamos aprender a entender y usar sus imágenes técnicas, así como necesitábamos aprender a trabajar con modelos y mapas, no solo en un sentido general, abstracto e idealizado, sino para cada proyecto específico donde se vislumbra.

En la práctica, eso significa que los gerentes deben juzgar caso por caso si, cómo y por qué usar la IA. Evitar aplicaciones generales de la tecnología significa tomar en serio los límites de la IA. Por ejemplo, si bien los algoritmos adquieren un mayor poder predictivo cuando reciben más datos, siempre asumirán un modelo estático de sociedad, cuando, de hecho, el tiempo y el contexto cambian constantemente. Y una vez que los gerentes han juzgado que la IA es una herramienta útil para un proyecto determinado, vemos un mérito esencial en que los gerentes desarrollen y mantengan una actitud de vigilancia y duda. Esto se debe a que, en ausencia de vigilancia y duda, podríamos perder el momento en que nuestro marco de toma de decisiones haya pasado del juicio al ajuste de cuentas. Esto significaría que entregaríamos nuestro poder para tomar decisiones morales al cómputo de la máquina.

Dados los rápidos avances de la IA, no hay mucho tiempo. Todos debemos volver a aprender a tomar decisiones informadas por nuestro propio juicio en lugar de dejarnos arrullar por la falsa seguridad del cómputo algorítmico.

REFERENCIAS

1. C. Moser, F. den Hond y D. Lindebaum, “Morality in the Age of Artificially Intelligent Algorithms”, Academy of Management Learning & Education, 7 de abril de 2021, https://journals.aom.org.

2. J. Dewey, “Essays in Experimental Logic” (Chicago: University of Chicago Press, 1916), 362.

3. A.C. Smith, “La promesa de la inteligencia artificial: ajuste de cuentas y juicio” (Cambridge, Massachusetts: MIT Press, 2019).

4. K. B. Forrest, “Cuando las máquinas pueden ser juez, jurado y verdugo: la justicia en la era de la inteligencia artificial” (Singapur: World Scientific Publishing, 2021).

5. J. MacCormick, “Nueve algoritmos que cambiaron el futuro” (Princeton, Nueva Jersey: Princeton University Press, 2012), 3.

6. E. Morozov, “Para guardar todo, haga clic aquí: la locura del solucionismo tecnológico” (Nueva York: PublicAffairs, 2013).

Síguenos en Google News
Te recomendamos
Foto perfil de Christine Moser, Frank den Hond, Dirk Lindebaum
Christine Moser, Frank den Hond, Dirk Lindebaum Christine Moser (@tineadam) es profesora asociada de teoría de la organización en la Vrije Universiteit Amsterdam en los Países Bajos. Frank den Hond es profesor Ehrnrooth de Gestión y Organización en la Escuela de Economía Hanken de Finlandia y está afiliado a la Vrije Universiteit Amsterdam. Dirk Lindebaum es profesor titular de organización y gestión en Grenoble Ecole de Management.
Descarga GRATIS nuestro especial
descargable
Descarga AQUÍ el artículo completo Especial Foro MIT 2024. ¡Descárgalo GRATIS!
Suscríbete al Newsletter
¡SUSCRÍBETE!
LEE MÁS CONTENIDO
¿QUÉ TEMA TE INTERESA?