Nuestros sitios
Ver edición digital Suscríbete al NEWSLETTER
Compartir

Lo que las máquinas no pueden hacer (todavía) en entornos de trabajo reales

Thomas H. Davenport y Steven M. Miller 01 Nov 2022
Lo que las máquinas no pueden hacer (todavía) en entornos de trabajo reales Lo que puede y no hacer la Inteligencia artificial

En la amplia gama de escenarios de uso en el mundo real, ha habido muchos más casos de aumento del trabajo humano por parte de máquinas inteligentes que de automatización total. Se espera que esta situación continúe en el futuro inmediato.


Hace casi 30 años, Bob Thomas, entonces profesor del MIT, publicó un libro titulado “Lo que las máquinas no pueden hacer“. 

Se centraba en la tecnología de fabricación y argumentaba que aún no estaba preparada para tomar el relevo de los humanos en las fábricas

Aunque los recientes desarrollos de la inteligencia artificial han elevado considerablemente el listón de lo que pueden hacer las máquinas, todavía hay muchas cosas que no pueden hacer todavía o, al menos, no lo hacen bien de forma muy fiable.

¡Mi jefe es un robot! Empresa nombra a Inteligencia Artificial como su CEO

Los sistemas de IA pueden funcionar bien en el laboratorio de investigación o en entornos de aplicación muy controlados, pero siguen necesitando ayuda humana en los tipos de entornos de trabajo del mundo real que investigamos para un nuevo libro, Working With AI: Real Stories of Human-Machine Collaboration. En nuestros 30 estudios de casos, los trabajadores humanos están muy presentes.

En este artículo, utilizamos esos ejemplos para ilustrar nuestra lista de actividades posibilitadas por la IA que todavía requieren asistencia humana

Se trata de actividades en las que las organizaciones deben seguir invirtiendo en capital humano y en las que los profesionales pueden esperar una continuidad laboral en el futuro inmediato.

Limitaciones actuales de la IA en el lugar de trabajo

La IA sigue ganando capacidades con el paso del tiempo, por lo que la cuestión de lo que las máquinas pueden y no pueden hacer en entornos laborales del mundo real es un objetivo en movimiento

Tal vez el lector de este artículo en 2032 se equivoque de forma pintoresca sobre las limitaciones de la IA. Sin embargo, por el momento, es importante no esperar de la IA más de lo que puede ofrecer. A continuación se describen algunas de las limitaciones actuales más importantes.

Comprensión del contexto

La IA todavía no entiende el contexto más amplio en el que se desarrollan el negocio y la tarea a realizar. 

Hemos visto este problema en múltiples estudios de casos. Es relevante, por ejemplo, en un trabajo de “suscriptor de vida digital“, en el que un sistema de IA evalúa el riesgo de suscripción basándose en muchos elementos de datos de los registros médicos de un solicitante, pero sin entender el contexto específico de la situación. 

Por ejemplo, un fármaco comúnmente recetado reduce las náuseas tanto para los pacientes de cáncer que reciben quimioterapia como para las mujeres embarazadas con náuseas matutinas. 

Hasta ahora, la máquina no puede distinguir entre estas dos situaciones a la hora de evaluar el riesgo de seguro de vida asociado a esta prescripción.

También vimos casos en los que los sistemas de IA no podían conocer el contexto de la relación entre humanos. 

Una aplicación de recaudación de fondos en una universidad, por ejemplo, selecciona donantes potenciales y redacta mensajes de correo electrónico para ellos, pero puede desconocer un fallecimiento reciente en la familia del donante (lo que podría hacer que fuera un momento inadecuado para pedir un donativo) o una victoria reciente en el partido del campeonato deportivo de la conferencia (que quizás debería mencionarse en el correo electrónico). 

En la actualidad, no hay una buena forma de representar un contexto amplio y matizado ni en los algoritmos matemáticos ni en las reglas, y no parece probable que esta deficiencia de la IA vaya a cambiar pronto.

Priorizar las alertas

Los sistemas informatizados, los sensores y los sistemas de análisis de imágenes y sonidos basados en la IA crean alertas frecuentes, ya sea por cuestiones de seguridad, salud o maquinaria. 

En un estudio de caso sobre alertas de seguridad en un gran centro comercial conectado al aeropuerto Changi de Singapur, quedó claro que era necesario un papel humano para filtrar y priorizar las alertas

En entornos complejos y en constante cambio, los sistemas de IA suelen ser incapaces de distinguir entre las alertas reales e importantes y las falsas o menos importantes. 

Aunque los sistemas de vigilancia de IA son muy buenos a la hora de priorizar las alertas más probables para su investigación (humana), se necesita la ayuda de guardias de seguridad y operadores de sistemas humanos para hacerlo de forma fiable.

Un proceso y un conjunto de retos similares tuvieron lugar en el DBS Bank, con sede en Singapur, donde la IA y los seres humanos colaboran estrechamente para prevenir el lavado de dinero y otros tipos de fraude en su organización de Vigilancia de Transacciones. 

Un sistema de IA de antigua generación basado en reglas creaba alertas sobre transacciones sospechosas, pero con muchos falsos positivos

Aunque un sistema de IA de aprendizaje automático de última generación les da prioridad, los humanos seguían teniendo que participar en la investigación de las alertas.

La Inteligencia Artificial como arma de guerra

Ponderación de elementos subjetivos

Uno de los directivos que entrevistamos en DBS dijo que siempre serían necesarios los humanos en el proceso porque “siempre habrá un elemento subjetivo en las evaluaciones de lo que es y no es sospechoso“. 

Podrían incluirse las amplias relaciones comerciales, personales o familiares de un cliente, o los contactos previos con el personal del banco. 

Tal vez en algún momento, la IA sea capaz de juzgar la honestidad y la fiabilidad de un individuo a través de su análisis de imágenes faciales y patrones de voz; algunas instituciones financieras de China ya utilizan este enfoque

Creemos que es más eficaz emplear a seres humanos con juicios subjetivos para aumentar las evaluaciones algorítmicas basadas en datos de IA, especialmente cuando las evaluaciones están muy influidas por factores culturales, contextuales y subjetivos

Por supuesto, tanto los humanos como las máquinas pueden tener un sesgo en sus juicios, y los sesgos humanos a veces pueden ser entrenados inadvertidamente en un sistema de aprendizaje automático. 

Hacer que los humanos comprueben las decisiones de las máquinas y viceversa puede ser una forma de minimizar el sesgo.

Analizar el tono

La empresa de software financiero Intuit presentó una herramienta para mejorar la gramática y el lenguaje de contenidos generados internamente de diversos tipos. 

Aunque el sistema de IA podía generar muchas sugerencias sobre cómo mejorar el texto escrito, no podía analizar eficazmente el tono. 

Este problema también se encuentra en los análisis de medios sociales basados en IA, que han tenido dificultades para entender el sarcasmo. 

Incluso las herramientas de generación de lenguaje natural más capaces generan a veces contenidos que resultan ofensivos para los lectores humanos. 

Por lo tanto, parece probable que los humanos tengan que seguir evaluando los contenidos para asegurarse de que son aceptables para los sensibles gustos humanos.

Comprender las situaciones y necesidades emocionales 

Una colaboración entre IA y humanos que observamos en Stitch Fix, una tienda de ropa online que se distingue por hacer recomendaciones de productos personalizadas, ilustra una deficiencia clave de la IA

Un sistema de IA recomienda artículos de ropa que los clientes probablemente comprarán, pero es incapaz de tener en cuenta las necesidades emocionales relacionadas con las ocasiones especiales

Los clientes pueden enviar a sus estilistas comentarios como “Mi marido vuelve del extranjero” o “Estoy a punto de empezar un nuevo trabajo y necesito vestirme para impresionar” y, por supuesto, el sistema de IA no sabe qué hacer con ellos. 

Dar sentido a este tipo de comentarios es una de las razones por las que Stitch Fix emplea a miles de estilistas humanos que trabajan en colaboración con la herramienta de recomendación de la IA

Comprender las situaciones emocionales puede ser una de las últimas cosas que la IA aprenda a hacer, si es que alguna vez lo hace. Los humanos parecen estar seguros en este papel en el futuro inmediato.

Evaluar y elegir la mejor opción

La IA es buena para tomar una decisión inicial, pero cuando esa decisión tiene consecuencias, los humanos a menudo tienen que sopesar y hacer un juicio final. 

Observamos esta situación en Morgan Stanley, donde un sistema de “próxima mejor acción” que utiliza el aprendizaje automático identifica oportunidades de inversión personalizadas para los clientes y las sugiere a los asesores financieros de la empresa, que luego deciden cuáles enviar a los clientes.

La cuestión de la “mejor opción” se eleva a otro nivel cuando se plantean cuestiones de vida o muerte, como en las situaciones de atención sanitaria en las que los humanos y la IA trabajan estrechamente para diagnosticar y tratar enfermedades

Por ejemplo, el sistema de telemedicina inteligente Good Doctor en China y el Sudeste Asiático utiliza la IA para presentar recomendaciones de triaje y tratamiento a cientos de millones de pacientes

Del mismo modo, vimos una aplicación de imágenes de dermatología en la que la IA ayudaba a capturar y presentar imágenes relevantes al dermatólogo. En ambos casos, sin embargo, el médico tomó la decisión final sobre el diagnóstico y el tratamiento.

Esta modestia de la ambición, especialmente en medicina, es un atributo importante del éxito de la implantación de la IA. Aunque algún día la IA pueda hacer diagnósticos completos y precisos y sugerencias de tratamiento directamente a los pacientes, hoy sus poderes son limitados.

Inteligencia Artificial: la diferencia entre lo que debe y puede hacer

Enmarcar los problemas, y luego entrenar y capacitar 

Nos parece casi milagroso que la IA pueda ahora generar automáticamente modelos de aprendizaje automático, como en el caso que investigamos en la cadena de supermercados Kroger y su filial de ciencia de datos 84.51°

La automatización de algunas tareas de ciencia de datos es una afrenta irónica para los científicos de datos altamente inteligentes, y algunos de los científicos de datos experimentados de 84,51° estaban inicialmente preocupados por si se trasladaban a un mundo en el que sus conocimientos de algoritmos y métodos, ganados con tanto esfuerzo, no tendrían vigencia. 

Sin embargo, los científicos de Kroger se sintieron aliviados al descubrir que la IA no puede enmarcar el problema a resolver en primer lugar ni encontrar datos para abordar ese problema. Sólo los humanos pueden identificar las decisiones que hay que tomar e identificar los conjuntos de datos que podrían arrojar luz sobre ellas.

Los científicos de datos de 84,51° también dedican mucho tiempo a formar, entrenar y revisar el trabajo de los aficionados menos experimentados que utilizan las capacidades de aprendizaje automático. También vimos escenarios similares en muchas otras empresas, y creemos que los puestos de trabajo de la mayoría de los científicos de datos estarán así a salvo durante un tiempo.

Crear nuevos conocimientos y transferirlos a un sistema

Descubrimos una implementación de la realidad aumentada asistida por la IA que se utiliza para la formación de los empleados en una empresa de fabricación estadounidense llamada PBC Linear

Este caso ilustra la necesidad de que los humanos creen nuevos conocimientos antes de que puedan ser transferidos a un sistema de IA: 

Se necesitaban maquinistas con experiencia para crear materiales de formación que luego pudieran consumir los novatos mediante un sistema de gestión del aprendizaje y unos auriculares de realidad aumentada. 

El sistema funciona bien, pero sólo porque fue creado por un humano en primer lugar. La IA no será capaz de extraer y organizar adecuadamente los conocimientos relevantes para el trabajo de los cerebros humanos experimentados en un futuro próximo.

Orquestación de entornos físicos para el análisis 

La IA puede llevar a cabo análisis de entidades físicas o químicas, pero eso no puede ocurrir sin que un humano establezca el proceso de análisis y la situación

Encontramos dos ejemplos, una aplicación de mantenimiento predictivo basado en IA para el aceite de locomotoras diésel en la autoridad de tránsito de Massachusetts (la MBTA) y un sistema de IA para la inspección visual automatizada de los circuitos de los cabezales de las unidades de disco en la empresa de almacenamiento de datos Seagate, en los que un algoritmo fue eficaz para analizar los datos y recomendar la acción adecuada. 

Sin embargo, ninguno de los dos análisis podría llevarse a cabo sin que los humanos definieran, recopilaran y estructuraran los datos; diseñaran y configuraran el aparato; y supervisaran si el proceso funciona adecuadamente. 

La IA es excelente para resolver problemas que los humanos han estructurado para ella, pero no sabe por dónde empezar por sí misma.

Comprender entidades complejas e integradas

Está claro que la IA puede proporcionar predicciones y conocimientos útiles sobre entidades complejas e interconectadas. 

Encontramos esa capacidad en nuestro caso de la Autoridad de Transporte Terrestre de Singapur, donde una agencia gubernamental supervisa y detecta en una compleja red de transporte ferroviario urbano para la ciudad-estado.anomalías  

Sin embargo, los conocimientos no eran lo suficientemente fiables o precisos como para eliminar la necesidad de personal humano en el centro de supervisión de operaciones centralizado

Como dicen los responsables de ese caso, la IA y los sistemas relacionados notifican al personal los problemas de tránsito, y “esto nos da la capacidad de tomar decisiones informadas sobre cómo tratar el problema”. La red de tránsito es demasiado compleja para dejarla en manos de la mejor IA.

Inteligencia Artificial, un remedio para la soledad

Ejercer la discreción sobre cuándo utilizar la IA

Incluso cuando la IA es técnicamente capaz de realizar una tarea, puede no ser buena en ella. Hemos estudiado el uso de Flippy, un robot para voltear hamburguesas que se utiliza en varias cadenas de hamburguesas

El director de una franquicia decidió que Flippy era bueno para freír, pero que no era lo suficientemente bueno para voltear hamburguesas como para ponerlo a trabajar en esa tarea. 

Dudamos de que Flippy fuera consciente de sus propios defectos, y eso será generalmente cierto en el caso de la IA. Por tanto, sólo los humanos pueden decidir si la IA debe utilizarse en una aplicación concreta.

Considerar las implicaciones éticas 

Las empresas están empezando a darse cuenta de que los sistemas de IA pueden tener importantes implicaciones para las organizaciones, los colaboradores y la sociedad. 

La IA no puede considerar y abordar estas implicaciones, pero los humanos sí. Hasta ahora, los líderes en la adopción de medidas sobre cuestiones éticas en el sector comercial son las empresas de software, quizás porque su industria es la que tiene más problemas éticos potenciales.

El caso de la práctica ética de la IA de Salesforce que hemos investigado proporciona una buena ilustración de lo que los humanos pueden hacer. 

Los miembros de ese grupo evangelizan dentro y fuera de la organización, entrenan, desarrollan directrices y tácticas para abordar la ética, y ayudan a identificar e implementar marcos y herramientas para apoyar este esfuerzo. Es poco probable que estas tareas sean asumidas por la propia IA en nuestra vida.

Un caso relacionado con el uso de la tecnología de detección de disparos basada en la IA y las recomendaciones de patrullaje en el Departamento de Policía de Wilmington, en Carolina del Norte, tenía el potencial de plantear cuestiones éticas problemáticas. 

Los humanos de ShotSpotter, el proveedor de ambas aplicaciones, tomaron muchas medidas para abordar y mitigar esos problemas y los diseñaron en su software. Por ejemplo, en el caso de las recomendaciones de patrullaje, el sistema no utiliza ninguna información personal identificable para la previsión de la delincuencia, y el sistema no identifica nunca a ningún ciudadano

Las alarmas de detección de disparos se envían únicamente al centro de mando de ShotSpotter y son revisadas por expertos humanos para verificar los disparos reales frente a otras posibles causas. 

Sólo después de esta revisión se envían las alarmas a la policía. Por supuesto, la policía tiene que tener mucho cuidado con el uso de los datos de detección de disparos para no utilizarlos indebidamente como prueba. Esta es otra dimensión de la consideración ética que requiere el juicio humano.

Corregir sus propios errores

En un caso de “desbrozadora digital” que estudiamos, un sistema de análisis de imágenes de IA contenido en una pieza de equipo agrícola robótico distinguía entre las malas hierbas y los cultivos de lechuga de un agricultor y luego cortaba automáticamente las malas hierbas. 

Pero un ayudante humano camina detrás del sistema de desbroce, buscando señales de problemas mecánicos o de software

Si algo va mal, tiene acceso virtual a un equipo de expertos que pueden ayudarle a arreglar el sistema. Aunque la IA a veces puede ofrecer sugerencias sobre cómo arreglarse a sí misma, parece poco probable que pueda hacer un buen trabajo para cada posible problema de la máquina

Los humanos son necesarios para arreglar los sistemas de IA en ocasiones, y los arregladores humanos tendrán empleo a largo plazo.

La Inteligencia Artificial, ¿ciencia ficción o realidad de la nueva era?

Dirigir la gestión del cambio organizativo

Varios de nuestros casos ilustran la necesidad de un cambio organizativo para que los sistemas de IA se utilicen de forma eficaz, y el uso de un sistema de gestión del cambio organizativo basado en la IA para llevar a cabo este tipo de tareas parece poco probable incluso en los escenarios más optimistas.

En Southern California Edison, un sistema de IA identificó las tareas de servicio de campo realizadas por los colaboradores que prestaban servicio a la red eléctrica que constituían un riesgo para la seguridad

Para que el sistema fuera adoptado por las partes interesadas fue necesario un largo proceso de educación y presión. 

Del mismo modo, en Morgan Stanley, la empresa hizo que el uso del sistema de IA “next best action” por parte de los asesores financieros fuera completamente voluntario, y la empresa estimuló la adopción mediante el ejercicio de la persuasión informal, la eliminación de los obstáculos al uso y la divulgación interna de las medidas que mostraban que los asesores que utilizaban el sistema tenían mejores resultados financieros. 

Sólo los humanos pueden convencer a las partes interesadas para que adopten un nuevo enfoque, coordinar un complejo cambio interfuncional y comprender por qué los humanos se resisten a utilizar un nuevo sistema.

Proporcionar satisfacción laboral y alimentar la moral

En Radius Financial Group, una empresa de hipotecas sobre viviendas, observamos que los empleados tenían una moral y una satisfacción laboral elevadas a pesar del uso intensivo de la IA y la automatización y de la estrecha supervisión del rendimiento individual con datos y análisis. 

La gente nos dijo que les gustaba su trabajo por las otras personas que trabajaban allí.

Esto coincide con otros comentarios que escuchamos en otros lugares y sugiere que es el elemento humano de la gestión y las relaciones de compañerismo lo que conduce a las emociones positivas sobre el trabajo. 

El enfoque de una empresa sobre el compromiso humano puede contrarrestar cualquier impacto “deshumanizador” de la IA y otras tecnologías.

Qué hacer con las limitaciones de la IA y las fortalezas humanas

Las implicaciones de tener áreas en la organización del trabajo en las que los humanos son mejores que la IA, al menos hasta ahora, son quizás obvias

Si la IA va a tomar decisiones, en la mayoría de los casos debería ser posible que los humanos anulen las decisiones, como puede hacer Stitch Fix con sus recomendaciones de ropa basadas en la IA

Las organizaciones pueden querer supervisar las anulaciones humanas y evaluar su frecuencia y eficacia. Este tipo de evaluación puede ayudar tanto a los diseñadores del sistema como a los colaboradores que se asocian con la herramienta de apoyo de la IA.

Los expertos en IA deben pasar tiempo con los directivos y empleados y explicarles lo que la IA puede y no puede hacer. 

Deben ser discusiones sobre aplicaciones y dominios específicos, ya que las capacidades de la IA son muy amplias y pueden utilizarse de muchas maneras diferentes.

En la mayoría de los casos, los expertos y los directivos deberían introducir los sistemas de IA en un trabajo tarea por tarea, en lugar de adoptar cualquier tipo de enfoque de “big bang“. 

Tampoco es mala idea, como hizo Morgan Stanley, dar a los colaboradores la posibilidad de decidir si adoptan las capacidades de IA en sus puestos de trabajo y cuándo lo hacen, al menos en las fases iniciales del despliegue.

Todos los implicados en la IA, incluidos los desarrolladores y usuarios potenciales y sus directivos, deben entender que la implantación de la IA es una actividad de gestión del cambio. 

Deben presupuestar las evaluaciones e intervenciones de gestión del cambio y asegurarse de que los equipos disponen de las habilidades necesarias para la gestión del cambio. 

Si está previsto que la IA elimine puestos de trabajo humanos, probablemente sea prudente avanzar lentamente en la aplicación de ese tipo de cambio. 

La gestión ética, por supuesto, también requiere que los empleadores sean transparentes con los empleados acerca de las perspectivas laborales futuras y de cómo la IA podría afectarles, de modo que los empleados puedan prepararse para desempeñar funciones que aporten valor a la IA o buscar alternativas de empleo. 

Sin embargo, hemos comprobado que la pérdida de puestos de trabajo a gran escala a causa de la IA es bastante rara, y creemos que la mayoría de las organizaciones se benefician más de la colaboración entre humanos y máquinas que de la sustitución de los humanos por máquinas.


SOBRE LOS AUTORES

Thomas H. Davenport (@tdav) es Profesor Distinguido del Presidente de Tecnología y Gestión de la Información en el Babson College, profesor visitante en la Saïd Business School de Oxford y miembro de la Iniciativa del MIT sobre la Economía Digital. Steven M. Miller es profesor emérito de sistemas de información en la Singapore Management University, donde anteriormente fue decano fundador de la School of Computing and Information Systems y vicerrector de investigación. Su nuevo libro, Working With AI: Real Stories of Human-Machine Collaboration, fue publicado por The MIT Press el 27 de septiembre de 2022.

Síguenos en Google Noticias para mantenerte informado 

Síguenos en Google News
Te recomendamos
Foto perfil de Thomas H. Davenport y Steven M. Miller
Thomas H. Davenport y Steven M. Miller Thomas H. Davenport (@tdav) es Profesor Distinguido del Presidente de Tecnología y Gestión de la Información en el Babson College, profesor visitante en la Saïd Business School de Oxford y miembro de la Iniciativa del MIT sobre la Economía Digital. Steven M. Miller es profesor emérito de sistemas de información en la Singapore Management University, donde anteriormente fue decano fundador de la School of Computing and Information Systems y vicerrector de investigación. Su nuevo libro, Working With AI: Real Stories of Human-Machine Collaboration, fue publicado por The MIT Press el 27 de septiembre de 2022.
Descarga GRATIS nuestro especial
descargable
Descarga AQUÍ el artículo completo Especial Foro MIT 2023 ¡Descárgalo GRATIS!
Suscríbete al Newsletter
¡SUSCRÍBETE!