Liderazgo Capital Humano Actualidad

Los peligros de poner la ética en piloto automático

Las investigaciones muestran que los empleados que se dejan guiar por empujones digitales pueden perder cierta competencia ética. Esto tiene implicaciones sobre cómo utilizamos la nueva generación de asistentes de IA.

Julian Friedland, David B. Balkin y Kristian Ove R. Myrseth 06 Jun 2024

El auge de la IA generativa está desatando a sus secuaces. Los proveedores de software empresarial han implementado legiones de asistentes automatizados que utilizan tecnología de modelo de lenguaje grande (LLM), como ChatGPT, esto supone un riesgo para la ética.

Estos llamados copilotos y chatbots pueden aumentar la productividad y automatizar el tedioso trabajo manual. Pero si no se implementan cuidadosamente, se corre el riesgo de disminuir la capacidad de los colaboradores.

Publicidad
Publicidad

Nuestro examen de las consecuencias de las técnicas de “empujón“, tiene implicaciones para las organizaciones que adoptan la nueva generación de asistentes automatizados.

Se anima a las empresas que implementan agentes de IA generativa a adaptarlos para aumentar el control de gestión. Microsoft, que ha puesto a disposición copilotos en su conjunto de software de productividad. Estas herramientas harán que sea mucho más fácil para las empresas esencialmente poner esteroides en el empujón.

Sin embargo, con el tiempo eso puede disminuir la voluntad y la capacidad de los individuos para reflexionar sobre la dimensión ética de sus decisiones.

Cómo fomentar el uso de IA ética para hacer que crezca tu negocio de forma exitosa

La IA en el ramo de la ética puede ser muy persuasiva

Los empujones basados ​​en la IA pueden ser particularmente persuasivos. Esto considerando la creciente inclinación entre los individuos a descartar sus propios juicios en favor de lo que sugiere la tecnología.

En su forma más pronunciada, esta abdicación del pensamiento crítico puede convertirse en una especie de arrogancia tecnochovinista, misma que desestima la cognición humana.

Por eso será particularmente importante alentar a los empleados a mantener una perspectiva constructiva y crítica sobre los resultados de la IA y que los gerentes presten atención a las oportunidades para lo que llamamos impulso ético.

Los incentivos detrás de los empujones digitales

Los empujones digitales, especialmente en forma de incentivos y objetivos destacados, pueden conducir a un sutil desplazamiento motivacional al ofuscar los objetivos finales del equipo u organización y cambiar las metas próximas.

Cuando una medida de desempeño se convierte en el objetivo principal, deja de funcionar como una medida efectiva, fenómeno conocido como ley de Goodhart.

Las implicaciones del empujón son particularmente perniciosas en contextos con matices éticos que requieren conciencia de los valores. Al aceptar acríticamente la guía del copiloto de la IA, los gerentes pueden olvidarse de considerar el “por qué” subyacente a sus decisiones. En este artículo, explicaremos cómo esto conduce al riesgo de que su competencia ética se degrade con el tiempo y qué hacer al respecto.

Los empujones tienden a explotar lo que el psicólogo Daniel Kahneman denominó pensamiento rápido. Este contrasta con el pensamiento lento, es decir, el pensamiento reflexivo.

Dichas intervenciones pueden aprovechar incentivos financieros leves o desencadenantes emocionales. Todo para inducir a las personas a actuar como deberían actuar tras una reflexión ética. Una gran dependencia de estos incentivos puede desviar reactivamente la atención hacia la recompensa extrínseca, suplantando y debilitando así los motivos éticos que pretenden fomentar.

Ética, la verdadera voz que acciona las relaciones públicas en una empresa

Estímulos conductuales vs. la ética en la organización

Aunque no se puede evitar por completo recurrir a estímulos conductuales, la buena noticia es que se pueden introducir mecanismos de verificación.

Esto para mantener a los humanos comprometidos y desencadenar una reflexión ética antes de actuar. Lo que puede hacer es proteger contra la tendencia de las habilidades cognitivas a atrofiarse por falta de uso.

Dadas las muchas limitaciones actuales de los LLM , así como la falta de comprensión y coherencia lógica, los gerentes deben priorizar los factores del compromiso.

¿Cómo pueden los individuos desarrollar sus habilidades éticas?

Vemos prometedor el impulso ético, que se basa en una visión positiva del potencial humano para aprender y crecer. Mientras que el empujón promueve la reactividad. El impulso es un ejercicio de desarrollo a largo plazo para fomentar hábitos de atención plena y reflexión.

Los impulsos podrían tomar la forma de reglas generales mentales o heurísticas que ayudan a las personas a identificar y pensar en dilemas éticos.

Los principios de impulso también podrían abordar las contingencias negativas corrigiendo patrones laborales poco saludables. Aquí, incluso los copilotos de IA pueden desempeñar un papel. Esto si empujan a las personas a pensar en lugar de simplemente hacer clic en “aceptar” en una recomendación.

Para impulsar esa mentalidad, las aplicaciones de mensajería podrían invitar a los usuarios a tomarse un tiempo antes de responder mensajes grosera. Esto permitiría que los ánimos se calmen y que la mente más reflexiva se involucre.

Una imagen de una persona escribiendo con rabia podría servir como un freno eficaz, ayudando a los usuarios a desarrollar su autoconciencia.

Asimismo, capacitación como el Programa Sirius, parte de la Actividad de Proyectos de Investigación Avanzada de Inteligencia de la Oficina del Director Nacional de Inteligencia , tiene como objetivo mejorar las habilidades cognitivas.

La IA ofrece un canto de sirena engañoso

En última instancia, los gerentes deben ser conscientes del canto de sirena retórico que subyace a la marca generativa de IA. Esto en contraste con el apoyo a las decisiones o los asistentes.

Si bien estos últimos términos reconocen que la tecnología está subordinada al usuario, copiloto connota un papel más capaz, autónomo e responsable.

Después de todo, la IA está completamente calificada para volar el avión en ausencia del piloto. El prestigio implícito de competencia invita sutilmente a los empleados a confiar y acatar los estímulos impulsados ​​por la tecnología.

Si los copilotos de IA permiten un mayor control y eficiencia gerencial a costa de una disminución de la competencia ética en la fuerza laboral, los gerentes tal vez quieran considerar instalar algunos topes reflectantes.


SOBRE LOS AUTORES

Julian Friedland es profesor asociado de ética empresarial en la Facultad de Negocios de la Universidad Estatal Metropolitana de Denver. David B. Balkin es profesor emérito de gestión en la Escuela de Negocios de Leeds de la Universidad de Colorado Boulder. Kristian Ove R. Myrseth es profesor de gestión en la Escuela de Negocios y Sociedad de la Universidad de York en Inglaterra.