Antes de la crisis provocada por la pandemia del coronavirus, la mayoría de las personas tenían cierto grado de aprehensión en lo referente a los robots y la Inteligencia Artificial (IA); aunque sus creencias pueden haber sido formadas inicialmente por representaciones distópicas de la tecnología en la ciencia ficción, su malestar se vio reforzado por preocupaciones legítimas.
Algunas de las aplicaciones comerciales estaban provocando la pérdida de empleos, el refuerzo de ciertas inclinaciones, y las infracciones de la privacidad de los datos. Esas preocupaciones parecen haberse dejado de lado desde el inicio de la pandemia de COVID-19, debido a que se han empleado tecnologías infundidas por IA para mitigar la propagación del virus. Hemos visto una aceleración en el uso de la robótica para hacer el trabajo de los humanos, a quienes se les ordenó quedarse en casa o que se distribuyeran de forma diferente en el lugar de trabajo.
Los robots que reemplazan la mano de obra, por ejemplo, se están haciendo cargo de la limpieza del piso en los supermercados y la clasificación en los centros de reciclaje. La IA también está fomentando una mayor dependencia de los chatbots para el servicio al cliente en compañías como PayPal y en el monitoreo de contenido, impulsado por máquinas, en plataformas como YouTube.
Las plataformas de telepresencia robótica están brindando a los estudiantes en Japón una experiencia de graduación universitaria “en persona”; inclusos, los robots sirven como fanáticos ruidosos en estadios vacíos durante los juegos de béisbol en Taiwán. En términos de datos, la IA ya está mostrando gran potencial en los primeros intentos de monitorear las tasas de infección y el rastreo de contactos
Sin duda, muchos de nosotros pasamos por alto nuestra inquietud sobre los robots y sobre la Inteligencia Artificial cuando el valor percibido de la tecnología superó sus desventajas anticipadas. Pero hay nuevos peligros en este abrazo de la IA y los robots, pues con los robots reemplazando cada vez más funciones de trabajo, para permitir que los humanos coexistan, a medida que buscamos algo parecido a la normalidad, es importante considerar qué ocurrirá después ¿Qué pasará cuando los humanos quieran recuperar sus trabajos? ¿Qué haremos si el seguimiento por razones de seguridad se vuelve demasiado invasivo o parece demasiado espeluznante, pero ya es una práctica arraigada?
La carrera de la nueva normalidad está por comenzar
Después de que se desarrolle una vacuna para combatir el COVID-19 (esperemos) y las restricciones sociales de la pandemia, es difícil imaginar que la vida vuelva a ser como era a principios de 2020. Nuestras experiencias en los próximos meses harán que sea bastante fácil normalizar la automatización como un parte de nuestra vida diaria. Las empresas que han adoptado robots durante la crisis podrían pensar que ya no se necesita un porcentaje significativo de sus empleados humanos.
Los consumidores que habrán pasado más tiempo que nunca interactuando con robots podrían acostumbrarse a ese tipo de interacción. Cuando te acostumbras a que un robot te entregue la comida, es posible que ni siquiera notes la desaparición de un trabajo que alguna vez ocupó un humano. De hecho, algunas personas pueden querer mantener el distanciamiento social, incluso cuando ya no sea estrictamente necesario.
Nosotros, como sociedad, hasta ahora no hemos cuestionado qué tipo de funciones reemplazarán estos robots, porque durante esta pandemia, la tecnología está cumpliendo un papel importante. Si estas máquinas ayudan a preservar nuestra salud y bienestar, entonces aumentará nuestra confianza en ellas.
A medida que disminuye el tiempo que pasamos con personas fuera de nuestras redes sociales personales y laborales más cercanas, nuestros lazos con nuestras comunidades locales pueden comenzar a debilitarse. Con eso, nuestras preocupaciones sobre las consecuencias de los robots y la IA pueden disminuir; además de perder de vista la escala de pérdida de empleos, potenciada por el uso de robots y la IA, podemos pasar por alto las formas de sesgo incrustadas dentro de la IA y la invasión tóxica de la tecnología que se utilizará para rastrear la propagación del coronavirus.
Margen de error y problemas de privacidad tienen que importar
Hay muchas consideraciones críticas que debemos hacer antes de ser más dependientes de la IA y los robots durante la pandemia. Primero, a medida que aumenta la adopción y el nivel de comodidad en la sociedad, las organizaciones deben tener en cuenta que hay oportunidades basadas en un margen de error existente en la IA, los cuales pueden ser motivo de preocupación. Por ejemplo, el potencial de los algoritmos de Inteligencia Artificial para ayudar con la toma de decisiones de atención médica es enorme; en parte, porque pueden ser entrenados con grandes conjuntos de datos.
Se puede recurrir a IA para ayudar a manejar casos en los que se debe tomar una decisión sobre el protocolo de intervención en una unidad de cuidados intensivos -como quien tiene acceso a un ventilador- que puede tener ramificaciones de vida o muerte. Dado que la enfermedad cardíaca a menudo se diagnostica erróneamente en las mujeres y los pacientes negros a menudo no reciben un tratamiento adecuado para el dolor, sabemos que muchas formas de sesgo subyacen a los conjuntos de datos y pueden interferir con la calidad de los datos y cómo se analizan los datos. Estos problemas son anteriores a la llegada de la IA, pero podrían codificarse más ampliamente en la estructura del sistema de atención médica si no se corrigen antes de que se generalice.
En segundo lugar, los problemas de privacidad con respecto a la recopilación de datos y la precisión de los datos son un problema creciente, y las organizaciones deben prestar especial atención a este problema. Puede ser necesaria una gran recopilación de datos para reducir la propagación de la enfermedad: las empresas de todo el mundo proponen aplicaciones telefónicas que rastreen el contacto de las personas diagnosticadas con las que están recuperándose del virus.
En el caso de Google y Apple, se están asociando en una aplicación opcional para que las personas divulguen su diagnóstico de COVID-19. Uno podría argumentar convincentemente que esto está justificado hasta que termine la pandemia. Sin embargo, una vez que se establezca el precedente para este tipo de vigilancia, ¿cómo se eliminaría ese poder en los gobiernos, en las empresas y en otras instituciones? ¿Se incluirán cláusulas de extinción en los planes de recolección y uso de datos de las organizaciones?
Los usos secundarios de los vastos tesoros de datos de seguimiento, indudablemente, inducirán a las organizaciones a conservarlos, especialmente dados los beneficios financieros que podrían obtenerse de los datos. Tomemos el caso de la aplicación de Google y Apple. ¿Qué sucederá cuando los usuarios de la aplicación exijan la recuperación de sus datos y pidan que se ejerzan las normas de protección y privacidad, de la información requerida por la UE, cuando ya no se necesiten? Los casos de abuso de la recolección y el intercambio de datos encubiertos ya están bien documentados.
Las organizaciones involucradas en la recopilación y el análisis de datos, y su supervisión, deben tratar estos problemas ahora y no en el futuro, cuando las personas serán menos indulgentes si sus datos son utilizados en otros usos o se utilizan en una actividad, cuyo fin es éticamente cuestionable.
Ciertamente, es tentador dejar de lado ciertas normas, regulaciones y otras protecciones, como las que están relacionadas con la privacidad de los datos en una emergencia, cuando eso puede ser lo que se necesita a corto plazo para proteger a las personas y salvar vidas. No debemos dejar de prepararnos para lo que vendrá después de esta emergencia global. Esto incluye el desarrollo de estrategias de reciclaje para ayudar a aquellos cuyos trabajos han sido interrumpidos por la pandemia (tan sólo hay cerca de 30 millones de personas sólo en Estados Unidos) y están intentando seguir siendo parte de la fuerza laboral, dado que algunos de esos trabajos son altamente susceptibles de ser reemplazados por la automatización.
Necesitamos pensar nuevamente en los márgenes de error, surgido en las aplicaciones de IA que hemos adoptado, los cuales pueden ser perjudiciales. Se trata de prejuicios que habrán aprendido de nuestros comportamientos de adaptación y que habrán modelado mediante sus interacciones con nosotros. Y aunque vivimos en una situación sin precedentes, necesitamos enfrentar de manera proactiva la planificación y las protecciones en relación con la adopción de robots y de Inteligencia Artificial. De lo contrario, puede surgir una nueva crisis en una forma completamente novedosa.