Liderazgo Capital Humano Actualidad

Roboleyes: Principios de responsabilidad algorítmica en la Inteligencia Artificial

Estos principios van desde la gobernanza de datos hasta la intervención humana y han sido desarrollados precisamente para asegurar un futuro en donde nuestras herramientas algorítmicas se encuentren a nuestro servicio y no al revés.

Las herramientas de inteligencia artificial son cada vez más cotidianas. Quizá las aplicaciones más populares del momento son programas de generación de contenido como ChatGPT o Stable Diffusion, pero en realidad, la inteligencia artificial lleva siendo parte de nuestra vida cotidiana mucho tiempo.

Estas tecnologías las encontramos en muchas de las aplicaciones que utilizamos en nuestros celulares o fuera de ellos y van desde herramientas que te recomiendan que película ver un viernes por la noche, hasta herramientas que deciden si puedes tener acceso a libertad bajo fianza cuando te están acusando de haber cometido algún delito.

10 usos que le puedes dar a ChatGPT para hacer más fácil tu vida

Publicidad
Publicidad

A mí me gusta pensar en la inteligencia artificial como aquellos programas de cómputo que toman decisiones sin intervención humana, en un ambiente de incertidumbre y, a partir de los datos que le son proveídos por un ser humano.

Sin duda el funcionamiento de estas herramientas es sumamente complejo, pero la gran mayoría funcionan a través de algoritmos, que nos son más que recetas para interpretar datos con el objetivo tomar una decisión, sin intervención humana.

Es por ello que durante este texto, nos referiremos indistintamente a estas herramientas como inteligencia artificial, productos algorítmicos o herramientas algorítmicas. Aunque técnicamente existen innumerables diferencias entre ambos conceptos para este texto (y solo para este texto) los usaremos indistintamente.

Personas como Cathy O’Neil, Jaron Lanier, Shoshana Zuboff, Brett Frischman, Evan Sellinger y, Joy Buolamwini, entre otras personas, nos recuerdan los constantes riesgos que existen al poner nuestras vidas bajo las decisiones de un algoritmo, riesgos que van desde que te manipulen, hasta que te discriminen.

Si tienen curiosidad de aprender un poco más del tema, recomiendo que se tomen un tiempo este fin de semana para ver el documental llamado Coded Bias en Netflix, para que se empiecen a dar una idea de la punta del iceberg.

Gracias a estas advertencias y al trabajo de muchas personas desde el activismo hasta la academia, se han generado propuestas de leyes, lineamientos y regulaciones que apliquen al uso y comercialización de estas herramientas.

A pesar de que ha habido varios intentos de regulación, principalmente en el Congreso de los Estados Unidos, quizá los dos textos que más me llaman la atención son la “Propuesta de Reglamento por el que se establecen normas armonizadas en materia de inteligencia artificial” desarrollada por la Comisión Europea y el “Modelo para una Declaración de Derechos de Inteligencia Artificial (Blueprint for A.I. Bill of Rights)” propuesto por la Casa Blanca de los Estados Unidos de América.

Al analizar estos dos textos podemos darnos cuenta de que ambas propuestas coinciden en varios principios que nos permiten asegurar un adecuado desarrollo y comercialización de herramientas algorítmicas.

OpenAI, creador de ChatGPT, te ofrece trabajo y estas son sus vacantes

Estos principios van desde la gobernanza de datos hasta la intervención humana y han sido desarrollados precisamente para asegurar un futuro en donde nuestras herramientas algorítmicas se encuentren a nuestro servicio y no al revés.

Es por eso, que a esta serie de preceptos me gusta llamarles “principios de responsabilidad algorítmica” y en lo que resta de este texto, me gustaría tomarme el tiempo de exponerlos y explicarlos brevemente.

Seguridad en los sistemas

Este principio garantiza que las herramientas algorítmicas que usamos sean desarrolladas con el cuidado adecuado, con las medidas preventivas y con los controles necesarios para crear sistemas mitigando los riesgos inherentes al uso de algoritmos que toman decisiones sin intervención humana.

Estos controles o medidas deben garantizar que las herramientas se desarrollan con la intención explícita de reducir o evitar daños que pueden ocurrir con su utilización. Esto es especialmente importante para sistemas que se utilizan en situaciones en donde pueden ocurrir afectaciones reales a la integridad de las personas, su dignidad, el acceso a sus derechos fundamentales, su vida y su patrimonio.

Gobernanza de datos

La gobernanza de datos implica la idea de que las empresas que deciden lanzar estas tecnologías algorítmicas al mercado, son responsables del uso y tratamiento de los datos personales y demás información que recaban o emplean sus sistemas.

Esto incluye los datos personales que se usan para calibrar (o como dicen por ahí “entrenar”) estas herramientas. Adicionalmente, implica la obligación de estas empresas de incluir medidas de privacidad por diseño en los sistemas que se desarrollen para garantizar que no existen violaciones a la privacidad personal.

Citando a Carissa Véliz (una de mis autoras favoritas en el tema de privacidad), debemos entender que los datos personales son “material tóxico” y aquellas empresas que pretendan utilizarlos en sus productos, deben hacerlos siguiendo regulaciones y estándares de seguridad y protección.

Cómo la Inteligencia Artificial está mejorando la gestión de datos

Registros (logs)

Resulta de vital importancia que las empresas que desarrollan estos productos algorítmicos garanticen la existencia de registros de la actividad que realizan estos productos de una manera automática.

El objetivo de estos registros automáticos es tener la facultad de realizar auditorías sobre el desempeño y funcionamiento de estos sistemas, ya sea de modo preventivo o, reparativo en caso de que ocurran daños en un caso particular.

Asegurar que se cuenta con registros claros y fidedignos que sirvan de evidencia del actuar de la herramienta de que se trate, es el primer paso para poder pensar en una adecuada responsabilidad legal y social.

Transparencia

Este principio busca asegurar que quienes desarrollen y comercialicen herramientas algorítmicas cuenten con la información y mecanismos suficientes para explicar el cómo y el porqué la herramienta utilizada tomo cierta decisión en particular.

Dicho de otra forma, con este principio se busca eliminar la existencia de “cajas negras” o de desarrollos irresponsables en donde la empresa que decide poner estos sistemas a disposición del público carezca de elementos para explicar, con un grado de certeza aceptable, el proceso que su algoritmo realiza para arribar a su conclusión.

Equidad

El principio de equidad busca atacar el riesgo de la discriminación algorítmica. Es sorprendente como en el imaginario colectivo suele creerse que las máquinas son neutrales y no discriminan.

Sin embargo, Joy Buolamwini nos recuerda que incluso aquellas herramientas desarrolladas por empresas de tecnología respetables como Microsoft, IBM y Amazon, cuentan con importantes sesgos que facilitan la discriminación basada en raza o género. 

Es crucial mencionar que, a pesar de que las herramientas algorítmicas parezcan ser neutrales, en realidad no lo son porque la información que se usa para calibrar dichos sistemas tiene sesgos de origen. Es por ello que resulta de suma importancia asegurar que las herramientas algorítmicas que se desarrollen sean basadas en la equidad y se encuentren libres de discriminación es vital.

Einstein GPT: Dile hola a la nueva IA enfocada en atención a clientes

Información

Los usuarios de cualquier herramienta algorítmica deben de ser informados, entre otras cosas, sobre las características de las herramientas que se pone a su disposición, el nivel de precisión que tienen en la toma de decisiones y, quienes están detrás del desarrollo y comercialización de dichas herramientas.

Combatir la asimetría de información que existe entre quienes desarrollan y quienes emplean herramientas algorítmicas es de suma importancia para asegurar un uso adecuado.

Dicho de otra manera, es muy importante que los usuarios de estas herramientas, tengamos los elementos para tomar una decisión libre, voluntaria e informada, sobre los “pros y contras” que existen al usar estas tecnologías.

Supervisión humana

Quizá el principio más importante es el que nos ayuda a asegurar que en cada decisión que tome una herramienta algorítmica tendrá que ser confirmada o revisada por un ser humano.

Esto es muy importante porque argumentar que “el sistema lo dice” no es válido en ningún caso, y mucho menos, en un mundo regido por decisiones algorítmicas, especialmente en decisiones importantes que pueden afectar temas tan sensibles como derechos humanos o libertades civiles.

Echarle la culpa a las máquinas siempre generará las condiciones suficientes para que quienes distribuyan irresponsablemente estas herramientas escapen responsabilidad legal y social.

Si aseguramos que las empresas que desarrollan y comercializan inteligencia artificial se sometan a estos principios de responsabilidad algorítmica, estaremos en camino a asegurar la existencia de mejores herramientas para la humanidad.

No está de más comentar que esto es un tema existencial para la humanidad, si fallamos en asegurar que el desarrollo tenga estas salvaguardas mínimas, podremos estar seguros de que nuestra sociedad se desenvolverá de una manera menos que ideal donde impere la manipulación y discriminación como puerta de entrada a más males sociales.

Así pues, lo más seguro es que veamos a distintos países moverse hacia la promulgación de leyes, reglamentos o lineamientos de responsabilidad algorítmica que toquen los principios explicados en este texto. Espero que el gobierno mexicano no sea la excepción.


Contacto

LinkedIn: Juan Luis Hernandez Conde

Twitter: Conde