Nuestros sitios
Ver edición digital Suscríbete al NEWSLETTER
Compartir

La ciencia social de la IA: Elizabeth Anne Watkins de Intel

Sam Ransbotham y Shervin Khodabandeh 04 Sep 2023
La ciencia social de la IA: Elizabeth Anne Watkins de Intel Elizabeth Anne Watkins de Intel, le recuerda a la audiencia la importancia de la participación humana en el desarrollo industrial, (Especial)

Los científicos sociales del fabricante de semiconductores están ayudando a los técnicos a aprender cómo la inteligencia artificial puede mejorar el complejo trabajo de montaje.


Cuando Elizabeth Anne Watkins comenzó su programa de doctorado, consiguió estudiar el uso que hacen los periodistas de las tecnologías de seguridad y privacidad. Pero las herramientas le resultaron confusas y difíciles de usar. Hoy, como investigadora científica en ciencias sociales de la IA en Intel Labs, defiende los intereses de otros usuarios finales que se enfrentan a la dificultad de comprender y trabajar con nuevas tecnologías.

Elizabeth emplea las ciencias sociales para comprender las preocupaciones de los técnicos que llevan a cabo complejos procesos de fabricación de chips. De modo que los nuevos sistemas de IA se desarrollen para servir mejor a esos expertos humanos. Durante este proceso, también ayuda a los técnicos a reconocer el papel de la IA como tecnología de apoyo más que como sustituto humano.

Regular el fenómeno de la IA: David Hardoon de Aboitiz Data Innovation

Se une a este episodio del podcast Me, Myself, and AI para hablar de su papel como científica social que trabaja en tecnología y de las formas en que Intel está aplicando tecnologías de IA como la visión por ordenador y el procesamiento del lenguaje natural para mejorar los procesos de fabricación de semiconductores.

Suscríbete a Me, Myself, and AI en Apple Podcasts, Spotify o Google Podcasts

Transcripción

Sam Ransbotham: Sabemos que las herramientas de Inteligencia Artificial están aumentando el rendimiento humano. Pero ¿cómo se siente realmente la gente al respecto? En el episodio de hoy, descubriremos cómo una empresa desarrolla herramientas de IA pensando en los usuarios finales.

Elizabeth Anne Watkins: Soy Elizabeth Anne Watkins, de Intel, y están escuchando Me, Myself, and AI.

Sam Ransbotham: Bienvenidos a Me, Myself, and AI, un podcast sobre IA en los negocios. En cada episodio les presentamos a alguien que está innovando con la IA. Soy Sam Ransbotham, profesor de analítica en el Boston College. También soy editor invitado de IA y estrategia empresarial en MIT Sloan Management Review.

Shervin Khodabandeh: Y yo soy Shervin Khodabandeh, socio sénior de BCG y uno de los líderes de nuestro negocio de IA. Juntos, MIT SMR y BCG han estado investigando y publicando sobre IA desde 2017, entrevistando a cientos de profesionales y encuestando a miles de empresas sobre lo que se necesita para construir y desplegar y escalar las capacidades de IA y realmente transformar la forma en que operan las organizaciones.

Sam Ransbotham: Bienvenido. Hoy tenemos una gran invitada: Elizabeth Anne Watkins, investigadora científica de Intel. Elizabeth, gracias por acompañarnos hoy. Empecemos.

Elizabeth Anne Watkins: Muchas gracias por recibirme hoy.

Ayudar a los médicos a tomar mejores decisiones con datos: Ziad Obermeyer de UC Berkeley

Intel Labs, ¿qué es y qué desarrolla?

Sam Ransbotham: Como el mayor fabricante de semiconductores del mundo, Intel es probablemente una empresa que la mayoría de la gente ya conoce, pero ¿puede hablarnos de Intel Labs en general y tal vez de su función en particular?

Elizabeth Anne Watkins: Los has dicho, no siempre somos los primeros en la mente en las grandes discusiones en torno a la IA, pero hay tanto trabajo fascinante sucediendo dentro de Intel. Tenemos una perspectiva única en el campo y una forma única de entrar en ese campo que estoy muy emocionada de traer algo de eso a la luz hoy en nuestra conversación.

Me incorporé a Intel en agosto del año pasado y ya ha sido una experiencia increíble conocer a tantos equipos diferentes. Me incorporé a Intel como investigador científico en las ciencias sociales de la Inteligencia Artificial y trabajo a las órdenes de Lama Nachman en Intel Labs. El grupo se llama Intelligent Systems Research.

Proyectos únicos con la firma de Intel

Shervin Khodabandeh: Elizabeth, has mencionado que Intel Labs está haciendo cosas únicas con la IA. ¿Te importaría compartir con nosotros algunas de las cosas en las que estás trabajando?

Elizabeth Anne Watkins: Un proyecto que me entusiasma especialmente se llama MARIE, acrónimo de Multimodal Activity Recognition in Industrial Environments.

Básicamente, voy a empezar con una metáfora: imagina que tu ordenador pudiera verte montar un mueble que has pedido por Internet. Cuando llegues a una parte difícil del manual, o estés sujetando un destornillador y no puedas volver al manual, imagina que tu ordenador pudiera ver lo que estás haciendo, supiera lo que el manual te va a decir y entonces te ayude a conectar esas dos cosas.

Imagina que tu ordenador pudiera decirte: “Oye, creo que estás a punto de atornillar el estante A en el soporte B“, o algo por el estilo. Y sé que cada vez que he recibido ese paquete plano que dicen que lleva un sillón, me resulta muy difícil llegar de A a B.

Cada trabajo complicado, necesita soluciones complejas

Y son procesos como estos los que nuestro personal realiza en nuestras instalaciones, donde se construyen y fabrican los chips semiconductores. Así que la gente que trabaja en nuestras fábricas, nuestros técnicos, realizan un trabajo muy complicado, manipulando piezas para todo tipo de operaciones manuales que tienen lugar en la fábrica.

Y todo el trabajo que hacen es tan complicado, a veces incluso más, que colocar un paquete plano en un sillón. Hay muchas herramientas implicadas. Hay todo tipo de procesos diferentes, diferentes equipos, diferentes tamaños de equipos. Así que estamos construyendo sistemas informáticos un poco como el que he descrito que decía: “Oye, ¿querías poner el tornillo A en el soporte B?“.

Estamos construyendo sistemas para ayudar a la gente dentro de nuestras fábricas a hacer este tipo de trabajo realmente cuidadoso y realmente complicado.

Lo digital es primero, lo físico después: Fiona Tan de Wayfair

A pesar de la IA, el humano sigue siendo el centro de todo

Sam Ransbotham: En realidad, esa es una analogía divertida. Creo que a todos nos resultan difíciles los paquetes planos, aunque tengo que admitir que a mí me gustan. Pero estoy seguro de que es mucho más complicado dentro de Intel. Y lo que me gustó de ese ejemplo es que creo que a menudo hablamos de automatización: ¿Podemos hacer que las máquinas aprendan a hacer algo que hacen los humanos?

Eso es el aprendizaje automático en su esencia. Y luego hablamos de aumento y, bueno, ¿cómo pueden las máquinas ayudar a los humanos a tomar una decisión? Esto me parece un poco diferente. Esto es ir un paso más allá.

Así que, en este caso, no estamos intentando que la máquina ensamble el paquete plano. No estamos tratando de conseguir la máquina para montar el semiconductor. Siguen siendo los seres humanos haciéndolo. Así que son los humanos los que necesitan aprender aquí. Parece que eso es ir un poco más allá de lo que hemos hablado antes.

Elizabeth Anne Watkins: Me alegro mucho de que te hayas dado cuenta, Sam. Eso es exactamente de lo que hablamos en Intel Labs, que el ser humano es el experto.

El humano es el que sabe cómo interactuar con estos sistemas, y sabe cómo atornillar los bits. Y conoce todos los entresijos físicos y dinámicos de lo que se necesita para ensamblar estos componentes diminutos y muy delicados.

No queremos entrenar a un ordenador para que lo haga. Un ordenador no puede hacerlo. El proceso de ensamblaje y limpieza, porque, por supuesto, todos estos procesos se llevan a cabo en salas superlimpias… queremos ayudar a los humanos que lo hacen.

No hay ningún ordenador que pueda hacerlo. Se necesita el juicio humano. Se necesita la experiencia humana para hacer estos procesos de una manera que sea integral y verdaderamente dinámica y pueda responder a nuevas presiones.

Experiencia humana: La clave de todo el trabajo de MARIE

Si una pieza grande de una máquina se dobla de una forma determinada pasarán muchos años antes de que los ordenadores sean capaces de evaluar, diagnosticar y solucionar este tipo de problemas dinámicos constantes. Los que realmente saben hacerlo son los humanos.

Así que estamos tratando de centrarnos en los humanos y en la experiencia humana. Y eso apunta a esta doble razón por la que estoy realmente entusiasmado con MARIE, es que hay tanto un lado tecnológico como un lado humano.

En cuanto a la tecnología, creo que MARIE es muy interesante porque es multimodal. Combina muchos tipos diferentes de sistemas de Inteligencia Artificial a través de la detección ambiental. Combina la visión por ordenador, que utiliza el reconocimiento de actividades. Esto, con la detección de audio, combinada con el procesamiento del lenguaje natural [NLP].

Así puede ayudar a construir un entorno ambiental alrededor del técnico, en última instancia para ayudarle con lo que hace.

Pero antes de que el sistema pueda ayudarles, tiene que aprender, y son los expertos humanos los que enseñan al sistema a aprender y le enseñan lo que necesita saber. Por lo que yo sé, se trata de una forma totalmente nueva de desplegar sistemas de IA en nuevos ámbitos y aplicarlos a nuevos problemas.

Estamos afrontando y abordando uno de los grandes retos del desarrollo de la IA, que es la recopilación de datos.

Necesitas muchos datos para adentrarte en un nuevo dominio. Necesitas muchos datos etiquetados de la forma adecuada, etiquetados según el tipo de problemas que intentas resolver.

Así que hemos dado la vuelta al guion: En lugar de intentar obtener todos los datos posibles antes de desplegar un sistema, desplegamos un sistema que trabaja en colaboración con los expertos sobre el terreno, que enseñan al sistema lo que necesita saber.

Y así, con suerte, los datos que se van a utilizar para ayudar a la gente a realizar estas tareas en el futuro serán producidos por los primeros grupos de personas que utilicen la herramienta.

La IA como herramienta para ejercitarse: Ameen Kazerouni de Orangetheory Fitness

¿La IA es un compañero de trabajo?

Sam Ransbotham: Eso parece una gran analogía porque como lo dices, me recordaste lo que haría si un nuevo socio humano unirse al proyecto. Pasarías por esos mismos pasos.

Shervin y yo tenemos una investigación en la que descubrimos que el 60 por ciento de la gente piensa en la IA como un compañero de trabajo, y ese es exactamente el tipo de relación que estás describiendo. Pero me hizo pensar en un pequeño peligro aquí.

Digamos que cuando pones ese sistema ahí fuera, no sabe mucho, y tienes al humano entrenándolo. Muy bien. Soy un humano. Siento que estoy un poco molesto. Yo soy como, “¿Por qué estoy teniendo que trabajar tan duro para entrenar a este compañero de trabajo?

¿Cómo se mantiene esa dinámica? Has mencionado que este proyecto tiene un aspecto técnico, pero también social. Me parece más difícil en el aspecto social que en el técnico.

El aspecto social detrás de la IA

Elizabeth Anne Watkins: Eso es precisamente de lo que quiero hablar a continuación porque eso es precisamente lo que tengo que hacer. Tengo que hablar con la gente sobre lo que realmente piensan acerca de estos sistemas.

A veces lo perciben como algo molesto, cuando se preguntan:

“Espera, estoy montando este instrumento tan complejo y el sistema me pregunta qué estoy haciendo, ¿y está mal? Entonces, ¿cómo se supone que voy a dedicar tiempo no sólo a hacer mi trabajo, sino también a enseñar a esta máquina cómo hacer mi trabajo?”.

Así que estoy muy satisfecha de poder ser la científica social que está allí sobre el terreno. Todavía estamos en pleno proceso de desarrollo, y es habitual que las empresas realicen todas las pruebas que pueden, por supuesto, antes de desplegar algo. Y luego, cuando llegan los principios reales del despliegue, suelen llegar más cerca del final del proceso de desarrollo.

Ciencia social y comprensión, un buen matrimonio para el desarrollo de la IA

Pero aquí, la ciencia social y la comprensión de lo que la gente necesita y lo que puede encontrar molesto está justo en el ADN del desarrollo. Así que hablo constantemente con los técnicos para los que construimos el sistema y les hago preguntas como la que has descrito:

“¿Crees que esto es molesto? ¿Cómo podría ser más útil? ¿Qué otras posibilidades podemos incorporar al sistema para que te resulte más útil?”.

Y también hacer preguntas más profundas, no sólo sobre su relación diádica con el sistema, sino también sobre su contexto sociotécnico más amplio de trabajo. Por ejemplo: “¿Cómo es tu horario?”, “¿Qué han dicho tus jefes sobre el sistema?” y “¿Hay alguna forma de facilitar unas relaciones más productivas, no sólo con tus jefes, sino también con tus compañeros, a través de este sistema?”.

Medicina de precisión en la industria farmacéutica: Frank Nestle de Sanofi

Entender el contexto social, brinda confianza a la IA

Y así, nuestro objetivo es construir una comprensión muy profunda, no sólo de una tarea, sino todo un espacio de trabajo. Y así preguntar cómo nuestro sistema puede ayudar de la mejor manera posible para amplificar el potencial humano por ser un compañero de trabajo para los seres humanos dentro de este espacio, pero también preguntando:

“¿Cómo se puede construir con una comprensión de su contexto de trabajo con el fin de facilitar una relación a largo plazo?”

Porque una de las cosas que exige el hecho de que dependamos de las personas para proporcionar datos es que necesitamos que se comprometan. Además, que les guste interactuar con el sistema y que lo consideren digno de confianza, fiable y útil.

Y entender cómo pueden alcanzarse todos esos objetivos requiere un profundo conocimiento del contexto social y de los hábitos sociales y laborales y de los flujos de tareas. Y eso es precisamente en lo que estamos trabajando ahora.

Aprovechar lecciones sociales para aplicarlas a la IA

Shervin Khodabandeh: Creo que es muy interesante cómo parece estar pensando más allá de este proyecto. Está el elemento: “Vale, ¿cómo pongo en marcha este proyecto concreto?”. Pero subyacen muchas de las cosas de las que hablas, como

“¿Cómo averiguamos la mejor manera de introducir, esencialmente, un nuevo sistema? ¿Cómo encontrar la mejor manera de transformar y alcanzar nuestra visión global?”

Y eso va más allá de un solo proyecto. ¿Cómo intentan aprovechar esas lecciones?

Elizabeth Anne Watkins: Es una gran pregunta. Estoy muy orgullosa de nuestros laboratorios y de algunas de las grandes apuestas que estamos haciendo en la colaboración entre humanos e Inteligencia Artificial.

También de cómo se están recogiendo, y se han recogido históricamente en Intel, las aportaciones y contribuciones de las ciencias sociales a través de sus proyectos de investigación. A medida que realizamos proyectos de investigación y creamos productos hay una gran inversión en los equipos que facilita. Existe también el fomento a las conversaciones con gente como yo, con los científicos sociales.

A menudo reunimos en una sala a equipos fantásticos de ingenieros, científicos de datos, responsables políticos y científicos sociales. Entre ellos también hay un magnífico equipo de antropólogos dirigido por Dawn Nafus. Así como otro equipo de científicos sociales formado por psicólogos.

Todos colaboramos muy estrechamente para garantizar que los productos provean una solución real. Que aprovechemos todos los diferentes tipos de posibilidades multimodales que pueden ofrecer nuestras herramientas y que comprendamos en profundidad el contexto social y organizativo en el que se van a desplegar todos nuestros productos.

Lo mejor de la semana: ¿Jornadas laborales cortas? Sí, pero no para todos

Ciencias sociales para desarrollar IA, ¿por qué?

Sam Ransbotham: Creo que a menudo se produce una transición entre la primera vez que hablamos de estos modelos y herramientas y el uso de datos. Las cosas estaban muy orientadas a los datos y las herramientas y muy orientadas a la ciencia. Y eso tenía mucho sentido porque no sabíamos cómo hacer algunas de estas cosas.

Y ahora, como sociedad, estamos aprendiendo a utilizar muchas de estas herramientas y a construir modelos. Pero muchos de los equipos que has mencionado no son cosas tradicionales que podríamos haber considerado integrales para producir una aplicación de IA, pero son los que has mencionado. ¿Por qué las ha elegido? Supongo que es parte de su formación en ciencias sociales, ¿verdad?

Elizabeth Anne Watkins: Sí, a lo largo de mis estudios de postgrado y postdoctorado, yo siempre estaba realmente invertido en los usuarios y en las personas. Y siempre me ha fascinado lo rara que puede ser la gente y lo creativa e innovadora que es, y cómo la gente suele utilizar las tecnologías de formas que sus desarrolladores no previeron ni prevén.

Y aunque hay algunos elementos peligrosos en ello, como hemos visto en varios usos indebidos y aplicaciones de doble uso. También hay un montón de maneras realmente fantásticas y maravillosas que la gente ha descubierto para que la tecnología sea más adecuada.

Así que ver cómo Intel era diferente debido a su historia como fabricante de semiconductores y tener un enfoque de ecosistema para la forma en que se despliegan las herramientas de IA realmente me mostró que eran una empresa que se preocupaba, al igual que yo, por las personas que iban a utilizar estas herramientas.

Elizabeth Anne Watkins, sus pasos hasta Intel

Shervin Khodabandeh: Elizabeth, está claro que gran parte de tu experiencia se ha ido conociendo a medida que hablábamos, pero ¿podríamos retroceder un segundo y preguntarte cómo acabaste en este puesto en Intel Labs?

Elizabeth Anne Watkins: Supongo que mi camino hacia este puesto empezó hace tiempo, probablemente al principio de mi carrera universitaria.

Después de graduarme en el MIT y comenzar mi doctorado en Columbia, había una vacante para alguien que contribuyera a un proyecto sobre comportamientos de seguridad y privacidad entre periodistas. Y mi asesor me dijo: “Oye, te he conseguido una entrevista para este proyecto”.

Yo dije: “No sé nada sobre seguridad y privacidad”. Y ella dijo: “Ve a la entrevista. Te he conseguido la entrevista. Solo ve”. Y así, la noche antes de la entrevista, pensé:

“Oh, será mejor que tenga algo de qué hablar. PGP (Pretty Good Privacy) todo el mundo habla de PGP. Será mejor que me descargue PGP para poder actuar como si supiera lo que es PGP”.

Y traté de averiguarlo, y fue difícil. No podía entenderlo… Fui al sitio web y me dije:

“El sitio web no explica realmente lo que está pasando aquí. ¿Dónde está la clave? Descargo la clave, pero la clave también se guarda en una base de datos, ¿pero escribo la clave en mis correos electrónicos? No puedo hacer esto. Soy tan mala en esto. Esto no es para mí”.

Y fui a la entrevista al día siguiente con la maravillosa jefa de proyecto, Susan McGregor, y le dije: “¿Sabes qué? Este trabajo no es para mí. Traté de hacer PGP; es extrañamente difícil. Hay algo en él que yo… no puedo entender el lenguaje”.

Y ella dijo: “Creo que eso te hace perfecto para este trabajo porque estamos tratando de averiguar por qué la seguridad y la privacidad son tan difíciles para la gente en el trabajo, especialmente los periodistas que son objetivos de alto valor para el ataque de un montón de diferentes actores, y estamos tratando de averiguar cómo podemos hacer que los protocolos de seguridad y privacidad mejor para ellos, por lo que suena como si estuvieras frustrado con la forma en que la seguridad está diseñada”.

Yo dije: “Sí, eso fue frustrante”. Mientras tanto, ella dijo: “OK, vamos a hacer algo de trabajo”.

Transformando las transacciones con tecnología: Nitzan Mekel-Bobrov de eBay

Primer paso para llegar a Intel: Los periodistas

Así que acabamos trabajando juntos durante varios años estudiando a periodistas. Tuvimos un proyecto especialmente angustioso en el que estudiamos a los periodistas que publicaron los Papeles de Panamá. Y para ello disponían de terabytes de datos.

Había periodistas trabajando en todo el mundo. Ninguno de ellos estaba ubicado en un mismo lugar, y no sufrieron ni una sola brecha. Ni una sola vez se produjo una brecha en todos esos datos. Y así lo vimos como una historia de éxito. Y dijimos:

“De acuerdo. Siempre oímos las malas historias sobre violaciones y ataques; nunca oímos las historias de éxito”.

De los Panama Papers a Intel

Así llegamos a entrevistar a los periodistas que contribuyeron a los Papeles de Panamá y hablamos con ellos sobre su cultura organizativa y cómo hacer protocolos uniformes para todos los periodistas ayudó a inculcar un sentido de trabajo en equipo y un sentido de que se estaban protegiendo unos a otros.

Ver el poder de la cultura y la misión compartida en los comportamientos en torno a algo tan difícil como PGP y los protocolos de seguridad… fue realmente inspirador.

Por aquel entonces, empecé a prestar atención al reconocimiento facial, y de ahí a observar la IA y plantearme preguntas similares:

“¿Por qué es difícil de entender? ¿Cómo podemos comunicárselo a la gente de una forma más estratégica que comprenda mejor el trabajo que están haciendo y el trabajo que necesitan hacer? ¿Y cómo podemos aportar algo de transparencia a estos sistemas de un modo que sea significativo y comprensible para la gente real?”.

Evitar errores propagados por la IA

Sam Ransbotham: Una de las cosas interesantes sobre eso es, la seguridad es siempre así. Si es un poco difícil de hacer, todos tendemos a no hacerlo, porque es el problema de mañana frente al problema de hoy. Eso es algo en lo que los humanos somos terribles. Y creo que en lo que hemos fallado en muchos aspectos es en no incorporarlo a la infraestructura para que sea algo predeterminado.

Hay muchas analogías con la Inteligencia Artificial: Estamos construyendo cosas, y si no hacemos que los valores por defecto sean fáciles de usar o fáciles de hacer lo correcto, entonces la gente hará lo incorrecto. Y ha mencionado el reconocimiento facial: ¿Qué tipo de cosas deberíamos incorporar a nuestra infraestructura para no propagar los errores basados en la IA?

Elizabeth Anne Watkins: Es una gran pregunta. Algo que impulsa mi investigación, es el reconocimiento de que las personas son expertas en sus propias vidas. Además de que realmente necesitamos comprometernos con la gente a lo largo de todo el proceso de desarrollo para construir no sólo sistemas, sino soluciones.

Y lo más cerca que una empresa puede estar de incluir la experiencia de las ciencias sociales y lo que los científicos sociales pueden aportar sobre herramientas rigurosas para estudiar cómo vive la gente. Además de los tipos de lenguajes que utilizan y los tipos de valores que tienen y lo que es realmente importante para ellos.

Así como la construcción de diferentes tipos de opciones y diferentes tipos de vías en la misma tecnología que podría ser utilizada de manera diferente por personas de diferentes niveles de accesibilidad, son todas las cosas que me encantaría ver que todo el campo adopta.

Cómo invertir en IA: Hina Dixit de Samsung

Pasos que deben de dar las empresas

Sam Ransbotham: Eso suena bien. Quiero decir… igual que comprar barato y vender caro suena muy bien. ¿Cómo lo hacen las empresas? ¿Qué pasos deben dar para progresar en este sentido?

Elizabeth Anne Watkins: Es una gran pregunta. La forma en que lo estamos haciendo en Intel es facilitar las conversaciones entre nuestros equipos técnicos -personas.

Y tengo la gran suerte de estar en un lugar en el que estamos integrando esta experiencia en la fase de formulación de problemas y en la fase de formulación de proyectos, a lo largo de todo el proceso de desarrollo.

Proceso de evaluación de impacto ético

También me ha complacido mucho que Intel haya establecido el proceso de evaluación del impacto ético junto con el Responsible AI Council. Se trata de un proceso que los equipos de Intel y de todas las unidades de negocio incorporan de forma sólida y rigurosa al proceso de desarrollo.

Esta es una forma de inyectar la experiencia, no sólo de los científicos sociales, sino de todos los que forman parte del Consejo de IA Responsable, incluidos los ingenieros y los responsables políticos.

Y la evaluación del impacto ético es una forma de poner en práctica los valores y garantizar que los valores en torno a los derechos humanos, la privacidad, la seguridad, la diversidad y la inclusión.

Momento de más orgullo de la IA

Shervin Khodabandeh: Bien, tenemos un segmento en el que hacemos a nuestros invitados una serie de cinco preguntas rápidas. Responda lo primero que se le ocurra. Primera pregunta: ¿Cuál es el momento en el que se siente más orgulloso de la IA?

Elizabeth Anne Watkins: Oh, Dios mío. Es una gran pregunta. Estoy muy orgullosa de poder representar las voces de los técnicos que tenemos en la planta ante estos equipos de ingenieros y científicos de datos que están construyendo estos sistemas.

Entender distintas pareas de Intel, el regalo de las ciencias sociales

Y gracias al proceso que Intel ha creado, en el que puedo sentarme con los equipos de ingenieros que están creando la visión por ordenador y el reconocimiento de acciones y la PNL. Además, eligiendo las frases en los marcos semánticos en torno a las tareas y sobre cómo se construyen las tareas y cómo se pueden reconocer.

Poder hacer las entrevistas que hago con los técnicos para preguntarles sobre sus preocupaciones cuando se introduce esta tecnología. Qué podemos hacer para asegurarnos de que se abordan sus preocupaciones. También preguntarles qué necesitan saber sobre la transparencia, qué necesitan para confiar en el sistema.

El hecho de poder recoger esa información y transmitirla sistemáticamente a los ingenieros y ver lo rápido que responden. Como,

“Oh, bueno, podemos construir esto y podemos construir aquello. ¿Y si incorporamos esto a la interfaz de usuario? ¿Y si construimos esto en el diálogo?”.

Es un proceso tan increíblemente convincente, especialmente después de venir del mundo académico, donde escribía un artículo y luego tardaba un año en publicarlo. Y entonces…

Sam Ransbotham: Oh, un año suena rápido.

Elizabeth Anne Watkins: Correcto. Si tenía suerte, tardaba un año. Creo que mi récord más largo fue tal vez 3½ años que tardó en ser publicado. No se. ¿Cuál es tu récord?

Sam Ransbotham: Uh, 10. Así que …

Elizabeth Anne Watkins: ¡Diez!

Sam Ransbotham: Sí. Pero no hablemos de ello, porque me pondré triste.

Elizabeth Anne Watkins: Oh, no.

Las asociaciones en IA ayudan a cuidar el planeta: Dave Thau de WWF

Preocupaciones de Watkins entorno a la IA

Sam Ransbotham: Así que has mencionado las preocupaciones que la gente tiene. ¿Qué te preocupa de la IA?

Elizabeth Anne Watkins: Bueno, una de sus mayores preocupaciones, cuando empecé a hablar con los técnicos, era que iban a ser reemplazados.

Les dije: “Vale, vamos a hablar. ¿Para qué creen que sirve esto?”. Y me dijeron: “He visto las noticias. Sé que están intentando construir un robot que haga exactamente lo que yo hago, así que imagino que estoy entrenando a mi sustituto”.

Y pensé: “¡Oh, no! Eso es terrible“. Y llegué a tener un montón de conversaciones con nuestros técnicos donde llegué a decir:

“Eso no es lo que estamos haciendo. No estamos tratando de reemplazarte. Tú eres el experto. Te necesitamos. De hecho, necesitamos que enseñes el sistema para que el sistema pueda ir y ayudar a otras personas como tú. De este modo, al formar al sistema, en realidad estás ayudando a mucha otra gente en las fábricas de Intel de todo el planeta, y te estás asegurando de que reciben ayuda del modo en que a ti te gustaría recibirla”.

Una actividad sin IA

Sam Ransbotham: Algunas investigaciones en las que Shervin y yo participamos hace un par de años se centraban por completo en este aspecto del aprendizaje organizativo al que aludías: que es una forma de que todo el mundo aprenda más rápidamente y de difundir el conocimiento.

¿Cuál es su actividad favorita que no implique tecnología? ¿Qué es lo que no es IA en su mundo?

Elizabeth Anne Watkins: Últimamente están ocurriendo tantas cosas que a veces resulta difícil saber qué es IA y qué no lo es.

En mi vida personal, horneo mucho. Hace tiempo que no hago una barra de pan. Cocino mucho. Tengo mucha suerte de vivir con mi marido en la ciudad de Nueva York, así que exploramos mucho, de hecho, simplemente salimos a la calle.

Esa es probablemente la mayor actividad no relacionada con la IA: salir a la calle con nuestros propios pies y mirar a nuestro alrededor con nuestros propios ojos. Y eso siempre es muy refrescante.

Antes de ser científica, Elizabeth Anne Watkins quería ser…

Shervin Khodabandeh: ¿Cuál era la primera profesión que quería cuando era joven? ¿Qué quería ser de mayor?

Elizabeth Anne Watkins: Quería ser artista, y ha sido un camino tortuoso. Me licencié en la UC Irvine y estudié videoarte.

Mayor deseo de la IA para le futuro

Shervin Khodabandeh: ¿Cuál es su mayor deseo para la IA en el futuro?

Elizabeth Anne Watkins: La IA puede hacer muchas cosas que los humanos no pueden, pero también hay muchas cosas que los humanos pueden hacer que la IA no puede.

Y creo que un gran reto, al menos para mí, y espero que para la gente con la que trabaje en los próximos años, va a ser averiguar exactamente cuál es ese equilibrio y cómo podemos sistematizar.

¿Qué es lo que la gente realmente necesita ayuda que los sistemas de IA pueden hacer?” pero con una comprensión realmente profunda de lo que la gente hace y cómo lo hace.

Ahora que los sistemas de IA se están volviendo tan avanzados, pero a menudo en un laboratorio o en el vacío, a medida que maduran en el mundo real. Creo que es realmente emocionante lo que pueden hacer, pero nos enfrentamos a un montón de trabajo para conseguirlo.

Y creo que van a ser otros científicos sociales y equipos multidisciplinares como los que tenemos en Intel los que trabajen juntos para garantizar que estos sistemas puedan desplegarse realmente como soluciones.

Aprendizaje continuo con IA: Shelia Anderson de Aflac

Despedida

Sam Ransbotham: Esa es una buena tapa para el episodio. Gracias por hablar con nosotros. Creo que una de las cosas que ha quedado clara es que estás hablando de proyectos y de cosas en las que estás trabajando. Pero también nos estás dando una pista sobre lo que va a pasar en el futuro a medida que dejemos de centrarnos, digamos, en las herramientas:

“¿Podemos hacer bien el ML? ¿Qué tal obtener el modelo correcto? ¿Podríamos obtener los datos correctos?”

Hablas mucho de lo que pasa después, de lo que ocurre una vez que hemos tachado algunas de esas marcas. Y creo que mucha gente puede aprender de ello. Gracias por dedicarnos su tiempo hoy.

Elizabeth Anne Watkins: Dios mío, ha sido un placer.

Sam Ransbotham: Gracias por escuchar. La próxima vez, Shervin y yo hablamos con David Hardoon de Aboitiz Data Innovation. Una vez más estamos hablando de ingeniería química, por lo que no querrá perderse esta.

Allison Ryder: Gracias por escuchar Me, Myself, and AI. Creemos, como tú, que la conversación sobre la implementación de la IA no empieza y termina con este podcast. Por eso hemos creado un grupo en LinkedIn específicamente para oyentes como tú.

Se llama AI for Leaders, y si te unes a nosotros, podrás charlar con los creadores y presentadores del programa, hacer tus propias preguntas, compartir tus puntos de vista y acceder a valiosos recursos sobre la implementación de la IA del MIT SMR y BCG. Puedes acceder visitando mitsmr.com/AIforLeaders. Pondremos ese enlace en las notas del programa, y esperamos verte allí.


SOBRE LOS ANFITRIONES

Sam Ransbotham (@ransbotham) es profesor del departamento de sistemas de información de la Carroll School of Management del Boston College, así como editor invitado de la iniciativa Big Ideas de IA y Estrategia Empresarial del MIT Sloan Management Review. Shervin Khodabandeh es socio sénior y director gerente de BCG y colíder de BCG GAMMA (la práctica de IA de BCG) en Norteamérica. Puede ponerse en contacto con él en shervin@bcg.com.

Me, Myself, and AI es un podcast en colaboración de MIT Sloan Management Review y Boston Consulting Group, presentado por Sam Ransbotham y Shervin Khodabandeh. Nuestro ingeniero es David Lishansky, y las productoras coordinadoras son Allison Ryder y Sophie Rüdinger.

Síguenos en Google News
Te recomendamos
Foto perfil de Sam Ransbotham y Shervin Khodabandeh
Sam Ransbotham y Shervin Khodabandeh Sam Ransbotham (@ransbotham) es profesor del departamento de sistemas de información de la Carroll School of Management del Boston College, así como editor invitado de la iniciativa Big Ideas de Inteligencia Artificial y Estrategia Empresarial del MIT Sloan Management Review. Shervin Khodabandeh es socio sénior y director gerente de BCG y colíder de BCG GAMMA (la práctica de IA de BCG) en Norteamérica. Puede ponerse en contacto con él en shervin@bcg.com.
Descarga GRATIS nuestro especial
descargable
Descarga AQUÍ el artículo completo Ciberseguridad ¡Descárgalo GRATIS!
Suscríbete al Newsletter
¡SUSCRÍBETE!
Regístrate Registro foro mit AQUÍ