Nuestros sitios
Ver edición digital Suscríbete al NEWSLETTER
Compartir

Confianza y detección de fraudes a escala: Stephanie Moyerman de Instagram

MIT SMR México 26 Jun 2023
Confianza y detección de fraudes a escala: Stephanie Moyerman de Instagram Stephanie Moyerman es la mujer encargada de cuidar de Instagram al utilizar IA. (Especial)

Stephanie Moyerman, una física reconvertida en líder tecnológica habla de cómo la IA puede permitir mejorar las experiencias de los usuarios en Instagram.


La formación de Stephanie Moyerman en cosmología y astrofísica, donde trabajó con grandes conjuntos de datos, la preparó bien para una carrera en ciencia de datos y ética. En la actualidad, es la directora de bienestar de la ciencia de datos en Instagram, donde trabaja para mejorar la confianza, la seguridad y la integridad de sus usuarios.

Stephanie se une a Sam Ransbotham y Shervin Khodabandeh en este episodio del podcast Me, Myself, and AI para hablar de cómo la aplicación de la Inteligencia Artificial (IA) permite a Instagram detectar el fraude y el abuso para ayudar a proteger a los usuarios. Así como de la importancia de la aportación humana en los bucles de retroalimentación de la IA y la necesidad de profesionales con más experiencia en el campo.

Ayudar a los médicos a tomar mejores decisiones con datos: Ziad Obermeyer de UC Berkeley

Suscríbete a Me, Myself, and AI en Apple Podcasts, Spotify o Google Podcasts.

Transcripción

Sam Ransbotham: El campo emergente de la ciencia de datos está progresando rápidamente, lo que da lugar a numerosos retos de gestión. ¿Cómo garantizan los líderes tecnológicos que los espacios digitales en rápida evolución, como las redes sociales, sigan siendo seguros y equitativos? Descúbralo en el episodio de hoy.

Stephanie Moyerman: Soy Stephanie Moyerman, de Instagram, y están escuchando Me, Myself, and AI.

Sam Ransbotham: Bienvenidos a Me, Myself, and AI, un podcast sobre inteligencia artificial en los negocios. En cada episodio te presentamos a alguien que está innovando con IA. Soy Sam Ransbotham, profesor de analítica en el Boston College. También soy editor invitado de IA y estrategia empresarial en MIT Sloan Management Review.

Shervin Khodabandeh: Y yo soy Shervin Khodabandeh, socio sénior de BCG y uno de los líderes de nuestro negocio de IA. Juntos, MIT SMR y BCG han estado investigando y publicando sobre IA desde 2017, entrevistando a cientos de profesionales y encuestando a miles de empresas sobre lo que se necesita para construir y desplegar y escalar las capacidades de IA y realmente transformar la forma en que operan las organizaciones.

Stephanie Moyerman, a esto se dedica la física en Instagram

Sam Ransbotham: Stephanie, gracias por unirte a nosotros. Háblanos un poco de tu trabajo. ¿A qué te dedicas ahora?

Stephanie Moyerman: Soy la directora de ciencia de datos que apoya a Instagram Wellbeing. Instagram Wellbeing garantiza la confianza, la seguridad y la integridad en la plataforma de Instagram.

Sam Ransbotham: Hemos oído a muchos invitados hablar de los diversos lados oscuros de las redes sociales. Parece que hay una historia casi todos los días sobre algo que ha ido mal. Creo que pasamos por alto todo lo que va bien. ¿Qué papel pueden desempeñar la inteligencia artificial y los datos para devolver la luz a las redes sociales?

Stephanie Moyerman: Hay una gran cantidad de datos que demuestran que en la industria de la seguridad, y no sólo en las redes sociales, sino en la industria en general para adolescentes.

La seguridad en los últimos 100 años, el bienestar en los últimos 50 años, ha aumentado para los adolescentes. Y hay una interesante historia de datos sobre eso, desde lo que piensas como sus problemas potenciales más graves Por ejemplo, la denuncia policial, a sólo la capacidad de acceder a la información para enseñarse a sí mismo. Y es realmente tan simple como las tasas de alfabetización sólo han aumentado tiempo tras tiempo de nuevo, y es realmente los datos que nos da la lente en eso.

Lo digital es primero, lo físico después: Fiona Tan de Wayfair

Así que ser capaz de analizar los datos en una plataforma como Instagram o en cualquiera de estas amplias plataformas de medios sociales, donde se tiene acceso a decenas de millones de adolescentes, y decir:

“Hey, así es como realmente podemos contar una historia que hace que esta plataforma sea más segura, mejor, y hace del mundo un lugar un poco mejor”. Eso es algo que, antes de los últimos 20 años, en realidad no podíamos hacer en absoluto.

Sam Ransbotham: Hey, eso es un gran punto. Quiero decir, simplemente no teníamos esos datos de ninguna manera. No había ninguna colección de ella en absoluto.

Háblenos un poco de lo que ha aprendido sobre cómo están progresando las cosas. Ha dicho las tasas de alfabetización, ¿qué hay de otras cosas?

Alfabetización e Instagram, ¿qué tiene que ver?

Stephanie Moyerman: Dentro de nuestros propios ecosistemas, donde vemos que las cosas progresan es en la capacidad de ayudar a establecer normas sociales saludables, y así es como pensamos las cosas.

No sólo para los adolescentes, sino para toda la plataforma, ¿cómo podemos fomentar y promover las relaciones entre las personas?. Y por supuesto, un diálogo que ayude a establecer un comportamiento normalizado que aumente la conciencia de lo bueno que está pasando. Y todo ello impulsado por modelos de personalización a gran escala que intentan predecir qué es lo que suscitará.

En el lado opuesto, toda la industria, en realidad, a través del comercio electrónico, tiene modelos a gran escala de la IA que nos han permitido comprender el sentimiento de la conversación. Además, la seguridad de la conversación, el contenido dentro de las imágenes, que protegen a la gente de ver cosas que de otro modo habrían quedado sin regulación.

Así que si pensamos en las publicaciones sensacionalistas o en las cosas que cualquiera podía ver antes y que no estaban reguladas. Ahora no solo tenemos la amplitud para hacerlo, sino también las herramientas de IA que nos permiten hacerlo a gran escala.

La IA como herramienta para ejercitarse: Ameen Kazerouni de Orangetheory Fitness

Detectar ‘contenidos malos’

Sam Ransbotham: Eso es hermoso, porque estás señalando cómo muchas de estas cosas sólo estaba sucediendo de antemano, y ahora reconocemos que parte de ella es sólo una medición y un problema de observación.

Shervin Khodabandeh: Es cierto. También me parece que hay dos factores en juego, y tal vez haya una carrera aquí. Porque, por un lado, cada vez hay más gente con acceso, y esto es señal de una sociedad libre y próspera, y la gente debería tener libertad para publicar lo que quiera.

Por otro lado, las posibilidades de que aparezcan contenidos malos o hirientes han aumentado porque hay más participantes. Ese es uno de los factores.

Por otro lado, creo que el punto que estás haciendo, Stephanie, es como, “OK, así que ahora tenemos datos, ahora tenemos AI, ahora tenemos ML (aprendizaje automático), así que podemos atraparlo”.

Pero también se siente como si fuera un poco de una carrera. Es como en la atención sanitaria, también, nuestra esperanza de vida está aumentando porque vivimos más tiempo gracias a la intervención de la medicina. Pero también se oye hablar de todo tipo de nuevos contaminantes que estamos inventando, porque estamos evolucionando. Aunque también estamos evolucionando con la medicina, estamos tratando de diagnosticar y atrapar eso.

¿Tiene sentido? A mí me parece que hay dos factores diferentes, y que hay una carrera aquí, ¿o es que la carrera va a terminar en algún momento y la IA y la tecnología van a frenar a los malos elementos?

El reto de frenar los malos elementos en las redes

Stephanie Moyerman: Creo que es una pregunta interesante. Una de las grandes cosas de las que hablamos es que todos estos espacios en los que tratas de luchar contra este imprevisto negativo son juegos de adversarios. Son juegos del gato y el ratón. Y cuanto más cambias, más creativas son las diferencias que creas en el ecosistema de las personas contra las que luchas.

Pero para seguir este ritmo, en realidad, en ambos lados, la tecnología tiene que ser más sofisticada. Tienes que ser capaz de escalar más rápidamente y de trabajar a través de un conjunto diferente de cuestiones que incluso hace cinco, 10, 15 años. Es una especie de carrera armamentística tecnológica.

Medicina de precisión en la industria farmacéutica: Frank Nestle de Sanofi

Lo que yo diría, sin embargo, es que a gran escala, a escala masiva, existe la capacidad de regular, lo que es extremadamente importante para establecer una norma universal.

Dicho esto, me encanta la visión de la libertad y la agencia de expresión que esto ofrece. Creo que, después de haber trabajado en este campo durante mucho tiempo, la naturaleza contradictoria es una de las cosas que me mantiene en él. Siempre hay nuevos problemas que resolver, siempre hay cosas nuevas que trabajar.

Pero realmente creo, incluso trabajando en fraude, abuso y confianza durante los últimos 10 años, creo que la gente es fundamentalmente buena. Y lo decimos mucho: Un mal actor no significa que seas una mala persona. Alguien puede demostrar un mal comportamiento sin darse cuenta, sin la intención que crees que está asociada con eso.

Así que creo que estos esfuerzos a gran escala en torno a la comprensión del tenor de la conversación, además del emparejamiento de la IA con la psicología social y la regulación gubernamental permiten a la gente expresarse libremente su agencia elegida de la experiencia.

Shervin Khodabandeh: Sí. Y como los has estado diciendo, ahora tenemos increíbles conjuntos de datos de entrenamiento para que usted pueda hacer eso.

Sin embargo, también en el caso del fraude las empresas de pago notaron que había muchos datos que podían utilizar para comprender el comportamiento fraudulento. Por eso entrenaron los datos y aprendieron que había una fuente de verdad.

¿Qué tan seguro podemos estar acerca de la fuente de la verdad en las cosas que estás hablando? Así que quiero decir, ¿cómo definitiva es los datos para entrenar a estos algoritmos?

IA y datos, la fuente de la verdad

Stephanie Moyerman: Sabes, esta es una buena pregunta. Creo que la verdad es que los modelos que enseñamos con nuestros datos de entrenamiento sólo pueden discernir tan bien como podría discernir cualquier humano experto en ese campo, ¿verdad?.

Así que los modelos pueden ver muchos, muchos, muchos más ejemplos de esto. Millones de ejemplos más de lo que un ser humano podría en toda su vida. Pero los seres humanos han construido su conocimiento agudo de lo que constituye, digamos, el fraude, lo que constituye un buen arte, y hemos bombeado en esto. El modelo está aprendiendo de esas decisiones.

Y así hay dos cosas realmente importantes aquí. Uno, recuerdo haber trabajado en un proyecto una vez que alguien estaba diciendo, “Quiero predecir el sentimiento a través de ver a través de estas gafas.” Y un tipo del equipo dijo:

“Si puedes hacer eso, ¿puedes dármelas? Porque todavía no puedo decir lo que mi esposa está pensando “.

Y así, ya sabes, la capacidad para nosotros para hacer eso es un poco limitada por el conocimiento humano fundamental.

Creo que mucho de esto es cultural, también. Si piensas en lo que constituye un producto o lo que constituye una imagen que alguien podría encontrar subido de tono variará mucho en todo el mundo. Así que hay que contextualizar todos estos modelos. Pero la parte más importante es la que has tocado antes, que es, tiene que haber un circuito cerrado de retroalimentación. Así es como funciona realmente el fraude y por qué es tan bueno.

Porque hay un agente que comprueba cuando hay dinero en el otro extremo de la línea para asegurarse de que esto realmente fue un fraude. Comprueban con la persona que, digamos, poseía la tarjeta de crédito original que fue, en este caso, en este ejemplo, robada, Y así tienes este circuito cerrado de retroalimentación de todos los jugadores.

Eso no es 100 por ciento garantizado tampoco. Quiero decir, si lo estropeas, es un fraude al seguro, pero hay estos bucles cerrados que dicen:

“Hey, nuestro algoritmo se equivocó en esto. Tenemos que arreglarlo”.

Y así, para todos los problemas, si quieres evaluarlos en su contexto, tienes que ser capaz de tener un bucle de retroalimentación del mundo real. Así que si quitas eso, de repente, el algoritmo sólo aprende de sí mismo. Y eso será un problema.

¿Filosofía y… ciencia de datos?

Sam Ransbotham: Eso es muy interesante también, porque creo que tanto tú como Shervin mencionaron el comportamiento apropiado o malo, y estos son tipos tan subjetivos de etiquetas que pueden variar mucho.

Creo que lo que es interesante es que a medida que pensamos en cómo este campo de la ciencia de datos se está desarrollando. Hubo una cita hace unos años que “el trabajo más sexy del siglo 21 va a ser el científico de datos”. Bueno, el tipo de cosas que ambos están hablando hablan de la idea de que el próximo trabajo más sexy va a ser filósofo. Va a ser esa persona que puede razonar lo que estos algoritmos deben o no deben hacer, y eso se siente muy escaso para mí en este momento. La ciencia de los datos…

Transformando las transacciones con tecnología: Nitzan Mekel-Bobrov de eBay

Shervin Khodabandeh: ¿No es eso lo que dijo Platón hace 2.500 años?

Sam Ransbotham: ¿Regresando al principio? Pero eso parece una habilidad que es mucho más escasa ahora que la ciencia de datos. Esta idea de determinar, como acabas de decir, si algo es apropiado, lo que esas normas deben ser. Me parece realmente difícil.

Revisando la historia junto con la ciencia de datos

Stephanie Moyerman: Es una idea muy interesante, porque la ciencia de datos realmente no existía hace 20 años, ¿verdad? Así que el número de personas que pueden practicar la ciencia de datos a un nivel sofisticado, es muy pequeño.

Eso es porque había que crecer en un mundo donde se podía aprender y tener 10 años de experiencia en el mundo real en su hoja de vida. “Necesitamos a alguien con al menos 10 años gestionando ciencia de datos”. Buena suerte; hay como siete personas por ahí. ¿Quiénes son esas personas?

Y así, cuando se piensa en que la noción de que estos algoritmos se han vuelto tan sofisticados que necesitamos una lente en la equidad, en la comprensión de la intención y no sólo la detección de comportamientos.

Ahora tenemos investigadores muy sofisticados de la experiencia del usuario que pueden entender la filosofía de estos productos, que pueden ayudar a hacer avanzar las cosas. Creo que tenemos que animar a la gente a entrar en el campo de aprender lo que significa estar en un mundo impulsado por la IA.

Creo que donde esto afecta… lo más importante, donde tenemos la mayor experiencia en este momento, es en la equidad, es decir: “¿Son justos los algoritmos de IA?”.

La demografía puede ser de cualquier manera, como Shervin estaba hablando antes, como culturalmente, para asegurarse de que tenemos resultados iguales para todas las partes. Actualmente hay una serie de programas informáticos que son excelentes para hacer esto, incluso al principio de este campo floreciente.

Así que necesitamos expertos que se sienten con ese conjunto de algoritmos para ayudar a las empresas a averiguar cómo atravesar estos temas supersensibles y muy, muy importantes.

Controlar los datos en tiempo real

Sam Ransbotham: Como has dicho, la imparcialidad puede ser uno de los aspectos en los que estemos más desarrollados que en otros, pero es un reto. Esto es porque ahora mismo la gente publica fotos en Instagram y en otros sitios. No tienes esos cinco o diez años para desarrollar esa experiencia. ¿Cómo lo hacemos en tiempo real?

Stephanie Moyerman: Creo que la cuestión aquí para todas estas grandes plataformas [es] cuando ves esto a escala y dices: “Es a la vez estimulante y un poco aterrador”.

Las asociaciones en IA ayudan a cuidar el planeta: Dave Thau de WWF

Entiendo el aspecto del consumidor, pero nunca habríamos sido capaces de llegar a esta escala. Por ejemplo, en la que Amazon puede entregar un paquete en un día, si no hubiéramos tenido todos estos algoritmos que examinan todo lo que están vendiendo. Manteniéndolos conformes, examinando cada compra para asegurarse de que nadie ha robado su tarjeta de crédito.

Pero en realidad, la cuestión para mí es que, como hemos hablado antes, hay que cerrar las puertas a las cosas para garantizar que haya seguridad y protección en la plataforma. Tienes que desarrollar estos algoritmos a gran escala, y tienes que tener un conjunto de etiquetas de juicio humano que te digan lo que es apropiado frente a lo que no lo es.

Luego tienes que tener tus sistemas diseñados para que tus consumidores puedan darte esa retroalimentación constante y muy fácilmente. Tenemos que permitir que nuestros clientes, nuestros usuarios, todo el mundo pueda expresarse y decirnos: “¿Ha sido esta una decisión adecuada o no?” y apoyarlo mediante operaciones.

Por nuestra parte para decir: “Tenemos el conjunto más limpio de decisiones que reflejan el tenor de la comunidad que dice que esto es aceptable o no es aceptable según nuestros estándares”.

Sam Ransbotham: En realidad, lo que me gustó de eso es la analogía que hiciste con el fraude en los pagos en que … No quiero dar a entender que el problema está resuelto, pero, de nuevo, como llegamos a ser realmente buenos en eso, es fácil conseguir que se amplíe.

Puedes tener esa detección de vanguardia y lo que estás señalando es que a medida que hacemos esto con otras decisiones y otros aspectos de las plataformas. Lo bueno es que podemos empujar a todos ellos a escala también, así que cuando hacemos un avance, ese avance aparece, realmente, en todas partes – rápidamente. Eso es importante.

Escalabilidad en las plataformas de redes sociales

Stephanie Moyerman: Creo que también hay un gran temor a estas grandes plataformas de IA que circula, y entiendo por qué: La escala de ellas es casi incomprensible, ¿verdad?

Pero creo que una de las cosas que ayudaría es si la comunidad en general tuviera una mejor comprensión de cómo sus acciones afectan a la forma en que pensamos acerca de estos algoritmos en funcionamiento. Así que tuve una charla con alguien hace mucho tiempo, y estaban discutiendo conmigo. Esa persona dijo: “No confío en las decisiones de la IA. No confío en estas decisiones de aprendizaje automático. Prefiero tener un ser humano en el bucle “.

Yo le dije: “En realidad confío en las decisiones de IA más de lo que confío en las decisiones humanas. ” Y la persona dijo: “Eso es porque esntiende cómo funciona la IA.” Y yo estaba como, “Es por eso.”

“Entiendo más el algoritmo que el cerebro humano”

Me atrevería a decir que probablemente entiendo cómo funciona el algoritmo mejor de lo que entiendo cómo funciona el cerebro humano para la mayoría de la gente.

Así que creo que si otros se inclinaran un poco más a entender cómo influyen sus acciones en todas estas plataformas. Y cuanta más capacidad tengan para proporcionar datos precisos y adecuados, mejor podrán tomar nuestras decisiones de forma proactiva en este mundo a gran escala.

Tomar 600 mil millones de decisiones con IA: Rathi Murthy de Grupo Expedia

Es como votar, ¿no? La gente dirá: “¿Qué es un voto? ¿Por qué importa?” Pero cuando todos se reúnen, realmente tienen algo que decir a la hora de dar forma a los resultados de estas grandes decisiones.

Decidir entender al algoritmo es como el voto

Shervin Khodabandeh: Me encanta la analogía de la votación: nos reunimos, votamos y hacemos que se produzca el cambio. Solemos votar de forma anónima y confiamos plenamente en el sistema. De lo contrario, no votaríamos. Pero da la sensación de que se necesita una fuerza externa. No sé si eso resuena.

Stephanie Moyerman: Estoy totalmente de acuerdo. Creo que, para ser honesto, si nos fijamos en lo que Apple ha hecho con las actualizaciones más recientes, donde te preguntan: “¿Quieres rastrear?” y son muy abiertos al respecto.

Creo que este es un paso que en general retrocede la disponibilidad de datos en el corto plazo. Pero en realidad aumenta la calidad de los datos en el largo plazo, porque voluntarios son datos que sabes que son buenos datos, por lo general, que no quieres que la gente tenga que inferir.

Así se consigue algo. Y tener incentivos alineados con los mejores algoritmos es algo que ayuda. Es lo mismo con la analogía de la votación. Si sientes que estás realmente incentivado para usar tu voz, harás lo posible para asegurarte de que estás informado sobre lo que haces.

Comprender lo algoritmos

Sam Ransbotham: Volvamos a su comprensión de los algoritmos. ¿Cómo se metió en este papel? En realidad, mi suegro es físico nuclear, así que realmente espero que pueda decir algo genial y relacionado con la física ahora mismo para que no piense que soy un loco como ya piensa.

Stephanie Moyerman: Así que probablemente se deduce de la pregunta: Mi formación es en realidad en cosmología y astrofísica. Tengo muchos amigos en el mismo campo que se han dedicado a la ciencia de datos y al aprendizaje automático.

Si trabajas en datos con física o ingeniería, los datos de los sensores son enormes. Es un conjunto masivo de datos que fluyen, por lo que desde nuestros telescopios que instalamos en Chile, estás sacando 500 hertz, mil hertz muestras por segundo de estos sensores. Y tienes miles de sensores y los estás ejecutando 24-7 y tratando de procesar esto en algo coherente.

Y si piensas en cómo funcionan las redes sociales o el comercio electrónico, es lo mismo. Se trata de señales que fluyen de todas partes todo el tiempo, y estás tratando de procesar esto en un conjunto de decisiones coherentes. Una de las cosas más importantes, sin embargo, es casi cualquier esfuerzo científico a gran escala ahora se trata de encontrar la señal en el ruido.

Y si piensas en cosas como la detección de fraude, la detección de imágenes, no estás hablando de que el 99 por ciento de las que llegan son las que quieres sacar. Es todo lo contrario. Y así, realmente, su buena señal es casi como el ruido para la detección de estas anomalías. Y eso es mucho de lo que es la ciencia de datos con respecto a la física.

Estableces estos sistemas a gran escala para encontrar estas señales muy, muy diminutas que indican algo sobre el origen del universo o cómo se forma la naturaleza de las partículas.

Física e IA, una pareja prometedora

Shervin Khodabandeh: Eso ha sido muy poético. Creo que eso haría muy feliz a tu suegro, Sam. Dirígele a esa sección. Está muy bien dicho.

Sam Ransbotham: Por fin, por fin. Nietos después, esto puede ser lo que nos lleve al límite. Pero me gusta ese pensamiento y puede explicar por qué vemos a la gente de estas disciplinas, como la física, que están acostumbrados a procesar estos grandes flujos de datos.

Mirando hacia atrás en mi propio ensueño, en realidad empecé y me interesé en esto mirando los registros de seguridad, donde sólo hay miles de millones de registros y sólo un puñado son malos. Pero averiguar cuáles son malos es como realmente empecé a aprender algunas de estas habilidades y algunas de estas herramientas. Creo que es una analogía realmente fascinante. Shervin y yo también somos ingenieros reformados, así que eso nos atrae.

Recuerdos desde el desierto de Atacama

Stephanie Moyerman: Sólo una anécdota sobre esto. Estábamos hablando antes de la novedad de este campo, y de cómo esto no estaba disponible hace tanto tiempo.

Cuando estábamos en la escuela de posgrado construyendo el telescopio, teníamos una conexión a Internet desde el telescopio en medio del desierto de Atacama en Chile. Pero no era lo suficientemente rápida como para llevar todos los datos a los superordenadores de Lawrence Berkeley para procesarlos, a excepción de tener que reducir la muestra.

Una ventanilla única de datos: Anders Butzbach Christensen de Grupo Lego

Así que redujimos el muestreo como locos para asegurarnos de que todo iba bien, creamos estos intermediarios y tuvimos que inventar un nuevo protocolo de transferencia de archivos que llamamos HDOA. Eso significa: discos duros en aviones.

Volábamos literalmente con maletas de discos duros desde el desierto para cargar esos datos y que todo el mundo pudiera utilizarlos. Y, si piensas en lo lejos que hemos llegado, 20 años después, puedes ver por qué la gente de estos campos ahora los que trabajan en este ámbito.

Serie de preguntas rápidas

Sam Ransbotham: Muy bien, Stephanie, ahora es el momento en que tenemos una serie de preguntas rápidas, así que responde lo primero que te venga a la mente.

Stephanie Moyerman: Oh, Dios.

Mayor orgullo en el campo de la IA

Sam Ransbotham: ¿De qué se siente más orgulloso de lo que ha logrado con la inteligencia artificial?

Stephanie Moyerman: Hicimos una retransmisión en directo con los X Games hace muchos años. Pusimos sensores diminutos en la tabla de snowboard y clasificamos los trucos y el tiempo de caída de los atletas en los Juegos X de invierno en tiempo real.

Fue lo más genial que he visto nunca en una pantalla delante de mí y en la vida real al mismo tiempo, no puedo expresar el asombro que sentí en esos momentos.

Sam Ransbotham: Eso es genial, porque cada vez que veo a los comentaristas, dicen algo así como: “Oh, sí. Eso es un cuádruple lo que sea”, y para mí fue simplemente un borrón gigante.

Stephanie Moyerman: En realidad tuvimos que cambiar para asegurarnos de que no estábamos tratando de adivinar giros y vueltas, sino más bien rotación alrededor de este eje y rotación alrededor de este eje.

La mayor preocupación de Stephanie Moyerman en el campo de la IA

Sam Ransbotham: Muy bien. Hemos mencionado los prejuicios y las cuestiones éticas, pero ¿qué le preocupa de la inteligencia artificial?

Stephanie Moyerman: Creo que la falta de profesionales experimentados es lo que más me preocupa en este momento. Así que si estás pensando en ello, si tus hijos están pensando en ello, empújalos más hacia este campo.

Actividad favorita sin IA

Sam Ransbotham: Bien. ¿Cuál es su actividad favorita que no implique tecnología, que no sea IA?

Stephanie Moyerman: Tengo mucha experiencia en judo y jujitsu. Practico judo desde que tenía cuatro años. Mi padre ha dirigido dos equipos olímpicos de judo, así que eso ocupa gran parte de mi tiempo fuera del teclado.

Sam Ransbotham: ¡Qué locura! Muy bien, ¿cuál es la primera profesión que querías ser de mayor? ¿Maestra de judo?

Stephanie Moyerman: Cuando tenía cinco años, quería ser presidenta. Me alegro de que no se me quedara.

Del laboratorio al producto diario con IA: Eric Boyd de Microsoft

Deseos en un futuro para la IA y la humanidad

Sam Ransbotham: Sí. No es… es un trabajo difícil. ¿Cuál es su mayor deseo para la IA en el futuro? ¿Qué espera que podamos ganar con ella?

Stephanie Moyerman: Realmente me gustaría ver cómo se aplica la IA a algunos de los problemas más sistémicos del mundo en campos que son un poco más lentos e incipientes.

Pienso en cosas como el trabajo que la Fundación Gates ha realizado para tratar de crear equidad global y resolver problemas de escasez de alimentos o enfermedades. Me encantaría ver mucha más inteligencia artificial en estos ámbitos. Sobre todo en lo que se refiere a los canales de distribución de hardware, para que podamos lograr un cambio global en áreas en las que históricamente no hemos sido capaces de escalar.

Sam Ransbotham: En realidad, que resuena con su tema general de la ampliación. Stephanie, creo que las cosas que estás mencionando sobre cómo las ideas de nosotros aprendiendo a escala. Tanto la obtención de las lecciones que hemos aprendido de la IA a través de las organizaciones y también el aprendizaje de lo que los algoritmos nos están diciendo cómo mejorar. Creo que estas son algunas cosas fascinantes, y le agradecemos que te hayas tomado el tiempo para unirse a nosotros hoy. Muchas gracias.

Stephanie Moyerman: Muchas gracias por recibirme.


Sam Ransbotham: Gracias por sintonizar hoy. La próxima vez, Shervin y yo hablaremos con Shelia Anderson, directora de información de Aflac.

Allison Ryder: Gracias por escuchar Me, Myself, and AI. Creemos, como tú, que la conversación sobre la implantación de la IA no empieza y termina con este podcast. Por eso hemos creado un grupo en LinkedIn específicamente para oyentes como tú. Se llama AI for Leaders, y si te unes a nosotros, podrás charlar con los creadores y presentadores del programa, hacer tus propias preguntas, compartir tus puntos de vista y acceder a valiosos recursos sobre la implementación de la IA del MIT SMR y BCG. Puedes acceder visitando mitsmr.com/AIforLeaders. Pondremos ese enlace en las notas del programa, y esperamos verte allí.


SOBRE LOS ANFITRIONES

Sam Ransbotham (@ransbotham) es profesor del departamento de sistemas de información de la Carroll School of Management del Boston College. También es editor invitado de la iniciativa Big Ideas de Inteligencia Artificial y Estrategia Empresarial del MIT Sloan Management Review. Shervin Khodabandeh es socio sénior y director gerente de BCG y colíder de BCG GAMMA (la práctica de IA de BCG) en Norteamérica. Puede ponerse en contacto con él en shervin@bcg.com.

Me, Myself, and AI es un podcast en colaboración de MIT Sloan Management Review y Boston Consulting Group. Es presentado por Sam Ransbotham y Shervin Khodabandeh. Nuestro ingeniero es David Lishansky, y las productoras coordinadoras son Allison Ryder y Sophie Rüdinger.

Síguenos en Google News
Te recomendamos
Foto perfil de MIT SMR México
MIT SMR México La guía en español para los tomadores de decisiones Ofrecemos a nuestros lectores contenido de alto valor con rigor y veracidad sobre innovación y tendencias del mundo empresarial ayudándolos en la toma de decisiones en su vida cotidiana.
Descarga GRATIS nuestro especial
descargable
Descarga AQUÍ el artículo completo IA ¿Un riesgo para el planeta? ¡Descárgalo GRATIS!
Suscríbete al Newsletter
¡SUSCRÍBETE!
LEE MÁS CONTENIDO
¿QUÉ TEMA TE INTERESA?