Nuestros sitios
Ver edición digital Título de la edición actual
Comparte
Compartir

Cultura organizacional

La gestión del talento en las organizaciones

El progreso reciente en el aspecto técnico del aprendizaje automático, particularmente en lo que respecta a la enseñanza profunda, ha seguido una tendencia acelerada de que las empresas adopten tecnologías de primer nivel en sus procesos y flujos de trabajo en la última década.


Mit Sloan 07 Ago 2020
La gestión del talento en las organizaciones

Algunos de estos avances, como los modelos AlphaGo de Google DeepMind y GPT-2 y GPT-3 de OpenAI, han demostrado un rendimiento de nivel experto en dominios previamente mostrados como ejemplos de áreas, donde los bots serían incapaces de desafiar las habilidades humanas.[i]

Con respecto a los resultados comerciales, la mayoría de los desarrollos emocionantes implican el uso del aprendizaje profundo para problemas de aprendizaje supervisado; el segundo es una forma de aprendizaje automático en el que tiene variables de entrada y salida, y utiliza un algoritmo para aprender la función que relaciona la entrada con la salida. El algoritmo está “supervisado” porque aprende de los datos de entrenamiento donde se conocen de antemano las entradas y salidas.

Estos algoritmos de aprendizaje profundo permiten un tipo diferente de desarrollo de software, donde en lugar de escribir explícitamente una fórmula en código, para completar una tarea, el modelo está entrenado con datos para aprender cómo completar la tarea por sí mismo. Este tipo de algoritmos son especialmente útiles para diferentes tipos de predicción.[ii]

Encontrar y permitir que personas con talento tengan éxito en este tipo de ingeniería, basada en sistemas de Inteligencia Artificial, puede ser un desafío desalentador para las empresas. La construcción de capacidades organizacionales de Inteligencia artificial-aprendizaje automático requiere una reingeniería fundamental de los procesos comerciales existentes. Estos esfuerzos naturalmente incluyen la contratación o capacitación de talento técnico.[iii]

Sin embargo, la gestión eficaz de la IA es quizás aún más crítica. En última instancia, los gerentes son responsables de configurar el diseño y la dirección de la estrategia de la organización para maximizar los retornos de cualquier tecnología nueva. Con esto viene la responsabilidad de gestionar los riesgos asociados de construir sistemas de Inteligencia Artificial. De hacerse correctamente, la gestión eficaz puede impulsar un crecimiento de la productividad más rápido y proporcionar a las empresas una ventaja competitiva.

Consideraciones para líderes concernientes en la contratación y la capacitación

El primer requisito para los líderes en la construcción de un sistema de IA exitoso es contratar y capacitar al talento adecuado. Un equipo de IA es, efectivamente, un tipo de equipo de ciencia de datos, pero crea un conjunto diferente de productos. Por ejemplo, en lugar de realizar experimentos para determinar el efecto de una nueva campaña publicitaria, un equipo de IA podría construir un clasificador de imágenes de productos para determinar cómo se organizan los estantes de las tiendas.

Estos equipos utilizan muchas de las mismas herramientas, incluidos lenguajes de programación comunes como Python and R, entornos informáticos, apoyados en la nube y con tecnologías de bases de datos. La provisión de un equipo para construir modelos de aprendizaje automático implica familiaridad y conocimiento de la jerarquía tecnológica de la organización. Las preguntas que deben tener en cuenta los líderes y los equipos incluyen las siguientes:

  • ¿Hay alguna manera de acceder rápidamente a una gran cantidad de poder computacional? La ejecución de sistemas de Inteligencia Artificial, de calidad de producción, a menudo se maneja mejor con servicios en la nube, pero construir un centro de datos sería una mejor opción para algunas empresas. De cualquier manera, los ingenieros que se ocupan de la Inteligencia Artificial necesitarán acceso a las máquinas correctas.
  • ¿Existe talento técnico que respalde la estabilidad de los sistemas computacionales? La estabilidad de la infraestructura de datos y los recursos computacionales es clave para construir sistemas que escalen. Eso significa contratar talento para el departamento de Tecnologías de la Información, que puede facilitar que los ingenieros especializados en ciencia de datos e IA produzcan modelos confiables.
  • ¿Al acceder se recopilan, se limpian y se ajustan los datos conforme a una manera confiable? Los ingenieros de datos profesionales pueden asegurarse que las entradas de datos sin procesar estén disponibles en el formato y la calidad necesarios para maximizar el valor de la Inteligencia Artificial, y minimizar los riesgos.

La IA, al igual que otras formas de tecnología de la información, necesita una gran cantidad de inversiones preexistentes en varios otros activos, como experiencia técnica, procesos comerciales, datos y cultura, para ser productivos y proporcionar valor en un nuevo contexto.[iv] Al principio, toda esta inversión complementaria adicional y la gestión del cambio pueden hacer que parezca que la Inteligencia Artificial (y la ciencia de datos también) es un lastre para la productividad. Después de todo, se comprometen más recursos para generar algunos de los mismos resultados.

Con el tiempo, lo que podría haber parecido caídas iniciales en la productividad medida dará sus frutos con rendimientos reales. Mis colegas de investigación y yo nos referimos a este fenómeno como la curva “J” de productividad, y nuestra investigación respalda la idea de que estas inversiones iniciales ayudan a las organizaciones a avanzar hacia los objetivos que las partes interesadas quieren alcanzar.[v]

En mi propio trabajo, al asociarme con el equipo de Investigación e Información de Gráficos Económicos de LinkedIn, descubrí que una parte importante del valor comercial del talento de Inteligencia Artificial se refleja en estos activos complementarios. Esto tiene sentido, dado que muchos de estos activos intangibles, como los nuevos procesos, proporcionan más valor cuando las habilidades se vuelven más fáciles de adquirir.

Las nuevas herramientas y plataformas, como las bibliotecas de aprendizaje automático de código abierto TensorFlow y PyTorch de Google, han hecho que sea más fácil capacitar modelos de aprendizaje profundo y desarrollar habilidades más rápidamente en los equipos de IA.

En mi investigación, utilicé datos de LinkedIn para rastrear la prevalencia de las habilidades en todas las empresas, y descubrí que el valor de mercado de las empresas que cotizan en bolsa y que ya estaban usando Inteligencia Artificial aumentó entre un 3 y un 7%, después de que TensorFlow ingresó al mercado a finales de 2015.[vi]

Este tipo de soluciones de código abierto permiten a las empresas acelerar las iniciativas de aprendizaje automático, sin asumir el costo de construir ellos mismos nuevos marcos de desarrollo. Mientras tanto, los requisitos técnicos necesarios para soportar sistemas de producción escritos con TensorFlow o PyTorch ya están integrados en los principales proveedores de la nube.

Para los gerentes, la mejor opción es contratar personas que conozcan uno o más de estos marcos o que puedan aprenderlos rápidamente. Del lado de la capacitación, estos marcos enfatizan los conceptos sobre la sintaxis de programación difícil. Eso significa que los empleados existentes en roles de ingeniero de software y analista de datos pueden aprender rápidamente las habilidades que necesitan para ser ingenieros de Inteligencia Artificial. Programas como Deeplearning.ai y Fast.ai ofrecen formas de recoger estos marcos adicionales, a través de la instrucción en línea.

Desarrollo de una gestión efectiva de la Inteligencia Artificial

Inclusive con un equipo técnico sólido en el lugar, cada organización impulsada por IA requiere invertir con éxito en complementos organizacionales para maximizar el retorno de la misma. Existen muchos peligros y dificultades al usar sistemas de este tipo. La gestión de estos riesgos requiere el diseño de una estructura eficaz de gestión y presentación de informes.[vii]

Las opciones de diseño organizacional juegan un papel importante aquí. Por ejemplo, ¿están los ingenieros encargados de la Inteligencia Artificial desarrollando productos para clientes internos, o son parte de esos equipos de clientes? Algunas compañías prefieren un modelo de concentrador y radio, donde un equipo de análisis central admite muchos grupos internos diferentes, mientras que otras podrían incorporar científicos de datos dentro de cada uno de esos grupos.

Los mismos modelos organizacionales se pueden aplicar a la IA. Cuando los desarrolladores no están integrados en grupos internos, algunos de esos clientes podrían estar preocupados de que ese tipo de inteligencia los reemplace o desafíe su posición en la empresa. Obstaculizarían la implementación de un nuevo proceso si se percibe como una amenaza.[viii] En estos casos, los líderes deben priorizar la completa aceptación de lo que se presente.

La comunicación y la educación efectiva sobre la Inteligencia Artificial es, por lo tanto, primordial. Y solamente se considera muy útil para un subconjunto de las tareas que las personas realicen como equipo de trabajo.[ix] Los jefes pueden mitigar los temores internos con una planificación clara de cómo cambiará el trabajo con la adopción de la nueva tecnología.

Otra técnica consiste en equipar a los gerentes de alto rango con suficiente información para motivar a los subordinados para que se guíen por los datos. Con la capacitación en IA para ejecutivos senior y los canales de información, que brindan a estos ejecutivos una visión granular de sus negocios, otros miembros de la organización necesitarán unirse a la nueva tecnología para mantenerse al día.

Si la organización pronostica ventas utilizando una nueva técnica, los encargados de la IA deben enviar esos informes a la parte superior de la organización para que los ejecutivos los consulten en sus reuniones con líderes de nivel medio. En el escenario en que los equipos de IA se extienden por todo el negocio, la administración es más responsable de la visión general de dónde deberían ocurrir las nuevas inversiones en tecnología. En cualquier caso, la organización está mejor si los tomadores de decisiones entienden qué problemas puede resolver y qué problemas se afrontarían mejor con otras herramientas.

Otra área en la que los líderes deben manejar agresivamente involucra sesgos. Con el aprendizaje automático puede ser difícil interpretar el porqué ocurre algo, más allá de ciertas capacidades predictivas. Por ejemplo, con los modelos de caja negra, que determinan las razones por las que el puntaje de crédito de alguien subió o bajó, puede ser difícil de hacer.

Esto va más allá de los conjuntos de datos sesgados que conducen a resultados de modelos ineficaces e inapropiados en contextos de producción. Los algoritmos están diseñados por humanos, las elecciones están hechas por diseñadores humanos sesgados o dentro de sistemas sociales complejos, que también pueden conducir a resultados en conflicto con los objetivos y valores de la organización.[x]

Por último, gestionar los riesgos de los sistemas de Inteligencia Artificial requiere la capacidad de reconocer la diferencia entre correlación y causalidad. El aprendizaje automático se utiliza con mayor frecuencia con fines predictivos en el aprendizaje supervisado. ¿Qué debe hacer el modelo? Puede que no importe por qué se reconoce a un gato en una imagen, eso es una predicción (efectivamente, una correlación). Importa por qué los costos de adquisición de clientes de una determinada línea de productos están subiendo. Esa es una pregunta sobre causa y efecto.

En ambos casos, los gerentes deben pensar como científicos sociales: desarrollar una hipótesis, encontrar el conjunto de herramientas y los datos correctos para hacer una evaluación, y luego tomar decisiones armados con mejor información.

Incorporar la Inteligencia Artificial y el aprendizaje automático en los flujos de trabajo de la organización es arriesgado; sin embargo, los rendimientos son potencialmente muy altos si se realizan las inversiones complementarias correctas. Al igual que con las oleadas anteriores de tecnología de la información, la IA necesita que la administración crezca con las nuevas capacidades de la empresa, a raíz de que se está volviendo más abundante en todo el mundo. Depende de una nueva generación de líderes con talento gerencial complementario para sacar lo mejor de sus compañeros de equipo en lo referente a la investigación y la ingeniería técnica.

Versión al español: Armando Cintra Benítez

A partir de:

https://sloanreview.mit.edu/article/how-managers-can-enable-ai-talent-in-organizations/?og=Home+Editors+Picks

[i] D. Silver, A. Huang, C.J. Maddison, et al., “Mastering the Game of Go With Deep Neural Networks and Tree Search,” Nature 529, no. 7587 (Jan. 28, 2016): 484-489; A. Radford, J. Wu, R. Child, et al., “Language Models Are Unsupervised Multitask Learners,” OpenAI (2019): 9; and T.B. Brown, B. Mann, N. Ryder, et al., “Language Models Are Few-Shot Learners,” arXiv, June 5, 2020, https://arxiv.org.

[ii] A. Agrawal, J. Gans, and A. Goldfarb, “Prediction Machines: The Simple Economics of Artificial Intelligence” (Boston: Harvard Business Review Press, 2018).

[iii] C. Cornwell, I.M. Schmutte, and D. Scur, “Building a Productive Workforce: The Role of Structured Management Practices,” Informe núm. 1644, Centre for Economic Performance, London, August 2019.

[iv] P. Tambe, “Big Data Investment, Skills, and Firm Value,” Management Science 60, no. 6 (June 2014): 1452-1469.

[v] E. Brynjolfsson, D. Rock, and C. Syverson, “The Productivity J-Curve: How Intangibles Complement General Purpose Technologies,” American Economic Journal: Macroeconomics, forthcoming.

[vi] D. Rock, “Engineering Value: The Returns to Technological Talent and Investments in Artificial Intelligence,” unpublished working paper, MIT Sloan School of Management, Cambridge, Massachusetts, May 2019.

[vii] S. Helper, R. Martins, and R. Seamans, “Who Profits From Industry 4.0? Theory and Evidence From the Automotive Industry,” NYU Stern School of Business, New York, Jan. 31, 2019.

[viii] A. Goldfarb, B. Taska, and F. Teodoridis, “Artificial Intelligence in Health Care? Evidence From Online Job Postings,” AEA Papers and Proceedings 110 (May 2020): 400-404.

[ix] E. Brynjolfsson, T. Mitchell, and D. Rock, “What Can Machines Learn, and What Does It Mean for Occupations and the Economy?” AEA Papers and Proceedings 108 (May 2018): 43-47; E.W. Felten, M. Raj, and R. Seamans, “A Method to Link Advances in Artificial Intelligence to Occupational Abilities,” AEA Papers and Proceedings 108 (May 2018): 54-57; and M. Webb, “The Impact of Artificial Intelligence on the Labor Market,” unpublished working paper, Stanford University, Stanford, California, January 2020.

[x] B. Cowgill and C.E. Tucker, “Algorithmic Fairness and Economics,” Journal of Economic Perspectives, forthcoming; and A. Lambrecht and C. Tucker, “Algorithmic Bias? An Empirical Study of Apparent Gender-Based Discrimination in the Display of STEM Career Ads,” Management Science 65, no. 7 (July 2019): 2966-2981.