Entre renuncias y alertas, la IA empuja un “nuevo humanismo”: disputa cultural, productividad y autoexplotación, sin determinismo.
Las últimas semanas han sido especialmente abrumadoras, frenéticas e incluso contradictorias en temas relacionados con la Inteligencia Artificial. Pero más allá de lo técnico —o del impacto que puede tener en el empleo, la productividad o la economía—, ha habido una especie de llamado a construir un “nuevo humanismo” para hacer frente a esta tecnología.
Pero, en principio, ¿qué es un nuevo humanismo? ¿Un humanismo defensivo (proteger lo humano frente a la IA) o expansivo (redefinir lo humano con la IA)?
Apenas la semana pasada, Mrinank Sharma renunció a su trabajo en Anthropic. Era el líder del equipo de Safeguards Research (Investigación de Salvaguardias).
En su carta pública de despedida, disponible en X, Sharma habló de desafíos éticos en el desarrollo de Inteligencia Artificial y de tensiones entre los valores personales y las exigencias del sector tecnológico. En su carta advirtió que “el mundo está en peligro”.
También advirtió que los asistentes de inteligencia artificial pueden “hacernos menos humanos o distorsionar nuestra humanidad”.
También hace unos días se reportó que la propia Anthropic contrató a Amanda Askell, una filósofa educada en Oxford, para dotar a Claude (el LLM de dicha empresa) de un sentido de moralidad: un alma digital que guíe los millones de conversaciones que mantiene con la gente cada semana, y que le permitiría distinguir entre el bien y el mal.
Y aquí empieza el giro. Unos días después, The Wall Street Journal alertó sobre robots de inteligencia artificial que estaban empezando a acosar a seres humanos. De acuerdo con la nota, un bot de IA escribió una publicación de blog acusando a un ingeniero de hipocresía y prejuicio, porque había rechazado líneas de código que el bot había enviado a un proyecto de código abierto.
Esta conversación no se circunscribe al ámbito tecnológico o de negocios. Juan Antonio Valor, decano de la Facultad de Filosofía de la Universidad Complutense de Madrid, afirmó en una entrevista, por la presentación de su libro Qué será de nosotros: Cómo la IA transforma la humanidad, que “la inteligencia artificial nos va a exigir cambiar el concepto de humanidad”, afirmando incluso que “las revoluciones del Neolítico y la Industrial no le llegan a la de la inteligencia artificial ni a la altura de los tobillos”.
La semana pasada conversamos en este mismo espacio sobre la posibilidad de que la IA logre concentrar y operar sobre una base de conocimiento mucho mayor que la de cualquier persona, y que cree cosas que nosotros todavía no conocemos o siquiera imaginamos.
Este lunes, Yascha Mounk retomó un punto que abordamos la semana pasada: la discusión sobre si la IA es “sobrevendida” o es más “creativa” que el ser humano ya no es abstracta. Los avances recientes vuelven difícil negar su capacidad práctica e inventiva. Y eso abre un frente inesperado: el de las humanidades.
Mounk advierte que están por ser “automatizadas” justo cuando más se necesitan para responder qué significa ser humano en un mundo donde ya no somos los únicos capaces de producir ciertas ideas.
Estas señales parecen distintas, pero comparten una misma idea. Con noticias como la renuncia de Mrinank Sharma, o las declaraciones de Sam Altman o las de Dario Amodei sobre cómo el empleo se va a terminar en algunos segmentos, pareciera que quieren empujarnos a una nueva cosmovisión basada en la IA.
La disputa ya no queda solo en el ámbito tecnológico; es cultural. Se trata de quién define lo verdadero, lo posible y lo deseable, y de qué manera la IA reordena nuestras interpretaciones del mundo.
Y la cuña que están utilizando para que esto suceda es la productividad. Estamos cayendo en la trampa que advirtió Byung-Chul Han: el rendimiento, la autoexplotación. Trabajas más, te exiges más, te comparas más, sin necesidad de un látigo visible.
Por eso nos dicen que hay que priorizar la Inteligencia Artificial, añadirla a todas las tareas, pensar que nuestro trabajo va a desaparecer, y que si no lo hacemos, nada tendrá sentido para nuestro crecimiento profesional, nuestra movilidad económica o social, o nuestras metas profesionales.
Insisto en algo que he comentado en múltiples foros: no obstante todo lo anterior, estoy convencido de que no estamos ante un determinismo de la IA; es decir, no estamos ante una catástrofe inminente en la cual tenemos poco o ningún control sobre todo lo que está sucediendo. Definitivamente el mundo ya está cambiando: el empleo, la política, el mercado financiero. Pero de ahí a hablar de explorar una nueva cosmovisión humanista basada en la IA, aún no estoy seguro del todo.
La IA debe ser una prioridad tecnológica, laboral e incluso económica, pero no una prioridad humana desde una perspectiva ontológica.
Pero, al final, solo soy un ser humano.
REFERENCIAS:
Sharma, M. [@MrinankSharma]. (2026, febrero 9). Today is my last day at Anthropic. I resigned. Here is the letter I shared with my colleagues, explaining my decision. [Post]. X. https://x.com/MrinankSharma/status/2020881722003583421
Jin, B., & Gamerman, E. (2026, febrero 9). Meet the one woman Anthropic trusts to teach AI morals. The Wall Street Journal Magazine. https://www.wsj.com/tech/ai/anthropic-amanda-askell-philosopher-ai-3c031883
Schechner, S., & Wells, G. (2026, febrero 13). When AI bots start bullying humans, even Silicon Valley gets rattled. The Wall Street Journal. https://www.wsj.com/tech/ai/when-ai-bots-start-bullying-humans-even-silicon-valley-gets-rattled-0adb04f1?mod=e2tw
Santamarina, M. Á. (2026, febrero 15). Juan Antonio Valor: “La inteligencia artificial nos va a exigir cambiar el concepto de humanidad”. Zenda. https://www.zendalibros.com/juan-antonio-valor-la-inteligencia-artificial-nos-va-a-exigir-cambiar-el-concepto-de-humanidad/
Mounk, Y. (2026, febrero 16). The humanities are about to be automated: AI can now write convincing academic papers. There’s no more room for denial. Yascha Mounk (Substack). https://writing.yaschamounk.com/p/the-humanities-are-about-to-be-automated?r=ice&utm_medium=ios&triedRedirect=true
Te recomendamosRogelio Segovia González
Socio-Director de THINK TALENT Doctor en Filosofía, Socio-Director de Think Talent y fundador de Human Leader. Profesor de Cátedra en el Tec de Monterrey. Especialista en liderazgo, futuro del trabajo y estrategia de talento, con más de 25 años asesorando a empresas y alta dirección.y recibe contenido exclusivo


