La gran sustitución: Participación en foro sobre IAs, mercado laboral y la pregunta que Hispanoamérica todavía no formula

Por Juan Pablo Torres Muñiz

[El diagnóstico: lo que ya ocurre, en números]

Hay una forma habitual, y profundamente cómoda, de hablar del impacto de la inteligencia artificial en el mercado laboral: la de quienes aguardan a mañana para comenzar a preocuparse. A estos hay que responderles con los datos de hoy. No con proyecciones, ni modelos de futurología corporativa, sino con cifras ya verificadas, que dibujan un cuadro cuya urgencia sería irresponsable minimizar.

El Foro Económico Mundial, en su Future of Jobs Report 2025 —elaborado con encuestas a más de 1.000 empleadores que representan a más de 14 millones de trabajadores en todo el mundo—, proyecta que 92 millones de puestos de trabajo serán desplazados para el año 2030, mientras que 170 millones de nuevos roles emergerán, para una ganancia neta de 78 millones de empleos (World Economic Forum, 2025). Ese resultado neto, sin embargo, tiene trampa: los empleos que desaparecen y los que nacen no se distribuyen entre los mismos trabajadores, en los mismos territorios, ni con las mismas credenciales. La pérdida y la creación no son intercambios uno a uno, como observa el propio Foro: «los trabajos no reaparecen en los mismos lugares ni con los mismos individuos» (World Economic Forum, 2025).

El Fondo Monetario Internacional (FMI), por su parte, estimó en 2024 que aproximadamente el 40% de los empleos globales enfrentan exposición significativa a las capacidades de la IA, cifra que asciende al 60% en las economías avanzadas y digitalizadas (ALM Corp, 2026). Goldman Sachs cifra en 300 millones los empleos de tiempo completo que podrían ser parcial o totalmente automatizados en el conjunto del planeta (Goldman Sachs, actualización 2025). McKinsey Global Institute, por su parte, ha estimado que la tecnología existente en este momento —no la del futuro— podría automatizar en teoría el 57% de las tareas laborales actuales en los países desarrollados (ALM Corp, 2026).

Los datos sobre adopción confirman que esto ya sucede. Más del 90% de las empresas del Fortune 500 ya utilizan IA en alguna de sus funciones (ALM Corp, 2026). El 71% de las organizaciones globales emplean IA generativa en al menos una función de negocio, cifra que seis meses antes era del 65% (McKinsey, 2025, citado en The Interview Guys, 2026). El 75% de los llamados trabajadores del conocimiento ya utilizan herramientas de IA, frecuentemente sin que sus propias compañías las hayan desplegado de manera formal (Microsoft/LinkedIn, citado en The Interview Guys, 2026). Y el 46% de los usuarios actuales comenzaron a usarla en los últimos seis meses, lo que indica una curva de adopción que se acelera, no que se estabiliza.

En cuanto a capacidades concretas: los sistemas de IA de tipo GPT-4 se desempeñan en el decil superior en simulaciones del examen de abogacía estadounidense y responden correctamente alrededor del 90% de las preguntas del examen de licencia médica de ese país. En el benchmark SWE-Bench —una prueba estandarizada de programación— los sistemas de IA pasaron de resolver el 4,4% de los problemas en 2023 al 71,7% en 2024 (ALM Corp, 2026). En un año, diecisiete veces más eficaces en una tarea que se consideraba entre las más protegidas de la automatización.

Los desplazamientos laborales directamente atribuibles a la IA, hasta ahora, son más modestos que los que anuncian las proyecciones apocalípticas: la firma de recolocación Challenger, Gray & Christmas registró aproximadamente 12.700 pérdidas de empleo directamente atribuidas a IA en 2024, y alrededor de 10.375 en los primeros meses de 2025 (ALM Corp, 2026). Sin embargo, el análisis independiente que considera también la contratación no realizada —el empleo foregone, en la terminología anglosajona— eleva la cifra de afectados en Estados Unidos a entre 200.000 y 300.000 posiciones en 2025, es decir, entre el 0,13% y el 0,20% del empleo no agrícola total (ALM Corp, 2026). Al mismo tiempo, las empresas estadounidenses registraron 1,2 millones de despidos en 2025, un 58% más que el año anterior, de los cuales más de 50.000 fueron directamente vinculados a la IA (Fortune, 2026). Y los empleos de reciente graduación, los de entrada al mercado laboral, están siendo especialmente golpeados: los jóvenes trabajadores en empleos con alta exposición a la IA han visto una caída relativa del 13% en su empleo desde el lanzamiento de ChatGPT en noviembre de 2022 (RAND, 2025).

[La narrativa del optimismo y sus límites]

Frente a este cuadro, existe una narrativa dominante —promovida con entusiasmo por el universo corporativo tecnológico y recogida con demasiada prontitud por buena parte de la prensa y de los organismos internacionales— que se podría resumir en una fórmula: siempre que desaparece un empleo, emergen dos. Siempre que el mercado destruye, crea. El progreso técnico es neutral, en el fondo benéfico, y cualquier resistencia a él es nostalgia o falta de imaginación.

Esta narrativa tiene antecedentes históricos que la sostienen. En efecto, la Revolución Industrial desplazó a millones de artesanos y campesinos, pero generó también una escala de bienestar sin precedentes. La mecanización agrícola redujo drásticamente el trabajo en el campo y empujó a la población hacia las ciudades, donde surgieron industrias y oficios enteramente nuevos. La revolución informática de los años ochenta y noventa eliminó a los mecanógrafos, los tenedores de libros manuales, los operadores de centralita; y, al mismo tiempo, creó una economía de servicios que absorbió a millones.

Pero hay razones para desconfiar de que esta pauta se repita mecánicamente con la IA, nada sentimentales. La primera es la velocidad. Las transiciones anteriores se produjeron en el curso de décadas, lo que permitió adaptaciones generacionales. Los hijos de los campesinos desplazados encontraban trabajo en la industria porque había tiempo para que los sistemas educativos y los mercados laborales se reorganizaran. La IA, en cambio, está comprimiendo transformaciones que habrían llevado veinte años en dos o tres (Centre for Future Generations, 2026). La segunda razón es el alcance. Las revoluciones tecnológicas anteriores afectaron principalmente al trabajo manual repetitivo. La IA está penetrando en el trabajo cognitivo, en las profesiones que históricamente servían de refugio para quienes escapaban de la automatización: la redacción, el análisis, el derecho, la contabilidad, la programación, el diseño, incluso el diagnóstico médico.

Es aquí donde resulta especialmente valioso detenerse en la posición del economista Daron Acemoglu, Premio Nobel de Economía 2024 y uno de los investigadores más rigurosos sobre la relación entre tecnología, instituciones y prosperidad. Acemoglu no es un apocalíptico: tampoco es un optimista de salón. Su análisis —expuesto en el paper «The Simple Macroeconomics of AI» (2024) y desarrollado en múltiples intervenciones posteriores— concluye que la IA automatizará aproximadamente el 5% de las tareas laborales en la próxima década, y que el impacto sobre el PIB estadounidense será de entre el 1,1% y el 1,6% en ese período, con una ganancia de productividad anual de alrededor del 0,05% (MIT Economics, 2025). Esta cifra contrasta radicalmente con las proyecciones de Goldman Sachs, que habla de un incremento del PIB global del 7%, o con las de McKinsey, que anticipa crecimientos anuales de entre el 1,5% y el 3,4% en las economías avanzadas.

¿Por qué tan distantes? La diferencia está en los supuestos. Acemoglu considera únicamente las ganancias de eficiencia dentro de las tareas existentes. Goldman Sachs y McKinsey incluyen los efectos económicos más amplios derivados de que los trabajadores se desplacen hacia nuevos roles y la IA genere categorías laborales completamente nuevas. Acemoglu objeta, con razón, que esas categorías no emergen solas: requieren inversión deliberada, tiempo, y que la industria tecnológica decida orientarse hacia lo que él llama «utilidad de la máquina» —aumentar las capacidades humanas— en lugar de hacia la sustitución pura. «Mi argumento es que actualmente tenemos la dirección equivocada para la IA. La estamos usando demasiado para la automatización y no lo suficiente para proporcionar experiencia e información a los trabajadores» (Acemoglu, citado en MIT Technology Review, 2025).

Que el más riguroso de los economistas sobre el tema sea simultáneamente el más escéptico respecto a las promesas del sector es una señal: detrás del optimismo corporativo, hay intereses que no coinciden necesariamente con los de la mayoría de los trabajadores del planeta.

[El panorama a futuro: inmediato, medio y largo plazo]

En el corto plazo, el consenso más sólido entre los analistas independientes apunta hacia lo que Gartner denomina un impacto neutral sobre el empleo global hasta 2026 (Gloat, 2025). La IA operará dentro de límites relativamente acotados, generando ganancias de productividad modestas mediante la ampliación de los flujos de trabajo existentes, con beneficios particularmente evidentes para los profesionales senior en organizaciones que ya tienen prácticas maduras.

Lo que ocurre ya es una profunda reconfiguración de las tareas dentro de los empleos existentes. La PwC, en su Global AI Jobs Barometer 2025, registra que, desde la proliferación de la IA generativa en 2022, el crecimiento de la productividad en los sectores más expuestos a la IA casi se ha cuadruplicado: del 7% entre 2018 y 2022 al 27% entre 2018 y 2024 (Gloat, 2025). Los empleos que requieren competencias en IA ya perciben un diferencial salarial del 56%, frente al 25% del año anterior (Gloat, 2025). La brecha entre quienes usan IA y quienes no lo hacen se está traduciendo, ya, en una brecha salarial.

En este mismo período, los empleos más directamente amenazados son los de nivel de entrada en trabajos de cuello blanco: redactores de contenido, analistas de datos básicos, operadores de centros de atención al cliente, paralegales, codificadores junior. El sector tecnológico estadounidense ya ha dado señales: 120.000 programadores fueron despedidos el año pasado en las grandes empresas tecnológicas, y la nueva contratación cayó más de un 25% (The Asia Business Daily, 2026). No porque la programación desaparezca, sino porque un programador con IA puede hacer el trabajo de tres.

Para el período 2027-2030, el panorama se complica sustancialmente. Deloitte predice que el 25% de las empresas que actualmente usan IA generativa habrán lanzado pilotos de IA agéntica para 2025, con una adopción que alcanzará el 50% en 2027 (Gloat, 2025). La IA agéntica —capaz de completar secuencias largas de tareas sin supervisión humana— representa un salto cualitativo respecto a la IA como herramienta: es la IA como agente autónomo de trabajo.

En este horizonte, el Informe Internacional sobre Seguridad de la IA 2025, que representa el consenso de los principales investigadores de IA y organizaciones internacionales, concluye que la IA de propósito general «es probable que transforme un rango de empleos y desplace a trabajadores», con impactos que «podrían ser particularmente severos si los agentes de IA autónomos llegan a ser capaces de completar secuencias más largas de tareas sin supervisión humana» (Centre for Future Generations, 2026).

Las cifras de desplazamiento estimadas para este período son las más dispares. McKinsey estima que entre 75 y 375 millones de trabajadores a nivel global necesitarán cambiar de ocupación para 2030, lo que representa entre el 14% y el grueso de la fuerza laboral global (JobReplacementAI, 2026). Oxford University, por su parte, ha estimado que el 47% de las ocupaciones estadounidenses están en alto riesgo de automatización en los próximos 10-20 años (JobReplacementAI, 2026). El sector del transporte autónomo proyecta que los empleos de camionero en Estados Unidos caerán de 3,8 millones en 2024 a aproximadamente 2,3 millones para finales de la década (ALM Corp, 2026). El WEF calcula que 7,5 millones de empleos de entrada de datos serán eliminados antes de 2027, el mayor grupo ocupacional en riesgo para ese período (electroiq.com, 2025).

Lo que resulta estructuralmente significativo es la asimetría del impacto. El FMI señala que en los países de bajos ingresos apenas el 0,4% de los empleos estarán en riesgo por la IA generativa, frente al 5,5% en los países de altos ingresos (EDC, 2025). Pero esta diferencia no es una buena noticia para los primeros: simplemente indica que la IA llegará más tarde, mientras las brechas de productividad respecto a las economías avanzadas se amplían.

El horizonte post-2030 es, en claro, el territorio de la especulación fundamentada. Las proyecciones más extremas hablan de una economía en la que la inteligencia artificial habrá penetrado en la práctica totalidad de los sectores de manera suficientemente profunda como para que el modelo actual de empleo —intercambio de tiempo y esfuerzo por salario— se vea cuestionado en sus fundamentos. La IDC Research estima que la IA aportará 19,9 billones de dólares a la economía global para 2030 (electroiq.com, 2025). Goldman Sachs augura un incremento del PIB global del 7% si se materializan las ganancias de productividad proyectadas.

Lo que los análisis más serios coinciden en señalar es que el largo plazo traerá más empleos nuevos que los que destruya, pero con una condición que cambia todo: esos empleos requieren habilidades radicalmente distintas de las que posee la mayor parte de la fuerza laboral actual, y el ritmo al que los sistemas educativos son capaces de producirlas es incomparablemente más lento que la velocidad de la transformación tecnológica.

[Cómo se preparan las grandes potencias]

La respuesta china al desafío de la IA en el mercado laboral es, por sus características, la más nítida e instructiva, no necesariamente porque sea la mejor, sino porque es la más despojada de ambigüedades. Un sistema político centralizado tiene la ventaja brutal de poder actuar con rapidez cuando decide que debe hacerlo.

Desde 2023, el Ministerio de Educación chino ha emitido directivas nacionales que exigen a todas las universidades eliminar las carreras que la IA puede sustituir o que los nuevos métodos de gestión tecnológica han vuelto obsoletas. El resultado acumulado para 2024: 1.428 carreras universitarias abolidas en todo el país, y 2.220 departamentos que han dejado de reclutar nuevos estudiantes. En paralelo, se han creado 1.839 nuevas carreras alineadas con el desarrollo de la IA (The Asia Business Daily, 2026). La Universidad de Comunicaciones de China —una de las más prestigiosas del país en medios y artes— canceló en 2025 cinco carreras artísticas: fotografía, cómic, diseño de comunicación visual, arte de nuevos medios y diseño de moda. En su lugar, introdujo tres nuevos programas: «arte de imagen inteligente», «ingeniería audiovisual inteligente» e «ingeniería inteligente y diseño creativo» (Sixth Tone, 2026).

La señal no pasa desapercibida ni siquiera para quienes la contemplan desde adentro. Una estudiante de fotografía de esa misma universidad declaró: «Todos suspiramos ante la noticia, pero no hubo emociones fuertes. Para mí, usar IA es simplemente cambiar a otro medio creativo o herramienta. Lo que importa más es mi propio pensamiento» (Sixth Tone, 2026). Observación que merece atención: la estudiante distingue entre la herramienta y el pensamiento. Pero el sistema educativo que la formó no siempre hace esa distinción.

La apuesta china por el sector de la IA tiene indicadores impresionantes: en 2024, la producción de publicaciones de investigación en IA de China igualó la producción combinada de Estados Unidos, el Reino Unido y la Unión Europea, acumulando más del 40% de la atención global en citas (Chinatalk, 2025). Sin embargo, los efectos sociales de esta transformación acelerada son también inquietantes. Las ofertas de empleo para recién graduados universitarios cayeron un 22% en el primer semestre de 2025 respecto al año anterior, según un importante portal de reclutamiento chino (RAND, 2025). Y en Shanghái, jóvenes profesionales sin empleo pagan 5 dólares al día para sentarse en oficinas ficticias —los llamados «Co-working de mentira»— que ofrecen WiFi, café y la ilusión del empleo (RAND, 2025). La China que lidera la investigación en IA es también la China donde la presión académica y laboral ha elevado dramáticamente la tasa de suicidios entre estudiantes de ciencias e ingeniería (Chinatalk, 2025).

La conclusión que se extrae del caso chino es que la velocidad de adaptación institucional no garantiza, por sí sola, la equidad en los beneficios del cambio ni el bienestar de los que transitan el proceso.

La respuesta europea al desafío de la IA es estructuralmente distinta…: más lenta, más compleja, más condicionada por el debate democrático, pero también más atenta a los derechos de los trabajadores y a la distribución de los beneficios. Su instrumento más visible es el AI Act, que entró en vigor en febrero de 2025 y que, en su artículo 4, exige a los proveedores y usuarios de sistemas de IA que su personal tenga un nivel adecuado de alfabetización en IA (Parlamento Europeo, 2025).

El panorama de partida es preocupante: el 45% de la población de la UE (entre 16 y 74 años) carece de habilidades digitales básicas, y más de la mitad de las empresas europeas señalan la falta de personal cualificado como un obstáculo mayor para sus inversiones (Parlamento Europeo, 2025). La Comisión Europea ha respondido con su estrategia «Apply AI», la «Union of Skills» y el AI Continent Action Plan, que buscan proporcionar formación en alfabetización en IA a ciudadanos y trabajadores, apoyar programas de maestría «AI for Business», y crear un «AI Entrepreneurs Lab» (Alliance Apply AI, 2026).

Alemania, uno de los países más amenazados en términos de volumen de empleos potencialmente afectados —el Instituto Alemán para la Investigación del Empleo proyectó en 2025 que 1,6 millones de empleos podrían ser reformulados o perdidos en los próximos quince años (Carnegie Endowment, 2026)—, está invirtiendo en que 200.000 profesores integren prácticas de IA en sus aulas (Microsoft, 2026). Polonia ha dado acceso a contenidos de aprendizaje de IA a más de 500.000 docentes a través de plataformas nacionales. Estonia ha lanzado su iniciativa «AI Leap», que integra la IA en la educación y la formación para ayudar a la población a adaptar sus competencias (OCDE, 2025).

La señal más importante que emite Europa no es tecnológica sino política: la transición no puede dejarse a los mercados. Requiere política pública deliberada, protección social para los trabajadores desplazados, y un marco de responsabilidad para las empresas que automatizan. El informe del Carnegie Endowment para la Paz Internacional (2026) lo formula con precisión y no poco patetismo: lo que se necesita es «un marco europeo de transición laboral dedicado a la IA, idealmente integrado en el presupuesto 2028-2034 del bloque». Sí, ideales…

Pero la posición estadounidense es la más contradictoria de las tres. El país alberga a parte de las empresas que lideran el desarrollo de la IA —y, por tanto, la mayor concentración de poder en esta transformación— pero también a los economistas más críticos respecto a la dirección que está tomando. Acemoglu ha sintetizado la tensión: la industria tecnológica avanza hacia la sustitución masiva de trabajadores, mientras lo que se necesitaría es que la IA aumentara las capacidades humanas. «Es absolutamente ridículo asumir que un puñado de ejecutivos de las principales empresas tecnológicas del mundo deba ser el responsable de decidir cómo vamos a coexistir con la tecnología en el futuro», declaró en diciembre de 2024 ante el Comité Nobel (Nobel Prize, 2025).

[La pregunta hispanoamericana: lo que todavía no se formula]

En este punto del análisis, es necesario detenerse ante una dificultad epistemológica que afecta directamente a Hispanoamérica: la mayor parte del debate sobre IA y mercado laboral se produce en —y para— las economías más desarrolladas. Las proyecciones del WEF, del FMI, de McKinsey y de Goldman Sachs describen, en lo fundamental, el mundo anglosajón y centroeuropeo. Las particularidades de las economías latinoamericanas —su estructura dual formal-informal, sus brechas de conectividad, la debilidad relativa de sus instituciones educativas, la fragilidad de sus sistemas de protección social— quedan frecuentemente en los márgenes de esos grandes análisis.

Lo que sí se puede establecer con certeza es lo siguiente: Hispanoamérica enfrenta, en simultáneo, dos desafíos que en las economías desarrolladas se presentan de forma más secuencial. Por una parte, todavía no ha resuelto los problemas del siglo XX en materia educativa: el Banco Mundial señala que el 52% de los niños de la región ya padecían pobreza de aprendizajes antes de la pandemia, cifra que pudo haber escalado al 70% a raíz de los cierres escolares prolongados (Banco Mundial, s.f.). Por otra parte, debe anticiparse a la disrupción del siglo XXI que la IA está produciendo sobre el mercado laboral.

El economista Eduardo Levy Yeyati, en su libro Automatizados: vida y trabajo en tiempos de inteligencia artificial (2024), señala con precisión el carácter específico del riesgo para la región: el impacto de la automatización no se distribuirá homogéneamente. Lo que se vaciará primero son los empleos rutinarios de habilidades medias —centros de llamadas, manufactura básica, servicios administrativos, back-office—, que en Hispanoamérica representan una fracción sustancial del empleo formal de la clase media emergente. El alto nivel de informalidad de la región puede proteger temporalmente a ciertas ocupaciones de la sustitución inmediata, pero al mismo tiempo complica la transición, pues los trabajadores informales desplazados carecen casi siempre de acceso a formación o a prestaciones por desempleo (Georgetown Americas Institute, 2025).

Dicho de otro modo: los países de la región que más necesitan absorber el impacto de la IA son también los que tienen menos capacidad institucional para gestionarlo.

[Filosofía, educación y antropología: lo que habría que anticipar]

La cuestión aquí es sobre el tipo de persona que el sistema educativo hispanoamericano se propone formar. Y aquí es donde el análisis exige, ineludiblemente, un salto desde los datos hasta las categorías.

El Homo Institutionalis es el sujeto definido no por su biología sino por su modo de habitar y construir instituciones. La escuela, la universidad, el mercado de trabajo, la profesión: todas estas son instituciones que estructuran la existencia humana y le otorgan sentido. La IA no es una tecnología que irrumpe desde fuera de ese sistema institucional: es, ella misma, una institución en gestación, con sus propios códigos, sus propias jerarquías y su propio modelo de hombre implícito. Y ese modelo implícito —el del trabajador como recurso optimizable, cuyo valor se mide por su productividad y cuya formación es un activo que puede depreciarse y reemplazarse— es exactamente el que una educación crítica debe cuestionar.

La respuesta más extendida en el ámbito educativo hispanoamericano al desafío de la IA consiste en lo que cabría llamar instrumentalismo pedagógico: enseñar a los niños y jóvenes a usar las herramientas de la IA, incorporar programación en los currículos desde temprana edad, formar «ciudadanos digitales». Esta respuesta no es equivocada en lo que afirma, pero sí en lo que omite. Omite que una herramienta es siempre el resultado de una concepción previa del mundo, y que quien sólo aprende a usar una herramienta sin comprender esa concepción está inevitablemente subordinado a quienes la diseñaron.

El WEF, en su Future of Jobs Report 2025, señala que el pensamiento analítico sigue siendo la competencia más buscada por los empleadores, valorada como esencial por 7 de cada 10 empresas encuestadas (Digital Skills and Jobs Platform, 2026). Le siguen la popular resiliencia, la flexibilidad y la agilidad, así como el dizque liderazgo y la influencia social. El pensamiento creativo, la capacidad de aprender a aprender y la curiosidad aparecen también entre las competencias de crecimiento más rápido. Como fuere, no se trata de adquisiciones instalando una aplicación. Son el resultado de una formación que cultiva la capacidad de pensar, de cuestionar, de relacionar, de sostener una posición ante la evidencia y de abandonarla cuando la evidencia lo exige.

La formación docente, que en Hispanoamérica sufre de los males que hemos denunciado en análisis anteriores —el pedagogismo sentimentalista, la confusión entre opinión y pensamiento crítico, la entronización de metodologías sobre contenidos— está aún menos preparada para este desafío que los propios estudiantes. Un sistema educativo dirigido por docentes que no distinguen entre opinar y argumentar no puede producir ciudadanos capaces de evaluar críticamente los sistemas de IA que tomarán decisiones sobre sus vidas.

Desde las coordenadas del análisis institucional y crítico, lo que Hispanoamérica debería plantearse no es un currículo de IA —aunque la alfabetización en IA sea necesaria— sino una refundación de la cultura intelectual de sus escuelas y universidades en torno a tres ejes que ninguna máquina puede sustituir, al menos por ahora, ni en el horizonte previsible.

El primer eje es el del pensamiento crítico entendido en sentido estricto: la capacidad de identificar los criterios en que se basa un argumento, de someterlos a prueba, de distinguir la evidencia de la opinión y la correlación de la causalidad. Esta es, en efecto, la competencia central de lo que hemos llamado la crítica como práctica racional, y cuya ausencia en nuestros medios hemos denunciado reiteradamente. La IA puede generar argumentos plausibles en segundos; no puede, por sí misma, determinar si son buenos argumentos. Eso requiere un juicio humano bien formado.

El segundo eje es el del conocimiento situado: la capacidad de comprender el contexto histórico, político y cultural en el que se producen los fenómenos, las tecnologías y las instituciones. La IA trabaja sobre patrones estadísticos en datos históricos; no tiene acceso al presente como problema abierto, como situación inédita que requiere categorías nuevas. Un estudiante que haya aprendido a historizar —a situar cualquier fenómeno en su proceso de producción— tiene una ventaja irreproducible sobre cualquier sistema que, por definición, opera sobre el pasado.

El tercer eje es el de la agencia institucional: la capacidad de comprender cómo funcionan las instituciones, cómo se transforman, cómo se crean y cómo se defienden. Las personas que más sufrirán la disrupción de la IA son las que viven y trabajan dentro de instituciones que no comprenden. Las que mejor la navegarán son las que entienden las reglas del juego con suficiente profundidad como para modificarlas cuando es necesario.

Marcelo Cabrol, jefe de división en el BID Lab, ha señalado que para que el potencial de las plataformas de IA se materialice en Hispanoamérica se requieren «inversiones públicas deliberadas y políticas que traten el acceso a la infraestructura digital, la conectividad y la capacitación como bienes colectivos y no como beneficios privados» (Georgetown Americas Institute, 2025). Esta formulación es correcta, pero insuficiente. Lo que también se necesita, y que ningún documento de organismos internacionales suele señalar con la misma claridad, es una apuesta decidida por la formación de docentes que piensan, por escuelas que cuestionan, y por universidades que producen conocimiento propio en lugar de reproducir el que se genera en otros contextos y para otros problemas.

[De modo que…]

Volvamos al principio, a los datos, para cerrar. El 41% de los empleadores globales planean reducir sus plantillas en las áreas automatizables por IA en los próximos cinco años (WEF, 2025). El 59% de los trabajadores del mundo necesitarán alguna forma de formación para 2030, si el mundo laboral fuera de 100 personas (WEF, 2025). El 22% de los roles existentes actualmente desaparecerán o serán completamente revisados entre 2025 y 2030 (Digital Skills and Jobs Platform, 2026). El 32% de los europeos en edad laboral —50,2 millones de personas— enfrentan riesgo de sustitución por IA en sus roles actuales (Centre for Future Generations, 2026).

Estas cifras resultan de análisis realizados por instituciones de investigación independiente con metodologías verificables. Pueden discutirse, y de hecho se discuten, en sus márgenes y en sus supuestos. Pero su dirección general no se encuentra en disputa.

La pregunta que Hispanoamérica debería formularse no es si la IA impactará en su mercado laboral. Eso ya ocurre. La pregunta es si el sistema educativo, las instituciones públicas y la clase dirigente están dispuestos a asumir la magnitud de lo que se avecina, o si preferirán —como suele hacerse— reaccionar cuando el daño sea ya demasiado evidente para seguir ignorándolo.

La IA, como toda tecnología, no es ni buena ni mala en sí misma. Es un instrumento cuya orientación está determinada por quienes la diseñan y por las instituciones que la enmarcan. En el estado actual de cosas, quienes la diseñan son un puñado de empresas privadas con sede en Beijing y California, cuyos incentivos apuntan hacia la sustitución de trabajadores, no hacia su potenciación. Las instituciones que la enmarcan —los sistemas educativos, los marcos regulatorios, los sistemas de protección social— van muy por detrás.

Corregir esa asimetría es, en sentido estricto, una tarea política. Y la política, en democracia, requiere ciudadanos capaces de pensarla, cuestionarla y disputarla. Ese es, en última instancia, el argumento más sólido que puede hacerse en favor de una educación que forme, antes que para el mercado de trabajo del mañana, para pensamiento del presente en marcha.

Si la IA es, ante todo, un sistema de procesamiento de patrones que no comprende, propiamente, lo que más se necesita, más que nunca, son personas que comprendan sin reducirse a patrones.

 

 

Referencias bibliográficas:

ALM Corp. (2026). AI job displacement statistics 2026–2030: 60+ data points on which jobs are at risk, which are growing, and what the evidence really shows.

Acemoglu, D. (2024). The simple macroeconomics of AI. MIT FutureTech Working Paper.

Acemoglu, D. (2025, junio). Conversación con Adam Smith. Nobel Prize Conversations. Nobel Prize Outreach.

Acemoglu, D. (2025, febrero). A Nobel laureate on the economics of artificial intelligence. MIT Technology Review.

Acemoglu, D., y Johnson, S. (2023). Power and progress: Our thousand-year struggle over technology and prosperity. PublicAffairs.

Alliance Apply AI. (2026, enero). Preparing Europe’s workforce for the age of AI. European Commission Futurium.

Banco Mundial. (s.f.). Educación en América Latina y el Caribe.

Carnegie Endowment for International Peace. (2026, febrero). How Europe can survive the AI labor transition.

Centre for Future Generations. (2026, enero). Preparing for AI labour shocks should be a resilience priority for Europe.

Digital Skills and Jobs Platform. (2026, febrero). «The Great Skills Reset» in WEF’s Future of Jobs Report 2025: a Catch-22 for the future of work? European Commission.

EDC (Education Development Center). (2025, diciembre). The future of work is here: Part 1 – What has changed?

Fortune. (2026, febrero). The Nobel laureate who cowrote ‘Why Nations Fail’ warns U.S. democracy won’t survive the AI job-pocalypse.

Georgetown Americas Institute. (2025, mayo). IA y el futuro del trabajo en América Latina: riesgos, oportunidades y retos institucionales.

Gloat. (2025, diciembre). AI labor market impact: Jobs, skills & workforce changes.

Goldman Sachs Global Investment Research. (2025). Generative AI and global employment [Actualización]. Goldman Sachs.

International Monetary Fund. (2024). AI will transform the global economy. Let’s make sure it benefits humanity. IMF Blog.

International Monetary Fund. (2026, enero). New skills and AI are reshaping the future of work. IMF Blog.

JobReplacementAI. (2026, marzo). Your job could be next: The 2026 AI stats prove it.

Levy Yeyati, E. (2024). Automatizados: vida y trabajo en tiempos de inteligencia artificial. Siglo Veintiuno Editores.

Parlamento Europeo / EPRS. (2025). What role for AI skills in (re-)shaping the future European workforce? Briefing PE 765.806.

Qian, Z. (2025, noviembre). The myth of China’s «AI talent pipeline». Chinatalk. RAND Corporation. (2025, diciembre). China is worried about AI job losses.

Sixth Tone. (2026, marzo). Chinese university cuts arts majors, citing an AI-driven future.

The Asia Business Daily. (2026, marzo). Massive major cuts at prestigious universities cause shock.

The Interview Guys. (2026, enero). The state of AI in the workplace in 2025: Why 170 million new jobs will offset the ‘AI apocalypse’.

Torres Muñiz, J. P. (2023). Homo institutionalis: Ración de planteamientos críticos para dentro y fuera de aulas. Grupo Editorial Caja Negra.

World Economic Forum. (2025). Future of jobs report 2025. WEF. World Economic Forum. (2025, agosto). Why AI is replacing some jobs faster than others. WEF.

 

(ENGLISH VERSION)

The Great Substitution: Artificial Intelligence, the Labor Market, and the Question That Latin America Has Yet to Formulate

Translation by Tiffany Amber Elías Trimble

[The diagnosis: what is already happening, in numbers]

There is a habitual, and deeply comfortable, way of discussing the impact of artificial intelligence on the labor market: that of those who wait until tomorrow to begin worrying. To these, one must respond with today’s data. Not with projections, not with models of corporate futurology, but with figures already verified, which depict a picture whose urgency it would be irresponsible to minimize.

The World Economic Forum, in its Future of Jobs Report 2025 — based on surveys of over 1,000 employers representing more than 14 million workers worldwide — projects that 92 million jobs will be displaced by 2030, while 170 million new roles will emerge, for a net gain of 78 million jobs (World Economic Forum, 2025). This net result, however, is deceptive: the jobs that disappear and those that are born are not distributed among the same workers, in the same territories, or with the same credentials. Loss and creation are not one-to-one exchanges, as the Forum itself observes: «jobs do not reappear in the same places or with the same individuals» (World Economic Forum, 2025).

The International Monetary Fund (IMF), for its part, estimated in 2024 that approximately 40% of global jobs face significant exposure to AI capabilities, a figure that rises to 60% in advanced and digitalized economies (ALM Corp, 2026). Goldman Sachs puts the number of full-time jobs that could be partially or fully automated worldwide at 300 million (Goldman Sachs, 2025 update). McKinsey Global Institute, meanwhile, has estimated that existing technology — not future technology — could theoretically automate 57% of current work tasks in developed countries (ALM Corp, 2026).

Adoption data confirm that this is already happening. Over 90% of Fortune 500 companies already use AI in some of their functions (ALM Corp, 2026). 71% of global organizations use generative AI in at least one business function, a figure that six months earlier was 65% (McKinsey, 2025, cited in The Interview Guys, 2026). 75% of so-called knowledge workers already use AI tools, often without their own companies having formally deployed them (Microsoft/LinkedIn, cited in The Interview Guys, 2026). And 46% of current users started using it in the last six months, indicating an adoption curve that is accelerating, not stabilizing.

In terms of concrete capabilities: GPT-4 class AI systems perform in the top decile on simulations of the U.S. bar exam and correctly answer around 90% of the questions on that country’s medical licensing exam. On the SWE-Bench benchmark — a standardized programming test — AI systems went from solving 4.4% of problems in 2023 to 71.7% in 2024 (ALM Corp, 2026). In one year, seventeen times more effective at a task that was considered among the best protected from automation.

Job displacements directly attributable to AI, so far, are more modest than those announced by apocalyptic projections: the outplacement firm Challenger, Gray & Christmas recorded approximately 12,700 job losses directly attributed to AI in 2024, and around 10,375 in the first months of 2025 (ALM Corp, 2026). However, independent analysis that also considers hiring not undertaken — foregone employment — raises the number of affected individuals in the United States to between 200,000 and 300,000 positions in 2025, i.e., between 0.13% and 0.20% of total non-farm employment (ALM Corp, 2026). At the same time, U.S. companies recorded 1.2 million layoffs in 2025, 58% more than the previous year, of which more than 50,000 were directly linked to AI (Fortune, 2026). And recent graduate jobs, entry-level positions, are being particularly hard hit: young workers in jobs with high AI exposure have seen a relative 13% drop in their employment since the launch of ChatGPT in November 2022 (RAND, 2025).

[The narrative of optimism and its limits]

Faced with this picture, there is a dominant narrative — enthusiastically promoted by the corporate technology universe and too readily adopted by much of the press and international organizations — that can be summed up in a formula: whenever one job disappears, two emerge. Whenever the market destroys, it creates. Technical progress is neutral, ultimately benevolent, and any resistance to it is nostalgia or a lack of imagination.

This narrative has historical antecedents that support it. Indeed, the Industrial Revolution displaced millions of artisans and peasants, but it also generated unprecedented levels of well-being. Agricultural mechanization drastically reduced farm work and pushed populations toward cities, where entirely new industries and trades emerged. The information revolution of the 1980s and 1990s eliminated typists, manual bookkeepers, switchboard operators; and at the same time, it created a service economy that absorbed millions.

But there are reasons to distrust that this pattern will repeat itself mechanically with AI, and they are not sentimental. The first is speed. Previous transitions occurred over decades, allowing for generational adaptations. The children of displaced peasants found work in industry because there was time for educational systems and labor markets to reorganize. AI, by contrast, is compressing transformations that would have taken twenty years into two or three (Centre for Future Generations, 2026). The second reason is scope. Previous technological revolutions mainly affected repetitive manual labor. AI is penetrating cognitive work, into professions that historically served as refuges for those escaping automation: writing, analysis, law, accounting, programming, design, even medical diagnosis.

It is here that it is especially valuable to pause on the position of economist Daron Acemoglu, 2024 Nobel Prize in Economics and one of the most rigorous researchers on the relationship between technology, institutions, and prosperity. Acemoglu is not an apocalyptic thinker; neither is he a parlor optimist. His analysis — set out in the paper «The Simple Macroeconomics of AI» (2024) and developed in multiple subsequent interventions — concludes that AI will automate approximately 5% of work tasks over the next decade, and that the impact on U.S. GDP will be between 1.1% and 1.6% over that period, with an annual productivity gain of around 0.05% (MIT Economics, 2025). This figure contrasts radically with the projections of Goldman Sachs, which speaks of a 7% increase in global GDP, or those of McKinsey, which anticipates annual growth of between 1.5% and 3.4% in advanced economies.

Why such a gap? The difference lies in the assumptions. Acemoglu considers only efficiency gains within existing tasks. Goldman Sachs and McKinsey include the broader economic effects derived from workers moving into new roles and AI generating entirely new job categories. Acemoglu objects, rightly, that those categories do not emerge on their own: they require deliberate investment, time, and for the tech industry to decide to orient itself toward what he calls «machine utility» — enhancing human capabilities — rather than pure substitution. «My argument is that currently we have the wrong direction for AI. We are using it too much for automation and not enough for providing expertise and information to workers» (Acemoglu, cited in MIT Technology Review, 2025).

That the most rigorous economist on the subject is simultaneously the most skeptical of the sector’s promises is a sign: behind corporate optimism, there are interests that do not necessarily coincide with those of the majority of the planet’s workers.

[The future landscape: short, medium, and long term]

In the short term, the strongest consensus among independent analysts points toward what Gartner calls a neutral impact on global employment through 2026 (Gloat, 2025). AI will operate within relatively narrow limits, generating modest productivity gains by augmenting existing workflows, with benefits particularly evident for senior professionals in organizations that already have mature practices.

What is already happening is a profound reconfiguration of tasks within existing jobs. PwC, in its Global AI Jobs Barometer 2025, records that since the proliferation of generative AI in 2022, productivity growth in sectors most exposed to AI has nearly quadrupled: from 7% between 2018 and 2022 to 27% between 2018 and 2024 (Gloat, 2025). Jobs requiring AI skills already command a wage premium of 56%, compared to 25% the previous year (Gloat, 2025). The gap between those who use AI and those who do not is already translating into a wage gap.

In this same period, the most directly threatened jobs are entry-level white-collar jobs: content writers, basic data analysts, call center operators, paralegals, junior coders. The U.S. tech sector has already shown signs: 120,000 programmers were laid off last year at major tech companies, and new hiring fell by more than 25% (The Asia Business Daily, 2026). Not because programming is disappearing, but because one programmer with AI can do the work of three.

For the 2027-2030 period, the outlook becomes substantially more complicated. Deloitte predicts that 25% of companies currently using generative AI will have launched agentic AI pilots by 2025, with adoption reaching 50% in 2027 (Gloat, 2025). Agentic AI — capable of completing long sequences of tasks without human supervision — represents a qualitative leap from AI as a tool: it is AI as an autonomous work agent.

In this horizon, the 2025 International AI Safety Report, representing the consensus of leading AI researchers and international organizations, concludes that general-purpose AI «is likely to transform a range of jobs and displace workers,» with impacts that «could be particularly severe if autonomous AI agents become capable of completing longer sequences of tasks without human supervision» (Centre for Future Generations, 2026).

Estimated displacement figures for this period are the most disparate. McKinsey estimates that between 75 and 375 million workers globally will need to change occupations by 2030, representing between 14% and the bulk of the global workforce (JobReplacementAI, 2026). Oxford University, for its part, has estimated that 47% of U.S. occupations are at high risk of automation in the next 10-20 years (JobReplacementAI, 2026). The autonomous transport sector projects that trucking jobs in the United States will fall from 3.8 million in 2024 to approximately 2.3 million by the end of the decade (ALM Corp, 2026). The WEF calculates that 7.5 million data entry jobs will be eliminated before 2027, the largest occupational group at risk for that period (electroiq.com, 2025).

What is structurally significant is the asymmetry of impact. The IMF notes that in low-income countries, barely 0.4% of jobs will be at risk from generative AI, compared to 5.5% in high-income countries (EDC, 2025). But this difference is not good news for the former: it simply indicates that AI will arrive later, while productivity gaps with advanced economies widen.

The post-2030 horizon is, clearly, the territory of grounded speculation. The most extreme projections speak of an economy in which artificial intelligence will have penetrated practically all sectors deeply enough that the current model of employment — the exchange of time and effort for wages — will be called into question at its foundations. IDC Research estimates that AI will contribute $19.9 trillion to the global economy by 2030 (electroiq.com, 2025). Goldman Sachs predicts a 7% increase in global GDP if the projected productivity gains materialize.

What the most serious analyses agree on is that the long term will bring more new jobs than it destroys, but with a condition that changes everything: those jobs require radically different skills from those possessed by the vast majority of the current workforce, and the rate at which educational systems are capable of producing them is incomparably slower than the speed of technological transformation.

[How the great powers are preparing]

The Chinese response to the challenge of AI in the labor market is, by its characteristics, the clearest and most instructive, not necessarily because it is the best, but because it is the most stripped of ambiguities. A centralized political system has the brutal advantage of being able to act quickly when it decides it must.

Since 2023, the Chinese Ministry of Education has issued national directives requiring all universities to eliminate degrees that AI can replace or that new technological management methods have rendered obsolete. The cumulative result for 2024: 1,428 university degrees abolished nationwide, and 2,220 departments that have stopped recruiting new students. In parallel, 1,839 new degrees aligned with AI development have been created (The Asia Business Daily, 2026). Communication University of China — one of the country’s most prestigious in media and arts — canceled five arts degrees in 2025: photography, comics, visual communication design, new media art, and fashion design. In their place, it introduced three new programs: «intelligent image art,» «intelligent audiovisual engineering,» and «intelligent engineering and creative design» (Sixth Tone, 2026).

The signal is not lost even on those who contemplate it from within. A photography student at that same university declared: «We all sighed at the news, but there were no strong emotions. For me, using AI is simply changing to another creative medium or tool. What matters more is my own thinking» (Sixth Tone, 2026). An observation worth attention: the student distinguishes between the tool and the thinking. But the educational system that trained her does not always make that distinction.

China’s bet on the AI sector has impressive indicators: in 2024, China’s production of AI research publications matched the combined output of the United States, the United Kingdom, and the European Union, accumulating more than 40% of global citation attention (Chinatalk, 2025). However, the social effects of this accelerated transformation are also troubling. Job offers for new university graduates fell by 22% in the first half of 2025 compared to the previous year, according to a major Chinese recruitment portal (RAND, 2025). And in Shanghai, unemployed young professionals pay $5 a day to sit in fake offices — so-called «fake co-working» — that offer WiFi, coffee, and the illusion of employment (RAND, 2025). The China that leads AI research is also the China where academic and work pressure has dramatically raised the suicide rate among science and engineering students (Chinatalk, 2025).

The conclusion drawn from the Chinese case is that the speed of institutional adaptation does not, by itself, guarantee equity in the benefits of change or the well-being of those undergoing the process.

The European response to the AI challenge is structurally different: slower, more complex, more conditioned by democratic debate, but also more attentive to workers’ rights and the distribution of benefits. Its most visible instrument is the AI Act, which entered into force in February 2025 and which, in its Article 4, requires providers and users of AI systems to ensure that their personnel have an adequate level of AI literacy (European Parliament, 2025).

The starting picture is worrying: 45% of the EU population (aged 16-74) lacks basic digital skills, and more than half of European companies point to a lack of qualified personnel as a major obstacle to their investments (European Parliament, 2025). The European Commission has responded with its «Apply AI» strategy, the «Union of Skills,» and the AI Continent Action Plan, which seek to provide AI literacy training to citizens and workers, support «AI for Business» master’s programs, and create an «AI Entrepreneurs Lab» (Alliance Apply AI, 2026).

Germany, one of the most threatened countries in terms of the volume of potentially affected jobs — the German Institute for Employment Research projected in 2025 that 1.6 million jobs could be reshaped or lost over the next fifteen years (Carnegie Endowment, 2026) — is investing in having 200,000 teachers integrate AI practices into their classrooms (Microsoft, 2026). Poland has provided AI learning content to more than 500,000 teachers through national platforms. Estonia has launched its «AI Leap» initiative, integrating AI into education and training to help the population adapt their skills (OECD, 2025).

The most important signal emanating from Europe is not technological but political: the transition cannot be left to the markets. It requires deliberate public policy, social protection for displaced workers, and a framework of accountability for companies that automate. The Carnegie Endowment for International Peace report (2026) formulates it precisely: what is needed is «a European labor transition framework dedicated to AI, ideally integrated into the bloc’s 2028-2034 budget.» Yes, ideals…

But the United States’ position is the most contradictory of the three. The country is home to some of the companies leading AI development — and therefore the greatest concentration of power in this transformation — but also to the most critical economists regarding the direction it is taking. Acemoglu has synthesized the tension: the tech industry is moving toward massive worker substitution, while what is needed is for AI to augment human capabilities. «It’s absolutely ridiculous to assume that a handful of executives at the world’s leading tech companies should be responsible for deciding how we are going to coexist with technology in he future,» he declared in December 2024 before the Nobel Committee (Nobel Prize, 2025).

[The Latin American question: what has not yet been formulated]

At this point in the analysis, it is necessary to pause before an epistemological difficulty that directly affects Latin America: most of the debate on AI and the labor market takes place in — and for — the most developed economies. The projections of the WEF, the IMF, McKinsey, and Goldman Sachs fundamentally describe the Anglo-Saxon and Central European world. The particularities of Latin American economies — their dual formal-informal structure, their connectivity gaps, the relative weakness of their educational institutions, the fragility of their social protection systems — are frequently left at the margins of those major analyses.

What can be established with certainty is the following: Latin America faces, simultaneously, two challenges that in developed economies present themselves more sequentially. On the one hand, it has not yet solved the educational problems of the 20th century: the World Bank notes that 52% of the region’s children already suffered from learning poverty before the pandemic, a figure that may have escalated to 70% as a result of prolonged school closures (World Bank, n.d.). On the other hand, it must anticipate the 21st-century disruption that AI is producing in the labor market.

Economist Eduardo Levy Yeyati, in his book Automated: Life and Work in the Age of Artificial Intelligence (2024), points out precisely the specific nature of the risk for the region: the impact of automation will not be distributed homogeneously. What will be emptied first are routine middle-skill jobs — call centers, basic manufacturing, administrative services, back-office — which in Latin America represent a substantial fraction of the formal employment of the emerging middle class. The region’s high level of informality may temporarily protect certain occupations from immediate substitution, but at the same time complicates the transition, since displaced informal workers almost always lack access to training or unemployment benefits (Georgetown Americas Institute, 2025).

In other words: the countries of the region that most need to absorb the impact of AI are also those with the least institutional capacity to manage it.

[Philosophy, education, and anthropology: what should be anticipated]

The question here is about the type of person that the Latin American educational system proposes to form. And here analysis demands, unavoidably, a leap from data to categories.

Homo Institutionalis is the subject defined not by his biology but by his way of inhabiting and constructing institutions. School, university, the labor market, the profession: all of these are institutions that structure human existence and give it meaning. AI is not a technology that erupts from outside this institutional system: it is, itself, an institution in gestation, with its own codes, its own hierarchies, and its own implicit model of man. And that implicit model — that of the worker as an optimizable resource, whose value is measured by productivity and whose training is an asset that can depreciate and be replaced — is precisely the one that a critical education must question.

The most widespread response in the Latin American educational sphere to the challenge of AI consists of what might be called pedagogical instrumentalism: teaching children and young people to use AI tools, incorporating programming into curricula from an early age, forming «digital citizens.» This response is not wrong in what it affirms, but it is in what it omits. It omits that a tool is always the result of a prior conception of the world, and that he who only learns to use a tool without understanding that conception is inevitably subordinate to those who designed it.

The WEF, in its 2025 Future of Jobs Report, notes that analytical thinking remains the most sought-after skill by employers, valued as essential by 7 out of 10 companies surveyed (Digital Skills and Jobs Platform, 2026). It is followed by resilience, flexibility and agility, as well as so-called leadership and social influence. Creative thinking, the ability to learn to learn, and curiosity also appear among the fastest-growing skills. Be that as it may, these are not acquisitions made by installing an application. They are the result of an education that cultivates the capacity to think, to question, to relate, to hold a position in the face of evidence, and to abandon it when the evidence demands it.

Teacher training, which in Latin America suffers from the ills we have denounced in previous analyses — sentimentalist pedagogism, confusion between opinion and critical thinking, the enthronement of methodologies over content — is even less prepared for this challenge than the students themselves. An educational system led by teachers who do not distinguish between opining and arguing cannot produce citizens capable of critically evaluating the AI systems that will make decisions about their lives.

From the coordinates of institutional and critical analysis, what Latin America should consider is not an AI curriculum — although AI literacy is necessary — but a refoundation of the intellectual culture of its schools and universities around three axes that no machine can substitute, at least for now or in the foreseeable horizon.

The first axis is that of critical thinking in the strict sense: the ability to identify the criteria on which an argument is based, to test them, to distinguish evidence from opinion and correlation from causality. This is, indeed, the central competence of what we have called critique as rational practice, the absence of which in our media we have repeatedly denounced. AI can generate plausible arguments in seconds; it cannot, by itself, determine whether they are good arguments. That requires well-formed human judgment.

The second axis is that of situated knowledge: the ability to understand the historical, political, and cultural context in which phenomena, technologies, and institutions are produced. AI works on statistical patterns in historical data; it has no access to the present as an open problem, as an unprecedented situation requiring new categories. A student who has learned to historicize — to situate any phenomenon in its production process — has an irreproducible advantage over any system that, by definition, operates on the past.

The third axis is that of institutional agency: the ability to understand how institutions work, how they are transformed, how they are created, and how they are defended. The people who will suffer most from AI disruption are those who live and work within institutions they do not understand. Those who will navigate it best are those who understand the rules of the game deeply enough to modify them when necessary.

Marcelo Cabrol, division chief at BID Lab, has pointed out that for the potential of AI platforms to materialize in Latin America, «deliberate public investments and policies that treat access to digital infrastructure, connectivity, and training as collective goods and not as private benefits» are required (Georgetown Americas Institute, 2025). This formulation is correct, but insufficient. What is also needed, and what no document from international organizations usually points out with the same clarity, is a determined commitment to the training of teachers who think, to schools that question, and to universities that produce their own knowledge instead of reproducing that which is generated in other contexts and for other problems.

[So…]

Let us return to the beginning, to the data, to close. 41% of global employers plan to reduce their workforces in areas automatable by AI over the next five years (WEF, 2025). 59% of the world’s workers will need some form of retraining by 2030 (WEF, 2025). 22% of existing roles will disappear or be completely revised between 2025 and 2030 (Digital Skills and Jobs Platform, 2026). 32% of working-age Europeans — 50.2 million people — face the risk of substitution by AI in their current roles (Centre for Future Generations, 2026).

These figures come from analyses conducted by independent research institutions using verifiable methodologies. They can be debated, and indeed are debated, at their margins and in their assumptions. But their general direction is not in dispute.

The question that Latin America should ask itself is not whether AI will impact its labor market. That is already happening. The question is whether the educational system, public institutions, and the ruling class are willing to assume the magnitude of what lies ahead, or whether they will prefer — as is usually done — to react when the damage is already too evident to continue ignoring it.

AI, like all technology, is neither good nor bad in itself. It is an instrument whose orientation is determined by those who design it and by the institutions that frame it. In the current state of affairs, those who design it are a handful of private companies based in Beijing and California, whose incentives point toward worker substitution, not worker empowerment. The institutions that frame it — educational systems, regulatory frameworks, social protection systems — are lagging far behind.

Correcting this asymmetry is, in the strict sense, a political task. And politics, in a democracy, requires citizens capable of thinking it, questioning it, and contesting it. That is, ultimately, the strongest argument that can be made in favor of an education that prepares, not for tomorrow’s labor market, but for the thought of the present in motion.

If AI is, above all, a pattern-processing system that does not properly understand, then what is most needed, more than ever, are people who understand without reducing themselves to patterns.