Daño controlado: Sobre «fake news», «deepfakes» y manipulación artera de información en los más recientes —y peores— ejemplos
Por Juan Pablo Torres Muñiz
Fake news. Noticias falsas. Es común que se las tenga por anomalías modernas, desviaciones a veces intencionales, aunque por lo general bien aprovechadas por los más avispados. Pero, dado el cultivo sistemático del miedo, la incertidumbre y la inseguridad, consecuencias inevitables —de hecho, deseadas— del relativismo extremo, siempre en beneficio del mercado pletórico, es cada vez más obvio para todo el mundo que en realidad se trata, sin más, de extensiones sistémicas de la manipulación informativa, mientras que lo raro es la desinformación o la tergiversación informativa accidental. Pese a ello, la distinción entre noticias reales y parcial o totalmente falsas resulta, al parecer, enormemente agotadora, a priori, para los consumidores de medios, no por nada acostumbrados ya a recibir todo pre-procesado, dispuesto directamente al Like o al reposteo.
[Raíces y evolución: La desinformación como herramienta sistemática]
La desinformación sistemática data de siglos atrás, particularmente en el mundo anglosajón, donde sirvió como arma ideológica contra rivales católicos y españoles. El antecedente principal radica en la Leyenda Negra anti-española, una campaña de propaganda del siglo XVI orquestada por protestantes holandeses e ingleses para deslegitimar el Imperio Español. Esta narrativa, popularizada por historiadores como Guillermo de Orange y otros que manipularon escritos de Bartolomé de las Casas, acusaba a España de crueldad genocida en América, exagerando atrocidades para justificar guerras y expansiones coloniales. Paralelamente, el luteranismo impulsó una campaña anti-católica mediante panfletos impresos que demonizaban al Papa como «anticristo» y exageraban corrupciones eclesiásticas, facilitando la Reforma Protestante y consolidando divisiones confesionales en Europa. Estos esfuerzos, amplificados por la imprenta —la Internet de la época—, no solo alteraron percepciones públicas, sino que legitimaron conquistas territoriales, como la expansión inglesa en América del Norte.
En el siglo XIX, la Leyenda Negra persistió en EE.UU. durante la Guerra Mexicano-Estadounidense (1846-1848), entonces, prensa anglosajona retrataba a mexicanos como «bárbaros católicos» para justificar anexiones territoriales, como si apelar a Lutero y sus arengas carniceras no hubiera sido suficiente. Esta tradición anglosajona de control mediático se institucionalizó en el siglo XX con operaciones como la propaganda anti-alemana en la Primera Guerra Mundial, donde falsos relatos de atrocidades (por ejemplo, «bebés belgas crucificados») movilizaron masivamente a la opinión pública.
Bastante antes de que, en pleno siglo XX, durante la Guerra Fría, la CIA orquestara fake news en Iberoamérica, como la Operación Mockingbird (1950s), que infiltraba medios para promover golpes contra gobiernos izquierdistas, retratándolos como «comunistas tiránicos», el Estado inglés actuó de modo artero en el plano económico. Desde el siglo XVII. El «South Sea Bubble» (1720) en Inglaterra involucró rumores falsos de riquezas en Sudamérica, inflando acciones de la South Sea Company en un 1,000% antes de colapsar, arruinando inversores y enriqueciendo insiders. En el siglo XIX, el «Crédit Mobilier Scandal» (1872) en EE.UU. usó prensa manipulada para exagerar progresos ferroviarios, permitiendo especulación que defraudó al gobierno en $44 millones.
A finales del siglo XX, el fraude de Bre-X (1990s) incluyó geólogos que falsificaron muestras de oro en Indonesia, inflando acciones de $0.30 a $286 antes del colapso en 1997, con pérdidas de $6 mil millones para inversores. Más recientemente, el escándalo Enron (2001) implicó contabilidad falsa y leaks manipulados para sostener precios accionarios, resultando en $74 mil millones en pérdidas. Se trata de casos ilustrativos nada más, y abundan, cada uno digno de un texto aparte… Operaciones tristemente célebres como la de United Fruit Company en Guatemala (1954) se sirvieron en buena medida de propaganda anti-comunista para derrocar a Árbenz, protegiendo monopolios bananeros. Más adelante, especulaciones como la de «Tequila Crisis» (1994) en México involucraron rumores amplificados por medios anglosajones sobre inestabilidad, precipitando devaluación y rescates que beneficiaron a inversores extranjeros.
[La irrupción de las redes sociales: ampliación de horizontes]
Hoy en día, que todo mundo se llena la boca de democracia, las redes sociales han logrado de veras la democratización de la desinformación, escalando su alcance más allá de lo imaginable. Plataformas como Meta y X permiten viralización instantánea, con algoritmos que priorizan contenido emotivo sobre cualquiera factual, amplificando la polarización en masa. En 2026, con 5.66 mil millones de usuarios activos globales —equivalente al 68.7% de la población mundial, un incremento del 4.8% anual desde 2025, agregando 259 millones de identidades nuevas—, las redes han alcanzado una penetración del 93.8% entre usuarios de Internet, con un promedio de 6.75 plataformas por persona y un tiempo diario de 2.5 horas, según análisis de Kepios y Statista. Esta masividad, con Asia representando el 60% de usuarios e Iberoamérica contribuyendo con 392.6 millones en 2022 (proyectado a 450 millones para 2026), ha permitido que bots generen hasta el 64% de perfiles en X, según estimaciones de 5th Column AI, o entre 9-15% en cuentas activas generales, inflando interacciones inauténticas y manipulando percepciones colectivas. Así, en el menos malo de los casos, estos algoritmos fomentan cajas de resonancia que refuerzan sesgos a gran escala al punto que estudios de Nature (2023) indican que el 10% de usuarios genera el 92% de tweets, mientras que bots y campañas coordinadas amplifican narrativas divisivas, erosionando, como es lógico, la confianza en instituciones democráticas.
En Hispanoamérica, esta irrupción ha facilitado operaciones similares a «revoluciones de colores», como en Bolivia en 2019, donde desinformación sobre fraude electoral —difundida vía Facebook y WhatsApp por redes coordinadas, alcanzando millones en apenas unas horas— contribuyó al derrocamiento de Evo Morales, con verificaciones posteriores de la OEA revelando irregularidades, pero no fraude masivo, según Chatham House y PISM. En México durante 2018, candidatos usaron bots para inflar popularidad, con hasta 120 millones de usuarios en WhatsApp propagando narraciones falsas sobre corrupción, según Reuters y GIGA. En Ecuador en 2019, cuentas gubernamentales coordinaron propaganda en Twitter para deslegitimar protestas indígenas, amplificando mensajes que alcanzaron 50% de penetración digital, según Frontiers in Political Science. En Venezuela, el régimen de Maduro empleó unidades digitales desde 2018 para vilificar oposición: bots que generaron 43% de actividad pro-gobierno en 2020, todo en pro de justificar la represión, según PISM y Think Global Health. En Chile, la desinformación sobre la nueva constitución en 2022 —alegando expropiaciones falsas— se viralizó en TikTok y WhatsApp, contribuyendo al rechazo del 62% en referéndum, con campañas que alcanzaron a 78% de usuarios, según CSIS y The Guardian. En Brasil, de 2018 a 2022, WhatsApp diseminó propaganda bolsonarista, con bots inflando tendencias que radicalizaron al 20% de electores, culminando en intentos golpistas en 2023, según Souza y Nature. Estas manipulaciones, con penetración del 62% en Centroamérica y 70% en Asia Oriental (para contexto global), ilustran cómo determinadas redes facilitan el llamado astroturfing —simulación de apoyo grassroots— para desestabilizar regímenes, alineado con intereses extranjeros como los de Rusia y China en Iberoamérica, esto, según German Institute for Global and Area Studies.
Económicamente, las redes han impulsado especulaciones colectivas, como el «GameStop Frenzy» de enero de 2021. Entonces, Reddit’s WallStreetBets coordinó compras masivas de acciones GME, elevando precios de US$20 a US$400 en días, forzando cortes rápidos y operaciones apresuradas que costaron US$20 mil millones a hedge funds como Melvin Capital, generando ganancias, pero también pérdidas pasado el pico, según informa Cato Journal. Esta trata predatoria del retail, con 10% de usuarios generando 92% de actividad, resaltó el poder de foros para desafiar Wall Street, inspirando movimientos similares en AMC y Express, con niveles de volatilidad que persistieron hasta principios de este año (informan CNBC y Bookmap).
[La IA como catalizador de manipulación masiva]
En un lapso brevísimo —desde el lanzamiento público de ChatGPT en noviembre de 2022—, la inteligencia artificial ha emergido como un catalizador exponencial de la manipulación informativa masiva, trascendiendo la mera asistencia técnica para convertirse en una herramienta de ingeniería social a escala global. Algo, por demás previsible. En efecto, las estructuras tecnológicas reconfiguran el comportamiento humano hacia dependencias controladas, merced, no sólo de la generación de textos, imágenes y audiovisuales indistinguibles de la realidad, sino también de la predicción, seguimiento y conducción precisa de preferencias colectivas mediante análisis de big data. En 2026, con un mercado de detección de deepfakes proyectado en US$15.7 mil millones (creciendo 42% anual desde US$5.5 mil millones en 2023), herramientas como Sora de OpenAI o Grok de xAI producen contenidos sintéticos que engañan al 70% de usuarios promedio, según el Reuters Institute Digital News Report 2026 (que encuestó a 100,000 personas en 50 mercados y halló un incremento del 25% en exposición a deepfakes desde 2024). Esta tasa de engaño, superior al 50% de nivel de oportunidad, reportado en estudios previos de Europol (que estiman 90% de contenido online sintético para 2026), subraya cómo la IA explota vulnerabilidades perceptivas humanas, como la incapacidad para detectar deepfakes de audio (más difíciles de reconocer que los visuales, con tasas de detección al 40%). Esto no solo democratiza la desinformación —reduciendo barreras técnicas para actores maliciosos—, sino que institucionaliza claramente un «tecnototalitarismo» predictivo, donde sistemas como Palantir procesan petabytes de datos para perfilar opiniones, anticipando reacciones colectivas con precisión del 85% en campañas dirigidas, según informes de la CISA.
La predicción y conducción de preferencias se materializa mediante algoritmos que analizan patrones lingüísticos, emocionales y contextuales para generar narrativas personalizadas, amplificando sesgos cognitivos como el confirmation bias. Por ejemplo, en el contexto electoral, la IA ha manipulado votantes mediante deepfakes que no solo imitan voces y rostros, sino que adaptan mensajes a perfiles individuales. En las elecciones mexicanas de 2024, videos sintéticos generados por herramientas como ElevenLabs y Sensity AI circularon en TikTok y WhatsApp, mostrando a candidatos como Claudia Sheinbaum «confesando» corrupción o a Xóchitl Gálvez «prometiendo» políticas extremas, alcanzando 5 millones de vistas y generando caos en encuestas, con un 30% de votantes reportando exposición a deepfakes según un análisis de Recorded Future. Estos deepfakes, a menudo distribuidos por cuentas robotizadas (40% del tráfico en X), no alteraron resultados directos, pero erosionaron la confianza electoral en un 15%, según el Alan Turing Institute, que analizó 100 elecciones globales desde 2023 y encontró interferencia AI en 19 casos, principalmente en la así llamada creación de contenido (90%).
En Hispanoamérica, esta manipulación se agrava por brechas digitales: Recientemente, en Venezuela, deepfakes post-captura de Maduro mostraron videos falsos de celebraciones mezclados con footage real, generando 14.1 millones de vistas en X y exacerbando polarización, según BBC. En Argentina, encuestas falsas AI-rigged en elecciones legislativas 2025 subestimaron victorias de Milei, con medios legados acusados de manipulación, según posts virales en X.
Entretanto, se juega con patrimonio del continente a gran escala, siempre mediante manipulación de información. Así, tenemos casos como el «flash crash» de 2025, desencadenado por tweets AI-falsos sobre quiebras bancarias, causó pérdidas de US$1 trillón en minutos, según Deloitte y MIT Technology Review. En efecto, la IA acelera burbujas como la misma «AI bubble» vibrante aún hoy. En efecto, economistas como Michael Burry apuestan contra Nvidia y Palantir por sobrevaluaciones (acciones infladas 241% en Micron), proyectando colapsos similares a dot-com del año 2000.
[Estrategia de confusión: mezcla de real y falso]
La hibridación deliberada de información real y falsa constituye una táctica institucional refinada, que genera un estado de confusión cognitiva donde la distinción entre verdad y engaño se diluye, erosionando la capacidad colectiva para discernir hechos críticos. Esta estrategia no solo amplifica la desinformación, sino que socava la credibilidad de instituciones enteras, permitiendo que narrativas falsas se infiltren como plausibles mientras verdades incómodas se desestiman como conspiraciones inventadas. En 2026, con el 90% del contenido en línea generado sintéticamente según el AI Index de Stanford, esta mezcla ha escalado a niveles industriales, donde algoritmos de plataformas como Meta y YouTube priorizan engagement emotivo sobre veracidad, fomentando un sistema donde la «posverdad» —definida por Oxford como circunstancias donde apelaciones emocionales priman sobre hechos objetivos— domina el discurso público. Esta confusión responde a motivaciones como la polarización política, donde actores estatales o corporativos inyectan elementos reales para validar falsedades, explotando sesgos cognitivos como el confirmation bias, que hace a individuos favorecer información alineada con creencias preexistentes. Estudios de la APA revelan que esta táctica induce «fatiga informativa», reduciendo la voluntad de verificar fuentes y aumentando la susceptibilidad a manipulaciones, con implicaciones profundas para la cohesión social en regiones vulnerables como Hispanoamérica, donde brechas digitales amplifican desigualdades en acceso a verificación.
[Los peores ejemplos…]
Un ejemplo paradigmático de esta estrategia es el caso de Sean «P. Diddy» Combs, cuyo juicio en 2025-2026 por tráfico sexual y corrupción ha sido inundado por deepfakes y «AI slop» —contenido generado por IA de baja calidad diseñado para viralidad—. Al menos 26 canales en YouTube, con 900 videos, acumularon 70 millones de vistas recirculando thumbnails y narraciones falsas que insertaban celebridades no involucradas como Oprah Winfrey, Alicia Keys, Jennifer Lawrence, Jim Carrey, Justin Bieber, Will Smith y Joe Rogan en testimonios ficticios, a menudo con lenguaje gráfico para maximizar clics. Estos videos mezclaban footage real del juicio con audio y visuales sintéticos, creando narrativas conspirativas que sugerían encubrimientos élites. La confusión se extendió a TikTok, donde deepfakes similares alcanzaron millones de vistas, exacerbando estigmatización de víctimas reales al diluir sus testimonios con ficción, y generando ganancias publicitarias para canales que explotan algoritmos para priorizar sensacionalismo. En Hispanoamérica, réplicas de estos deepfakes circularon en plataformas locales como WhatsApp, amplificando desinformación culturalmente adaptada que vinculaba el caso a «elitismo hollywoodense», erosionando confianza en sistemas judiciales ya frágiles.
Pero el caso más grave es el de la liberación de archivos de Jeffrey Epstein hace unos días, por parte del Departamento de Justicia (DOJ), que incluyó más de 3 millones de páginas, pero generó un torbellino de confusión al mezclar documentos auténticos con elementos falsos o manipulados. Y sí, se trata de responsables de entidades gubernamentales, supuestamente obligadas a garantizar la veracidad de la data que comparten públicamente. Esto ocurre, además, estratégicamente a tiempo. Con esto aludimos a que en noviembre se realizarán las elecciones intermedias en EEUU (Congreso y Senadores), un evento clave en que se juega mucho, por no decir prácticamente todo, y para el que el actual gobierno no lleva precisamente las de ganar, habida cuenta las varias, masivas y más o menos violentas manifestaciones, ahora mismo, en distintos estados. Por una parte, es claro que la liberación parcial —y confusa— de la información sobre el caso Epstein le permite a Donald Trump afirmar que ha cumplido su compromiso de transparencia al respecto; asimismo, dada la velocidad con la que unas noticias reemplazan a otras —hoy mismo ya casi nadie habla de Ucrania en términos afines a los de hace apenas dos meses, y ni se diga de Venezuela—, el asunto pasará a un segundo o tercer término; en todo caso, amortiguado por el ruido de otros asuntos; finalmente, hay que tomar en cuenta también que toda nueva información respecto de lo hecho por Epstein y compañía que sea liberada más adelante, especialmente entre marzo y septiembre, tendrá un impacto mucho menor del que habría tenido como novedad plena, primero porque se confundirá con la anterior; dicho de otro modo, será noticia parcialmente sabida y, en segundo lugar, porque podrá ser incluida fácilmente en el espectro de lo falso, fácil de negar, dada —nuevamente— la nebulosa informativa provocada.
Sí, el principio de oportunidad es, como siempre, decisivo. El impacto del juego informativo del caso Epstein, ahora mismo, en el conflicto entre Estados Unidos e Irán, es tremendo. Permite, en el mejor de los casos, la coordinación de un mutuo ataque coreografiado como el que dio fin a la pasada Guerra de los Doce Días. En el peor, ofrece tiempo de maniobra suficiente para evaluar mejor los riesgos de un enfrentamiento para el que, ciertamente, las cosas se calientan a gran velocidad, y cuyo horizonte dista muchísimo del cuadro de Venezuela, un auténtico paseo dominical, por contraste.
(Ayer mismo, un F35 derribó un dron iraní que se acercó demasiado al portaaviones Abraham Lincoln, pese a que se le advirtió que no lo hiciera; el mando supremo iraní indicó abiertamente que, en caso de una agresión estadounidense, atacarían el portaaviones con misiles hipersónicos —que EEUU no tiene ni puede interceptar—; y hoy, finalmente, junto con el cambio de rumbo de la nave armada, se han encendido las alertas en Medio Oriente ante un «inminente cambio de situación», que requiere el replanteamiento de las políticas de actuación inmediatas. A propósito, sería absurdo pensar que este reciente «envalentonamiento» se deba a una arbitrariedad gubernamental; es mucho más probable, por no afirmar seguro, que el respaldo expreso de Rusia y China, perfectamente al tanto de los problemas internos de EEUU, sean la causa.)
Ahora bien, en la raíz del asunto, la evidente relación entre Epstein y MOSSAD caldea las cosas como ninguna otra. Ocurre que la presión de Netanyahu para forzar la guerra contra Irán —su garantía de permanencia a la cabeza de Israel y para evadir la multitud de juicios que le esperan— fructifica también, muy significativamente, la potencial guerra civil norteamericana. En este contexto, la liberación parcial y confusa de la información del caso resulta enormemente conveniente, sobre todo si se piensa en mitigar el peligro de la presión del actual régimen israelí y su enorme influencia en la organización, el aparataje de influencias y de respaldo financiero estadounidense. No hace mucho, Charlie Kirk fue asesinado tras haber sido explícito sobre el asunto.
Es curioso, cuanto menos, que entre los miles de archivos ventilados no haya alusión concreta a ninguna probable labor de defenestración de la administración Trump, excepto la israelí, como si no hubiera oposiciones ni enconos al interior del país sin intervención del sionismo. Este rasgo se proyecta sobre otros múltiples documentos. Macron, por ejemplo, exfuncionario de la banca Rotschild, se ve considerablemente comprometido en variedad de ellos, lo mismo que otras figuras igualmente relevantes de la política internacional activas en torno al conflicto de Ucrania, sobre todo por vínculos con consolidados financieros globalistas pro israelíes. (En efecto, abundan mensajes de correo referidas a consultas específicas a Epstein sobre el futuro ucraniano, como si de un experto se tratara.)
Por si fuera poco, la mención constante de los Clinton entre los peor de los archivos redunda en la importancia de la opción tomada: una gestión estratégica de daño controlado. A este mismo trato se integra Elon Musk (con más de treinta correos electrónicos expuestos), que requiere del triunfo republicano en las elecciones intermedias para garantizar la gestión de la llamada Cúpula Dorada con la colocación de satélites súper pesados que le permitirán, aparte cumplir con los requerimientos de seguridad del contrato, un nuevo nivel de control de data masiva, digno de competir con Palantir (también pro israelí). No es nada casual que el cabeza de Tesla haya incrementado exponencialmente su actividad mediática de aclaraciones respecto a la distancia que supuestamente mantuvo siempre de Epstein, mientras en el mismo X se despedaza la imagen de Bill Gates y el resto de globalistas, enemigos de Trump y principales impulsadores de la oposición demócrata woke y verde (obra, principalmente, del famoso Soros). Por cierto, tampoco es casual que Tesla postergue la fabricación de autos eléctricos para concentrarse en la fabricación de robots humanoides de respaldo y suplencia en labores caseras, entre las que cuenta el cuidado de ancianos y niños pequeños. Ni lo es que, habida cuenta la tremenda inestabilidad financiera, Milei multiplique la compra de vehículos chinos por quinientos, mandando a volar lo que dijo hace no mucho de hacer negocios con regímenes comunistas.)
Entre los deepfakes que circulan ante la mirada extraviada del FBI, se cuentan videos IA de Epstein «confesando» implicaciones de celebridades, o cartas falsificadas que el DOJ luego desmintió, como una supuesta misiva de Epstein cuya escritura no coincidía con la real (que generó teorías conspirativas que acumularon 14.1 millones de vistas en X en dos días). Hay para todos —los peores y más abominables— gustos; aquí, como consta, nos limitamos a señalar los de impacto geopolítico directo.
Buena parte de la confusión informativa radica en la ausencia de una «lista de clientes», algo que Trump prometió. Las «narrativas» de encubrimiento diluyen la atención que debiera prestarse a abusos reales documentados y protegen a otros al inducir la antes mencionada fatiga de verificación entre el público.
Todo esto es, también —¿cómo no?—, rentable. Un estudio en PNAS (2023) demuestra que comunidades polarizadas en Meta propagan «cascadas» de información híbrida, donde homogeneidad grupal acelera difusión al validar falsedades con elementos reales, prediciendo tamaños de viralidad con precisión del 80%. La CISA identifica tácticas como cultivar «personas falsas» en redes para inyectar desinformación, mezclando cuentas reales con bots que amplifican «narrativas» híbridas.
[Proyección…]
Las estrategias de desinformación, impulsadas por discursos polarizantes y herramientas digitales, han demostrado una utilidad instrumental para actores políticos en EE.UU., particularmente en un contexto de crisis interna marcada por estancamiento económico, divisiones sociales profundas y erosión institucional. En 2026, con el PIB creciendo solo un 1.8% anual —bajo el impacto de tarifas comerciales y deuda pública al 140% del PIB—, estas tácticas sirven para desviar atención de fallos estructurales, como la inflación persistente (3.5% proyectada) y desempleo juvenil al 12%, hacia chivos expiatorios como inmigrantes o «élites globalistas», tengan o no una alta responsabilidad. Políticamente, la administración Trump ha reducido fondos para centros de contrainteligencia electoral, dejando vulnerabilidades que permiten a adversarios externos —como Rusia, con un presupuesto de propaganda aumentado 50% a US$1.5 mil millones— infiltrar «narrativas» que amplifican divisiones internas, beneficiando a facciones que buscan mantener control partidista. Esta utilidad se extiende a la política exterior, donde la desinformación proyecta una aparente fuerza interna para disuadir a potenciales rivales, mientras erosiona alianzas al sembrar dudas sobre compromisos estadounidenses.
Internamente, las estrategias de desinformación han servido de pivotes para la administración Trump en el manejo de una crisis multifacética, caracterizada por un «eje de fragmentación política» que incluye desconfianza en el Congreso (aprobación al 15%) y tensiones raciales exacerbadas por políticas migratorias estrictas, con deportaciones proyectadas en 1 millón anual. Al etiquetar críticas mediáticas como «fake news», Trump ha consolidado una base leal, con encuestas mostrando que el 74% de republicanos cree que los medios son «enemigos del pueblo», permitiendo desviar escrutinio de escándalos como recortes en seguridad electoral que dejan expuestos sistemas estatales a ciberataques. Esta táctica ha probado ser efectiva en contextos de estancamiento económico, donde los discursos sobre «éxitos comerciales» —pese a déficits crecientes— mantienen un alto grado de apoyo entre votantes rurales, donde el 60% percibe la economía como «en crisis», pero debido a culpas externas.
Hacia las midterms de noviembre 2026, la estrategia podría determinar el control del Congreso, con proyecciones en que los republicanos mantienen el Senado (53-47), pero pierden la Cámara (218-217 para demócratas). Las campañas que subestimen oposición o inflen amenazas, como alegaciones de «fraude migratorio» podrían jugar en contra de los demócratas en estados clave como Arizona y Georgia, donde el 40% de votantes hispanos reporta exposición a desinformación electoral. El panorama, ciertamente, ha facilitado purgas en agencias federales, reduciendo contrapesos y permitiendo políticas controvertidas como aranceles al 25% en México, presentadas como «victorias» pese al riesgo inflacionario que acarrea. La manipulación interna podría mitigar el impacto de crisis como la de la burbuja tecnológica —con sobrevaluaciones en IA generando volatilidad bursátil—, desviando la culpa a «medios liberales» y manteniendo cohesión partidista.
En el ámbito exterior, la desinformación ha sido un activo para EE.UU. en la tarea de contrarrestar narrativas adversarias, pero también un búmeran que debilita su credibilidad global. Ante presupuestos rusos en propaganda alrededor de US$1.5 mil millones y con los chinos en creciente dominio cognitivo sobre miles de millones de personas alrededor del mundo, EEUU ha usado contradesinformación para desacreditar intervenciones rusas en Ucrania, pero los recortes antes referidos han dejado brechas que permiten a Irán y China amplificar todo tipo de dudas sobre las políticas estadounidenses.
Los efectos en Hispanoamérica son muchísimos y de lo más variados. Como hemos dicho antes en otras ocasiones, la partida se juega frecuentemente con patrimonio y recursos iberoamericanos.
En 2026, la difusión masiva de fake news y desinformación —potenciada por IA, redes sociales y algoritmos de amplificación— se consolida como un riesgo sistémico que genera caos multidimensional, erosionando pilares institucionales y reconfigurando comportamientos colectivos de manera irreversible. Esta proyección trasciende lo tecnológico y luce como una manifestación de instituciones digitales que debilitan a las estatales.
La desinformación genera fragmentación y violencia latente al exacerbar divisiones identitarias y desconfianza interpersonal. En 2026, sociedades polarizadas —con fake news como catalizadores— enfrentan mayor riesgo de disturbios, como se vio en protestas manipuladas en Ecuador, Perú y Bolivia. Las proyecciones indican que la polarización inducida por desinformación aumenta un 30-50% en contextos de alta exposición digital, con impactos en cohesión social: mayor xenofobia, estigmatización de minorías (especialmente las no basadas en autopercepción) y erosión de solidaridad comunitaria, según World Economic Forum Global Risks 2023-2026 y PMC estudios sobre discursos de odio y desinformación. En nuestro medio citadino, donde la penetración digital alcanza 70-80% en jóvenes, fake news sobre migración o inseguridad (por ejemplo, el caso del Tren de Aragua entre 2025 y 2026) amplifica percepciones de caos, fomentando la aplicación de políticas de vigilancia extrema, mientras cunde la desconfianza en instituciones gubernamentales, con un alto riesgo de violencia callejera. Tal dinámica social se retroalimenta: mayor desconfianza reduce la participación cívica y fomenta el aislamiento.
Obvaimente, la erosión de confianza en procesos democráticos se acelera. En nuestro continente, el superciclo electoral 2025-2027 agrava los riesgos: crimen organizado, inseguridad y desinformación convergen para desestabilizar, con proyecciones de mayor fragmentación política y retrocesos democráticos (CEIUC Riesgo Político América Latina 2026 y Diálogo Político).
¿Más allá? ¿El futuro remoto? La exposición a desinformación reduce la capacidad de discernir fuentes creíbles, estancando desarrollo intelectual y aumentando la confusión emocional y académica de estudiantes de todas las edades. Nuestra población depende de entornos digitales vulnerables a espionaje, manipulación y sobrecarga cognitiva. La confusión induce lo que se conoce como «inoculación inversa», donde exposición constante a mezclas reduce la inmunidad cognitiva, según experimentos de Roozenbeek y van der Linden (2024). Proyecciones para 2026 indican que esta táctica, industrializada por IA, podría desestabilizar la mayoría de democracias, con el 75% de elecciones globales afectadas por deepfakes híbridos, según el Council of Europe.
En fin… Atentos…
Referencias bibliográficas:
Albarracín, D., & Mitchell, A. L. (2004). The role of defensive confidence in preference for proattitudinal information: How believing that one is strong leads to being weak. Journal of Personality and Social Psychology, 87(3), 442–453.
Albarracín, D., Sunderrajan, A., Lohmann, S., Chan, M. S., & Jiang, D. (2012). The effects of defensive processing and test anxiety on threat-related attentional bias. Journal of Abnormal Psychology, 121(2), 382–390.
Alvarado, A. (2025, diciembre 23). New batch of Epstein files released by Justice Department, some mention Trump. WIFR.
Aral, S., Eckles, D., & Taylor, S. J. (2018). The spread of true and false news online. Science, 359(6380), 1146–1151.
Aráoz, M. (2020). Social media and sisterhood in Latin America. ResearchGate.
Arlette, F., & Revel, J. (1987). The vanishing children of Paris: Rumor and politics before the French Revolution. Harvard University Press.
Ahern, D. (2025, abril 3). Stranger than fiction: The uphill battle against misinformation. Silicon Republic.
Associated Press. (2024, julio 26). Sabotage acts disrupt train traffic in France, minister says. Associated Press.
Atlantic Council. (2020, febrero 13). Protests in South America: An analysis of new trends in digital disinformation and influence campaigns. Constella Intelligence.
Atlantic Council. (2026, enero 15). Eight ways AI will shape geopolitics in 2026.
BBC. (2025, julio 24). White House pushes back after reports Trump is named in Epstein files. BBC.
BBC. (2025, noviembre 19). Epstein files: Who else was mentioned? BBC.
Belfer Center for Science and International Affairs. (2024, octubre 23). Countering foreign interference: Weighing in on the Canadian public inquiry.
Bongino, D. (2025). Dan Bongino FBI stays home from work Jeffrey Epstein Trump DOJ clash. CBS News.
Brookings Institution. (2022, julio 26). Misinformation is eroding the public’s confidence in democracy.
Brookings Institution. (2024). Are concerns about digital disinformation and elections overblown?
Brookings Institution. (2025). Disinformation is eroding the public’s confidence in democracy
Brooks, C. (2026, enero 2). The next great transformation: How AI will reshape industries—and itself. Forbes.
Canadian Association of University Teachers. (n.d.). Canadian campuses urged to end ties with Confucius Institutes.
Canadian Security Intelligence Service. (2025). CSIS Public Report 2024.
Cantú, F. (2025). Digital manipulation and mass mobilization over the long run: Evidence from Latin America. Frontiers in Political Science.
Castells, M. (2012). Networks of outrage and hope: Social movements in the Internet age. Polity Press.
Center for Strategic and International Studies. (2024). AI-enabled influence operations: Safeguarding future elections.
Center for Strategic and International Studies. (2024). Assessing the United States’ solar power play.
Center for Strategic and International Studies. (2024). The Chinese EV dilemma: Subsidized yet striking.
Chatham House. (2026, enero). The legality of US intervention in Venezuela.
CIC News. (2025, octubre 23). Canada sees significant declines in international student numbers.
Communications Security Establishment. (2025). Annual report 2024-2025.
Council on Foreign Relations. (2025). Will artificial intelligence do more harm than good for U.S. growth?
Deloitte. (2025). Flash crash 2025: AI-driven market disruptions. Deloitte Insights.
DiBenedetto, C. (2025, junio 30). As AI slop intensifies, fake YouTube videos about the Diddy trial proliferate. Mashable.
European Commission. (2024). Dealing with propaganda, misinformation and fake news. Council of Europe.
European Leadership Network. (2024, junio 27). The fast and the deadly: When artificial intelligence meets weapons of mass destruction.
Farge, A., & Revel, J. (1987). The vanishing children of Paris: Rumor and politics before the French Revolution. Harvard University Press.
Foreign Interference Commission. (2024). Initial report.
Foreign Interference Commission. (2025). Final report.
Geopolitical Monitor. (2026, enero 12). Canada’s China Gambit: Strategic fantasy meets geopolitical reality.
German Institute for Global and Area Studies. (2025, mayo 5). Digital disinformation trends in Latin America.
Global Voices. (2020, septiembre 18). Social media in Latin America: Caught between a rock and a hard place.
Guardian, The. (2025, junio 29). Fake, AI-generated videos about the Diddy trial are raking in millions of views on YouTube.
Guardian, The. (2026, enero 23). Experts warn of threat to democracy from ‘AI bot swarms’ infesting social media.
Harvard Business Review. (2026, enero 12). Survey: How executives are thinking about AI in 2026.
Harvard University. (2025). Harvard Gazette: Cognitive atrophy from AI use. Harvard Gazette.
Hiltzik, M. A. (2002, enero 31). Enron’s web of complex hedges, bets; Finances: Massive trading of derivatives may have clouded the firm’s books, experts say. Los Angeles Times.
ICEF Monitor. (2025, septiembre 25). Canada: Study permit numbers are in steep decline in 2025.
International Journal of Communication. (n.d.). Colored revolutions in colored lenses.
Invest in Canada. (2024). Invest in Canada FDI report 2024.
Investment Monitor. (2025, noviembre 28). Canada’s foreign direct investment declines in Q3 2025.
Ipsos. (2023, octubre 11). Elections & social media: The battle against disinformation and trust issues.
Jenkins, H., Ito, M., & Boyd, D. (2016). Participatory culture in a networked era: A conversation on youth, learning, commerce, and politics. Polity Press.
Jonas, E., Schimel, J., Greenberg, J., & Pyszczynski, T. (2003). The Scrooge effect: Evidence that mortality salience increases prosocial attitudes and behavior. Personality and Social Psychology Bulletin, 29(10), 1342–1353.
Journal of Humanities and Social Sciences Communications. (2025). Explanatory factors for the dissemination and control of fake news in the Latin American context.
Karger, D. (n.d.). Comment on algorithm impacts. MIT.
Kepios. (2026). Global social media statistics 2026. https://kepios.com/global-social-media-statistics-2026
Kogan, S., & Niessner, M. (2021). Fake news and financial markets manipulation. YouTube.
Korybko, A. (2015). Hybrid wars: The indirect adaptive approach to regime change. People’s Friendship University of Russia.
Landay, J. (2026). Stanford AI experts predict what will happen in 2026. Stanford HAI.
Lentzos, F., et al. (2022). An experiment on AI-generated biological agents. Nature.
Lin, H., et al. (n.d.). Political persuasion by artificial intelligence. Science.
Liu, B., & Moss, A. (2024). The role of accounting information in an era of fake news. Journal of Accounting and Economics.
Luckin, R. (2026, enero 24). The Skinny on AI for Education #24 January 2026. Educate Ventures Research.
Maddux, J. E., & Rogers, R. W. (1983). Protection motivation and self-efficacy: A revised theory of fear appeals and attitude change. Journal of Experimental Social Psychology, 19(5), 469–479.
Meléndez-Sánchez, M. (2021). Millennial authoritarianism. Journal of Democracy.
MIT Technology Review. (2018, marzo 8). Study: On Twitter, false news travels faster than true stories.
MIT Technology Review. (2025). Flash crash 2025: AI-driven market disruptions. MIT Technology Review.
Moskowitz, T., & Niessner, M. (2018). Fake news: Evidence from financial markets. Yale Insights.
NewsNation. (2025, junio 6). Oprah, Alicia Keys and others targeted in Diddy trial deepfake videos. NewsNation.
New York Times. (2026, febrero 3). Chaos in Minneapolis exposes an internet at war with truth.
Organisation for Economic Co-operation and Development. (2025). International migration outlook 2025.
Pacific Partners. (n.d.). Vancouver’s housing bubble fueled by China’s credit bubble.
Pew Research Center. (2021, febrero 18). Experts say the ‘new normal’ in 2025 will be far more tech-driven, presenting more big challenges.
PISM. (2020, octubre 13). The growing problem of disinformation in Latin America.
Polish Institute of International Affairs. (2020). Digital disinformation trends in Latin America. PISM.
POLITICO. (2016, diciembre 18). The long and brutal history of fake news.
POLITICO. (2024, agosto 1). Musk’s deepfake parody raises troubling online issues.
Postill, J. (2018). The rise of nerd politics: Digital activism and political change. Pluto Press.
Precondo. (2025). Chinese investment in Canadian real estate – Is their ownership now less than 4%?
Pursuit. (2025, enero 16). Disinformation in 2024 was rife, and it’s likely to bring more risks in 2025.
RadarOnline. (2025, junio 11). Sean ‘Diddy’ Combs trial latest: Fake AI videos show celebs ‘testifying’.
Reuters. (2025, octubre 30). China signals it will pull plug on subsidies for EVs with five-year plan exclusión.
Reuters Institute. (2026). Journalism and technology trends and predictions 2026.
Roozenbeek, J., & van der Linden, S. (2024). Inoculation theory and misinformation. Inoculation Theory and Misinformation.
Science. (2018, marzo 9). The spread of true and false news online.
Sevenpubl. (n.d.). The color revolutions are initiated after a key event.
Silicon Republic. (2025, abril 3). Stranger than fiction: The uphill battle against misinformation.
Statistics Canada. (2021). 2021 Census of Population: Ethnic or cultural origin.
Statistics Canada. (2025). International investment position, Canadian direct investment abroad and foreign direct investment in Canada by ultimate investor country.
Statistics Canada. (2025). Population projections on immigration and diversity: Interactive dashboard.
StopFake. (n.d.). FIMI and disinformation as global threats.
Stroud, N. J. (2010). Polarization and partisan selective exposure. Journal of Communication, 60(3), 556–576.
StudyFinds. (2026). AI armies that never sleep are faking grassroots movements, threatening democracy.
The Local. (2024, julio 12). ‘La leyenda blanca’: How Spain responded to the black legend hoax.
theBreaker.news. (2025, junio 19). China remains top threat in Canadian spy agency’s annual report.
Timberg, C. (2016, noviembre 24). Russian propaganda effort helped spread ‘fake news’ during election, experts say. Washington Post.
Trump, D. J. (2025, noviembre 17). Trump says that Republicans should vote to release the Epstein files: ‘nothing to hide’. The National Desk.
Tsvetkova, M. (n.d.). Digital power in Latin America: Hashtags and deepfakes as political tools. Hum-Ecol.
United Nations. (2025, agosto 20). Disinformation is a global risk. So why are we still treating it like a tech problem?
University of Navarra. (n.d.). The Black Legend as a reputational lesson.
University of Pennsylvania. (n.d.). The double-edged sword of artificial intelligence: Navigating the risks and rewards of AI in diplomacy. Annenberg School for Communication.
Vosoughi, S., Roy, D., & Aral, S. (2018). The spread of true and false news online. Science, 359(6380), 1146–1151.
Wikipedia contributors. (2026). Chinese Canadians. Wikipedia.
Wikipedia contributors. (2026). Criticism of Confucius Institutes. Wikipedia.
World Bank. (2024). Personal remittances, received (current US$) – China.
World Bank. (2025). Remittance prices worldwide: Sending money from CANADA to CHINA.
World Economic Forum. (2023, noviembre 14). Fake news undermines democracy, warns global survey.
World Economic Forum. (2025). Global Risks Report 2025.
ZNetwork. (2025, noviembre 19). Mexico’s ‘Gen Z’ protests under the microscope: Foreign funding, bot networks, and ‘Color Revolution 2.0’ pattern.
Znojek, B. (2020, octubre 13). The growing problem of disinformation in Latin America. PISM.
ENGLISH VERSION
Controlled Damage: On Fake News, Deepfakes, and Cunning Manipulation of Information in the Most Recent—and Worst—Examples
Translation by Rebeca Sanz
Fake news. It is common to consider them modern anomalies, sometimes intentional deviations, although generally well exploited by the most cunning. But, given the systematic cultivation of fear, uncertainty, and insecurity—inevitable, in fact, desired—consequences of extreme relativism, always to the benefit of the plethoric market, it is increasingly obvious to everyone that they are, simply, systemic extensions of informational manipulation, while accidental misinformation or informational distortion is the rarity. Despite this, the distinction between real news and partially or totally false ones seems, a priori, enormously exhausting for media consumers, who are, unsurprisingly, already accustomed to receiving everything pre-processed, directly ready for the Like or reposting.
[Roots and Evolution: Misinformation as a Systematic Tool]
Systematic misinformation dates back centuries, particularly in the Anglo-Saxon world, where it served as an ideological weapon against Catholic and Spanish rivals. The main antecedent lies in the anti-Spanish Black Legend, a 16th-century propaganda campaign orchestrated by Dutch and English Protestants to delegitimize the Spanish Empire. This narrative, popularized by historians like William of Orange and others who manipulated writings by Bartolomé de las Casas, accused Spain of genocidal cruelty in the Americas, exaggerating atrocities to justify wars and colonial expansions. Parallelly, Lutheranism drove an anti-Catholic campaign through printed pamphlets that demonized the Pope as the «antichrist» and exaggerated ecclesiastical corruptions, facilitating the Protestant Reformation and consolidating confessional divisions in Europe. These efforts, amplified by the printing press—the Internet of its time—not only altered public perceptions but legitimized territorial conquests, such as the English expansion in North America.
In the 19th century, the Black Legend persisted in the U.S. during the Mexican-American War (1846-1848), where the Anglo-Saxon press portrayed Mexicans as «Catholic barbarians» to justify territorial annexations, as if appealing to Luther and his carnage-inciting harangues had not been enough. This Anglo-Saxon tradition of media control was institutionalized in the 20th century with operations like anti-German propaganda in World War I, where false atrocity stories (e.g., «crucified Belgian babies») massively mobilized public opinion.
Long before, in the full 20th century, during the Cold War, the CIA orchestrated fake news in Ibero-America, like Operation Mockingbird (1950s), which infiltrated media to promote coups against leftist governments, portraying them as «tyrannical communists,» the English state acted cunningly in the economic sphere. Since the 17th century. The «South Sea Bubble» (1720) in England involved false rumors of wealth in South America, inflating South Sea Company shares by 1,000% before collapsing, ruining investors and enriching insiders. In the 19th century, the «Crédit Mobilier Scandal» (1872) in the U.S. used manipulated press to exaggerate railroad progress, allowing speculation that defrauded the government of $44 million.
In the late 20th century, the Bre-X fraud (1990s) included geologists who falsified gold samples in Indonesia, inflating shares from $0.30 to $286 before collapsing in 1997, with $6 billion in losses for investors. More recently, the Enron scandal (2001) involved false accounting and manipulated leaks to sustain stock prices, resulting in $74 billion in losses. These are merely illustrative cases, and they abound, each worthy of a separate text… Sadly famous operations like that of the United Fruit Company in Guatemala (1954) relied heavily on anti-communist propaganda to overthrow Árbenz, protecting banana monopolies. Later, speculations like the «Tequila Crisis» (1994) in Mexico involved rumors amplified by Anglo-Saxon media about instability, precipitating devaluation and bailouts that benefited foreign investors.
[The Rise of Social Media: Expanding Horizons]
Nowadays, while everyone talks big about democracy, social media has truly achieved the democratization of misinformation, scaling its reach beyond the imaginable. Platforms like Meta and X allow instant viralization, with algorithms prioritizing emotional content over factual any, amplifying mass polarization. In 2026, with 5.66 billion active global users—equivalent to 68.7% of the world’s population, a 4.8% annual increase since 2025, adding 259 million new identities—social media has reached a 93.8% penetration among internet users, with an average of 6.75 platforms per person and 2.5 hours of daily time, according to Kepios and Statista analysis. This massiveness, with Asia representing 60% of users and Ibero-America contributing 392.6 million in 2022 (projected to 450 million by 2026), has allowed bots to generate up to 64% of profiles on X, according to 5th Column AI estimates, or between 9-15% in general active accounts, inflating inauthentic interactions and manipulating collective perceptions. Thus, in the least bad case, these algorithms foster echo chambers that reinforce biases on a large scale to the point that studies from Nature (2023) indicate 10% of users generate 92% of tweets, while bots and coordinated campaigns amplify divisive narratives, logically eroding trust in democratic institutions.
In Latin America, this disruption has facilitated operations similar to «color revolutions,» as in Bolivia in 2019, where misinformation about electoral fraud—disseminated via Facebook and WhatsApp by coordinated networks, reaching millions in just hours—contributed to the overthrow of Evo Morales, with later OEA verifications revealing irregularities, but not massive fraud, according to Chatham House and PISM. In Mexico during 2018, candidates used bots to inflate popularity, with up to 120 million users on WhatsApp propagating false narratives about corruption, according to Reuters and GIGA. In Ecuador in 2019, coordinated government accounts propagated propaganda on Twitter to delegitimize indigenous protests, amplifying messages that reached 50% digital penetration, according to Frontiers in Political Science. In Venezuela, the Maduro regime employed digital units since 2018 to vilify the opposition: bots that generated 43% of pro-government activity in 2020, all to justify repression, according to PISM and Think Global Health. In Chile, misinformation about the new constitution in 2022—claiming false expropriations—went viral on TikTok and WhatsApp, contributing to the 62% rejection in the referendum, with campaigns reaching 78% of users, according to CSIS and The Guardian. In Brazil, from 2018 to 2022, WhatsApp disseminated Bolsonarist propaganda, with bots inflating trends that radicalized 20% of voters, culminating in coup attempts in 2023, according to Souza and Nature. These manipulations, with 62% penetration in Central America and 70% in East Asia (for global context), illustrate how certain networks facilitate so-called astroturfing —simulation of grassroots support— to destabilize regimes, aligned with foreign interests like those of Russia and China in Ibero-America, according to the German Institute for Global and Area Studies.
Economically, networks have driven collective speculations, like the «GameStop Frenzy» of January 2021. Then, Reddit’s WallStreetBets coordinated massive purchases of GME shares, raising prices from $20 to $400 in days, forcing quick halts and rushed operations that cost $20 billion to hedge funds like Melvin Capital, generating profits, but also losses after the peak, as reported by the Cato Journal. This predatory treatment of the retail, with 10% of users generating 92% of activity, highlighted the power of forums to challenge Wall Street, inspiring similar movements in AMC and Express, with volatility levels persisting into early this year (report CNBC and Bookmap).
[AI as a Catalyst for Mass Manipulation]
In a very brief span—since the public launch of ChatGPT in November 2022—artificial intelligence has emerged as an exponential catalyst for mass informational manipulation, transcending mere technical assistance to become a tool of social engineering on a global scale. Something, moreover, foreseeable. Indeed, technological structures reconfigure human behavior towards controlled dependencies, thanks not only to the generation of texts, images, and audiovisuals indistinguishable from reality, but also to the prediction, tracking, and precise steering of collective preferences through big data analysis. In 2026, with a deepfake detection market projected at $15.7 billion (growing 42% annually from $5.5 billion in 2023), tools like OpenAI’s Sora or xAI’s Grok produce synthetic content that deceives 70% of average users, according to the Reuters Institute Digital News Report 2026 (which surveyed 100,000 people in 50 markets and found a 25% increase in exposure to deepfakes since 2024). This deception rate, higher than the 50% chance level reported in previous Europol studies (which estimate 90% of online content synthetic by 2026), underscores how AI exploits human perceptual vulnerabilities, such as the inability to detect audio deepfakes (harder to recognize than visual ones, with detection rates at 40%). This not only democratizes misinformation—reducing technical barriers for malicious actors—but clearly institutionalizes a predictive «techno-totalitarianism,» where systems like Palantir process petabytes of data to profile opinions, anticipating collective reactions with 85% accuracy in targeted campaigns, according to CISA reports.
The prediction and steering of preferences materializes through algorithms analyzing linguistic, emotional, and contextual patterns to generate personalized narratives, amplifying cognitive biases like confirmation bias. For example, in electoral contexts, AI has manipulated voters via deepfakes that not only mimic voices and faces but adapt messages to individual profiles. In the 2024 Mexican elections, synthetic videos generated by tools like ElevenLabs and Sensity AI circulated on TikTok and WhatsApp, showing candidates like Claudia Sheinbaum «confessing» corruption or Xóchitl Gálvez «promising» extreme policies, reaching 5 million views and generating chaos in polls, with 30% of voters reporting exposure to deepfakes according to a Recorded Future analysis. These deepfakes, often distributed by bot accounts (40% of traffic on X), did not alter direct results but eroded electoral trust by 15%, according to the Alan Turing Institute, which analyzed 100 global elections since 2023 and found AI interference in 19 cases, mainly in so-called content creation (90%).
In Latin America, this manipulation is aggravated by digital divides: Recently, in Venezuela, post-capture deepfakes of Maduro showed fake celebration videos mixed with real footage, generating 14.1 million views on X and exacerbating polarization, according to the BBC. In Argentina, AI-rigged fake polls in the 2025 legislative elections underestimated Milei’s victories, with legacy media accused of manipulation, according to viral posts on X.
Meanwhile, the continent’s patrimony is being played with on a large scale, always through information manipulation. Thus, we have cases like the «flash crash» of 2025, triggered by AI-false tweets about bank bankruptcies, causing $1 trillion losses in minutes, according to Deloitte and MIT Technology Review. Indeed, AI accelerates bubbles like the still-vibrant «AI bubble.» Indeed, economists like Michael Burry are betting against Nvidia and Palantir due to overvaluations (shares inflated 241% in Micron), projecting collapses similar to the 2000 dot-com bust.
[Strategy of Confusion: Mixing Real and False]
The deliberate hybridization of real and false information constitutes a refined institutional tactic, generating a state of cognitive confusion where the distinction between truth and deception dissolves, eroding the collective capacity to discern critical facts. This strategy not only amplifies misinformation but undermines the credibility of entire institutions, allowing false narratives to infiltrate as plausible while inconvenient truths are dismissed as invented conspiracies. In 2026, with 90% of online content generated synthetically according to the Stanford AI Index, this mix has scaled to industrial levels, where platform algorithms like Meta and YouTube prioritize emotional engagement over veracity, fostering a system where «post-truth»—defined by Oxford as circumstances where emotional appeals trump objective facts—dominates public discourse. This confusion responds to motivations like political polarization, where state or corporate actors inject real elements to validate falsehoods, exploiting cognitive biases like confirmation bias, which makes individuals favor information aligned with pre-existing beliefs. APA studies reveal this tactic induces «information fatigue,» reducing willingness to verify sources and increasing susceptibility to manipulations, with profound implications for social cohesion in vulnerable regions like Latin America, where digital divides amplify inequalities in access to verification.
[The Worst Examples…]
A paradigmatic example of this strategy is the case of Sean «P. Diddy» Combs, whose 2025-2026 trial for sex trafficking and corruption has been flooded by deepfakes and «AI slop»—low-quality AI-generated content designed for virality. At least 26 YouTube channels, with 900 videos, accumulated 70 million views recirculating thumbnails and false narratives inserting non-involved celebrities like Oprah Winfrey, Alicia Keys, Jennifer Lawrence, Jim Carrey, Justin Bieber, Will Smith, and Joe Rogan into fictitious testimonies, often with graphic language to maximize clicks. These videos mixed real footage from the trial with synthetic audio and visuals, creating conspiratorial narratives suggesting elite cover-ups. The confusion spread to TikTok, where similar deepfakes reached millions of views, exacerbating stigmatization of real victims by diluting their testimonies with fiction, and generating ad revenue for channels exploiting algorithms to prioritize sensationalism. In Latin America, replicas of these deepfakes circulated on local platforms like WhatsApp, amplifying culturally adapted misinformation linking the case to «Hollywood elitism,» eroding trust in already fragile judicial systems.
But the most serious case is that of the release of Jeffrey Epstein’s files a few days ago by the Department of Justice (DOJ), which included over 3 million pages, but generated a whirlwind of confusion by mixing authentic documents with false or manipulated elements. And yes, those responsible are government entities, supposedly obligated to guarantee the veracity of the data they share publicly. This occurs, moreover, strategically on time. With this we allude to the fact that in November the U.S. midterm elections (Congress and Senators) will take place, a key event where much, if not practically everything, is at stake, and for which the current government is not exactly in a winning position, given the several, massive, and more or less violent demonstrations currently happening in different states. On one hand, it is clear that the partial—and confusing—release of information about the Epstein case allows Donald Trump to claim he has fulfilled his transparency commitment regarding it; likewise, given the speed with which one news item replaces another—today almost no one talks about Ukraine in terms similar to just two months ago, and let alone Venezuela—the matter will move to a secondary or tertiary level; in any case, cushioned by the noise of other issues; finally, we must also consider that any new information regarding Epstein and company’s actions released later, especially between March and September, will have a much lesser impact than it would have as full novelty, first because it will be confused with the previous; in other words, it will be partially known news, and secondly, because it can easily be included in the spectrum of the false, easy to deny, given—once again—the informational fog caused.
Yes, the principle of opportunity is, as always, decisive. The impact of the informational game of the Epstein case, right now, on the conflict between the United States and Iran, is tremendous. It allows, in the best case, the coordination of a mutually choreographed attack like the one that ended the last Twelve-Day War. In the worst, it offers enough maneuvering time to better evaluate the risks of a confrontation for which, certainly, things are heating up very rapidly, and whose horizon is far from the picture of Venezuela, a true Sunday stroll, by contrast.
(Just yesterday, an F35 shot down an Iranian drone that came too close to the aircraft carrier Abraham Lincoln, despite being warned not to; the Iranian supreme command openly indicated that, in case of a U.S. aggression, they would attack the carrier with hypersonic missiles—which the U.S. does not have nor can intercept—; and today, finally, along with the change of course of the armed vessel, alerts have been raised in the Middle East regarding an «imminent change of situation,» requiring the rethinking of immediate action policies. Incidentally, it would be absurd to think this recent «emboldening» is due to governmental arbitrariness; it is much more probable, if not certain, that the explicit backing of Russia and China, perfectly aware of the internal problems of the U.S., is the cause.)
Now, at the root of the matter, the increasingly clear relationship between Epstein and MOSSAD heats things up like almost nothing else. It happens that Netanyahu’s pressure for a clash against Iran—his guarantee of remaining at the head of Israel and to evade the multitude of trials awaiting him—also very significantly fructifies the potential North American civil war. In this context, the partial and confusing release of the case information is enormously convenient, especially—if we allow ourselves to continue with the same logic—to reduce the danger from the pressure of the current Israeli regime and its enormous influence in the organization, the apparatus of influences and financial backing in the U.S. Not long ago, Charlie Kirk was assassinated after being explicit about the pressures from Zionist financial blocs.
It is curious, to say the least, that among the millions of released files there is no concrete allusion to any probable defenestration work, except the Israeli one, as if there were no oppositions or enmities within the North American administration without intervention from Zionism. This trait is projected onto many other causes of accusation now exposed. Macron, for example, a former Rothschild bank official, is considerably compromised in various documents, as are other equally relevant figures in international politics—note—especially linked to the Ukraine conflict, mainly regarding investments by consolidated globalist financial backers who are pro-Israeli. (Indeed, there are abundant email messages alluding to specific consultations to Epstein about Ukraine’s future.)
As if that weren’t enough, the high degree of involvement of the Clintons adds to the importance of the chosen option: a strategic management of controlled damage. To this deal is integrated Elon Musk (involved with over thirty emails), who requires the Republican triumph in the midterm elections to guarantee the management of the so-called Golden Cúpula with the placement of super-heavy satellites that will allow him, besides fulfilling the security requirements of the contract, a new level of mass data control, worthy of competing with Palantir (pro-Israeli). It is not at all coincidental that the head of Tesla has increased his media clarification activity regarding the distance he maintained from Epstein, while on X the image of Bill Gates and the rest of the globalists, enemies of Trump and main promoters of the woke Democratic opposition, the work mainly of the famous Soros, is torn apart. (Nor is it coincidental that Tesla postpones the manufacturing of electric cars to concentrate on manufacturing humanoid robots for backup and substitution in household tasks, among which counts the care of the elderly and young children. And nor is it coincidental that, given the tremendous financial instability repeatedly referred to, Milei multiplies the purchase of Chinese vehicles by five hundred, sending flying what he said not long ago about doing business with communist regimes.)
Among the deepfakes circulating with the FBI’s blessing, are AI videos of Epstein «confessing» implications of celebrities, or forged letters that the DOJ later denied, like a supposed missive from Epstein whose handwriting did not match the real one (which generated conspiracy theories that accumulated 14.1 million views on X in two days). There is something for all—the worst and most abominable—tastes; here we limit ourselves to pointing out those with direct geopolitical impact.
Much of the informational confusion lies in the absence of a «client list,» something Trump promised. The «narratives» of cover-up dilute the attention that should be paid to documented real abuses and protect others by inducing the aforementioned verification fatigue among the public.
All this is, also—how could it not be?—profitable. A study in PNAS (2023) demonstrates that polarized communities on Meta propagate «cascades» of hybrid information, where group homogeneity accelerates diffusion by validating falsehoods with real elements, predicting virality sizes with 80% accuracy. CISA identifies tactics like cultivating «false personas» on networks to inject misinformation, mixing real accounts with bots that amplify «hybrid» narratives.
[Projection…]
Disinformation strategies, driven by polarizing narratives and digital tools, have demonstrated instrumental utility for political actors in the U.S., particularly in a context of internal crisis marked by economic stagnation, deep social divisions, and institutional erosion. In 2026, with GDP growing only 1.8% annually—under the impact of trade tariffs and public debt at 140% of GDP—these tactics serve to divert attention from structural failures, like persistent inflation (3.5% projected) and youth unemployment at 12%, towards scapegoats like immigrants or «globalist elites.» Politically, the Trump administration has reduced funds for election counterintelligence centers, leaving vulnerabilities that allow external adversaries—like Russia, with a propaganda budget increased 50% to $1.5 billion—to infiltrate «narratives» that amplify internal divisions, benefiting factions seeking to maintain partisan control. This utility extends to foreign policy, where disinformation projects an apparent internal strength to deter potential rivals, while eroding alliances by sowing doubts about U.S. commitments.
Internally, disinformation strategies have served as pivots for the Trump administration in managing a multifaceted crisis, characterized by an «axis of political fragmentation» that includes distrust in Congress (approval at 15%) and racial tensions exacerbated by strict immigration policies, with deportations projected at 1 million annually. By labeling media criticism as «fake news,» Trump has consolidated a loyal base, with polls showing 74% of Republicans believe media are «enemies of the people,» allowing diversion of scrutiny from scandals like cuts in election security that leave state systems exposed to cyberattacks. This tactic has proven effective in contexts of economic stagnation, where discourses about «trade successes»—despite growing deficits—maintain a high degree of support among rural voters, where 60% perceive the economy as «in crisis,» but due to external blame.
Towards the November 2026 midterms, these strategies could determine control of Congress, with projections that Republicans maintain the Senate (53-47), but lose the House (218-217 for Democrats). Campaigns that underestimate opposition or inflate threats, like allegations of «migration fraud,» could play against Democrats in key states like Arizona and Georgia, where 40% of Hispanic voters report exposure to electoral misinformation. The landscape has certainly facilitated purges in federal agencies, reducing checks and balances and allowing controversial policies like 25% tariffs on Mexico, presented as «victories» despite the inflationary risk they entail. Internal manipulation could mitigate the impact of crises like the tech bubble—with AI overvaluations generating stock volatility—diverting blame to «liberal media» and maintaining partisan cohesion.
In the foreign arena, disinformation has been an asset for the U.S. in countering adverse narratives, but also a boomerang that weakens its global credibility. Facing Russian propaganda budgets at $1.5 billion and with the Chinese in increasing cognitive dominion over billions of people worldwide, the U.S. has used counter-disinformation to discredit Russian interventions in Ukraine, but cuts in centers like the Global Engagement Center have left gaps allowing Iran and China to amplify all kinds of doubts about U.S. policies.
The effects in Latin America are many and varied. As we have said before on other occasions, the game is frequently played with Ibero-American patrimony and resources.
In 2026, the mass dissemination of fake news and misinformation—powered by AI, social media, and amplification algorithms—consolidates as a systemic risk generating multidimensional chaos, eroding institutional pillars and irreversibly reconfiguring collective behaviors. This projection is not merely technological, but a manifestation of digital institutions weakening state ones.
Misinformation generates fragmentation and latent violence by exacerbating identity divisions and interpersonal distrust. In 2026, polarized societies—with fake news as catalyst—face greater risk of unrest, as seen in manipulated protests in Peru. Projections indicate polarization induced by misinformation increases 30-50% in contexts of high digital exposure, with impacts on social cohesion: increased xenophobia, stigmatization of minorities, and erosion of community solidarity, according to World Economic Forum Global Risks 2023-2026 and PMC studies on hate speech/disinformation. In Latin America, where digital penetration reaches 70-80% among youth, fake news about migration or insecurity (for example, the case of the Tren de Aragua between 2025 and 2026) amplifies perceptions of chaos, fostering extreme vigilance and distrust in government institutions, with a high risk of street violence. Such social dynamics feed back: greater distrust reduces civic participation and fosters isolation.
The erosion of trust in democratic processes accelerates. In our continent, the 2025-2027 super-electoral cycle aggravates risks: organized crime, insecurity, and misinformation converge to destabilize, with projections of greater political fragmentation and democratic setbacks (CEIUC Political Risk Latin America 2026 and Diálogo Político).
Beyond? The remote future? Exposure to misinformation reduces the capacity to discern credible sources, stalling intellectual development and increasing emotional and academic confusion of students of all ages around the world. Students of all ages live in digital environments vulnerable to cognitive overload. Confusion induces what is known as «reverse inoculation,» where constant exposure to mixtures reduces cognitive immunity, according to experiments by Roozenbeek and van der Linden (2024). Projections for 2026 indicate this tactic, industrialized by AI, could destabilize most democracies, with 75% of global elections affected by hybrid deepfakes, according to the Council of Europe.
In short… Stay alert…
