Daño controlado: Sobre «fake news», «deepfakes» y manipulación artera de información en los más recientes —y peores— ejemplos
Por Juan Pablo Torres Muñiz
Fake news. Noticias falsas. Es común que se las tenga por anomalías modernas, desviaciones a veces intencionales, aunque por lo general bien aprovechadas por los más avispados. Pero, dado el cultivo sistemático del miedo, la incertidumbre y la inseguridad, consecuencias inevitables —de hecho, deseadas— del relativismo extremo, siempre en beneficio del mercado pletórico, es cada vez más obvio para todo el mundo que en realidad se trata, sin más, de extensiones sistémicas de la manipulación informativa, mientras que lo raro es la desinformación o la tergiversación informativa accidental. Pese a ello, la distinción entre noticias reales y parcial o totalmente falsas resulta, al parecer, enormemente agotadora, a priori, para los consumidores de medios, no por nada acostumbrados ya a recibir todo pre-procesado, dispuesto directamente al Like o al reposteo.
[Raíces y evolución: La desinformación como herramienta sistemática]
La desinformación sistemática data de siglos atrás, particularmente en el mundo anglosajón, donde sirvió como arma ideológica contra rivales católicos y españoles. El antecedente principal radica en la Leyenda Negra anti-española, una campaña de propaganda del siglo XVI orquestada por protestantes holandeses e ingleses para deslegitimar el Imperio Español. Esta narrativa, popularizada por historiadores como Guillermo de Orange y otros que manipularon escritos de Bartolomé de las Casas, acusaba a España de crueldad genocida en América, exagerando atrocidades para justificar guerras y expansiones coloniales. Paralelamente, el luteranismo impulsó una campaña anti-católica mediante panfletos impresos que demonizaban al Papa como «anticristo» y exageraban corrupciones eclesiásticas, facilitando la Reforma Protestante y consolidando divisiones confesionales en Europa. Estos esfuerzos, amplificados por la imprenta —la Internet de la época—, no solo alteraron percepciones públicas, sino que legitimaron conquistas territoriales, como la expansión inglesa en América del Norte.
En el siglo XIX, la Leyenda Negra persistió en EE.UU. durante la Guerra Mexicano-Estadounidense (1846-1848), entonces, prensa anglosajona retrataba a mexicanos como «bárbaros católicos» para justificar anexiones territoriales, como si apelar a Lutero y sus arengas carniceras no hubiera sido suficiente. Esta tradición anglosajona de control mediático se institucionalizó en el siglo XX con operaciones como la propaganda anti-alemana en la Primera Guerra Mundial, donde falsos relatos de atrocidades (por ejemplo, «bebés belgas crucificados») movilizaron masivamente a la opinión pública.
Bastante antes de que, en pleno siglo XX, durante la Guerra Fría, la CIA orquestara fake news en Iberoamérica, como la Operación Mockingbird (1950s), que infiltraba medios para promover golpes contra gobiernos izquierdistas, retratándolos como «comunistas tiránicos», el Estado inglés actuó de modo artero en el plano económico. Desde el siglo XVII. El «South Sea Bubble» (1720) en Inglaterra involucró rumores falsos de riquezas en Sudamérica, inflando acciones de la South Sea Company en un 1,000% antes de colapsar, arruinando inversores y enriqueciendo insiders. En el siglo XIX, el «Crédit Mobilier Scandal» (1872) en EE.UU. usó prensa manipulada para exagerar progresos ferroviarios, permitiendo especulación que defraudó al gobierno en $44 millones.
A finales del siglo XX, el fraude de Bre-X (1990s) incluyó geólogos que falsificaron muestras de oro en Indonesia, inflando acciones de $0.30 a $286 antes del colapso en 1997, con pérdidas de $6 mil millones para inversores. Más recientemente, el escándalo Enron (2001) implicó contabilidad falsa y leaks manipulados para sostener precios accionarios, resultando en $74 mil millones en pérdidas. Se trata de casos ilustrativos nada más, y abundan, cada uno digno de un texto aparte… Operaciones tristemente célebres como la de United Fruit Company en Guatemala (1954) se sirvieron en buena medida de propaganda anti-comunista para derrocar a Árbenz, protegiendo monopolios bananeros. Más adelante, especulaciones como la de «Tequila Crisis» (1994) en México involucraron rumores amplificados por medios anglosajones sobre inestabilidad, precipitando devaluación y rescates que beneficiaron a inversores extranjeros.
[La irrupción de las redes sociales: ampliación de horizontes]
Hoy en día, que todo mundo se llena la boca de democracia, las redes sociales han logrado de veras la democratización de la desinformación, escalando su alcance más allá de lo imaginable. Plataformas como Meta y X permiten viralización instantánea, con algoritmos que priorizan contenido emotivo sobre cualquiera factual, amplificando la polarización en masa. En 2026, con 5.66 mil millones de usuarios activos globales —equivalente al 68.7% de la población mundial, un incremento del 4.8% anual desde 2025, agregando 259 millones de identidades nuevas—, las redes han alcanzado una penetración del 93.8% entre usuarios de Internet, con un promedio de 6.75 plataformas por persona y un tiempo diario de 2.5 horas, según análisis de Kepios y Statista. Esta masividad, con Asia representando el 60% de usuarios e Iberoamérica contribuyendo con 392.6 millones en 2022 (proyectado a 450 millones para 2026), ha permitido que bots generen hasta el 64% de perfiles en X, según estimaciones de 5th Column AI, o entre 9-15% en cuentas activas generales, inflando interacciones inauténticas y manipulando percepciones colectivas. Así, en el menos malo de los casos, estos algoritmos fomentan cajas de resonancia que refuerzan sesgos a gran escala al punto que estudios de Nature (2023) indican que el 10% de usuarios genera el 92% de tweets, mientras que bots y campañas coordinadas amplifican narrativas divisivas, erosionando, como es lógico, la confianza en instituciones democráticas.
En Hispanoamérica, esta irrupción ha facilitado operaciones similares a «revoluciones de colores», como en Bolivia en 2019, donde desinformación sobre fraude electoral —difundida vía Facebook y WhatsApp por redes coordinadas, alcanzando millones en apenas unas horas— contribuyó al derrocamiento de Evo Morales, con verificaciones posteriores de la OEA revelando irregularidades, pero no fraude masivo, según Chatham House y PISM. En México durante 2018, candidatos usaron bots para inflar popularidad, con hasta 120 millones de usuarios en WhatsApp propagando narraciones falsas sobre corrupción, según Reuters y GIGA. En Ecuador en 2019, cuentas gubernamentales coordinaron propaganda en Twitter para deslegitimar protestas indígenas, amplificando mensajes que alcanzaron 50% de penetración digital, según Frontiers in Political Science. En Venezuela, el régimen de Maduro empleó unidades digitales desde 2018 para vilificar oposición: bots que generaron 43% de actividad pro-gobierno en 2020, todo en pro de justificar la represión, según PISM y Think Global Health. En Chile, la desinformación sobre la nueva constitución en 2022 —alegando expropiaciones falsas— se viralizó en TikTok y WhatsApp, contribuyendo al rechazo del 62% en referéndum, con campañas que alcanzaron a 78% de usuarios, según CSIS y The Guardian. En Brasil, de 2018 a 2022, WhatsApp diseminó propaganda bolsonarista, con bots inflando tendencias que radicalizaron al 20% de electores, culminando en intentos golpistas en 2023, según Souza y Nature. Estas manipulaciones, con penetración del 62% en Centroamérica y 70% en Asia Oriental (para contexto global), ilustran cómo determinadas redes facilitan el llamado astroturfing —simulación de apoyo grassroots— para desestabilizar regímenes, alineado con intereses extranjeros como los de Rusia y China en Iberoamérica, esto, según German Institute for Global and Area Studies.
Económicamente, las redes han impulsado especulaciones colectivas, como el «GameStop Frenzy» de enero de 2021. Entonces, Reddit’s WallStreetBets coordinó compras masivas de acciones GME, elevando precios de US$20 a US$400 en días, forzando cortes rápidos y operaciones apresuradas que costaron US$20 mil millones a hedge funds como Melvin Capital, generando ganancias, pero también pérdidas pasado el pico, según informa Cato Journal. Esta trata predatoria del retail, con 10% de usuarios generando 92% de actividad, resaltó el poder de foros para desafiar Wall Street, inspirando movimientos similares en AMC y Express, con niveles de volatilidad que persistieron hasta principios de este año (informan CNBC y Bookmap).
[La IA como catalizador de manipulación masiva]
En un lapso brevísimo —desde el lanzamiento público de ChatGPT en noviembre de 2022—, la inteligencia artificial ha emergido como un catalizador exponencial de la manipulación informativa masiva, trascendiendo la mera asistencia técnica para convertirse en una herramienta de ingeniería social a escala global. Algo, por demás previsible. En efecto, las estructuras tecnológicas reconfiguran el comportamiento humano hacia dependencias controladas, merced, no sólo de la generación de textos, imágenes y audiovisuales indistinguibles de la realidad, sino también de la predicción, seguimiento y conducción precisa de preferencias colectivas mediante análisis de big data. En 2026, con un mercado de detección de deepfakes proyectado en US$15.7 mil millones (creciendo 42% anual desde US$5.5 mil millones en 2023), herramientas como Sora de OpenAI o Grok de xAI producen contenidos sintéticos que engañan al 70% de usuarios promedio, según el Reuters Institute Digital News Report 2026 (que encuestó a 100,000 personas en 50 mercados y halló un incremento del 25% en exposición a deepfakes desde 2024). Esta tasa de engaño, superior al 50% de nivel de oportunidad, reportado en estudios previos de Europol (que estiman 90% de contenido online sintético para 2026), subraya cómo la IA explota vulnerabilidades perceptivas humanas, como la incapacidad para detectar deepfakes de audio (más difíciles de reconocer que los visuales, con tasas de detección al 40%). Esto no solo democratiza la desinformación —reduciendo barreras técnicas para actores maliciosos—, sino que institucionaliza claramente un «tecnototalitarismo» predictivo, donde sistemas como Palantir procesan petabytes de datos para perfilar opiniones, anticipando reacciones colectivas con precisión del 85% en campañas dirigidas, según informes de la CISA.
La predicción y conducción de preferencias se materializa mediante algoritmos que analizan patrones lingüísticos, emocionales y contextuales para generar narrativas personalizadas, amplificando sesgos cognitivos como el confirmation bias. Por ejemplo, en el contexto electoral, la IA ha manipulado votantes mediante deepfakes que no solo imitan voces y rostros, sino que adaptan mensajes a perfiles individuales. En las elecciones mexicanas de 2024, videos sintéticos generados por herramientas como ElevenLabs y Sensity AI circularon en TikTok y WhatsApp, mostrando a candidatos como Claudia Sheinbaum «confesando» corrupción o a Xóchitl Gálvez «prometiendo» políticas extremas, alcanzando 5 millones de vistas y generando caos en encuestas, con un 30% de votantes reportando exposición a deepfakes según un análisis de Recorded Future. Estos deepfakes, a menudo distribuidos por cuentas robotizadas (40% del tráfico en X), no alteraron resultados directos, pero erosionaron la confianza electoral en un 15%, según el Alan Turing Institute, que analizó 100 elecciones globales desde 2023 y encontró interferencia AI en 19 casos, principalmente en la así llamada creación de contenido (90%).
En Hispanoamérica, esta manipulación se agrava por brechas digitales: Recientemente, en Venezuela, deepfakes post-captura de Maduro mostraron videos falsos de celebraciones mezclados con footage real, generando 14.1 millones de vistas en X y exacerbando polarización, según BBC. En Argentina, encuestas falsas AI-rigged en elecciones legislativas 2025 subestimaron victorias de Milei, con medios legados acusados de manipulación, según posts virales en X.
Entretanto, se juega con patrimonio del continente a gran escala, siempre mediante manipulación de información. Así, tenemos casos como el «flash crash» de 2025, desencadenado por tweets AI-falsos sobre quiebras bancarias, causó pérdidas de US$1 trillón en minutos, según Deloitte y MIT Technology Review. En efecto, la IA acelera burbujas como la misma «AI bubble» vibrante aún hoy. En efecto, economistas como Michael Burry apuestan contra Nvidia y Palantir por sobrevaluaciones (acciones infladas 241% en Micron), proyectando colapsos similares a dot-com del año 2000.
[Estrategia de confusión: mezcla de real y falso]
La hibridación deliberada de información real y falsa constituye una táctica institucional refinada, que genera un estado de confusión cognitiva donde la distinción entre verdad y engaño se diluye, erosionando la capacidad colectiva para discernir hechos críticos. Esta estrategia no solo amplifica la desinformación, sino que socava la credibilidad de instituciones enteras, permitiendo que narrativas falsas se infiltren como plausibles mientras verdades incómodas se desestiman como conspiraciones inventadas. En 2026, con el 90% del contenido en línea generado sintéticamente según el AI Index de Stanford, esta mezcla ha escalado a niveles industriales, donde algoritmos de plataformas como Meta y YouTube priorizan engagement emotivo sobre veracidad, fomentando un sistema donde la «posverdad» —definida por Oxford como circunstancias donde apelaciones emocionales priman sobre hechos objetivos— domina el discurso público. Esta confusión responde a motivaciones como la polarización política, donde actores estatales o corporativos inyectan elementos reales para validar falsedades, explotando sesgos cognitivos como el confirmation bias, que hace a individuos favorecer información alineada con creencias preexistentes. Estudios de la APA revelan que esta táctica induce «fatiga informativa», reduciendo la voluntad de verificar fuentes y aumentando la susceptibilidad a manipulaciones, con implicaciones profundas para la cohesión social en regiones vulnerables como Hispanoamérica, donde brechas digitales amplifican desigualdades en acceso a verificación.
[Los peores ejemplos…]
Un ejemplo paradigmático de esta estrategia es el caso de Sean «P. Diddy» Combs, cuyo juicio en 2025-2026 por tráfico sexual y corrupción ha sido inundado por deepfakes y «AI slop» —contenido generado por IA de baja calidad diseñado para viralidad—. Al menos 26 canales en YouTube, con 900 videos, acumularon 70 millones de vistas recirculando thumbnails y narraciones falsas que insertaban celebridades no involucradas como Oprah Winfrey, Alicia Keys, Jennifer Lawrence, Jim Carrey, Justin Bieber, Will Smith y Joe Rogan en testimonios ficticios, a menudo con lenguaje gráfico para maximizar clics. Estos videos mezclaban footage real del juicio con audio y visuales sintéticos, creando narrativas conspirativas que sugerían encubrimientos élites. La confusión se extendió a TikTok, donde deepfakes similares alcanzaron millones de vistas, exacerbando estigmatización de víctimas reales al diluir sus testimonios con ficción, y generando ganancias publicitarias para canales que explotan algoritmos para priorizar sensacionalismo. En Hispanoamérica, réplicas de estos deepfakes circularon en plataformas locales como WhatsApp, amplificando desinformación culturalmente adaptada que vinculaba el caso a «elitismo hollywoodense», erosionando confianza en sistemas judiciales ya frágiles.
Pero el caso más grave es el de la liberación de archivos de Jeffrey Epstein hace unos días, por parte del Departamento de Justicia (DOJ), que incluyó más de 3 millones de páginas, pero generó un torbellino de confusión al mezclar documentos auténticos con elementos falsos o manipulados. Y sí, se trata de responsables de entidades gubernamentales, supuestamente obligadas a garantizar la veracidad de la data que comparten públicamente. Esto ocurre, además, estratégicamente a tiempo. Con esto aludimos a que en noviembre se realizarán las elecciones intermedias en EEUU (Congreso y Senadores), un evento clave en que se juega mucho, por no decir prácticamente todo, y para el que el actual gobierno no lleva precisamente las de ganar, habida cuenta las varias, masivas y más o menos violentas manifestaciones, ahora mismo, en distintos estados. Por una parte, es claro que la liberación parcial —y confusa— de la información sobre el caso Epstein le permite a Donald Trump afirmar que ha cumplido su compromiso de transparencia al respecto; asimismo, dada la velocidad con la que unas noticias reemplazan a otras —hoy mismo ya casi nadie habla de Ucrania en términos afines a los de hace apenas dos meses, y ni se diga de Venezuela—, el asunto pasará a un segundo o tercer término; en todo caso, amortiguado por el ruido de otros asuntos; finalmente, hay que tomar en cuenta también que toda nueva información respecto de lo hecho por Epstein y compañía que sea liberada más adelante, especialmente entre marzo y septiembre, tendrá un impacto mucho menor del que habría tenido como novedad plena, primero porque se confundirá con la anterior; dicho de otro modo, será noticia parcialmente sabida y, en segundo lugar, porque podrá ser incluida fácilmente en el espectro de lo falso, fácil de negar, dada —nuevamente— la nebulosa informativa provocada.
Sí, el principio de oportunidad es, como siempre, decisivo. El impacto del juego informativo del caso Epstein, ahora mismo, en el conflicto entre Estados Unidos e Irán, es tremendo. Permite, en el mejor de los casos, la coordinación de un mutuo ataque coreografiado como el que dio fin a la pasada Guerra de los Doce Días. En el peor, ofrece tiempo de maniobra suficiente para evaluar mejor los riesgos de un enfrentamiento para el que, ciertamente, las cosas se calientan a gran velocidad, y cuyo horizonte dista muchísimo del cuadro de Venezuela, un auténtico paseo dominical, por contraste.
(Ayer mismo, un F35 derribó un dron iraní que se acercó demasiado al portaaviones Abraham Lincoln, pese a que se le advirtió que no lo hiciera; el mando supremo iraní indicó abiertamente que, en caso de una agresión estadounidense, atacarían el portaaviones con misiles hipersónicos —que EEUU no tiene ni puede interceptar—; y hoy, finalmente, junto con el cambio de rumbo de la nave armada, se han encendido las alertas en Medio Oriente ante un «inminente cambio de situación», que requiere el replanteamiento de las políticas de actuación inmediatas. A propósito, sería absurdo pensar que este reciente «envalentonamiento» se deba a una arbitrariedad gubernamental; es mucho más probable, por no afirmar seguro, que el respaldo expreso de Rusia y China, perfectamente al tanto de los problemas internos de EEUU, sean la causa.)
Ahora bien, en la raíz del asunto, la evidente relación entre Epstein y MOSSAD caldea las cosas como ninguna otra. Ocurre que la presión de Netanyahu para forzar la guerra contra Irán —su garantía de permanencia a la cabeza de Israel y para evadir la multitud de juicios que le esperan— fructifica también, muy significativamente, la potencial guerra civil norteamericana. En este contexto, la liberación parcial y confusa de la información del caso resulta enormemente conveniente, sobre todo si se piensa en mitigar el peligro de la presión del actual régimen israelí y su enorme influencia en la organización, el aparataje de influencias y de respaldo financiero estadounidense. No hace mucho, Charlie Kirk fue asesinado tras haber sido explícito sobre el asunto.
Es curioso, cuanto menos, que entre los miles de archivos ventilados no haya alusión concreta a ninguna probable labor de defenestración de la administración Trump, excepto la israelí, como si no hubiera oposiciones ni enconos al interior del país sin intervención del sionismo. Este rasgo se proyecta sobre otros múltiples documentos. Macron, por ejemplo, exfuncionario de la banca Rotschild, se ve considerablemente comprometido en variedad de ellos, lo mismo que otras figuras igualmente relevantes de la política internacional activas en torno al conflicto de Ucrania, sobre todo por vínculos con consolidados financieros globalistas pro israelíes. (En efecto, abundan mensajes de correo referidas a consultas específicas a Epstein sobre el futuro ucraniano, como si de un experto se tratara.)
Por si fuera poco, la mención constante de los Clinton entre los peor de los archivos redunda en la importancia de la opción tomada: una gestión estratégica de daño controlado. A este mismo trato se integra Elon Musk (con más de treinta correos electrónicos expuestos), que requiere del triunfo republicano en las elecciones intermedias para garantizar la gestión de la llamada Cúpula Dorada con la colocación de satélites súper pesados que le permitirán, aparte cumplir con los requerimientos de seguridad del contrato, un nuevo nivel de control de data masiva, digno de competir con Palantir (también pro israelí). No es nada casual que el cabeza de Tesla haya incrementado exponencialmente su actividad mediática de aclaraciones respecto a la distancia que supuestamente mantuvo siempre de Epstein, mientras en el mismo X se despedaza la imagen de Bill Gates y el resto de globalistas, enemigos de Trump y principales impulsadores de la oposición demócrata woke y verde (obra, principalmente, del famoso Soros). Por cierto, tampoco es casual que Tesla postergue la fabricación de autos eléctricos para concentrarse en la fabricación de robots humanoides de respaldo y suplencia en labores caseras, entre las que cuenta el cuidado de ancianos y niños pequeños. Ni lo es que, habida cuenta la tremenda inestabilidad financiera, Milei multiplique la compra de vehículos chinos por quinientos, mandando a volar lo que dijo hace no mucho de hacer negocios con regímenes comunistas.)
Entre los deepfakes que circulan ante la mirada extraviada del FBI, se cuentan videos IA de Epstein «confesando» implicaciones de celebridades, o cartas falsificadas que el DOJ luego desmintió, como una supuesta misiva de Epstein cuya escritura no coincidía con la real (que generó teorías conspirativas que acumularon 14.1 millones de vistas en X en dos días). Hay para todos —los peores y más abominables— gustos; aquí, como consta, nos limitamos a señalar los de impacto geopolítico directo.
Buena parte de la confusión informativa radica en la ausencia de una «lista de clientes», algo que Trump prometió. Las «narrativas» de encubrimiento diluyen la atención que debiera prestarse a abusos reales documentados y protegen a otros al inducir la antes mencionada fatiga de verificación entre el público.
Todo esto es, también —¿cómo no?—, rentable. Un estudio en PNAS (2023) demuestra que comunidades polarizadas en Meta propagan «cascadas» de información híbrida, donde homogeneidad grupal acelera difusión al validar falsedades con elementos reales, prediciendo tamaños de viralidad con precisión del 80%. La CISA identifica tácticas como cultivar «personas falsas» en redes para inyectar desinformación, mezclando cuentas reales con bots que amplifican «narrativas» híbridas.
[Proyección…]
Las estrategias de desinformación, impulsadas por discursos polarizantes y herramientas digitales, han demostrado una utilidad instrumental para actores políticos en EE.UU., particularmente en un contexto de crisis interna marcada por estancamiento económico, divisiones sociales profundas y erosión institucional. En 2026, con el PIB creciendo solo un 1.8% anual —bajo el impacto de tarifas comerciales y deuda pública al 140% del PIB—, estas tácticas sirven para desviar atención de fallos estructurales, como la inflación persistente (3.5% proyectada) y desempleo juvenil al 12%, hacia chivos expiatorios como inmigrantes o «élites globalistas», tengan o no una alta responsabilidad. Políticamente, la administración Trump ha reducido fondos para centros de contrainteligencia electoral, dejando vulnerabilidades que permiten a adversarios externos —como Rusia, con un presupuesto de propaganda aumentado 50% a US$1.5 mil millones— infiltrar «narrativas» que amplifican divisiones internas, beneficiando a facciones que buscan mantener control partidista. Esta utilidad se extiende a la política exterior, donde la desinformación proyecta una aparente fuerza interna para disuadir a potenciales rivales, mientras erosiona alianzas al sembrar dudas sobre compromisos estadounidenses.
Internamente, las estrategias de desinformación han servido de pivotes para la administración Trump en el manejo de una crisis multifacética, caracterizada por un «eje de fragmentación política» que incluye desconfianza en el Congreso (aprobación al 15%) y tensiones raciales exacerbadas por políticas migratorias estrictas, con deportaciones proyectadas en 1 millón anual. Al etiquetar críticas mediáticas como «fake news», Trump ha consolidado una base leal, con encuestas mostrando que el 74% de republicanos cree que los medios son «enemigos del pueblo», permitiendo desviar escrutinio de escándalos como recortes en seguridad electoral que dejan expuestos sistemas estatales a ciberataques. Esta táctica ha probado ser efectiva en contextos de estancamiento económico, donde los discursos sobre «éxitos comerciales» —pese a déficits crecientes— mantienen un alto grado de apoyo entre votantes rurales, donde el 60% percibe la economía como «en crisis», pero debido a culpas externas.
Hacia las midterms de noviembre 2026, la estrategia podría determinar el control del Congreso, con proyecciones en que los republicanos mantienen el Senado (53-47), pero pierden la Cámara (218-217 para demócratas). Las campañas que subestimen oposición o inflen amenazas, como alegaciones de «fraude migratorio» podrían jugar en contra de los demócratas en estados clave como Arizona y Georgia, donde el 40% de votantes hispanos reporta exposición a desinformación electoral. El panorama, ciertamente, ha facilitado purgas en agencias federales, reduciendo contrapesos y permitiendo políticas controvertidas como aranceles al 25% en México, presentadas como «victorias» pese al riesgo inflacionario que acarrea. La manipulación interna podría mitigar el impacto de crisis como la de la burbuja tecnológica —con sobrevaluaciones en IA generando volatilidad bursátil—, desviando la culpa a «medios liberales» y manteniendo cohesión partidista.
En el ámbito exterior, la desinformación ha sido un activo para EE.UU. en la tarea de contrarrestar narrativas adversarias, pero también un búmeran que debilita su credibilidad global. Ante presupuestos rusos en propaganda alrededor de US$1.5 mil millones y con los chinos en creciente dominio cognitivo sobre miles de millones de personas alrededor del mundo, EEUU ha usado contradesinformación para desacreditar intervenciones rusas en Ucrania, pero los recortes antes referidos han dejado brechas que permiten a Irán y China amplificar todo tipo de dudas sobre las políticas estadounidenses.
Los efectos en Hispanoamérica son muchísimos y de lo más variados. Como hemos dicho antes en otras ocasiones, la partida se juega frecuentemente con patrimonio y recursos iberoamericanos.
En 2026, la difusión masiva de fake news y desinformación —potenciada por IA, redes sociales y algoritmos de amplificación— se consolida como un riesgo sistémico que genera caos multidimensional, erosionando pilares institucionales y reconfigurando comportamientos colectivos de manera irreversible. Esta proyección trasciende lo tecnológico y luce como una manifestación de instituciones digitales que debilitan a las estatales.
La desinformación genera fragmentación y violencia latente al exacerbar divisiones identitarias y desconfianza interpersonal. En 2026, sociedades polarizadas —con fake news como catalizadores— enfrentan mayor riesgo de disturbios, como se vio en protestas manipuladas en Ecuador, Perú y Bolivia. Las proyecciones indican que la polarización inducida por desinformación aumenta un 30-50% en contextos de alta exposición digital, con impactos en cohesión social: mayor xenofobia, estigmatización de minorías (especialmente las no basadas en autopercepción) y erosión de solidaridad comunitaria, según World Economic Forum Global Risks 2023-2026 y PMC estudios sobre discursos de odio y desinformación. En nuestro medio citadino, donde la penetración digital alcanza 70-80% en jóvenes, fake news sobre migración o inseguridad (por ejemplo, el caso del Tren de Aragua entre 2025 y 2026) amplifica percepciones de caos, fomentando la aplicación de políticas de vigilancia extrema, mientras cunde la desconfianza en instituciones gubernamentales, con un alto riesgo de violencia callejera. Tal dinámica social se retroalimenta: mayor desconfianza reduce la participación cívica y fomenta el aislamiento.
Obvaimente, la erosión de confianza en procesos democráticos se acelera. En nuestro continente, el superciclo electoral 2025-2027 agrava los riesgos: crimen organizado, inseguridad y desinformación convergen para desestabilizar, con proyecciones de mayor fragmentación política y retrocesos democráticos (CEIUC Riesgo Político América Latina 2026 y Diálogo Político).
¿Más allá? ¿El futuro remoto? La exposición a desinformación reduce la capacidad de discernir fuentes creíbles, estancando desarrollo intelectual y aumentando la confusión emocional y académica de estudiantes de todas las edades. Nuestra población depende de entornos digitales vulnerables a espionaje, manipulación y sobrecarga cognitiva. La confusión induce lo que se conoce como «inoculación inversa», donde exposición constante a mezclas reduce la inmunidad cognitiva, según experimentos de Roozenbeek y van der Linden (2024). Proyecciones para 2026 indican que esta táctica, industrializada por IA, podría desestabilizar la mayoría de democracias, con el 75% de elecciones globales afectadas por deepfakes híbridos, según el Council of Europe.
En fin… Atentos…
Referencias bibliográficas:
Albarracín, D., & Mitchell, A. L. (2004). The role of defensive confidence in preference for proattitudinal information: How believing that one is strong leads to being weak. Journal of Personality and Social Psychology, 87(3), 442–453.
Albarracín, D., Sunderrajan, A., Lohmann, S., Chan, M. S., & Jiang, D. (2012). The effects of defensive processing and test anxiety on threat-related attentional bias. Journal of Abnormal Psychology, 121(2), 382–390.
Alvarado, A. (2025, diciembre 23). New batch of Epstein files released by Justice Department, some mention Trump. WIFR.
Aral, S., Eckles, D., & Taylor, S. J. (2018). The spread of true and false news online. Science, 359(6380), 1146–1151.
Aráoz, M. (2020). Social media and sisterhood in Latin America. ResearchGate.
Arlette, F., & Revel, J. (1987). The vanishing children of Paris: Rumor and politics before the French Revolution. Harvard University Press.
Ahern, D. (2025, abril 3). Stranger than fiction: The uphill battle against misinformation. Silicon Republic.
Associated Press. (2024, julio 26). Sabotage acts disrupt train traffic in France, minister says. Associated Press.
Atlantic Council. (2020, febrero 13). Protests in South America: An analysis of new trends in digital disinformation and influence campaigns. Constella Intelligence.
Atlantic Council. (2026, enero 15). Eight ways AI will shape geopolitics in 2026.
BBC. (2025, julio 24). White House pushes back after reports Trump is named in Epstein files. BBC.
BBC. (2025, noviembre 19). Epstein files: Who else was mentioned? BBC.
Belfer Center for Science and International Affairs. (2024, octubre 23). Countering foreign interference: Weighing in on the Canadian public inquiry.
Bongino, D. (2025). Dan Bongino FBI stays home from work Jeffrey Epstein Trump DOJ clash. CBS News.
Brookings Institution. (2022, julio 26). Misinformation is eroding the public’s confidence in democracy.
Brookings Institution. (2024). Are concerns about digital disinformation and elections overblown?
Brookings Institution. (2025). Disinformation is eroding the public’s confidence in democracy
Brooks, C. (2026, enero 2). The next great transformation: How AI will reshape industries—and itself. Forbes.
Canadian Association of University Teachers. (n.d.). Canadian campuses urged to end ties with Confucius Institutes.
Canadian Security Intelligence Service. (2025). CSIS Public Report 2024.
Cantú, F. (2025). Digital manipulation and mass mobilization over the long run: Evidence from Latin America. Frontiers in Political Science.
Castells, M. (2012). Networks of outrage and hope: Social movements in the Internet age. Polity Press.
Center for Strategic and International Studies. (2024). AI-enabled influence operations: Safeguarding future elections.
Center for Strategic and International Studies. (2024). Assessing the United States’ solar power play.
Center for Strategic and International Studies. (2024). The Chinese EV dilemma: Subsidized yet striking.
Chatham House. (2026, enero). The legality of US intervention in Venezuela.
CIC News. (2025, octubre 23). Canada sees significant declines in international student numbers.
Communications Security Establishment. (2025). Annual report 2024-2025.
Council on Foreign Relations. (2025). Will artificial intelligence do more harm than good for U.S. growth?
Deloitte. (2025). Flash crash 2025: AI-driven market disruptions. Deloitte Insights.
DiBenedetto, C. (2025, junio 30). As AI slop intensifies, fake YouTube videos about the Diddy trial proliferate. Mashable.
European Commission. (2024). Dealing with propaganda, misinformation and fake news. Council of Europe.
European Leadership Network. (2024, junio 27). The fast and the deadly: When artificial intelligence meets weapons of mass destruction.
Farge, A., & Revel, J. (1987). The vanishing children of Paris: Rumor and politics before the French Revolution. Harvard University Press.
Foreign Interference Commission. (2024). Initial report.
Foreign Interference Commission. (2025). Final report.
Geopolitical Monitor. (2026, enero 12). Canada’s China Gambit: Strategic fantasy meets geopolitical reality.
German Institute for Global and Area Studies. (2025, mayo 5). Digital disinformation trends in Latin America.
Global Voices. (2020, septiembre 18). Social media in Latin America: Caught between a rock and a hard place.
Guardian, The. (2025, junio 29). Fake, AI-generated videos about the Diddy trial are raking in millions of views on YouTube.
Guardian, The. (2026, enero 23). Experts warn of threat to democracy from ‘AI bot swarms’ infesting social media.
Harvard Business Review. (2026, enero 12). Survey: How executives are thinking about AI in 2026.
Harvard University. (2025). Harvard Gazette: Cognitive atrophy from AI use. Harvard Gazette.
Hiltzik, M. A. (2002, enero 31). Enron’s web of complex hedges, bets; Finances: Massive trading of derivatives may have clouded the firm’s books, experts say. Los Angeles Times.
ICEF Monitor. (2025, septiembre 25). Canada: Study permit numbers are in steep decline in 2025.
International Journal of Communication. (n.d.). Colored revolutions in colored lenses.
Invest in Canada. (2024). Invest in Canada FDI report 2024.
Investment Monitor. (2025, noviembre 28). Canada’s foreign direct investment declines in Q3 2025.
Ipsos. (2023, octubre 11). Elections & social media: The battle against disinformation and trust issues.
Jenkins, H., Ito, M., & Boyd, D. (2016). Participatory culture in a networked era: A conversation on youth, learning, commerce, and politics. Polity Press.
Jonas, E., Schimel, J., Greenberg, J., & Pyszczynski, T. (2003). The Scrooge effect: Evidence that mortality salience increases prosocial attitudes and behavior. Personality and Social Psychology Bulletin, 29(10), 1342–1353.
Journal of Humanities and Social Sciences Communications. (2025). Explanatory factors for the dissemination and control of fake news in the Latin American context.
Karger, D. (n.d.). Comment on algorithm impacts. MIT.
Kepios. (2026). Global social media statistics 2026. https://kepios.com/global-social-media-statistics-2026
Kogan, S., & Niessner, M. (2021). Fake news and financial markets manipulation. YouTube.
Korybko, A. (2015). Hybrid wars: The indirect adaptive approach to regime change. People’s Friendship University of Russia.
Landay, J. (2026). Stanford AI experts predict what will happen in 2026. Stanford HAI.
Lentzos, F., et al. (2022). An experiment on AI-generated biological agents. Nature.
Lin, H., et al. (n.d.). Political persuasion by artificial intelligence. Science.
Liu, B., & Moss, A. (2024). The role of accounting information in an era of fake news. Journal of Accounting and Economics.
Luckin, R. (2026, enero 24). The Skinny on AI for Education #24 January 2026. Educate Ventures Research.
Maddux, J. E., & Rogers, R. W. (1983). Protection motivation and self-efficacy: A revised theory of fear appeals and attitude change. Journal of Experimental Social Psychology, 19(5), 469–479.
Meléndez-Sánchez, M. (2021). Millennial authoritarianism. Journal of Democracy.
MIT Technology Review. (2018, marzo 8). Study: On Twitter, false news travels faster than true stories.
MIT Technology Review. (2025). Flash crash 2025: AI-driven market disruptions. MIT Technology Review.
Moskowitz, T., & Niessner, M. (2018). Fake news: Evidence from financial markets. Yale Insights.
NewsNation. (2025, junio 6). Oprah, Alicia Keys and others targeted in Diddy trial deepfake videos. NewsNation.
New York Times. (2026, febrero 3). Chaos in Minneapolis exposes an internet at war with truth.
Organisation for Economic Co-operation and Development. (2025). International migration outlook 2025.
Pacific Partners. (n.d.). Vancouver’s housing bubble fueled by China’s credit bubble.
Pew Research Center. (2021, febrero 18). Experts say the ‘new normal’ in 2025 will be far more tech-driven, presenting more big challenges.
PISM. (2020, octubre 13). The growing problem of disinformation in Latin America.
Polish Institute of International Affairs. (2020). Digital disinformation trends in Latin America. PISM.
POLITICO. (2016, diciembre 18). The long and brutal history of fake news.
POLITICO. (2024, agosto 1). Musk’s deepfake parody raises troubling online issues.
Postill, J. (2018). The rise of nerd politics: Digital activism and political change. Pluto Press.
Precondo. (2025). Chinese investment in Canadian real estate – Is their ownership now less than 4%?
Pursuit. (2025, enero 16). Disinformation in 2024 was rife, and it’s likely to bring more risks in 2025.
RadarOnline. (2025, junio 11). Sean ‘Diddy’ Combs trial latest: Fake AI videos show celebs ‘testifying’.
Reuters. (2025, octubre 30). China signals it will pull plug on subsidies for EVs with five-year plan exclusión.
Reuters Institute. (2026). Journalism and technology trends and predictions 2026.
Roozenbeek, J., & van der Linden, S. (2024). Inoculation theory and misinformation. Inoculation Theory and Misinformation.
Science. (2018, marzo 9). The spread of true and false news online.
Sevenpubl. (n.d.). The color revolutions are initiated after a key event.
Silicon Republic. (2025, abril 3). Stranger than fiction: The uphill battle against misinformation.
Statistics Canada. (2021). 2021 Census of Population: Ethnic or cultural origin.
Statistics Canada. (2025). International investment position, Canadian direct investment abroad and foreign direct investment in Canada by ultimate investor country.
Statistics Canada. (2025). Population projections on immigration and diversity: Interactive dashboard.
StopFake. (n.d.). FIMI and disinformation as global threats.
Stroud, N. J. (2010). Polarization and partisan selective exposure. Journal of Communication, 60(3), 556–576.
StudyFinds. (2026). AI armies that never sleep are faking grassroots movements, threatening democracy.
The Local. (2024, julio 12). ‘La leyenda blanca’: How Spain responded to the black legend hoax.
theBreaker.news. (2025, junio 19). China remains top threat in Canadian spy agency’s annual report.
Timberg, C. (2016, noviembre 24). Russian propaganda effort helped spread ‘fake news’ during election, experts say. Washington Post.
Trump, D. J. (2025, noviembre 17). Trump says that Republicans should vote to release the Epstein files: ‘nothing to hide’. The National Desk.
Tsvetkova, M. (n.d.). Digital power in Latin America: Hashtags and deepfakes as political tools. Hum-Ecol.
United Nations. (2025, agosto 20). Disinformation is a global risk. So why are we still treating it like a tech problem?
University of Navarra. (n.d.). The Black Legend as a reputational lesson.
University of Pennsylvania. (n.d.). The double-edged sword of artificial intelligence: Navigating the risks and rewards of AI in diplomacy. Annenberg School for Communication.
Vosoughi, S., Roy, D., & Aral, S. (2018). The spread of true and false news online. Science, 359(6380), 1146–1151.
Wikipedia contributors. (2026). Chinese Canadians. Wikipedia.
Wikipedia contributors. (2026). Criticism of Confucius Institutes. Wikipedia.
World Bank. (2024). Personal remittances, received (current US$) – China.
World Bank. (2025). Remittance prices worldwide: Sending money from CANADA to CHINA.
World Economic Forum. (2023, noviembre 14). Fake news undermines democracy, warns global survey.
World Economic Forum. (2025). Global Risks Report 2025.
ZNetwork. (2025, noviembre 19). Mexico’s ‘Gen Z’ protests under the microscope: Foreign funding, bot networks, and ‘Color Revolution 2.0’ pattern.
Znojek, B. (2020, octubre 13). The growing problem of disinformation in Latin America. PISM.
ENGLISH VERSION
Controlled Damage: On Fake News, Deepfakes, and Cunning Manipulation of Information in the Most Recent—and Worst—Examples
Translation by Tiffany Amber Elías Trimble
Controlled Damage: On Fake News, Deepfakes, and Devious Information Manipulation in the Most Recent—and Worst—Examples
Fake news. It is common to view them as modern anomalies or intentional deviations, though they are generally well-exploited by the most shrewd. However, given the systematic cultivation of fear, uncertainty, and insecurity—inevitable and, in fact, desired consequences of extreme relativism—it is increasingly obvious that they are simply systemic extensions of information manipulation. Today, accidental misinformation is a rarity. Despite this, the distinction between real and fake news remains enormously exhausting for media consumers who are already accustomed to receiving everything pre-processed, ready for a «Like» or a repost.
[Roots and Evolution: Disinformation as a Systematic Tool]
Systematic disinformation dates back centuries, particularly in the Anglophone world, where it served as an ideological weapon against Catholic and Spanish rivals. The primary precedent lies in the anti-Spanish Black Legend, a 16th-century propaganda campaign orchestrated by Dutch and English Protestants to delegitimize the Spanish Empire. This narrative, popularized by historians like William of Orange who manipulated the writings of Bartolomé de las Casas, accused Spain of genocidal cruelty in the Americas to justify wars and colonial expansion. Simultaneously, Lutheranism drove an anti-Catholic campaign through printed pamphlets that demonized the Pope as the «Antichrist,» facilitating the Protestant Reformation. These efforts, amplified by the printing press—the Internet of its time—not only altered public perceptions but legitimized territorial conquests, such as English expansion in North America.
In the 19th century, the Black Legend persisted in the U.S. during the Mexican American War (1846–1848), where the English-language press portrayed Mexicans as «Catholic barbarians» to justify territorial annexations. This tradition of media control was institutionalized in the 20th century with anti-German propaganda in World War I, where false atrocity stories (e.g., «crucified Belgian babies») mobilized public opinion on a massive scale.
[The Financial and Cold War Fronts]
Long before the CIA orchestrated fake news in Ibero-America via Operation Mockingbird (1950s) to promote coups against leftist governments, the English state acted deviously in the economic sphere. The «South Sea Bubble» (1720) involved false rumors of wealth in South America, inflating shares by 1,000% before collapsing and ruining investors. In the 19th century, the «Crédit Mobilier Scandal» (1872) in the U.S. used a manipulated press to exaggerate railroad progress, defrauding the government of $44 million.
More recently, the Enron scandal (2001) involved false accounting and manipulated leaks to sustain stock prices, resulting in $74 billion in losses. These are merely illustrative cases. Operations like that of the United Fruit Company in Guatemala (1954) relied heavily on anti-communist propaganda to protect banana monopolies. Later, during the «Tequila Crisis» (1994) in Mexico, rumors amplified by Anglophone media regarding instability precipitated devaluations that benefited foreign investors.
[The Rise of Social Media: Expanding Horizons] Social media has truly achieved the «democratization of disinformation.» In 2026, with 5.66 billion active global users, platforms like Meta and X allow instant viralization, with algorithms prioritizing emotional content over factual data. This massiveness has allowed bots to generate up to 64% of profiles on X, inflating inauthentic interactions and manipulating collective perceptions. Studies from Nature (2023) indicate that 10% of users generate 92% of tweets, while coordinated campaigns erode trust in democratic institutions.
In Latin America, this has facilitated operations similar to «color revolutions.» In Bolivia (2019), misinformation about electoral fraud spread via Facebook and WhatsApp contributed to the overthrow of Evo Morales. In Mexico (2018), candidates used bots to inflate popularity, while in Brazil (2018–2022), «Bolsonarist» propaganda radicalized 20% of voters. These manipulations illustrate how certain networks facilitate astroturfing—the simulation of grassroots support—to destabilize regimes.
[AI as a Catalyst for Mass Manipulation]
In the brief span since ChatGPT’s launch in 2022, AI has emerged as an exponential catalyst for social engineering. In 2026, with a deepfake detection market projected at $15.7 billion, tools like Sora or Grok produce synthetic content that deceives 70% of average users. This institutionalizes a predictive «techno-totalitarianism,» where systems like Palantir process petabytes of data to profile opinions and anticipate reactions with 85% accuracy.
In the 2024 Mexican elections, synthetic videos showed candidates «confessing» to corruption, reaching 5 million views and generating chaos in polls. While they did not alter the final results, they eroded electoral trust by 15%. Meanwhile, global assets are being manipulated through «flash crashes,» such as the one in 2025 triggered by AI-generated fake tweets about bank bankruptcies, causing $1 trillion in losses in minutes.
[The Epstein Case and Strategic «Controlled Damage»]
The most serious case is the recent release of Jeffrey Epstein’s files by the DOJ. By mixing authentic documents with manipulated elements, government entities have created a whirlwind of confusion. This release is strategically timed for the November 2026 U.S. midterms, where the current government is in a precarious position. This «informational fog» allows for the management of controlled damage. It also provides «maneuvering time» in the conflict between the U.S. and Iran.
Notably, the clear relationship between Epstein and the Mossad adds a layer of volatility. Netanyahu’s pressure for a clash with Iran—his guarantee for remaining in power—also impacts the potential for a North American civil war. Curiously, among the millions of files, there is no concrete allusion to efforts to unseat Trump, while international figures like Macron appear compromised. Even Elon Musk is integrated into this deal, needing a Republican triumph to guarantee his «Golden Dome» satellite contracts.
[Projection for 2026]
Disinformation has become an instrumental tool for political actors in a U.S. marked by economic stagnation (1.8% GDP growth) and debt at 140% of GDP. By labeling media criticism as «fake news,» the administration has consolidated a base where 74% of Republicans believe the media are «enemies of the people.»
In Latin America, the super-electoral cycle of 2025–2027 faces high risks: organized crime and disinformation converge to destabilize the region. Exposure to misinformation reduces the capacity to discern credible sources, inducing a «reverse inoculation,» where constant exposure to «mixtures» of truth and lies reduces cognitive immunity. By late 2026, this industrialized deception could destabilize most global democracies.
Stay alert.
