Videos de IA contra EE.UU. se multiplican en redes chinas: ¿nueva era de propaganda digital o desinformación sin control?
En medio de la escalada del conflicto en Irán, donde Estados Unidos e Israel han llevado a cabo ataques aéreos contra objetivos iraníes, las plataformas chinas como Weibo y Douyin (la versión local de TikTok) han visto una proliferación de videos generados por inteligencia artificial que ridiculizan o critican duramente a EE.UU. Estos clips, muchos de ellos de baja calidad pero altamente virales, se difunden sin aparente censura, incluso cuando el Ministerio de Relaciones Exteriores de China insta públicamente a la desescalada y a evitar una mayor confrontación en la región.
Reportes de CNN del 17 y 18 de marzo confirman el fenómeno: mientras Beijing mantiene una postura diplomática de llamado a la calma, sus censores permiten que estos contenidos antiestadounidenses circulen libremente en redes sociales. Un ejemplo recurrente son videos que muestran escenarios ficticios de derrotas estadounidenses, superhéroes de Hollywood «traicionados» o líderes políticos convertidos en caricaturas ridículas, todo mezclado con footage real o simulado de bombardeos. Estos materiales no provienen necesariamente de cuentas oficiales, pero su viralidad sugiere una tolerancia selectiva que contrasta con la estricta moderación habitual en temas sensibles internos.
El término que ha empezado a circular en análisis internacionales es «slopaganda»: una fusión de «slop» (contenido basura o de baja calidad generado por IA) y propaganda. No se trata de producciones sofisticadas como las de estudios estatales tradicionales, sino de clips rápidos, emocionales y baratos de crear con herramientas accesibles como Midjourney, Runway o modelos chinos avanzados como Seedance 2.0 de ByteDance. Estos videos se diseñan para enganchar algoritmos: alto impacto visual, música épica o irónica, y narrativas que apelan a emociones nacionalistas o antiimperialistas. En cuestión de horas acumulan millones de vistas, comentarios y shares, amplificando mensajes sin necesidad de verificación.
En el contexto del conflicto Irán, los clips a menudo responden directamente al video oficial de la Casa Blanca titulado «Justice the American Way», publicado el 6 de marzo en whitehouse.gov y en su cuenta de X. Ese montaje de 42 segundos combina escenas de películas como Iron Man, Top Gun: Maverick, John Wick, Deadpool, Gladiator y referencias a series como Breaking Bad y Better Call Saul, con footage real de ataques aéreos en Irán. El caption: «JUSTICE THE AMERICAN WAY.». El video ha sido ampliamente criticado por trivializar un conflicto armado: medios como The Guardian lo describen como «propaganda inmadura» y «supremely nasty mischief», PBS NewsHour destaca cómo borra la línea entre entretenimiento y guerra real, y actores como Ben Stiller han protestado por el uso no autorizado de clips de sus películas.
En respuesta, o al menos en paralelo, los videos chinos generan contranarrativas. Algunos muestran a «superhéroes estadounidenses» fallando estrepitosamente, o caricaturas de líderes occidentales en situaciones humillantes, todo con efectos de IA que imitan estilos de cine de acción. CNN en Español reportó el 18 de marzo que estos contenidos se multiplican precisamente porque evaden la censura habitual: no critican al gobierno chino, sino a un adversario externo, lo que les permite viralizarse en un ecosistema donde el control es selectivo.
El impacto va más allá de China. Estos videos cruzan fronteras rápidamente vía TikTok internacional, WhatsApp y X, llegando a audiencias en Latinoamérica, donde se adaptan con subtítulos en español o memes locales. En Colombia, por ejemplo, usuarios comparten versiones que conectan el tema con debates sobre influencia estadounidense en la región o con la polarización política actual. La viralidad se explica por su formato: cortos, visuales, emocionales y fáciles de consumir. Como señala un análisis de Euronews sobre fenómenos similares, más del 30% del contenido viral en redes podría ser generado por IA en 2026, erosionando la confianza en lo que vemos.
Esto plantea preguntas profundas sobre propaganda digital en la era de la IA. Por un lado, democratiza la creación de mensajes: cualquier usuario con un teléfono puede producir un video que antes requería equipos caros. Por otro, facilita la desinformación masiva. Plataformas como Meta y YouTube han implementado etiquetas para contenido IA, pero la detección no es perfecta, y en China el control estatal permite que ciertos narrativos florezcan mientras otros se suprimen. El Ministerio de Relaciones Exteriores chino, al urgir desescalada, mantiene una imagen de moderación, pero la tolerancia a estos videos sugiere una estrategia de «soft power» indirecto: dejar que la ciudadanía exprese rechazo sin comprometer al Estado directamente.
En el entretenimiento global, el fenómeno transforma cómo se consume geopolítica. Videos como «Justice the American Way» o sus contrapartes chinas se ven como «trailers épicos» o sátira, no como informes serios. Esto trivializa conflictos reales —con miles de víctimas reportadas en Irán— y convierte la guerra en espectáculo digital. Neal Mohan, CEO de YouTube, advirtió en febrero de 2026 que un millón de canales usaron IA en diciembre 2025, y el «slop» (contenido basura) crece exponencialmente, alimentado por algoritmos que premian engagement sobre veracidad.
Para Colombia y América Latina, donde el acceso a redes es masivo y la desconfianza en instituciones es alta, estos videos representan un riesgo adicional: amplifican polarización sin contexto. Un clip anti-EE.UU. puede reforzar narrativas antiimperialistas locales, mientras uno pro-estadounidense (como el de la Casa Blanca) se percibe como arrogancia. El resultado es más división, menos diálogo.
¿Es esto una nueva era de propaganda digital? Sí, en el sentido de que la IA baja el costo y acelera la difusión. ¿O solo desinformación sin control? También, porque la falta de moderación selectiva permite que narrativos tóxicos se expandan. Mientras el conflicto en Irán continúa y las potencias usan redes para narrar su versión, los usuarios globales pagan el precio: distinguir realidad de ficción se vuelve más difícil cada día. En 2026, la batalla por las mentes no se libra solo en campos de batalla, sino en feeds infinitos donde un video de 15 segundos puede valer más que mil palabras diplomáticas.
