Le 26 mars 2026, quelques heures après les premières frappes américaines sur des installations militaires iraniennes, un compte Instagram affilié aux Gardiens de la révolution publie une image. Pas un communiqué officiel. Pas un missile filmé en contre-plongée. Une figurine Lego. Un soldat américain miniature, désarticulé, posé sur un décor de briques multicolores en ruines. L’image est générée par intelligence artificielle. Elle est partagée 14 000 fois en moins de six heures. Et elle ne viole, techniquement, aucune règle de modération de contenu.
Ce n’est pas un accident. C’est un protocole.
Le fait : une campagne coordonnée documentée par six sources convergentes
Entre le 26 mars et le 25 avril 2026, au moins cinq sources primaires ont documenté, de manière indépendante, l’existence d’une campagne de propagande iranienne structurée, multi-plateforme, utilisant massivement l’intelligence artificielle générative pour cibler les audiences occidentales, et en particulier américaines.
La Tribune Dimanche, le 25 avril 2026, a révélé l’ampleur du dispositif en détaillant la combinaison de trois registres : production d’images IA, exploitation de références culturelles américaines (dont Jeffrey Epstein) et mise en scène de la puissance balistique iranienne. Franceinfo, le même jour, a confirmé l’utilisation systématique de la pop culture occidentale, des personnages Lego aux références à Toy Story, dans des visuels générés par IA et diffusés sur X, Instagram et Bluesky. France 24, dès le 26 mars 2026, avait identifié les premiers signaux de cette guerre de l’information par IA. La Brookings Institution, dans une analyse publiée le 15 avril 2026, a qualifié l’IA générative d’« arme de guerre » dans le contexte iranien. Et la Foundation for Defense of Democracies (FDD), dès le 19 mars 2026, avait analysé les deepfakes comme composante active de la campagne de désinformation iranienne.
L’université de Clemson, via son Media Forensics Hub, a retracé les comptes coordonnés affiliés aux Gardiens de la révolution dans les 24 heures suivant les premières frappes. La RTBF a synthétisé, le 25 avril 2026, la convergence de ces observations sous un titre qui résume l’arsenal : « L’IA, les Lego et le rap. »
Ce n’est plus une hypothèse. C’est un fait documenté, sourcé, convergent.
Le judoka narratif : quand le moins puissant utilise le poids de l’adversaire
La propagande iranienne 2026 fonctionne exactement comme un judoka. Elle ne cherche pas à opposer sa force à celle de l’adversaire. Elle utilise le poids culturel, la grammaire visuelle et les codes émotionnels de l’Occident pour le déstabiliser. Les Lego ne sont pas un jouet dans ce contexte. Ils sont une arme de pénétration narrative dans les foyers occidentaux. Toy Story n’est pas une référence cinématographique. C’est un véhicule émotionnel qui contourne les défenses rationnelles du spectateur.
Ce mécanisme est documenté par la Brookings Institution (15 avril 2026) sous le terme de « cultural appropriation weaponization » : l’appropriation des symboles culturels de l’adversaire à des fins de déstabilisation informationnelle. Le ressort est simple. Un missile iranien en image de synthèse réaliste active chez le spectateur occidental un réflexe de distanciation : « c’est de la propagande. » Une figurine Lego brisée active un tout autre circuit : la familiarité, l’enfance, l’humour noir. Le spectateur partage avant de réfléchir. Et quand il réfléchit, le dommage narratif est fait.
Décryptage : les cinq composantes du playbook iranien 2026
L’analyse croisée des six sources disponibles permet de reconstituer un playbook structuré en cinq composantes distinctes, chacune remplissant une fonction précise dans l’architecture de la campagne.
Composante 1 : la production IA à coût marginal nul.Les visuels diffusés ne sont pas des productions graphiques traditionnelles. Ce sont des images générées par des modèles d’IA générative accessibles publiquement, dont les coûts de production sont négligeables. La Brookings Institution note que cette asymétrie de coût est la rupture fondamentale : une puissance militairement inférieure peut produire un volume de contenu narratif supérieur à celui de son adversaire, sans infrastructure de production classique. Le rapport FDD (19 mars 2026) documente l’utilisation de deepfakes vidéo en complément des images statiques, ajoutant une couche de crédibilité artificielle à la campagne.
Composante 2 : l’appropriation des codes culturels occidentaux.Le choix des références n’est pas aléatoire. Lego (familiarité universelle, association à l’innocence), Toy Story (nostalgie générationnelle, humanisation des objets), le rap américain (codes de contre-culture interne aux États-Unis), et même « Voyage, Voyage » de Desireless (kitsch européen, viralité mème). Chaque référence est calibrée pour un segment d’audience précis. C’est du ciblage éditorial, pas de l’improvisation.
Composante 3 : le circuit d’amplification officiel/informel.Franceinfo (25 avril 2026) détaille le mécanisme de diffusion. Les ambassades iraniennes sur X publient des contenus qui, isolément, restent dans les limites de la communication diplomatique. Ces contenus sont ensuite repris, amplifiés, déclinés par des comptes affiliés non officiels qui poussent le curseur plus loin : mèmes plus agressifs, montages plus provocateurs, deepfakes. L’université de Clemson a identifié ce schéma en deux cercles concentriques : un cercle officiel (ambassades, médias d’État) qui pose le cadre narratif, et un cercle informel (comptes coordonnés, trolls, bots) qui assure la viralité et le volume.
Composante 4 : l’exploitation des fractures internes américaines.La Tribune Dimanche (25 avril 2026) révèle l’utilisation récurrente de la référence à Jeffrey Epstein dans les contenus iraniens ciblant les audiences américaines. Ce n’est pas un hasard. Epstein est le symbole d’une défiance profonde d’une partie de la population américaine envers ses propres élites. En l’invoquant, la propagande iranienne ne construit pas un récit externe. Elle s’insère dans un récit interne déjà existant, celui de la corruption systémique des élites américaines. C’est la technique la plus sophistiquée du playbook : ne pas créer la fracture, mais s’y engouffrer.
Composante 5 : le contournement algorithmique par le registre humoristique.Les plateformes modèrent la violence, la haine, la désinformation factuelle. Elles ne modèrent pas les mèmes humoristiques. Un soldat Lego désarticulé n’est pas, techniquement, un contenu violent. Une parodie Toy Story n’est pas, techniquement, de la désinformation. En plaçant systématiquement la propagande dans le registre de l’humour et de la culture pop, l’Iran contourne les systèmes de modération automatisée. C’est ce que la FDD (19 mars 2026) nomme « algorithmic evasion by design » : l’évasion algorithmique n’est pas un effet collatéral, c’est un choix architectural.
Le précédent Daesh et ce qui a changé
La comparaison avec la propagande de Daesh entre 2014 et 2017 est inévitable, mais elle est aussi trompeuse si elle s’arrête à la surface. Daesh produisait des contenus de haute qualité visuelle (les vidéos d’Al-Hayat Media Center étaient montées avec un professionnalisme remarqué par tous les analystes) mais dans un registre de terreur directe. La propagande iranienne 2026 opère un renversement complet : le registre n’est pas la terreur, mais la dérision. L’objectif n’est pas de terroriser, mais de ridiculiser.
La différence structurelle est l’IA générative. Daesh avait besoin de cameramen, de monteurs, de studios de production clandestins. L’Iran de 2026 n’a besoin que d’un prompt et d’une connexion internet. Le coût marginal de production d’un mème Lego est si proche de zéro qu’il rend obsolète toute stratégie de modération basée sur le volume. Supprimer un contenu prend plus de temps que d’en produire dix.
Pendant ce temps, les plateformes occidentales continuent de modérer selon des grilles construites pour un monde pré-IA. Les algorithmes de détection cherchent des marqueurs de violence visuelle, des mots-clés de haine, des patterns de désinformation factuelle. Ils ne cherchent pas des figurines Lego. Et c’est précisément pour cela que les figurines Lego sont l’arme la plus efficace du playbook.
Ce que révèle la stratégie iranienne sur l’état des guerres narratives en 2026
Trois enseignements stratégiques émergent de ce cas d’école.
Premier enseignement : la dissymétrie militaire n’implique plus la dissymétrie narrative.L’Iran est militairement surclassé par les États-Unis dans un rapport qui n’a aucun équivalent historique. Et pourtant, dans l’espace narratif, le rapport de force est, au minimum, contesté. Les images Lego iraniennes ont été plus partagées sur les réseaux sociaux américains que les communiqués officiels du Pentagone sur la même période, selon l’analyse de Clemson. Ce découplage entre puissance militaire et puissance narrative est le fait géopolitique majeur de 2026. Il ne concerne pas que l’Iran. Il concerne tout acteur qui comprend quel’IA générative change les rapports de forcedans la production de contenu.
Deuxième enseignement : la modération algorithmique est structurellement en retard d’une guerre.Les systèmes de modération de Meta, X et Bluesky ont été conçus pour détecter la violence, la nudité, le discours de haine et la désinformation factuelle vérifiable. La propagande par appropriation culturelle et humour ne rentre dans aucune de ces catégories. Ce n’est pas un bug. C’est une limite architecturale. Les plateformes devront choisir entre modérer l’humour politique (ce qui est politiquement intenable dans des démocraties) et accepter que leur infrastructure soit utilisée comme vecteur de propagande étrangère. Il n’y a pas de troisième option.
Troisième enseignement : le concept de Munitions Narratives trouve ici son illustration la plus radicale.Les Munitions Narratives, dans le cadre analytique du Journal ELMARQ, désignent des briques de contenu stratégique pré-construites, modulaires, réactivables selon le contexte. Le playbook iranien est exactement cela : un arsenal de formats (Lego, Toy Story, rap, Epstein, missiles en 3D) qui peuvent être combinés, déclinés, adaptés en temps réel selon l’actualité. Ce ne sont pas des contenus. Ce sont des munitions. Chacune est calibrée pour un effet précis : la figurine Lego pour le partage viral, la référence Epstein pour la fracture interne, le deepfake missile pour la dissuasion perceptuelle.
Ce qui rend ce cas unique dans l’histoire de la guerre informationnelle, c’est la convergence des trois facteurs : coût de production nul (IA), arsenal de formats pré-calibrés (Munitions Narratives), et circuit d’amplification mixte officiel/informel (ambassades + comptes coordonnés). Aucun de ces facteurs n’est nouveau isolément. Leur combinaison systématique, documentée par six sources indépendantes, est sans précédent.
La Fatigue Synthétique des défenses informationnelles occidentales
Il existe un phénomène que les analystes de la désinformation commencent à peine à nommer. Les systèmes de détection, de modération et de réponse informationnelle des démocraties occidentales n’échouent pas parce qu’ils sont incompétents. Ils échouent parce qu’ils sont submergés par un volume de contenus générés par IA dont les indicateurs classiques de détection (qualité visuelle, cohérence factuelle, traçabilité des comptes) ne fonctionnent plus.
C’est ce que le cadre analytique ELMARQ nomme la Fatigue Synthétique : l’épuisement des indicateurs de mesure et de détection dans un environnement transformé par l’IA générative. Appliquée au cas iranien, la Fatigue Synthétique désigne précisément l’incapacité structurelle des systèmes de modération à suivre le rythme de production d’un adversaire dont le coût marginal de contenu est nul. Chaque mème Lego supprimé est remplacé par trois variantes en moins d’une heure. Chaque compte suspendu est remplacé par cinq comptes nouveaux. Les indicateurs de modération (nombre de contenus supprimés, temps de réponse, taux de détection) affichent des performances stables ou en amélioration. Mais le volume de contenus non détectés croît plus vite que la capacité de détection. Les indicateurs sont verts. La réalité est rouge.
C’est la définition exacte de la Fatigue Synthétique : un tableau de bord qui rassure pendant que le terrain se dégrade.
Les limites de l’analyse : ce que ce playbook ne prouve pas
La rigueur analytique exige de nommer ce que cette campagne de propagande ne démontre pas.
Elle ne démontre pas que l’Iran « gagne » la guerre. La puissance narrative ne se convertit pas mécaniquement en avantage stratégique sur le terrain. Les images Lego n’ont pas empêché les frappes américaines. Elles n’ont pas modifié les décisions du Pentagone. Elles n’ont pas inversé le rapport de force militaire.
Elle ne démontre pas non plus l’efficacité réelle de la campagne sur l’opinion publique américaine. Le nombre de partages n’est pas un indicateur d’adhésion. Un mème peut être partagé par moquerie, par indignation ou par simple curiosité. Les études d’impact sur l’opinion sont, à ce stade, inexistantes. Les sources disponibles documentent la production et la diffusion, pas la réception.
Ce que le playbook démontre, en revanche, c’est la sophistication de la stratégie de communication et la capacité d’un acteur étatique à industrialiser la production de contenu narratif par IA à un coût négligeable. C’est un fait de doctrine, pas encore un fait de victoire.
Ce que les six sources convergentes dessinent pour la suite
La convergence de La Tribune Dimanche, Franceinfo, France 24, Brookings, la FDD et Clemson dessine un scénario préoccupant pour les mois à venir. Si le playbook iranien 2026 fonctionne (au sens de la viralité et du contournement de modération, pas nécessairement au sens de l’impact stratégique), il sera copié. Par d’autres États. Par des acteurs non étatiques. Par des organisations dont les objectifs ne sont pas géopolitiques mais commerciaux, électoraux ou idéologiques.
Le vrai danger n’est pas l’Iran. Le vrai danger est la démocratisation du playbook. Quand le coût de production d’une campagne de propagande multi-plateforme tombe à quelques dizaines d’euros par jour, la barrière à l’entrée de la guerre informationnelle disparaît. Ce qui était réservé aux États est désormais accessible à n’importe quel groupe organisé disposant d’un accès à un générateur d’images IA et d’une compréhension basique des codes culturels de sa cible.
La Brookings Institution (15 avril 2026) conclut son analyse par cette observation : la question n’est plus de savoir si l’IA sera utilisée comme arme de guerre informationnelle. La question est de savoir si les démocraties peuvent construire des défenses qui ne détruisent pas, au passage, les libertés qu’elles prétendent protéger.
Le verdict
Le playbook de propagande iranienne 2026 est le premier cas documenté de guerre narrative assistée par IA à l’échelle industrielle, combinant appropriation culturelle, production à coût nul et circuit d’amplification mixte. Sa sophistication stratégique mérite un8/10. Son impact réel sur l’opinion reste à démontrer. Mais une chose est certaine : dans la guerre des récits, celui qui impose les images impose le cadre. Et en avril 2026, les images qui circulent le plus sur les réseaux sociaux américains sont des figurines Lego iraniennes.
La guerre informationnelle n’est plus réservée aux grandes puissances ni aux grandes agences. La capacité à analyser un playbook de propagande, à identifier les mécanismes d’influence et à construire une résilience narrative est devenue une compétence stratégique pour toute organisation exposée à l’espace public. ELMARQ accompagne les dirigeants, les institutions et les organisations dans la construction de cette résilience. Diagnostic, stratégie narrative, formation aux mécanismes d’influence :elmarq.fr



