Les récents affrontements au Moyen-Orient ont vu l'émergence d'une nouvelle forme de désinformation, alimentée par l'IA générative, qui crée des contenus visuels falsifiés diffusés en masse sur les réseaux sociaux.
Par K. A.
Les outils numériques, bien que fascinants par leur potentiel créatif, deviennent des armes redoutables dans la guerre de l'information. Dans le conflit israélo-palestinien et les récentes tensions entre Israël et le Hezbollah, les deepfakes ont pris une ampleur inquiétante. Un cas notable est survenu en septembre, lorsque plusieurs images prétendant montrer des frappes de missiles du Hezbollah sur des bases israéliennes se sont révélées être des créations générées par IA.
Par exemple, une image d'un avion en flammes à la base militaire de Ramat David a été largement partagée, affirmant que la base avait été attaquée par le Hezbollah. Grâce à l'analyse des experts de DW Fact Check, il a été confirmé que cette image présentait des anomalies typiques des deepfakes, avec des distorsions visuelles flagrantes et des détails incohérents, tels que des textes flous sur les véhicules et des formes irrégulières.
Une menace invisible pour la vérité
Sur les réseaux sociaux, les deepfakes - vidéos et images générées par IA - sont de plus en plus utilisés pour semer la confusion et manipuler l’opinion publique. En 2023, les experts estiment qu'environ 500.000 vidéos et voix deepfake ont inondé les plateformes sociales, contre seulement 14.678 en 2021. La multiplication rapide de ces contenus, dont certains sont produits pour des objectifs de propagande, rend la vérification de l'information plus difficile que jamais. Le phénomène des deepfakes et des fausses informations dans les conflits ne se limite pas à la diffusion de contenus isolés. Il fait partie d'une stratégie de guerre de l'information plus vaste. En 2021, plus de 85.000 vidéos fausses ont été répertoriées en ligne, un chiffre qui a depuis explosé. Cela crée un environnement où les images et vidéos manipulées deviennent monnaie courante, noyant les faits vérifiables dans un océan de contenus trompeurs. Cette marée montante de désinformation rend difficile pour les utilisateurs de réseaux sociaux et même les journalistes de distinguer le vrai du faux.
Des vidéos et images générées par IA se propagent rapidement, souvent sans vérification, atteignant des millions de personnes en quelques heures, influençant ainsi profondément la perception des conflits. Des images truquées de bombardements ou de victimes civiles peuvent rapidement susciter l’indignation, même lorsqu’elles sont fausses. On se souvient d’ailleurs de la rumeur, il y a un an, concernant quarante bébés prétendument décapités dans un kibboutz israélien, une histoire qui s'était répandue comme une traînée de poudre, bien qu’elle ait été démentie par la suite. Cela a un effet direct sur la couverture médiatique, car les journalistes et les médias doivent désormais déployer des efforts accrus pour vérifier l'authenticité des contenus avant de les relayer.
Les réseaux sociaux, un terreau fertile pour la manipulation
Les réseaux sociaux sont également des terrains propices à la polarisation. Les contenus manipulés alimentent les débats, et les plateformes comme X (anciennement Twitter), Facebook et Instagram, et bien qu'elles aient développé des outils pour détecter et signaler les deepfakes, peinent à suivre le rythme de la création et de la diffusion de ces contenus. L’utilisation de l’IA générative pour générer des images trompeuses et des vidéos au cœur des récents conflits au Moyen-Orient montre l’urgence de développer des outils pour combattre la désinformation et protéger l’intégrité des informations diffusées en ligne. Sans une régulation claire et des efforts concertés pour lutter contre ces manipulations numériques, les fake news deviendront encore plus difficiles à contrecarrer, compromettant la véracité des récits de guerre et affectant l'opinion publique à l'échelle mondiale.
Big Tech sous pression
Les entreprises de la Big Tech, telles que Google, Meta et Amazon Web Services, jouent un rôle critique dans la fourniture d’infrastructures technologiques pour ces systèmes de désinformation. Par exemple, les services de cloud computing et d’intelligence artificielle qu’elles fournissent au gouvernement israélien, comme le montre l’enquête sur «Artificial Genocidal Intelligence», soulèvent des questions éthiques importantes. Ces entreprises sont sous pression pour adopter des pratiques plus responsables et éthiques dans la gestion de leurs contrats, en particulier lorsque leurs technologies sont utilisées pour des finalités militaires. Le projet Nimbus, une collaboration entre Google, Amazon et le gouvernement israélien, est un exemple de partenariat qui a attiré l’attention des défenseurs des droits humains. Ce projet fournit des outils d’IA qui pourraient potentiellement être utilisés pour la surveillance de masse ou pour alimenter des systèmes d’armement automatisés, ce qui renforce ainsi la capacité d’un État à mener des opérations militaires ou des campagnes de désinformation.