Une fausse image montrant une explosion au Pentagone est brièvement devenue virale sur Twitter lundi, causant un léger affaissement des marchés pendant dix minutes, et relançant le débat autour des risques liés à l'intelligence artificielle (IA).
La fausse photographie, apparemment réalisée avec un programme d'IA générative (capable de produire du texte et des images à partir d'une simple requête en langage courant), a obligé le ministère américain de la Défense américain à réagir.
Les pompiers de la zone où se trouve le bâtiment (à Arlington, près de Washington) sont aussi intervenus pour indiquer sur Twitter qu'aucune explosion ou incident n'avait eu lieu, ni au Pentagone ni à côté.
Mais le fait qu'elle soit restée mesurée par rapport à la teneur de cette fausse info suggère que d'autres l'ont aussi jugée vaseuse.
Un compte de la mouvance conspirationniste QAnon a été parmi les premiers à relayer la fausse image, dont la source n'est pas connue.
L'incident intervient après que plusieurs fausses photographies produites avec de l'IA générative aient été largement relayées pour montrer les capacités de cette technologie, comme celle de l'arrestation de l'ancien président américain Donald Trump ou celle du Pape en doudoune.
Mais si l'IA générative facilite la création de faux contenus, le problème de leur dissémination et de leur viralité les composantes les plus dangereuses de la désinformation relève lui des plateformes, rappellent régulièrement des experts.