
Parmi les images des destructions réelles, des images manipulées et générées par l'intelligence artificielle, connues sous le nom de deepfakes, ont commencé à circuler, dépeignant de prétendus moments de souffrance humaine qui, bien que fausses, se sont rapidement répandues.
Images fausses de l'ouragan Helene : le cas de la fille avec le chiot
Une des images les plus partagées sur des réseaux comme Facebook, X et YouTube, montre une fille pleurant désespérément tout en tenant un chiot au milieu de ce qui semble être des eaux d'inondation. A première vue, l'image semble capturer un moment émouvant de désespoir en pleine tragédie, mais une analyse plus détaillée révèle qu'il s'agit d'une création fausse, générée par IA.
Ces images, comme le souligne Forbes, présentent plusieurs incohérences qui les trahissent comme des deepfakes. Par exemple, dans une version de l'image, la fille porte une chemise différente de celle qui apparaît dans une autre version presque identique. De plus, le chiot qu'elle tient a un pelage légèrement plus foncé dans l'une des versions et le bateau dans lequel se trouve la fille change de forme et de couleur. Ces petits détails, qui peuvent passer inaperçus pour la plupart des spectateurs, sont des signaux clairs que l'image a été manipulée.

Même des figures publiques, comme le sénateur Mike Lee de l'Utah, ont été dupées par l'image, la partageant sur X avec le commentaire "Caption this photo" ("Mettez un titre à cette photo"). Bien qu'il l'ait ensuite supprimée après avoir reçu des avertissements indiquant que la photo était fausse, sa diffusion avait déjà touché des milliers de personnes.
De manière similaire, une utilisatrice de Facebook a partagé l'image avec le texte "Dear God, help our babies and their families!" ("Dieu, aide nos bébés et leurs familles"), démontrant la rapidité avec laquelle ces deepfakes font appel aux émotions des utilisateurs.
Le danger des deepfakes en période de catastrophe
Les conséquences de la diffusion de ces images fausses vont au-delà de la confusion momentanée. Selon Forbes, les deepfakes en situations de catastrophe peuvent gravement compliquer les efforts de réponse et de sauvetage, créer de fausses narrations et éroder la confiance du public à un moment où une information précise et fiable est cruciale.

Ces deepfakes non seulement désinforment, mais peuvent également être utilisés pour des escroqueries, comme la collecte de fonds frauduleux pour les victimes, bien qu'à ce jour, il n'ait pas été prouvé que l'image de la fille ait été utilisée à cette fin.
Un exemple récent de manipulation d'images à des fins politiques a été la critique des efforts de la FEMA (Agence Fédérale de Gestion des Urgences), où des partisans de Donald Trump ont utilisé des images et des nouvelles fausses pour discréditer les tentatives de l'agence d'aider les victimes de l'ouragan Helene.
Comment identifier une image générée par IA
Distinguer une image réelle d'une image générée par une intelligence artificielle peut être difficile, surtout en période de crise où les gens recherchent rapidement des informations. Cependant, les experts en informatique suggèrent quelques signes clés qui peuvent aider à identifier les deepfakes :

- Incohérences visuelles : comme dans le cas de l'image de la fille avec le chiot, les deepfakes contiennent souvent de petits détails qui ne correspondent pas. Des changements subtils dans les vêtements, l'environnement ou les animaux présents peuvent être des indices qu'une image a été manipulée.
- Qualité de l'image : les images générées par l'IA ont souvent des zones floues ou pixelisées, surtout sur les bords des objets ou des personnes. Dans certains cas, les traits du visage peuvent sembler artificiels ou trop lisses, ce qui peut être un signe que l'image n'est pas réelle.
- Anomalies dans les membres ou les mains : une erreur courante dans les deepfakes est la représentation incorrecte des mains ou des doigts. Dans l'une des versions de l'image de la fille, on remarque qu'elle a un doigt en trop, ce qui trahit la manipulation.
- Vérification de la source : il est toujours important de vérifier la source originale d'une image avant de la partager. Des plateformes comme Facebook ont commencé à étiqueter les images comme "altérées" lorsqu'il est détecté qu'elles ont été manipulées, mais ces avertissements n'arrivent pas toujours à temps.