Sarah Yáñez-Richards
New York, 7 oct (EFE).- L'intelligence artificielle (IA) est en train de devenir une technique de désinformation lors des élections présidentielles aux États-Unis, allant d'images surréalistes des deux candidats à la Maison Blanche se promenant main dans la main sur une plage à de faux appels utilisant la voix du président, Joe Biden, pour inciter les démocrates à ne pas voter.
Ce sont les premières élections présidentielles aux États-Unis depuis le 'boom' de l'IA générative, l'outil qui permet de créer des photos, vidéos et audios réalistes de choses qui n'ont jamais eu lieu, une technique connue sous le nom de 'deepfake'.
La prolifération de cette information manipulée, surtout sur les réseaux sociaux, érode la réalité et fait que les gens croient de moins en moins ce qu'ils voient, selon Daniel Rogers, professeur adjoint à l'Université de New York, interrogé par EFE.
Une étude du Pew Research Center indique que 57 % des Américains - avec un pourcentage presque identique entre républicains et démocrates - disent être "extrêmement ou très préoccupés par le fait que des personnes ou des organisations cherchant à influencer les élections utilisent l'IA pour créer et distribuer de fausses informations ou des informations trompeuses sur les candidats et les campagnes".
"Ces outils brouillent en général les lignes entre la réalité et l'invention. Et je pense que cette tendance se poursuivra tant qu'il n'y aura pas de certaines barrières de sécurité, ou de barrières externes mises en place pour essayer de préserver une certaine réalité sensorielle", note Rogers.
L'expert souligne également qu'un autre effet secondaire de cette technologie est que les gens peuvent signaler qu'une information vraie a été créée par l'IA, quelque chose qui est connu sous le nom de "dividende du menteur" ; technique qu'a utilisée Trump pour discréditer une photo avec E. Jean Carroll, journaliste qu'il a été accusé d'avoir agressée sexuellement.
En janvier, une série d'appels automatisés faux dans le New Hampshire ont utilisé une imitation de la voix de Biden générée par l'IA pour inciter les démocrates à ne pas voter lors des primaires de l'État.
Parallèlement, en juillet 2023, l'IA a été utilisée pour imiter la voix de Trump dans une annonce d'un autre candidat pour représenter le Parti républicain dans les primaires qui attaquait Trump.
Néanmoins, Trump lui-même a partagé sur ses réseaux du contenu généré par l'IA lors de cette campagne électorale : le cas le plus marquant a été lorsqu'il a publié sur son réseau social, Truth Social, de fausses images de Taylor Swift le soutenant.
Ces photos étaient étiquetées comme une satire par leur créateur original et, quelques jours plus tard, Trump a reconnu que les images n'étaient pas réelles.
Il circule également sur les réseaux de nombreux 'memes' créés avec l'IA qui n'ont pas pour but de sembler réels, mais de faire passer un message, comme par exemple Trump monté sur un lion ou volant dans un supermarché arme à la main.
Selon le renseignement national des États-Unis, la Russie, l'Iran et la Chine utilisent cette technologie pour influencer la population américaine avant les élections de novembre.
Cet été, le ministère de la Justice a pris des mesures contre une entreprise russe qui utilisait l'IA pour se faire passer pour des utilisateurs américains sur les réseaux sociaux, et OpenAI a démantelé un groupe iranien qui utilisait ChatGPT pour générer de faux commentaires sur les réseaux sociaux.
Dans ces élections, on a également vu l'autre face de la médaille : l'utilisation de l'IA comme outil de campagne pour un candidat, comme par exemple pour effectuer des appels téléphoniques aux électeurs.
Selon une enquête du New York Times, les campagnes dans leur majorité ne font pas le saut vers l'utilisation de l'IA et, quand elles le font, la technologie a échoué.
Rogers ne s'étonne pas de ce constat, car il dit que quelque chose de clé pour une campagne est l'"authenticité" et qu'un appel réalisé par un robot ne transmet pas cela. EFE
(photo)