Il s'agit d'une modalité dans laquelle les victimes ne partagent jamais de contenu de ce type, mais dans laquelle les cybercriminels prennent une image normale et parviennent à la modifier pour lui donner un autre ton , la transformant en un contenu explicite, qui semble réel et devient une forme de menace. et le harcèlement.
Cas réels de fausses images
L'un des cas mentionnés dans l'enquête s'est produit dans la ville de Westfield, dans le New Jersey, où des lycéens ont utilisé un logiciel d'intelligence artificielle pour générer des images sexuellement explicites de leurs camarades de classe.
Ces images faussement fabriquées ont été partagées sur les réseaux sociaux et les discussions de groupe, entraînant une situation de harcèlement et d'humiliation pour les victimes.
Un autre cas vient de Beverly Hills, en Californie, où des élèves de huitième année ont créé et partagé des images explicites de camarades de classe âgées de 12 et 13 ans à l'aide de l'IA. Face à cette situation, les autorités scolaires ont pris des mesures fermes, notamment l’expulsion des élèves concernés et l’émission d’avertissements clairs sur les conséquences d’une utilisation inappropriée de l’IA.
« Tous les districts scolaires sont aux prises avec les défis et l'impact de l'intelligence artificielle et d'autres technologies qui sont accessibles aux élèves à tout moment et en tout lieu », a déclaré Raymond Gonzalez, surintendant des écoles publiques de Westfield.
Les images modifiées proviennent des réseaux sociaux. Des photos dans lesquelles les victimes se trouvent dans des situations normales, mais grâce à une application d'intelligence artificielle, il est possible de les convertir en matériel explicite. Comme dans le cas de Westfield, dans lequel un jeune homme a commencé à suivre une jeune fille de 15 ans sur Instagram et, après avoir modifié les images, a partagé le contenu dans un groupe Snapchat.
Ces incidents ne sont qu'une partie d'un problème plus large qui touche les jeunes sur les réseaux sociaux. La création de faux contenus à l’aide de l’IA ne se limite pas aux fausses images, mais inclut également la génération de textes manipulés et la production de fausses nouvelles, qui peuvent avoir de graves conséquences sur la perception de la réalité.
Les jeunes sont confrontés à plusieurs risques face à cette prolifération de contenus manipulés. Premièrement, la diffusion de fausses images peut causer des dommages irréparables à la réputation et au bien-être émotionnel des victimes, qui peuvent ressentir de la honte, de l'anxiété et de la dépression en raison du harcèlement et de l'humiliation publique.
« On entend beaucoup parler de sécurité physique dans les écoles. Mais ce dont vous n'entendez pas parler, c'est de cette invasion de la sécurité émotionnelle et personnelle des élèves », a déclaré Michael Bregy, surintendant du district scolaire unifié de Beverly Hills.
Dans les deux cas rapportés par le New York Times, les écoles ont envoyé des messages à leurs étudiants les avertissant de la gravité de cette situation, assurant que « tout étudiant surpris en train de créer, diffuser ou posséder des images de cette nature générées par l’IA fera l’objet de mesures disciplinaires ». .
Cependant, Francesca Mani, l'une des victimes du contenu altéré, estime qu'il est temps de « commencer à mettre à jour notre politique scolaire, car si l'école avait eu des politiques concernant l'IA, les étudiants comme moi auraient été protégés », a-t-elle déclaré. moins de 15 ans.