
Grâce à une mise à jour de son outil « À propos de cette image » et à sa collaboration avec la Coalition pour la provenance et l'authenticité du contenu (C2PA), Google promet une plus grande transparence dans la détection des images créées ou manipulées par IA.
Comment Google détectera les images générées par intelligence artificielle
Google s'est associé à la C2PA, un consortium d'entreprises et d'organisations, y compris des acteurs clés du marché tels qu'Amazon, Meta, OpenAI et la BBC, pour développer une norme mondiale qui certifie et détecte le contenu généré par l'intelligence artificielle.

Ce travail commun a abouti à la version 2.1 des identifiants de contenu de C2PA, une norme conçue pour accroître la sécurité et éviter les manipulations des métadonnées documentant la provenance d'images, de vidéos et d'audios.
Les identifiants de contenu permettent d'identifier si un fichier numérique a été créé par un appareil photo, édité avec un logiciel ou généré entièrement par intelligence artificielle.
Google a intégré les identifiants de contenu de C2PA dans des produits clés, tels que Google Search et prochainement dans Google Ads. Cela signifie que lorsque les utilisateurs effectuent une recherche d'images, ils pourront accéder à des informations détaillées sur l'origine de celles-ci. La fonction « À propos de cette image », qui est déjà disponible sur Google, sera mise à jour pour offrir des données sur si une image a été générée ou modifiée par des outils d'IA.
Le processus est simple : en cliquant sur les trois points verticaux qui apparaissent sur une image dans les résultats de recherche, les utilisateurs pourront voir l'option « À propos de cette image ». Si le contenu a des métadonnées de C2PA, des informations sur l'appareil ou le logiciel utilisé pour capturer ou modifier l'image seront affichées.

Par exemple, si les données indiquent que l'image a été prise par un modèle spécifique d'appareil photo, ces détails seront vérifiés via une « Liste de confiance », qui certifie que l'information est précise.
La mise à jour des identifiants de contenu ne se limitera pas à Google Search. Selon Laurie Richardson, vice-présidente de la confiance et de la sécurité chez Google, l'entreprise a l'intention d'étendre l'utilisation de ces signaux d'authenticité à d'autres produits, tels que Google Ads.
À l'avenir, la détection des images générées par IA influencera également la façon dont Google applique ses politiques publicitaires. Les signaux d'authentification de C2PA pourraient être utilisés pour informer les annonceurs du contenu qu'ils promeuvent et garantir qu'ils respectent les régulations interdisant la désinformation.
Dans le domaine de la vidéo, YouTube, également propriété de Google, sera l'une des premières plateformes à suivre les traces de TikTok, qui implémente déjà les identifiants de contenu pour marquer automatiquement les vidéos qui ont été générées par IA. Avec cette intégration, les utilisateurs de YouTube pourront obtenir des informations sur si le contenu qu'ils voient a été capturé par un appareil photo ou créé artificiellement par un logiciel de génération d'images.

L'effort de Google pour étiqueter le contenu généré par IA s'inscrit dans une stratégie plus large pour lutter contre la désinformation sur internet. En 2023, l'entreprise a lancé SynthID, un outil de filigrane numérique développé par Google DeepMind.
Ce outil permet de détecter et de suivre le contenu généré par IA sur des plateformes telles que Google Imagen. SynthID repose sur une technologie de filigrane intégrée directement dans le fichier, ce qui complique la manipulation ou la suppression des données sur son origine.