Identifier les images générées par une intelligence artificielle
À l’heure où les visuels générés par des intelligences artificielles se multiplient sur Internet, Google vient de mettre en place un système de filigrane persistant permettant d’identifier efficacement les visuels créés par des IA.
C’est un débat qui agite de nombreux professionnels de l’IA, mais aussi de l’information, depuis plusieurs mois : comment identifier les illustrations, photos et autres visuels générés par des intelligences artificielles ? Si générer des illustrations à l’aide d’IA n’a rien d’illégal, l’utilisation de tels contenus peut poser question : certains artistes s’en attribuent la paternité tandis que certains sites détournent la réalité via des visuels photoréalistes, mais complètement faux.
Google fait partie des entreprises qui planchent sur le sujet depuis un moment déjà. Et désormais, Imagen, sa propre intelligence artificielle de création d’images, dispose de sa propre solution permettant d’identifier de manière sûre un visuel qui a été généré avec son système.
Un filigrane bien présent, même si vous ne le voyez pas
« Aujourd’hui, en partenariat avec Google Cloud, nous lançons une version bêta de SynthID, un outil de filigrane et d’identification des images générées par l’IA », explique Google DeepMind, la division de l’entreprise dédiée à l’intelligence artificielle. « Cette technologie intègre un filigrane numérique directement dans les pixels d’une image, la rendant imperceptible à l’œil humain, mais détectable pour l’identification. »
Dans l’immédiat, SynthID est accessible via Imagen, le service de conversion texte-image de Google. Seuls certains clients Vertex AI peuvent actuellement en bénéficier, mais un déploiement plus vaste aura lieu plus tard, après des phases de test.
Il est vrai qu’à l’œil nu, il est impossible de déterminer si un visuel est généré ou pas par Imagen. Mais en passant le contenu dans un outil adapté, le filigrane numérique apparaît et il est identifié comme tel. « SynthID n’est pas infaillible contre les manipulations extrêmes d’images, mais il fournit une approche technique prometteuse pour permettre aux personnes et aux organisations de travailler de manière responsable avec le contenu généré par l’IA », explique Google. Par ailleurs, même lorsque l’image est recadrée, modifiée ou capturée une nouvelle fois, le filigrane est conçu pour ne pas disparaître. L’entreprise estime qu’il s’agit, ici, d’un premier pas vers des solutions plus étendues, capables d’identifier des contenus audios, vidéos et textes générés par des intelligences artificielles.
Google est le premier, mais il ne devrait pas être dernier
L’initiative de Google DeepMind fait écho à la demande du gouvernement américain, faite en juillet dernier, à l’encontre des entreprises qui développent des intelligences artificielles. Si l’Union européenne a déjà adopté certaines règles pour clarifier l’usage des IA par les entreprises, les USA sont à la traîne. OpenAI, Google et Meta se sont notamment engagés à développer des outils de filigrane pour leurs propres solutions, en vue de lutter contre la désinformation et l’utilisation, parfois abusive, des contenus générés par les intelligences artificielles.
On peut donc s’attendre à ce que d’autres entreprises qui proposent des solutions liées à l’IA dévoilent, très prochainement, leurs propres filigranes. Si 2023 a été l’année durant laquelle l’intelligence artificielle a pris son envol concret, 2024 pourrait être celle des garde-fous. Et c’est plutôt une bonne nouvelle.
Leave your comment
Note: HTML is not translated!