Les visuels sur Internet générés par intelligence artificielle se multiplient depuis l'arrivée sur le marché d'outils puissants et faciles à prendre en main comme Midjourney ou Stable Diffusion.

Cette prolifération incontrôlable pose des problèmes dans la gestion des contenus et la paternité des créations d'une part, mais aussi dans la gestion des contenus photoréalistes associés à des fake news.

Aussi, Google planche depuis plusieurs mois sur un outil qui serait capable de repérer ces contenus créés par des IA. Le problème est que, comme pour le contenu textuel, il devient de plus en plus complexe de différencier les réalisations humaines de celles des algorithmes.

Google a toutefois annoncé SynthID, un outil qui permet d'identifier ler images générées par l'IA. Accessible via Imagen, le service se restreint pour l'instant aux clients Vertex AI.

Reste que le module est capable de repérer les filigranes invisibles intégrés aux images générées par l'iA. La technique n'est pas encore parfaite sur les images ultras modifiées, ou qui auraient été modifiées par un logiciel de retouche après leur génération par l'IA. Reste qu'il s'agit d'une première solution intéressante.