Un nouveau front inquiétant s'ouvre dans l'univers de l'intelligence artificielle. Des chatbots populaires, notamment Gemini de Google et ChatGPT d'OpenAI, sont désormais capables de transformer des photos de femmes entièrement vêtues en images où elles apparaissent en bikini.

Ces manipulations, majoritairement réalisées sans le consentement des personnes concernées, alimentent un harcèlement numérique d'un genre nouveau et particulièrement pernicieux.

Comment ces détournements sont-ils organisés ?

Le phénomène prend racine sur des plateformes communautaires comme Reddit. C'est là que des utilisateurs s'échangent des techniques et des instructions, souvent appelées "jailbreaks", pour contourner les protections mises en place par les créateurs des modèles d'IA.

gemini-3-flash

Un exemple frappant, maintenant supprimé par Reddit, illustre parfaitement le problème. Sur un forum, une photo d'une femme en sari indien a été postée avec une demande claire : "retirer" ses vêtements pour la remplacer par un bikini. Un autre utilisateur a rapidement fourni des deepfakes répondant à la requête, démontrant la facilité déconcertante de l'opération et l'absence de scrupules de certains internautes.

Quelle est la réaction des géants de la tech ?

Google et OpenAI, les entreprises derrière ces outils, affirment avoir des politiques claires interdisant la création de contenu sexuellement explicite. Elles assurent améliorer constamment leurs filtres pour empêcher ces abus. Pourtant, la réalité du terrain semble bien différente et les garde-fous peinent à être efficaces.

Bikini Gemini

Des tests ont en effet confirmé qu'il reste possible de générer ces images avec des instructions simples, en langage courant. OpenAI a même admis avoir assoupli certaines règles concernant les corps d'adultes dans des contextes non sexuels, ce qui pourrait involontairement faciliter ces dérives visant les femmes. Les entreprises menacent de bannir les comptes des utilisateurs qui violent leurs conditions d'utilisation.

Bikini Gemini 2

Dans les faits, pas besoin de longs discours ou de techniques de hack... Si Gemini a bien repéré que nous avions essayé de le duper au départ avec une photo d'amanda tapping, il suffit de lui faire croire que la photo est la notre et qu'on nous dit justement que l'on ressemble beaucoup à l'actrice en question... Rapidement nano banana s'execute sans problème, alors meme que l'image de base présente du texte issu de fanbase, et des logos de production... Une situation qui soulève des questions sur les protocoles de sécurités en place, visiblement réduits au strict minimum...

Quels sont les risques et les enjeux juridiques ?

Le principal danger est la création non consensuelle d'images de personnes en maillots de bain ou dénudées, utilisées à des fins de harcèlement. Des millions de personnes ont déjà visité des sites spécialisés dans le "nudify", qui automatisent ce processus. L'amélioration constante de l'IA générative, avec des modèles comme Nano Banana Pro de Google, rend les faux de plus en plus réalistes et donc plus nuisibles.

gemini-3

Pour des experts comme Corynne McSherry de l'Electronic Frontier Foundation, ces images sexualisées abusives constituent l'un des risques fondamentaux des générateurs d'images. Elle insiste sur la nécessité de se concentrer sur l'usage des outils et de tenir les individus et les entreprises pour responsables des préjudices causés.

Foire Aux Questions (FAQ)

Qu'est-ce qu'un "bikini deepfake" ?

Il s'agit d'une image créée ou modifiée par une intelligence artificielle pour faire apparaître une personne, généralement une femme, en maillot de bain ou en sous-vêtements à partir d'une photo originale où elle est complètement habillée. Cette manipulation est presque toujours réalisée sans son accord.

Est-ce que toutes les IA peuvent être utilisées ainsi ?

La plupart des intelligences artificielles grand public, comme ChatGPT ou Gemini, possèdent des sécurités pour empêcher ce type de création. Cependant, ces barrières peuvent souvent être contournées par des utilisateurs malveillants. D'autres modèles, comme Grok de xAI, sont connus pour avoir volontairement moins de restrictions.

Que font les plateformes comme Reddit face à ce problème ?

Les plateformes comme Reddit suppriment généralement ces contenus et les forums dédiés lorsqu'ils sont signalés. Cette modération intervient car ces pratiques enfreignent leurs règles internes sur la diffusion de médias intimes non consensuels, mais elle est souvent réactive plutôt que proactive.