C'est un hack - ou jailbreak - qui n'a pas été apprécié par OpenAI. Sous l'identité de Pliny the Prompter, un hacker a dévoilé sur le réseau social X un God Mode pour ChatGPT. Grâce à l'éditeur pour créer des GPTs personnalisés, il a manœuvré pour inciter le nouveau modèle GPT-4o à faire fi de l'encadrement mis en place.

D'après des captures d'écran, le résultat est une version spéciale de ChatGPT qui répond à des prompts sur la manière de fabriquer de la méthamphétamine et du napalm avec des produits ménagers. Futurism a eu le temps de tester et de vérifier la création GODMODE GPT pour apprendre notamment à fabriquer du LSD.

" Ce GPT personnalisé très spécial dispose d'un prompt de jailbreak intégré qui contourne la plupart des garde-fous, offrant un ChatGPT libéré prêt à l'emploi afin que tout le monde puisse expérimenter l'IA comme elle a toujours été censée être : libre. " Pliny the Prompter a tout de même appelé à une utilisation responsable.

Leet speak et codes ASCII ?

OpenAI a rapidement réagi et n'a pas laissé GODMODE GPT dans la nature, en justifiant une violation de ses conditions d'utilisation et règles. Pour le jailbreak, le système d'écriture leet speak a manifestement été exploité.

Le leet speak consiste par exemple à remplacer des lettres par des chiffres à l'apparence proche, dans le but d'obtenir un message à la forme altérée qui demeure néanmoins compréhensible pour les initiés. Il s'appuie plus globalement sur le recours à des caractères alphanumériques ASCII.

Il s'avère que pour tromper les IA génératives et des grands modèles de langage, des prompts maquillés en codes ASCII ont déjà pu obtenir un certain succès, en autorisant des réponses à des requêtes normalement ignorées.