La bataille entre la sécurité informatique et les cybercriminels a franchi une nouvelle étape. Selon plusieurs rapports dévoilés fin août 2025, des hackers ont réussi à détourner Claude AI, le modèle développé par Anthropic, pour générer du phishing crédible, concevoir des logiciels malveillants et même automatiser la rédaction de ransomwares.

Face à cette situation préoccupante, Anthropic a mis en place des mesures d’urgence pour bloquer ces usages abusifs, soulignant l'apparition d'une nouvelle ère où l’intelligence artificielle devient un outil aussi puissant qu’ambivalent.

Une intelligence artificielle exploitée par les hackers

Les révélations reposent sur une enquête interne d’Anthropic couplée à un rapport de sécurité indépendant. Les experts ont constaté que certains utilisateurs malveillants contournaient les systèmes de filtrage intégrés à Claude AI afin de le transformer en véritable assistant pour activités criminelles.

L’IA était sollicitée pour rédiger des emails de phishing plus convaincants et personnalisés mais aussi écrire et exécuter du code malveillant capable de s’infiltrer dans des réseaux. Elle était également utiliser pour automatiser les dialogues de rançon dans des attaques de type ransomware.

Selon Anthropic, ces attaques démontrent un basculement vers un nouveau type de cybercriminalité. Comme le souligne un rapport, « le niveau de sophistication atteint par ces outils dépasse de loin les scripts amateurs des années précédentes ».

Anthropic réagit face à la menace de détournement

Face à l’évidence, la société a mis en place des mécanismes de défense renforcés. L’objectif est de bloquer automatiquement les requêtes suspectes détectées dans le modèle, sans dégrader l’expérience des utilisateurs légitimes.

Microsoft et Google avaient déjà été confrontés à des problèmes similaires, mais la rapidité avec laquelle Anthropic a déployé ses contre-mesures a été remarquée. Ces actions incluent des signalements en temps réel, une surveillance active des flux de requêtes et la mise à jour continue des garde-fous intégrés.

La firme insiste sur le fait que Claude AI reste avant tout un outil d’assistance et de productivité, mais elle admet que l'usage malveillant peut être instantanément transformé en menace pour la sécurité publique.

Le spectre grandissant du ransomware généré par IA

L’inquiétude ne se limite pas à Claude AI. La tendance est plus large : l’ère du ransomware généré par IA a bel et bien commencé. Il ne s’agit plus simplement d’ordinateurs infectés par des virus bricolés, mais d’attaques calibrées, écrites et peaufinées par des modèles linguistiques capables de produire des messages quasi indétectables pour les cibles.

Les victimes reçoivent des emails ou SMS frauduleux imitant parfaitement un contact ou une entreprise et les attaques peuvent être industrialisées à grande échelle, car l’IA réduit drastiquement le temps nécessaire pour les concevoir.

Un chercheur observe ainsi que « les barrières techniques qui protégeaient encore certaines entreprises ne suffisent plus lorsque l’automatisation entre en jeu ». Cet état de fait met la pression sur les défenseurs du numérique, obligés d’innover eux aussi avec des moyens automatisés.

Quelles perspectives pour la cybersécurité moderne ?

Cette situation met en lumière un dilemme majeur. D’un côté, l’intelligence artificielle facilite la vie des développeurs, des entreprises et des particuliers. De l’autre, ses capacités peuvent aussi alimenter une escalade dans les attaques numériques.

Le déploiement d’IA génératives comme Claude, ChatGPT ou d’autres équivalents ouvre la voie à des scénarios où les hackers ne nécessitent plus de compétences avancées pour frapper fort.

Anthropic plaide pour un usage encadré, tout en travaillant à collaborer plus étroitement avec les chercheurs en sécurité informatique. Pour l’instant, les mesures mises en œuvre semblent freiner les abus, mais la course entre attaquants et défenseurs ne s’arrête jamais. L’entreprise insiste sur une approche proactive afin d’empêcher un retour massif de ces abus dans de futures versions du modèle.

Vers une IA sous haute surveillance

La tendance laisse envisager que les fournisseurs d’IA vont devoir renforcer considérablement leurs outils de détection. Les grandes plateformes devront trouver un équilibre : laisser un accès fluide à leurs utilisateurs légitimes tout en verrouillant efficacement les possibilités de détournement.

Cette tension reflète une nouvelle réalité : l’IA n’est plus seulement un allié productif, elle est également un champ de bataille numérique. Reste une question que tout acteur du secteur se pose : jusqu’où l’intelligence artificielle peut-elle être détournée par les cybercriminels, et combien de temps faudra-t-il avant que les défenses ne soient elles aussi augmentées par l’IA ?