L'intelligence artificielle est désormais presque partout et les outils à disposition permettent d'automatiser de nombreuses tâches et de récolter des informations. Ces capacités n'échappent à l'intérêt des hackers de tout poil qui peuvent les utiliser pour leurs opérations.

Un rapport de Microsoft détaille comment des hackers associés à des Etats comme la Russie, la Chine, la Corée du Nord ou l'Iran exploitent l'IA et les outils mis à disposition par OpenAI pour optimiser et multiplier des campagnes d'hameçonnage et de recueil d'information afin de préparer des cyberattaques.

Les outils d'OpenAI et le chatbot ChatGPT fournissent tout le nécessaire pour obtenir de précieuses données : identification des cibles, localisation de sites industriels sensibles, automatisation de scripts et de logiciels malveillants, exploitation des capacités de l'IA pour du social engineering afin d'obtenir des identifiants...

L'IA, bon et mauvais génie à la fois

Si Microsoft n'a pas encore détecté d'attaques utilisant directement les modèles de langage (LLM), son rapport veut alerter sur les menaces à venir et les moyens de s'en protéger, notamment par l'instauration de politiques strictes de sécurité avec authenfication à plusieurs facteurs et défenses Zero Trust.

hacker

Chaque groupe de hackers identifiés a ses spécificités et ses préférences. Le groupe Forest Blizzard affilié aux services de renseignement russes tend à utiliser les LLM pour obtenir des informations sur les communications et capacités satellites ainsi que sur l'automatisation de scripts.

Emerald Sleet, associé à la Corée du Nord est plus en quête d'informations sur les entreprises ou les agences gouvernementales qu'il compte infiltrer et de recherche de vulnérabilités. L'IA permet de créer du contenu et des e-mails plus convaincants et de nature à tromper les cibles.

Identifier les menaces pour prendre les bonnes mesures

C'est aussi le cas de groupes de hackers affiliés à la Chine qui utilisent également l'IA pour traduire et synthétiser des documents techniques ou pour faciliter le contact en vue de soutirer des informations à des cibles.

Microsoft et OpenAI surveillent ces agissements et ferment les comptes suspects. L'entreprise de Redmond indique aussi utiliser l'IA pour désactiver les actions hostiles de ces groupes tout en développant des outils comme Microsoft Sécurité Copilot permettant d'interroger l'IA en langage naturel sur les questions de sécurité et d'agir rapidement.

Microsoft souligne que l'utilisation de l'IA par les hackers se fait comme pour les utilisateurs normaux, par affinement progressif des requêtes. Elle devrait devenir plus conséquente une fois les outils mieux maîtrisés.

Source : Microsoft