L'intelligence artificielle s'est installée dans le quotidien des entreprises, promettant des gains de productivité spectaculaires. Mais cette adoption rapide n'est pas sans risques. La DGSI vient de mettre en lumière plusieurs cas concrets où des sociétés françaises ont vu leurs données stratégiques compromises ou ont été la cible de fraudes sophistiquées, simplement par un usage mal maîtrisé et souvent inconscient de ces nouveaux outils.

Comment l'utilisation d'IA gratuites expose-t-elle les données confidentielles ?

Le premier cas rapporté par la DGSI concerne une multinationale française où des salariés utilisaient régulièrement des outils d'IA grand public, comme ChatGPT ou Gemini, pour traduire des documents internes sensibles. Sans aucune autorisation de leur hiérarchie, ils y copiaient-collaient des informations confidentielles, ouvrant une brèche de sécurité béante. Ce type de pratique, perçu comme anodin, s'apparente à une forme d'espionnage involontaire.

espionnage

Le modèle économique simple de ces services gratuits est en cause : les données que vous leur soumettez sont réutilisées pour entraîner les modèles. Un contrat confidentiel peut ainsi ressurgir dans la réponse fournie à un concurrent. Pire, ces informations sont souvent stockées à l'étranger, sur des serveurs soumis à des lois qui permettent à des puissances étrangères d'y accéder. La direction a dû réagir en urgence en déployant une solution payante et sécurisée.

L'hypertrucage vidéo est-il la nouvelle arme des escrocs ?

Un autre cas frappant est une tentative d'escroquerie par visioconférence. Le responsable d'un site industriel a reçu un appel vidéo de son PDG. L'image et la voix étaient parfaites, mais la demande était inhabituelle : effectuer un virement de fonds urgent pour une prétendue acquisition. C'est ce caractère précipité qui a alerté le collaborateur, qui a mis fin à l'appel et contacté sa direction. Le verdict est tombé : il s'agissait d'un deepfake.

Cette technique d'hypertrucage, qui associe le visage et la voix du dirigeant avec une précision diabolique, est devenue beaucoup plus accessible. Autrefois complexe, elle permet désormais de créer des contenus truqués très convaincants pour manipuler, commettre des fraudes ou exercer un chantage. Les escrocs peuvent ainsi multiplier leurs attaques de manière quasi industrielle, en analysant les réseaux sociaux de leurs cibles pour créer des scénarios sur mesure.

IA hallucinations

Pourquoi faire une confiance aveugle à l'IA est-il une erreur stratégique ?

Le dernier exemple est celui d'une entreprise en pleine expansion qui a délégué l'évaluation de ses futurs partenaires commerciaux à un outil d'IA étranger. Par manque de temps et de recul, la direction a suivi aveuglément les recommandations de l'algorithme, sans aucune vérification humaine. Cette confiance aveugle a eu pour conséquence de lui faire perdre le contrôle de ses propres décisions stratégiques, un risque majeur.

La DGSI rappelle que ces outils ne sont ni neutres ni infaillibles. Ils peuvent amplifier les biais présents dans les données d'entraînement, menant à des décisions inéquitables ou discriminatoires. L'IA peut même « halluciner », c’est-à-dire créer des événements de toute pièce. Fonder une décision uniquement sur ses résultats revient à s'appuyer sur une « boîte noire » dont le raisonnement est invérifiable, ce qui peut avoir des conséquences désastreuses.

Source : DGSI