Le robot conversationnel ChatGPT confirme jour après jour ses capacités à traiter des requêtes et fournir des réponses pertinentes, que ce soit pour le grand public comme pour les entreprises.

Mais l'intelligence artificielle se nourrit autant des informations trouvées sur le Web pour son entraînement que des requêtes et informations qui lui sont données en requêtes.

Il faut donc réfléchir à deux fois lorsqu'on soumet des informations l'IA générative puisqu'elles peuvent être retrouvées et les entreprises commencent à le découvrir, parfois à leurs dépens.

C'est le cas en particulier du groupe Samsung qui avait d'abord limité l'usage de ChatGPT à ses salariés avant d'en permettre l'utilisation afin qu'ils se familiarisent avec et en exploitent les capacités.

Des données sensibles uploadées

Sauf que trois semaines plus tard, la firme coréenne a découvert que des informations sensibles sur son activité avaient été diffusées via le robot conversationnel.

chatgpt-plus

Cela va du contenu d'une base de données problématique dont le contenu a été copié en quête d'une solution au code d'un programme d'un équipement défectueux en passant par la diffusion des notes d'une réunion pour en générer un compte-rendu.

Ces éléments destinés à rester dans l'entreprise sont susceptibles d'être accessibles à OpenAI, comme cela est stipulé dans les conditions d'utilisation de ChatGPT, officiellement en vue d'améliorer le système.

Mettre en place des recommandations ou créer son IA

Une fois ces fuites identifiées, Samsung a aussitôt pris des mesures d'urgence en limitant la capacité d'upload par requête à 1024 octets, tout en soulignant que l'accès à ChatGPT pourrait être bloqué si d'autres fuites émergaient.

Samsung appelle ses salariés à ne pas diffuser d'informations sensibles sur le robot conversationnel. Il est à noter que la startup OpenAI elle-même recommande elle-même aux entreprises de ne pas uploader de données confidentielles.

Selon les médias coréens, Samsung travaille à sa propre intelligence artificielle générative que la firme pourrait déployer en interne pour éviter ce genre de problème.

D'autres entreprises coréennes comme le fabricant de mémoires SK Hynix et LG Display ont également mis en place des procédures pour éviter les fuites d'informations dans les intelligence artificielles génératives.

Source : The Register