Quand on discute avec un chatbot, qu'il s'agisse de problèmes de santé, de difficultés familiales ou de questions un peu délicates, on s'attend pas à ce que ce dernier aille crier nos secrets sur tous les toits. Pourtant, l'application Meta AI a récemment mis en lumière une réalité bien différente. Des choix d'interface douteux combinés à des maladresses des utilisateurs ont conduit à l'exposition au grand public de requêtes qui auraient dû rester confidentielles.

Le partage involontaire, un problème d'interface

Le cœur du problème réside dans un choix d'interface discutable de Meta. Contrairement à d'autres applications d'intelligence artificielle, Meta AI a intégré un espace public où les utilisateurs peuvent partager leurs requêtes ou des images. Le hic ? Beaucoup d'utilisateurs ont autorisé le partage de leurs discussions sans pleinement en saisir les implications. Ils pensaient peut-être partager avec leurs contacts ou simplement sauvegarder, mais ces échanges se sont retrouvés sur le fil public de l'application, accessible à tous.

me?gaphone.

Pexels / Sora Shimazaki

Des conversations très privées à la vue de tous

Le résultat de cette conception ambiguë est alarmant. Le fil public de Meta AI a exposé une multitude de conversations, allant de simples prières à des demandes de conseils médicaux, juridiques, ou même des appels à l'aide désespérés. Des informations aussi sensibles que des données médicales, des conseils en amour ou des détails sur des problèmes familiaux ont été rendus visibles. Plus grave encore, certaines conversations audio, mêlant la voix des utilisateurs et celle du bot, ont également été partagées accidentellement. Des experts en sécurité ont même relevé des cas incluant des noms complets et des adresses personnelles, mettant gravement en péril la confidentialité des utilisateurs.

IA psy

Les premières mesures de Meta face au tollé

Face à l'ampleur de ce scandale lié aux données personnelles, Meta a rapidement réagi. La firme de Mark Zuckerberg a mis en place une première barrière protectrice pour mieux informer les utilisateurs. Désormais, un avertissement explicite apparaît avant chaque tentative de publication. Ce nouveau pop-up stipule clairement : « Les requêtes [Meta AI] que vous publiez sont publiques et visibles par tous. Vos invites peuvent être suggérées par Meta dans d’autres applications Meta. Évitez de partager des informations personnelles ou sensibles. » Après ce message, une seconde validation est requise pour confirmer la publication. De plus, Meta a modifié le fil public Discover pour qu'il n'affiche plus que des images générées par l'IA, considérées comme moins problématiques que l'exposition de problèmes relationnels ou de garde d'enfants.

Vigilance : la clé pour protéger vos données

Malgré ces ajustements, le problème de fond demeure. Un grand nombre d'utilisateurs ne saisissent pas encore pleinement les implications du partage de leurs conversations avec un chatbot, qu'ils perçoivent comme un assistant privé. Avec déjà plus de 6,5 millions de téléchargements depuis son lancement en avril, Meta AI est une application largement utilisée.

Pour votre propre sécurité numérique, il est comme toujours crucial de redoubler de vigilance. Si vous utilisez Meta AI, faites donc attention de ne pas appuyer sur le bouton de partage, au risque de voir vos sessions divulguer des informations personnelles au monde entier. La transparence reste un enjeu majeur pour les plateformes d'intelligence artificielle.