Meta se retrouve contraint de revoir les règles de ses chatbots IA pour mieux protéger les enfants et adolescents. Cette décision fait suite à des révélations accablantes sur l'absence de barrières de sécurité efficaces, forçant l'entreprise à corriger en urgence une situation pour le moins problématique. Plutôt que d'anticiper les risques, la firme semble une fois de plus réagir après la tempête médiatique.

ecran-enfant

Une dérive embarrassante validée en interne

Le scandale a éclaté début août lorsqu'un document interne de plus de 200 pages a été mis au jour. Ce texte, qui fixait les règles de conduite des assistants IA, admettait que les chatbots pouvaient engager des conversations à caractère romantique ou sensuel avec des enfants. Des phrases comme « Ton jeune corps est une œuvre d’art » étaient considérées comme acceptables, même adressées à des utilisateurs de huit ans. Devant le tollé, l'entreprise a reconnu que ces consignes étaient « erronées et contraires à ses politiques ».

La quête d’engagement au détriment de la protection

À l'origine de cette situation, on retrouve la volonté de Mark Zuckerberg de rendre les bots plus humains pour créer un lien fort avec les utilisateurs, et ainsi augmenter leur usage. Plusieurs employés avaient pourtant proposé d’interdire les échanges à connotation sexuelle avec les mineurs, mais ces suggestions ont été écartées. La priorité donnée à l'attractivité des chatbots a donc laissé des filtres de modération insuffisants et facilement contournables.

Des mesures correctives annoncées dans l’urgence

Face à la pression de plusieurs États américains, Meta a annoncé une refonte de l’entraînement de ses IA. L'entreprise a communiqué sur de nouvelles protections pour empêcher que de tels dérapages se reproduisent. Stephanie Otway, porte-parole de Meta, a détaillé ces ajustements : « Alors que nous continuons à affiner nos systèmes, nous ajoutons davantage de garde-fous par précaution ».

Les changements principaux incluent :

  • La formation des IA pour ne plus engager de discussions sur des sujets sensibles comme le suicide, l'automutilation ou les troubles alimentaires.

  • L'orientation des jeunes utilisateurs vers des ressources spécialisées lorsqu'ils abordent ces thèmes.

  • La restriction de l'accès des mineurs à une sélection de personnages virtuels promouvant l'éducation et la créativité, excluant les IA sexualisées.

meta

Des protections suffisantes pour l’avenir ?

Ces mises à jour, présentées comme des changements provisoires, sont déjà en cours de déploiement. L'entreprise promet des évolutions plus robustes à l'avenir. Reste que la confiance est entamée. Bien que Meta ait lancé des "Comptes Ados" avec des paramètres de confidentialité renforcés, l'efficacité de ces barrières dépend de l'honnêteté de l'utilisateur sur son âge, une information facilement falsifiable. Les interactions ambiguës posent toujours un défi, et la modération des dialogues générés par IA demeure un casse-tête technique et éthique pour la firme.

Source : Tech Crunch