En matière de sécurisation de l'espace numérique pour plus jeunes, la Commission européenne annonce un projet en deux temps avec une application de vérification de l'âge et une série de recommandations à destination des plateformes en ligne.

L'objectif est de permettre aux enfants et adolescents de profiter des opportunités du Web, tout en les protégeant des risques. Une initiative particulièrement soutenue par la France.

Une application pour filtrer l'accès

La France, l'Espagne, l'Italie, le Danemark et la Grèce seront les premiers à tester un prototype d'application visant à contrôler l'âge des utilisateurs. Ce système, conçu pour être simple et respectueux de la vie privée, permettra de prouver avoir plus de 18 ans dans le but d'accéder à des contenus restreints, sans pour autant dévoiler une identité ou un âge exact.

La solution s'appuie sur la même architecture technique que le futur portefeuille d'identité numérique européen (eID), ce qui garantit par la même occasion une intégration future.

De la latitude est néanmoins laissée, dans la mesure où chaque pays pourra adapter la base commune pour lancer sa propre version nationale.

Des directives contre les dérives des plateformes

Au-delà de l'outil de vérification de l'âge, l'exécutif européen a publié de nouvelles lignes directrices dans le cadre du Digital Services Act (DSA). Ces mesures visent directement les pratiques qui mettent en danger les mineurs. Les recommandations s'attaquent à plusieurs fronts.

Les fonctionnalités conçues pour encourager une utilisation excessive, comme les « streaks » (flammes) ou les confirmations de lecture sur les messages, sont dans le collimateur et pour une chasse à un design addictif.

Contre le cyberharcèlement, il est demandé aux plateformes de donner aux mineurs les moyens de bloquer facilement des utilisateurs et d'interdire l'ajout à des groupes sans consentement explicite. La possibilité de télécharger ou de faire des captures d'écran de contenus postés par des mineurs pourrait aussi être bloquée.

De plus, les comptes des jeunes utilisateurs devraient être privés par défaut pour limiter les contacts non sollicités avec des inconnus.

Un avertissement clair pour les géants du numérique

Cette initiative s'inscrit dans un contexte de préoccupation mondiale croissante concernant l'impact des réseaux sociaux sur la santé mentale des plus jeunes.

L'Union européenne, déjà dotée d'une législation stricte, met la pression sur les grandes entreprises du secteur. Plusieurs enquêtes sont d'ailleurs déjà en cours contre des plateformes comme Facebook, Instagram, TikTok ou X, mais aussi contre des sites pornographiques, pour vérifier leur conformité avec le DSA.

« Les plateformes n'ont aucune excuse pour poursuivre des pratiques qui mettent les enfants en danger », a déclaré Henna Virkkunen pour la Commission européenne.