Meta annonce suspendre l’accès des adolescents à ses « personnages IA ». Temporairement, dit l’entreprise, le temps de préparer une « nouvelle expérience ». Traduction simple : on appuie sur pause pendant que la pression monte, à quelques jours d’un procès très attendu aux États-Unis sur l’impact des réseaux sociaux sur les mineurs.
La décision ne tombe pas du ciel. Depuis des mois, parents, chercheurs et régulateurs alertent sur les effets de conversations automatisées mal encadrées, capables d’imiter l’empathie sans en avoir la responsabilité. Les jeunes garderont accès à l’assistant IA de Meta, mais plus aux personnages interactifs, jugés plus immersifs, plus addictifs, plus flous dans leurs limites.
Meta affirme aussi renforcer ses outils de détection d’âge, y compris pour ceux qui « se déclarent adultes ». Preuve, s’il en fallait, que la frontière entre protection et marketing reste fragile quand l’audience mineure pèse lourd dans l’économie de l’attention.
Ce revirement ressemble moins à une révolution éthique qu’à un frein d’urgence. Car la vraie question demeure : pourquoi ces outils ont-ils été ouverts aux adolescents sans garde-fous solides dès le départ ? Dans la course à l’innovation, la prudence arrive encore après le buzz.
Suspendre n’est pas réparer. Et protéger ne devrait pas dépendre d’un calendrier judiciaire. Tant que la sécurité des jeunes restera un ajustement, et non une condition préalable, la technologie continuera d’avancer plus vite que la responsabilité.

