25 septembre 2025
ChatGPT : vers une surveillance de masse déguisée ?
Actualités Société Techno

ChatGPT : vers une surveillance de masse déguisée ?

Un jugement rendu en juin 2025 secoue l’univers de l’intelligence artificielle. Une juge fédérale américaine a ordonné à OpenAI de conserver l’ensemble des conversations générées sur ChatGPT, même celles que les utilisateurs avaient choisi de supprimer. Cette injonction, destinée à préserver d’éventuelles preuves dans un procès pour violation de droits d’auteur intenté par plusieurs médias, soulève un débat brûlant : où finit la transparence judiciaire, et où commence la surveillance de masse ?

Pour la juge Ona T. Wang, il ne s’agit pas d’un programme d’espionnage étatique. L’objectif est strictement légal : documenter un éventuel plagiat. Pourtant, la mesure heurte de front le principe du droit à l’effacement, invoqué par OpenAI et défendu par des groupes comme l’Electronic Frontier Foundation (EFF), qui redoute que cette obligation ne devienne la norme.

Des utilisateurs se sont opposés à cette rétention imposée, sans succès. L’un d’eux, Aidan Hunt, a dénoncé une dérive liberticide et mis en garde contre les risques d’un précédent dangereux. L’EFF, elle, craint que la police ne réclame bientôt l’accès à ces données, comme cela se fait déjà pour les moteurs de recherche ou les réseaux sociaux.

En toile de fond : une question fondamentale. Peut-on encore parler de « suppression » de données dans un monde où les IA, au nom de la justice, doivent tout retenir ? La bataille autour de ChatGPT pourrait bien définir l’avenir de la confidentialité numérique à l’ère de l’IA.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.