Danger pour l’humanité : Elon Musk et des centaines d’experts réclament une «pause» dans le développement de l’IA

0
10547

Intelligence Artificielle : Elon Musk et d’autres grands noms de la technologie exhortent les laboratoires d’IA à prendre une pause dans leurs travaux

Mercredi 29 mars 2023 ((rezonodwes.com))–

Un groupe de plusieurs centaines de grands noms de la technologie, dont Elon Musk, a signé une lettre ouverte appelant les principaux laboratoires d’intelligence artificielle du monde à suspendre la formation de nouveaux systèmes super puissants pendant six mois, arguant que les récentes avancées de l’IA présentent « des risques profonds » pour la société et l’humanité.

La lettre intervient à peine deux semaines après la sortie publique du GPT-4 d’OpenAI, le système d’IA le plus puissant jamais publié, ce qui a conduit les chercheurs à réduire leurs attentes quant à l’arrivée de l’AGI, ou intelligence générale artificielle qui surpasse les capacités cognitives humaines. De nombreux experts craignent que, alors que la course aux armements contre l’IA s’intensifie, l’humanité ne sombre dans la catastrophe.

La liste des signataires comprend les noms de plus de 900 personnes aux côtés de Musk, dont le cofondateur d’Apple Steve Wozniak, l’auteur de Sapiens Yuval Noah Harari et certains des universitaires les plus éminents de l’IA responsables de multiples percées dans l’apprentissage automatique.

« L’IA avancée pourrait représenter un changement profond dans l’histoire de la vie sur Terre, et devrait être planifiée et gérée avec un soin et des ressources proportionnés », indique la lettre. « Malheureusement, ce niveau de planification et de gestion ne se produit pas, même si ces derniers mois ont vu les laboratoires d’IA enfermés dans une course incontrôlable pour développer et déployer des esprits numériques toujours plus puissants que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable.

Les signataires demandent à tous les laboratoires d’IA de prendre une pause de six mois pour poursuivre les recherches sur la sécurité et développer conjointement un ensemble de protocoles de sécurité partagés pour la conception et le développement avancés d’IA qui sont rigoureusement audités et supervisés par des experts externes indépendants. Ils notent que cela ne signifie pas une pause du développement de l’IA en général, mais plutôt un recul par rapport à la course dangereuse vers des modèles de boîte noire imprévisibles de plus en plus grands avec des capacités émergentes.

Gary Marcus, signataire de la lettre ouverte et auteur du livre Rebooting AI, a déclaré à TIME qu’il avait ajouté son nom parce qu’il se sentait responsable de s’exprimer. « Il existe de graves risques à court et à long terme et la responsabilité des entreprises en matière d’IA semble avoir perdu de sa popularité au moment où l’humanité en a le plus besoin », a-t-il déclaré.

La lettre ouverte adressée aux principaux laboratoires d’intelligence artificielle du monde signée par des centaines de grands noms de la technologie, dont Elon Musk, est une invitation à une pause de six mois dans la formation de nouveaux systèmes super puissants. Cette demande a été formulée en raison des risques que les récentes avancées de l’IA présentent pour la société et l’humanité.

Les signataires de la lettre, dont le cofondateur d’Apple Steve Wozniak, l’auteur de Sapiens Yuval Noah Harari et certains des universitaires les plus éminents de l’IA responsables de multiples percées dans l’apprentissage automatique, estiment que les laboratoires d’IA sont enfermés dans une course incontrôlable pour développer et déployer des esprits numériques toujours plus puissants que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable.

La lettre appelle tous les laboratoires d’IA à accepter d’utiliser la pause de six mois proposée pour poursuivre les recherches sur la sécurité. Il est proposé que les laboratoires d’IA et les experts indépendants profitent de cette pause pour développer et mettre en œuvre conjointement un ensemble de protocoles de sécurité partagés pour la conception et le développement avancés d’IA qui sont rigoureusement audités et supervisés par des experts externes indépendants. Ces protocoles devraient garantir que les systèmes qui y adhèrent sont sûrs au-delà de tout doute raisonnable.

Les signataires de la lettre soulignent qu’ils n’appellent pas à une pause du développement de l’IA en général, mais plutôt à « un recul par rapport à la course dangereuse vers des modèles de boîte noire imprévisibles de plus en plus grands avec des capacités émergentes ».

La technologie de l’IA est considérée comme l’une des plus importantes découvertes du XXIe siècle, mais elle comporte également de nombreux risques pour l’humanité. Les experts craignent que les machines dotées d’IA puissante puissent, à terme, prendre le contrôle de l’humanité et causer des dommages irréversibles à la société.

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.