25 septembre 2025
Dangers cachés des algorithmes : quand l’intelligence artificielle prolonge les injustices humaines
Actualités Société Techno

Dangers cachés des algorithmes : quand l’intelligence artificielle prolonge les injustices humaines

L’usage croissant de l’intelligence artificielle dans des domaines aussi sensibles que la justice, le recrutement, l’octroi de prêts bancaires ou les services publics soulève une inquiétude majeure : loin d’éliminer les discriminations humaines, les algorithmes risquent au contraire de les renforcer, en les rendant invisibles, automatiques, et parfois encore plus puissantes.

Aujourd’hui, dans plusieurs pays du monde, y compris en Haïti, de plus en plus de décisions importantes sont prises avec l’aide d’ordinateurs très puissants qu’on appelle des algorithmes ou intelligences artificielles. Ils sont utilisés dans les hôpitaux, dans les banques, dans la police, dans les bureaux de recrutement et même dans la justice. On les présente comme neutres, rapides, efficaces. Mais en réalité, ces machines peuvent faire de graves erreurs, surtout quand elles apprennent à partir de données qui reflètent les injustices du passé.

Prenons un exemple célèbre aux États-Unis : le cas de l’algorithme appelé COMPAS. Ce système informatique aidait les juges à évaluer si un accusé risquait de recommencer à commettre des crimes. En théorie, c’était une bonne idée. Mais en pratique, COMPAS a souvent donné des scores plus sévères aux personnes noires qu’aux blancs, même quand leur dossier était semblable. Pourquoi ? Parce que l’algorithme avait été entraîné avec des données d’un système judiciaire déjà raciste. Résultat : la machine a appris à discriminer, sans même qu’on lui dise de le faire. Et personne ne pouvait corriger facilement l’erreur, puisque tout était présenté comme « scientifique ».

Le problème ne s’arrête pas là. Dans plusieurs grandes entreprises, on utilise aussi des algorithmes pour choisir quels CV retenir ou à qui accorder un prêt bancaire. Amazon, par exemple, a testé un système qui éliminait presque toutes les candidatures de femmes pour des postes techniques. L’algorithme avait compris que, dans le passé, les employés étaient surtout des hommes. Il a donc conclu, à tort, que les femmes étaient moins compétentes. Dans les banques, des études ont montré que les personnes noires ou venant de quartiers pauvres ont moins de chances d’obtenir un prêt, même quand elles ont un bon dossier. Là encore, l’algorithme se base sur des habitudes du passé, et les transforme en règles injustes.

Mais ce qui est encore plus inquiétant, c’est que ces systèmes arrivent maintenant dans des pays comme Haïti ou d’autres régions d’Afrique, souvent sans contrôle, sans règlement clair, sans possibilité de contestation. Des gouvernements ou des entreprises utilisent des logiciels étrangers pour attribuer une aide sociale, pour surveiller la fraude ou pour accorder des crédits. Mais ces logiciels ne sont pas conçus pour nos réalités. Ils peuvent exclure les gens qui n’ont pas de smartphone, qui vivent à la campagne ou qui ne savent pas lire. Et personne ne peut vraiment savoir comment ces décisions ont été prises, ni à qui se plaindre en cas d’erreur.

Il est donc important d’arrêter de croire que les machines sont toujours justes. Un algorithme reflète les choix de ceux qui l’ont créé. Et si ces choix sont biaisés, injustes ou incomplets, les résultats seront eux aussi mauvais. On doit exiger plus de transparence : les autorités et les entreprises doivent expliquer comment ces outils fonctionnent, avec quelles données, et pour quels objectifs. Il faut aussi que les pays comme Haïti se forment, créent leurs propres systèmes adaptés à leur culture, leur langue et leur population.

Les machines peuvent aider, c’est vrai. Mais elles ne doivent jamais remplacer la justice, l’équité, ni le bon sens humain. C’est à nous, les citoyens, de rester vigilants. Car lorsqu’un algorithme décide mal, ce n’est pas une erreur technique : c’est une injustice silencieuse.

Daniel Alouidor

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.