En 2021, la RTBF publiait un article révélant que les algorithmes de Facebook avaient confondu des personnes noires avec des singes ! Traiter des personnes noires de singes n’est malheureusement pas un phénomène rare. Ce qui surprend sans doute ici, c’est qu’il s’agit d’un algorithme. Des programmes reproduisent, « par erreur » des comportements racistes humains. Le titre « un algorithme confond (…) », même s’il est lexicalement juste, « anthropomorphise » légèrement l’intelligence artificielle. On imagine un petit robot faire « glups ! » en se rendant compte de sa bêtise et se faire taper sur les doigts par ses concepteurices. Or, nous le rappelons, les IA n’ont rien d’humain : pas de jugement de valeur, pas de morale, pas d’empathie, pas de scrupule. Erreur de calcul, erreur de programmation ou mauvais « machine learning » oui, mais point de racisme délibéré ici ! Par contre, les biais racistes de notre société ont en effet bel et bien été intégrés dans les intelligences artificielles. Et si les concepteurices n’ont pas programmé à escient les algos à confondre des personnes noires avec des singes, le fait de les avoir entrainés surtout sur des personnes (masculines) blanches amènent à ce genre de biais, par manque de modèles.
DOSSIER péda
Explorez notre dossier pédagogique pour comprendre et déconstruire les mécanismes du racisme dans les médias.