Anne-Laure Thieullent, spécialiste en intelligence artificielle chez le géant français des services informatiques, Capgemini, explique à l’AFP : « Il y a plus d’hommes que de femmes qui travaillent dans les nouvelles technologies, c’est statistiquement la réalité. Maintenant si on crée un algorithme à partir de ces données, sans aucune correction, on va amener un biais dans le programme », qui finira par reproduire les inégalités.
Dans le secteur bancaire, la situation se présente comme suit : un algorithme peut étudier des dossiers et proposer des montants de prêts. Mais si dans la base de données qu’on lui a fournies, les femmes empruntent moins que les hommes, l’algorithme va reproduire cette situation, indique-t-on.
L’autre exemple vient des Etats-Unis. Le site de médias, ProPublica, a examiné les « notes de risque de récidive » octroyées il y a quelques années à des délinquants par un algorithme dans l’Etat de Floride. L’objectif était de rechercher ceux d’entre eux qui ont été à nouveau condamnés ultérieurement, pour évaluer l’exactitude de la prédiction. Les résultats sont probants : les Afro-Américains étaient deux fois plus nombreux à avoir été jugés, par erreur, susceptibles de commettre un nouveau délit.
Pour inverser la tendance, les acteurs des nouvelles technologies font des propositions. En France, un rapport du mathématicien et député, Cédric Villani, avait évoqué en 2018 la création d’un « Corps d’Experts publics assermentés », détaille la même source. A cet effet, la Cnil a envisagé une « Plateforme nationale d’Audit des algorithmes ».
La diversité est également une solution envisageable. Il est question d’intégrer plus de femmes et de rééquilibrer la diversité ethnique dans la technologie, de constituer des équipes pluridisciplinaires au sein des entreprises plutôt que de confier le développement d’une intelligence artificielle uniquement à des ingénieurs.