L’IA génère de nouvelles formes d’inégalités entre les femmes et les hommes

intelligence artificielle

OPINION. La réglementation européenne doit évoluer pour tenir compte des discriminations que peuvent reproduire les outils d’intelligence artificielle. Par Anaëlle Martin, Université de Strasbourg

Publié le 12-12-2022 par Anaëlle Martin

L'Union européenne (UE) est fondée sur les valeurs de respect de la dignité humaine, de non-discrimination et d'égalité entre les femmes et les hommes. Si le droit communautaire tend à prohiber les discriminations contre les individus, ou groupes d'individus, fondées sur une caractéristique particulière telle que le sexe, les pratiques de certains systèmes d'intelligence artificielle (IA) ont mis en lumière de nouvelles formes d'inégalité entre les femmes et les hommes, plus difficiles à appréhender.

Dans la mesure où la question des biais de l'IA renouvelle les termes dans lesquels le principe d'égalité doit être formulé (1), il est donc urgent, pour l'UE, de se doter de nouveaux outils pour lutter contre ces nouvelles formes de discrimination (2).

Les biais de l'IA

Les groupes vulnérables englobent notamment les femmes et les groupes ethniques, le sexe/genre et la race/l'origine ethnique étant des caractéristiques protégées par le droit de l'UE. Au regard de ces deux variables sensibles, les femmes noires sont particulièrement exposées aux erreurs et biais de l'IA, comme l'ont montré les mauvaises performances des systèmes de reconnaissance faciale.

En effet, les algorithmes d'apprentissage machine, de plus en plus utilisés dans la prise de décisions, se basent sur des données souvent lacunaires ou biaisées. Des problèmes peuvent survenir au cours du processus de collecte de données ou de développement des modèles, lesquels peuvent entraîner des préjudices.

Par exemple, en

Lire la suite

Voir la suite...

Les dernières actualités