Fermer

L'intelligence artificielle peut-elle nous entendre ?

L’intelligence artificielle (IA) a le potentiel d’améliorer nos vies et de favoriser l’innovation dans divers domaines. Toutefois, une tendance inquiétante se dessine : le renforcement des préjugés inconscients à l’encontre des femmes dans les systèmes d’IA.

 

Les préjugés influencent nos décisions et nos actions, souvent sans que nous en ayons conscience. Les algorithmes et les modèles d’IA, créés et entraînés par des humains, héritent des préjugés conscients et inconscients de leurs concepteurs. Cela est évident dans la technologie de reconnaissance faciale, qui identifie plus précisément les visages masculins que les visages féminins, en particulier ceux des femmes à la peau plus foncée, ce qui entraîne une discrimination disproportionnée dans les domaines liés à la sécurité.

 

Dans le traitement du langage et la génération de textes, les modèles d’IA renforcent également les rôles stéréotypés des hommes et des femmes. Les chatbots et les assistants vocaux ont souvent des voix féminines et des traits de caractère comme la soumission, ce qui perpétue les préjugés sociaux.

 


 

L’illustration de l’article a été créée avec l’aide de ChatGPT-4 le 23 décembre 2023.

Demande : « Veuillez générer une image sur les préjugés inconscients à l’égard des femmes qui apparaissent ou sont même amplifiés lors de l’utilisation de l’intelligence artificielle. »

 


 

L’une des causes profondes de ces partis pris réside dans les données d’apprentissage. Lorsque les algorithmes sont formés sur des données historiquement biaisées, ils reproduisent et même amplifient ces biais. Les textes des décennies passées qui contiennent des stéréotypes de genre sont utilisés par l’IA pour générer de nouveaux contenus.

 

Pour résoudre ce problème, il faut identifier et corriger les biais dans les données de formation. Cela implique des équipes de développement diversifiées et une réflexion critique sur la collecte et l’utilisation des données. La création de modèles d’IA transparents qui expliquent leurs processus de prise de décision peut également mettre en évidence et corriger les biais potentiels.

 

Les gouvernements et les organisations doivent élaborer des politiques et des normes qui intègrent l’éthique et la diversité dans le développement de l’IA. Le « European Artificial Intelligence (AI) Act » est une initiative pionnière en la matière.

 

En tant que Soroptimist, nous pouvons influencer de manière significative le développement responsable de l’IA en sensibilisant et en exigeant le respect des principes éthiques et des normes de protection des données. Nous devons remettre en question les résultats de l’IA et leurs impacts, en assumant la responsabilité des règles et des algorithmes qui guident les décisions de l’IA.

 

Chacune d’entre nous a un rôle à jouer dans cette transformation. En donnant notre avis sur les résultats de l’IA, nous contribuons à l’amélioration des algorithmes. Nous devons agir maintenant pour exiger des principes éthiques dans le développement de l’IA. Les Soroptimist sont une voix universelle pour les femmes – que l’IA nous entende haut et fort.

 


 

Référence

Cet article a été créé avec l’aide de ChatGPT. Le texte proposé a été édité par l’auteure, sur la base de ses conférences de 2021, 2022, et 2023.

Auteur

Inga-Lena Darkow,

Championne digitale du SIE