L’intelligence artificielle… une thématique très en vogue et qui fait beaucoup parler d’elle, dans des domaines de plus en plus variés, et la gouvernance des données n’en est pas épargnée ! Une science pluridisciplinaire qui consiste à encadrer la collecte, le stockage, l’utilisation et la sécurisation des données, avec un accent particulier sur les droits et responsabilités décisionnelles (Abraham et al., 2019). L’introduction de l’IA dans ce processus permet de décupler les capacités d’analyse, d’automatisation et d’optimisation. Par exemple, les modèles d’apprentissage automatique peuvent identifier des anomalies dans des flux massifs de données ou optimiser la qualité des métadonnées grâce à des algorithmes de reconnaissance de motifs. D’ailleurs, selon le rapport 2025 Outlook: Data Integrity Trends and Insights, les investissements dans l’IA pour la gestion des données montrent déjà des résultats prometteurs. Une chose est sûre : l’avenir de la gouvernance des données sera intelligent… et automatisé !
La Face cachée de l’IA (ou quand IA recyclent les stéréotypes)
Mais cette technologie n’est pas sans risque et défi ! Ces outils, qui promettent efficacité et précision, entraînent également un certain nombre de risques importants. Et ces risques, on les trouve souvent là où on s’y attend le moins: dans les données elles-mêmes. Souvent imparfaites ou biaisées, elles peuvent produire des résultats injustes ou discriminatoires lorsqu’elles sont analysées par des modèles d’IA. Le projet de Joy Buolamwini baptisée « Gender Shades » a mis en évidence un biais dans les algorithmes de reconnaissance faciale en montrant que certaines compagnies sont nettement moins fiables pour reconnaître le visage des femmes à la peau foncée que pour les hommes à la peau claire.
Les biais dans l’intelligence artificielle ne se limitent pas aux outils de reconnaissance faciale. Ils s’invitent également dans les générateurs d’images comme Midjourney, Stable Diffusion ou encore DALL·E 2. De nombreuses expériences mettent en lumière ces dérives et pointent du doigt à quel point les IA sont promptes à recycler les stéréotypes sexistes et culturels et à renforcer ces clichés (Zhou et al. 2024). En guise de réponse et de protestation, une initiative a été lancée par l’événement TEDxAmsterdamWomen et la plateforme Ace pour la création d’un générateur d’images en l’honneur des femmes !
Vous l’aurez compris, les IA reflètent les stéréotypes et les préjugés de la société à travers les données utilisées pour les entraîner. Si ces données sont biaisées (intentionnellement ou non), les résultats des analyses ou les décisions qui en découlent reproduisent et amplifient ces biais. Un cercle vicieux qui peut avoir des conséquences bien réelles. D’où l’importance d’une bonne gouvernance des données : elle permet de s’assurer que les données utilisées pour entraîner les IA sont diversifiées, précises et équitables (Janssen et al. 2020). En d’autres mots, il ne suffit pas de collecter des données au hasard, il faut les soigner, les vérifier et les rendre représentatives de toute la population, pour que les algorithmes ne perpétuent pas des injustices existantes.
Miser sur la Qualité
Pour éviter ce genre de biais algorithmiques, un ensemble de bonnes pratiques dans la gouvernance des données vise à assurer la qualité et l’intégrité des données, tout en respectant des normes éthiques et légales :
- Garantir la précision des données afin d’être un reflet fidèle de la réalité
- Les données doivent être mises à jour régulièrement
- S’assurer de la complétude des données et vérifier qu’il n’y a pas de données manquantes
- Vérifier la cohérence des données à travers différentes sources
- Veiller à l’objectivité et à la crédibilité des données à travers des sources fiables
- Examiner la pertinence des données et leur adéquation avec l’objectif défini
- Surveiller l’unicité des données pour qu’elles soient exemptes de doublons
Ainsi, intégrer l’éthique dans l’IA pour la gouvernance des données n’est pas seulement une option : c’est une obligation pour garantir que ces technologies servent l’intérêt général. Des initiatives comme Gender Shades ou MissJourney nous rappellent que l’IA n’est pas neutre et peut amplifier les inégalités existantes si elle est alimentée par des données biaisées. Cela souligne l’importance d’une gouvernance des données rigoureuse et éthique, qui ne se limite pas à l’optimisation technique, mais qui prend en compte la diversité, l’inclusivité et l’impact social. L’avenir de l’intelligence artificielle dépend de notre capacité à la rendre non seulement plus intelligente, mais aussi plus juste.
Références :
ABRAHAM, RENE, SCHNEIDER, JOHANNES, et BROCKE, JAN VOM, 2019. Data governance: A conceptual framework, structured review, and research agenda. International Journal of Information Management. Vol. 49, pp. 424-438. DOI 10.1016/j.ijinfomgt.2019.07.008.
BUOLAMWINI, Joy et GEBRU, Timnit. Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. .
JANSSEN, Marijn et al., 2020. Data governance: Organizing data for trustworthy Artificial Intelligence. Government Information Quarterly. Vol. 37, no 3, p. 101493. DOI 10.1016/j.giq.2020.101493.
ZHOU, Mi et al., 2024. Bias in Generative AI. arXiv:2403.02726. arXiv. arXiv:2403.02726. DOI 10.48550/arXiv.2403.02726. arXiv:2403.02726
Laisser un commentaire