
EuroScope : la chaîne sur l’Europe
February 26, 2025 at 03:54 PM
### **Discrimination algorithmique sous l’AI Act et le RGPD : Un équilibre incertain**
---
## **Un cadre juridique en évolution face aux risques de l’IA**
L’entrée en vigueur de l’**AI Act en août 2024** marque un tournant dans la régulation des systèmes d’intelligence artificielle en Europe. Cet encadrement vise à **promouvoir une IA centrée sur l’humain, digne de confiance et durable*, tout en respectant les **droits fondamentaux et les libertés individuelles*, notamment la **protection des données personnelles**.
L’un des objectifs clés de l’AI Act est **la réduction des biais et des discriminations** dans le développement et l’usage des **systèmes d’IA à haut risque*. Pour y parvenir, l’article 10(5) du texte autorise **le traitement de catégories spéciales de données personnelles**, sous certaines conditions strictes (garanties de confidentialité, contrôle des biais, transparence).
Toutefois, le **Règlement général sur la protection des données (RGPD)*, en vigueur depuis 2018, **reste plus restrictif** quant au traitement de ces données sensibles. Cette divergence crée une **zone d’incertitude juridique** qui pourrait nécessiter **une clarification législative ou des lignes directrices spécifiques** pour garantir la cohérence des deux textes.
---
## **Discrimination algorithmique et risques associés à l’IA**
Les systèmes d’IA peuvent **induire ou renforcer des discriminations** involontaires dans plusieurs domaines critiques :
📌 **Générative AI et modération de contenu** : Certaines IA génératives, comme les chatbots, peuvent produire des discours haineux ou renforcer des stéréotypes sans être initialement classées comme « haut risque ». Toutefois, l’AI Act prévoit une mise à jour régulière de la liste des systèmes considérés comme à haut risque, ce qui pourrait inclure ces technologies à l’avenir.
📌 **Véhicules autonomes et reconnaissance des piétons** : Des études ont déjà mis en évidence **des biais raciaux dans la détection des piétons** par des voitures autonomes, celles-ci étant parfois plus efficaces pour identifier les individus à la peau claire qu’à la peau foncée.
📌 **Recrutement et emploi** : Les algorithmes de sélection des candidatures peuvent **favoriser ou pénaliser certaines catégories de candidats** en raison de biais cachés, par exemple en fonction du sexe ou d’antécédents médicaux.
📌 **Notation de crédit et finance** : L’IA est de plus en plus utilisée dans le secteur bancaire pour **évaluer les demandes de prêt*. Or, des algorithmes peuvent **favoriser ou exclure certains profils** sur la base de critères indirects liés à l’ethnicité ou au lieu de résidence.
L’**AI Act impose des obligations strictes** aux systèmes d’IA classés « à haut risque », notamment en matière de **contrôle et de correction des biais*. Pour cela, il prévoit que **des données sensibles** puissent être collectées et traitées, en particulier pour vérifier que les systèmes d’IA ne discriminent pas.
---
## **Une confrontation entre l’AI Act et le RGPD**
L’**article 9 du RGPD** définit les **catégories spéciales de données personnelles**, comprenant :
- L’origine raciale ou ethnique
- Les opinions politiques
- Les croyances religieuses ou philosophiques
- L’appartenance syndicale
- Les données génétiques et biométriques
- Les données de santé
- La vie sexuelle ou l’orientation sexuelle
Le RGPD **interdit en principe** le traitement de ces données, sauf exceptions (consentement explicite, intérêt public substantiel, obligations légales, etc.).
L’**article 10(5) de l’AI Act** autorise toutefois leur traitement **dans la mesure strictement nécessaire** pour **détecter et corriger les biais des systèmes d’IA à haut risque*. Mais cette disposition ne s’applique qu’à ces systèmes et doit **respecter les principes du RGPD**, notamment la nécessité, la proportionnalité et la minimisation des données.
De plus, l’AI Act précise que **le RGPD prévaut en cas de conflit*, ce qui **limite fortement** les marges de manœuvre pour exploiter ces données dans le cadre de l’IA.
---
## **Les défis juridiques et les pistes d’évolution**
La **compatibilité entre l’AI Act et le RGPD** soulève plusieurs défis :
✅ **Sécurisation des données sensibles** : Toute collecte de données à des fins de correction des biais devra être **strictement encadrée** par des mesures de cybersécurité robustes pour éviter tout risque de fuite.
✅ **Application des principes du RGPD** : Les systèmes d’IA devront se conformer aux principes de **minimisation des données, limitation de la finalité et confidentialité**, sous peine d’incompatibilité avec le RGPD.
✅ **Clarification du critère de nécessité** : La possibilité de traiter des données sensibles devra être **strictement limitée aux cas où cela est essentiel** pour protéger d’autres droits fondamentaux, notamment la non-discrimination.
✅ **Une révision du RGPD ?** : Certains experts estiment qu’une **réforme du RGPD** pourrait être nécessaire pour mieux intégrer **les spécificités de l’IA et des algorithmes décisionnels**.
🔍 **Une alternative** : Certains juristes suggèrent que le traitement de ces données pourrait être justifié par **l’« intérêt public substantiel »*, défini à l’**article 9(2)(g) du RGPD*. Selon cette lecture, **la lutte contre la discrimination algorithmique** pourrait être reconnue comme un objectif d’intérêt public européen, légitimant ainsi le traitement de certaines données sensibles.
---
## **Vers une régulation plus harmonisée ?**
L’évolution rapide de l’IA et son intégration croissante dans des secteurs critiques **rendent urgent un cadre juridique clair et cohérent*. Si le RGPD et l’AI Act partagent **des objectifs communs de protection des droits fondamentaux**, leur interaction complexe pourrait nécessiter :
📌 **Une clarification des lignes directrices européennes*, afin d’aider les entreprises et les régulateurs à interpréter **les zones grises entre RGPD et AI Act**.
📌 **Une éventuelle réforme du RGPD**, afin d’adapter son cadre strict à la réalité du déploiement massif des technologies d’IA.
📌 **Un suivi renforcé par les autorités de protection des données**, notamment pour évaluer l’application du RGPD aux systèmes d’IA classés « à haut risque ».
Le **rôle de la Commission européenne** sera déterminant pour résoudre ces tensions et garantir une application fluide des deux réglementations, **sans freiner l’innovation ni compromettre les droits des citoyens européens**.
---
🔗 **Source :** [Publication de l’EPRS - Parlement européen](https://op.europa.eu/en/publication-detail/-/publication/dc544697-19b8-11ec-b4fe-01aa75ed71a1/language-en)
**#rgpd #aiact #intelligenceartificielle #droitsfondamentaux #éthiquenumérique #discriminationalgorithmique #protectiondesdonnées #euroscope**
👍
1