EuroScope : la chaîne sur l’Europe
EuroScope : la chaîne sur l’Europe
February 26, 2025 at 03:54 PM
### **Discrimination algorithmique sous l’AI Act et le RGPD : Un équilibre incertain** --- ## **Un cadre juridique en évolution face aux risques de l’IA** L’entrée en vigueur de l’**AI Act en août 2024** marque un tournant dans la régulation des systèmes d’intelligence artificielle en Europe. Cet encadrement vise à **promouvoir une IA centrée sur l’humain, digne de confiance et durable*, tout en respectant les **droits fondamentaux et les libertés individuelles*, notamment la **protection des données personnelles**. L’un des objectifs clés de l’AI Act est **la réduction des biais et des discriminations** dans le développement et l’usage des **systèmes d’IA à haut risque*. Pour y parvenir, l’article 10(5) du texte autorise **le traitement de catégories spéciales de données personnelles**, sous certaines conditions strictes (garanties de confidentialité, contrôle des biais, transparence). Toutefois, le **Règlement général sur la protection des données (RGPD)*, en vigueur depuis 2018, **reste plus restrictif** quant au traitement de ces données sensibles. Cette divergence crée une **zone d’incertitude juridique** qui pourrait nécessiter **une clarification législative ou des lignes directrices spécifiques** pour garantir la cohérence des deux textes. --- ## **Discrimination algorithmique et risques associés à l’IA** Les systèmes d’IA peuvent **induire ou renforcer des discriminations** involontaires dans plusieurs domaines critiques : 📌 **Générative AI et modération de contenu** : Certaines IA génératives, comme les chatbots, peuvent produire des discours haineux ou renforcer des stéréotypes sans être initialement classées comme « haut risque ». Toutefois, l’AI Act prévoit une mise à jour régulière de la liste des systèmes considérés comme à haut risque, ce qui pourrait inclure ces technologies à l’avenir. 📌 **Véhicules autonomes et reconnaissance des piétons** : Des études ont déjà mis en évidence **des biais raciaux dans la détection des piétons** par des voitures autonomes, celles-ci étant parfois plus efficaces pour identifier les individus à la peau claire qu’à la peau foncée. 📌 **Recrutement et emploi** : Les algorithmes de sélection des candidatures peuvent **favoriser ou pénaliser certaines catégories de candidats** en raison de biais cachés, par exemple en fonction du sexe ou d’antécédents médicaux. 📌 **Notation de crédit et finance** : L’IA est de plus en plus utilisée dans le secteur bancaire pour **évaluer les demandes de prêt*. Or, des algorithmes peuvent **favoriser ou exclure certains profils** sur la base de critères indirects liés à l’ethnicité ou au lieu de résidence. L’**AI Act impose des obligations strictes** aux systèmes d’IA classés « à haut risque », notamment en matière de **contrôle et de correction des biais*. Pour cela, il prévoit que **des données sensibles** puissent être collectées et traitées, en particulier pour vérifier que les systèmes d’IA ne discriminent pas. --- ## **Une confrontation entre l’AI Act et le RGPD** L’**article 9 du RGPD** définit les **catégories spéciales de données personnelles**, comprenant : - L’origine raciale ou ethnique - Les opinions politiques - Les croyances religieuses ou philosophiques - L’appartenance syndicale - Les données génétiques et biométriques - Les données de santé - La vie sexuelle ou l’orientation sexuelle Le RGPD **interdit en principe** le traitement de ces données, sauf exceptions (consentement explicite, intérêt public substantiel, obligations légales, etc.). L’**article 10(5) de l’AI Act** autorise toutefois leur traitement **dans la mesure strictement nécessaire** pour **détecter et corriger les biais des systèmes d’IA à haut risque*. Mais cette disposition ne s’applique qu’à ces systèmes et doit **respecter les principes du RGPD**, notamment la nécessité, la proportionnalité et la minimisation des données. De plus, l’AI Act précise que **le RGPD prévaut en cas de conflit*, ce qui **limite fortement** les marges de manœuvre pour exploiter ces données dans le cadre de l’IA. --- ## **Les défis juridiques et les pistes d’évolution** La **compatibilité entre l’AI Act et le RGPD** soulève plusieurs défis : ✅ **Sécurisation des données sensibles** : Toute collecte de données à des fins de correction des biais devra être **strictement encadrée** par des mesures de cybersécurité robustes pour éviter tout risque de fuite. ✅ **Application des principes du RGPD** : Les systèmes d’IA devront se conformer aux principes de **minimisation des données, limitation de la finalité et confidentialité**, sous peine d’incompatibilité avec le RGPD. ✅ **Clarification du critère de nécessité** : La possibilité de traiter des données sensibles devra être **strictement limitée aux cas où cela est essentiel** pour protéger d’autres droits fondamentaux, notamment la non-discrimination. ✅ **Une révision du RGPD ?** : Certains experts estiment qu’une **réforme du RGPD** pourrait être nécessaire pour mieux intégrer **les spécificités de l’IA et des algorithmes décisionnels**. 🔍 **Une alternative** : Certains juristes suggèrent que le traitement de ces données pourrait être justifié par **l’« intérêt public substantiel »*, défini à l’**article 9(2)(g) du RGPD*. Selon cette lecture, **la lutte contre la discrimination algorithmique** pourrait être reconnue comme un objectif d’intérêt public européen, légitimant ainsi le traitement de certaines données sensibles. --- ## **Vers une régulation plus harmonisée ?** L’évolution rapide de l’IA et son intégration croissante dans des secteurs critiques **rendent urgent un cadre juridique clair et cohérent*. Si le RGPD et l’AI Act partagent **des objectifs communs de protection des droits fondamentaux**, leur interaction complexe pourrait nécessiter : 📌 **Une clarification des lignes directrices européennes*, afin d’aider les entreprises et les régulateurs à interpréter **les zones grises entre RGPD et AI Act**. 📌 **Une éventuelle réforme du RGPD**, afin d’adapter son cadre strict à la réalité du déploiement massif des technologies d’IA. 📌 **Un suivi renforcé par les autorités de protection des données**, notamment pour évaluer l’application du RGPD aux systèmes d’IA classés « à haut risque ». Le **rôle de la Commission européenne** sera déterminant pour résoudre ces tensions et garantir une application fluide des deux réglementations, **sans freiner l’innovation ni compromettre les droits des citoyens européens**. --- 🔗 **Source :** [Publication de l’EPRS - Parlement européen](https://op.europa.eu/en/publication-detail/-/publication/dc544697-19b8-11ec-b4fe-01aa75ed71a1/language-en) **#rgpd #aiact #intelligenceartificielle #droitsfondamentaux #éthiquenumérique #discriminationalgorithmique #protectiondesdonnées #euroscope**
👍 1

Comments