
EuroScope : la chaîne sur l’Europe
February 18, 2025 at 02:44 PM
**INTELLIGENCE ARTIFICIELLE / NOUVELLES LIGNES DIRECTRICES SUR LA DÉFINITION DES « SYSTÈMES D’IA »**
La **Commission européenne** a publié, le **6 février*, ses lignes directrices relatives à la définition des **« systèmes d’IA »** au sens du futur **règlement européen sur l’intelligence artificielle (AI Act)*. Conçues pour aider les **fournisseurs**, **opérateurs de marché** et parties prenantes concernées, ces lignes détaillent la **portée** de l’AI Act, en clarifiant ce qui relève ou non d’un « système d’IA ». Elles rappellent que l’AI Act vise à **fournir un cadre harmonisé** pour encourager l’innovation tout en protégeant la santé, la sécurité et les droits fondamentaux (démocratie, État de droit).
—
**1. Contexte et objectifs des lignes directrices**
Les lignes directrices répondent à l’**Article 96(1)(f) de l’AI Act*, qui demande à la Commission de publier des orientations sur la **définition** d’un système d’IA (Article 3(1)). L’**enjeu** : savoir si un logiciel constitue un « AI system » et doit, dès lors, se conformer aux exigences du règlement. Ces clarifications sont d’autant plus nécessaires qu’une partie des dispositions du texte (dont l’Article 5 sur les pratiques interdites) est déjà d’application depuis le **2 février 2025**.
Tout comme celles sur les **pratiques interdites** par l’AI Act (publiées quelques jours plus tôt), ces directives clarifient la portée de l’**AI Act** et le vocabulaire : *« niveau d’autonomie », « objectifs implicites ou explicites », « inférence », « adaptiveness », etc.* Elles fixent également les limites pour **exclure** les systèmes de simple exécution ou de traitement statistique basique (ex. systèmes guidés uniquement par des règles définies manuellement).
—
**2. Les sept éléments clés définissant un « système d’IA »**
Les lignes directrices rappellent les **sept critères** (Article 3(1) AI Act) : 1) **Un système basé sur une machine** (hardware ou software permettant de fonctionner) 2) **Des niveaux d’autonomie variables** (un minimum d’indépendance face aux interventions humaines) 3) **La possibilité d’exhiber une « adaptivité »** (capacité, facultative, d’évolution après déploiement) 4) **Des objectifs explicites ou implicites** 5) **Une inférence** (extraction, apprentissage ou raisonnement pour générer des outputs) 6) **Des sorties** (ex. prédictions, contenu, recommandations ou décisions) 7) **Une interaction avec l’environnement** (virtuel ou physique).
Chaque système doit être **examiné au cas par cas*. La définition privilégie une approche **flexible** pour inclure aussi bien le *machine learning* et le *deep learning* que les approches à base de connaissances (logiques, règles expertes, etc.).
—
**3. Outils et situations exclus du champ**
• **« Basic data processing »** : les logiciels se limitant à un traitement ou un tri de données (ex. tableurs, bases de données traditionnelles).
• **« Systèmes basés uniquement sur des règles humaines »** : par exemple, un script ou un programme où l’ensemble des règles d’exécution est spécifié manuellement sans réelle inférence ou adaptation.
• **Approches heuristiques et statistiques rudimentaires** : si elles ne dépassent pas une simple modélisation ou ne présentent pas de « raisonnement adaptatif ».
• **Méthodes d’optimisation mathématique** qui restent dans les standards consolidés de la discipline, sans recourir à une « logique d’apprentissage » plus avancée.
—
**4. Procédure et liens avec les autres dispositions**
Le **cadre de l’AI Act** repose sur une logique de **risque graduel** : la plupart des solutions, même si elles répondent à la définition d’un système d’IA, ne seront pas soumises aux contraintes élevées de l’AI Act (Annexes I, III pour les systèmes à haut risque, Article 50 pour la transparence de certains modèles, etc.). Les lignes directrices expliquent comment les **concepts** d’« objectifs du système » et de **« finalité »** se distinguent : l’objectif relève du fonctionnement interne, tandis que la finalité correspond à l’usage prévu par le fournisseur.
Le document précise également que **les systèmes de type « General-purpose AI »** sont aussi concernés par l’AI Act (chapitre V), même si l’analyse sur leur statut particulier dépasse le cadre de ces lignes directrices.
—
**Conclusion**
En explicitant la **portée** de la définition d’un « système d’IA », la Commission européenne souhaite aider l’écosystème (fournisseurs, opérateurs et régulateurs) à **identifier précisément** quelles solutions tombent sous le coup de l’AI Act. Si ces orientations **n’ont pas valeur contraignante*, elles constituent un guide pratique précieux, dans l’attente de la jurisprudence de la **Cour de justice de l’UE*. Les entreprises sont donc invitées à procéder à un **examen attentif** de leurs technologies à la lumière de ces critères, car les obligations et interdictions (notamment sur les « pratiques interdites ») vont s’appliquer à tous les systèmes d’IA définis au sens du règlement.
**Lien vers les lignes directrices** : [Commission publishes Guidelines on AI system definition](https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-ai-system-definition-facilitate-first-ai-acts-rules-application)
**#ia #aiact #règlementeuropéen #technologie #innovation #législation**