Un nouveau cadre juridique pour l’intelligence artificielle : le règlement IA
Le nouveau règlement UE 2024/1689 du 13 juin 2024 sur l’intelligence artificielle (RIA) a été publié au Journal Officiel de l’Union européenne le 12 juillet 2024. Il entrera en vigueur progressivement à compter du 1er août 2024 et constitue le nouveau cadre juridique pour encadrer le développement, la mise sur le marché et l’utilisation de systèmes d’intelligence artificielle (IA).
Que sont les systèmes d’intelligence artificielle visés par le règlement ?
Le nouveau règlement UE 2024/1689 du 13 juin 2024 sur l’intelligence artificielle (RIA) a été publié au Journal Officiel de l’Union européenne le 12 juillet 2024. Il entrera en vigueur progressivement à compter du 1er août 2024 et constitue le nouveau cadre juridique pour encadrer le développement, la mise sur le marché et l’utilisation de systèmes d’intelligence artificielle (IA).
Le l’intelligence artificielle est un outil logique et automatisé utilisé par une machine qui est en mesure de réaliser des tâches bien définies qui consistent généralement dans la reproduction de comportements humains (tels que le raisonnement, la planification etc.). Elle repose généralement sur un algorithme. Les systèmes d’intelligence artificielle sont des robots qui sont entraînés par l’être humain pendant leur phase de développement, pour ensuite être capables d’effectuer des tâches tout seul pendant la phase de déploiement.
Les systèmes d’intelligence artificielle sont utilisés dans de nombreux domaines tels que le recrutement, la surveillance du marché, les usages répressifs, les chatbots, la génération de contenus créatifs artificiels etc.
L’intelligence artificielle : quels enjeux ? quels risques ?

Aussi bien dans la phase de développement que dans la phase de déploiement, les outils d’IA ont besoin d’être alimentés en données pour fonctionner, souvent des données à caractère personnel. Il est donc important de préserver les droits des personnes concernées, résultant notamment du Règlement général sur la protection des données (RGPD), et cela dès la phase de développement.
Pour assurer les droits des personnes concernées, il est également important, pendant la phase de déploiement d’une IA, notamment dans le cadre des décisions automatisées pouvant être prises par les robots, qu’un « être humain garde toujours la main », c’est-à-dire qu’il y a toujours un contrôle par une personne physique sur la décision prise par l’IA. En effet, l’IA, comme tout être humain d’ailleurs, peut toujours faire des erreurs qui peuvent être liées à la conception de son système ou à ses conditions d’utilisation.
Afin de répondre à ces enjeux et de prévenir les risques pour les personnes concernées, le règlement AI a déterminé un cadre commun pour l’usage des systèmes d’AI.
Comment le RAI encadre-t-il l’usage des systèmes d’AI dans l’Union européenne ?
Le RAI classe les outils d’IA en quatre catégories, selon les risques qu’ils peuvent potentiellement engendrés, et prévoit un régime différent pour chaque catégorie d’IA.
- Risque inacceptable : il s’agit de systèmes d’IA qui sont tout simplement prohibé au sein de l’Union européenne, car considérés contraires à nos valeurs. Il s’agit de systèmes ayant par exemple pour objet la notation sociale, l’exploitation de la vulnérabilité d’une personne, la reconnaissance des émotions sur le lieu de travail etc.
- Haut risque : un système d’IA est considéré comme étant à haut risque lorsqu’il peut porter atteinte à la sécurité d’une personne ou à ses droits fondamentaux. Les systèmes d’AI à haut risque sont soumis à des exigences renforcées pour pouvoir être développés. Ils doivent notamment faire l’objet d’une documentation technique et d’évaluations de conformité.
- Risque spécifique en matière de transparence : il peut s’agir par exemple de chatbots ou d’outils qui génèrent un contenu artificiel. Ces outils sont soumis à des obligations de transparences spécifiques (notamment en ce qui concerne l’information des personnes concernées).
- Risque minimal
: cette catégorie concerne par défaut tous les outils d’IA qui ne rentrent pas dans l’une des catégories précédentes, à savoir la très grande majorité des outils d’IA. Pour ces outils, aucune réglementation spécifique n’est prévue.
Les modèles d’IA à usage général
A côté de ces quatre catégories d’IA énumérées ci-dessus, le RIA prévoit également la nouvelle catégorie de modèles dits à « usage général », qui concerne surtout l’IA générative. Ces modèles ont la capacité de servir à un grand nombre de tâches (tels que proposés par Mistral AI ou Open AI) et qui sont donc difficiles à classer dans une des catégories précédentes.
Pour ces modèles, le RIA prévoit plusieurs niveaux d’obligations (allant de la mesure de transparence jusqu’à une évaluation approfondie du système, en passant par la documentation technique…), en fonction des risques qu’ils peuvent comporter.
Quelle autorité contrôlera l’application du RIA en France ?
Le RIA prévoit que chaque Etat membre doit désigner une autorité compétente pour contrôler le respect du règlement, et cela jusqu’au 2 août 2025.
Quand est-ce que le règlement IA entre-t-il en vigueur ?
Le règlement IA entrera en vigueur progressivement à compter du 1er août 2024, selon les étapes suivantes :
- 2 février 2025 :
- Entrée en vigueur des interdictions relatives aux systèmes d’IA présentant des risques inacceptables
- 2 août 2025 :
- Nomination des autorités compétentes au niveau des Etats membres
- Application des règles pour les modèles d’IA à usage général
- 2 août 2026 :
- L’ensemble des autres dispositions du règlement IA devient applicable (notamment les règles concernant les IA à haut risque prévu à l’annexe III du RIA : biométrie, infrastructures critiques, éducation, emploi, immigration administration de la justice etc.)
- Mise en œuvre par les autorités des Etats membres d’au moins un bac à sable réglementaire
- 2 août 2027 :
- Entrée en vigueur des règles relatives aux systèmes d’IA à haut risque de l’Annexe 1 (jouets, équipements radios, etc.)



