Un nouveau cadre juridique pour l’intelligence artificielle : le règlement IA

16 janvier 2025

Le nouveau règlement UE 2024/1689 du 13 juin 2024 sur l’intelligence artificielle (RIA) a été publié au Journal Officiel de l’Union européenne le 12 juillet 2024. Il entrera en vigueur progressivement à compter du 1er août 2024 et constitue le nouveau cadre juridique pour encadrer le développement, la mise sur le marché et l’utilisation de systèmes d’intelligence artificielle (IA). 

Que sont les systèmes d’intelligence artificielle visés par le règlement ? 

Le nouveau règlement UE 2024/1689 du 13 juin 2024 sur l’intelligence artificielle (RIA) a été publié au Journal Officiel de l’Union européenne le 12 juillet 2024. Il entrera en vigueur progressivement à compter du 1er août 2024 et constitue le nouveau cadre juridique pour encadrer le développement, la mise sur le marché et l’utilisation de systèmes d’intelligence artificielle (IA).


Le l’intelligence artificielle est un outil logique et automatisé utilisé par une machine qui est en mesure de réaliser des tâches bien définies qui consistent généralement dans la reproduction de comportements humains (tels que le raisonnement, la planification etc.). Elle repose généralement sur un algorithme. Les systèmes d’intelligence artificielle sont des robots qui sont entraînés par l’être humain pendant leur phase de développement, pour ensuite être capables d’effectuer des tâches tout seul pendant la phase de déploiement.


Les systèmes d’intelligence artificielle sont utilisés dans de nombreux domaines tels que le recrutement, la surveillance du marché, les usages répressifs, les chatbots, la génération de contenus créatifs artificiels etc. 

L’intelligence artificielle : quels enjeux ? quels risques ? 

Cerveau humain pour l'intelligence artificielle

Aussi bien dans la phase de développement que dans la phase de déploiement, les outils d’IA ont besoin d’être alimentés en données pour fonctionner, souvent des données à caractère personnel. Il est donc important de préserver les droits des personnes concernées, résultant notamment du Règlement général sur la protection des données (RGPD), et cela dès la phase de développement. 


Pour assurer les droits des personnes concernées, il est également important, pendant la phase de déploiement d’une IA, notamment dans le cadre des décisions automatisées pouvant être prises par les robots, qu’un « être humain garde toujours la main », c’est-à-dire qu’il y a toujours un contrôle par une personne physique sur la décision prise par l’IA. En effet, l’IA, comme tout être humain d’ailleurs, peut toujours faire des erreurs qui peuvent être liées à la conception de son système ou à ses conditions d’utilisation.


Afin de répondre à ces enjeux et de prévenir les risques pour les personnes concernées, le règlement AI a déterminé un cadre commun pour l’usage des systèmes d’AI. 

Comment le RAI encadre-t-il l’usage des systèmes d’AI dans l’Union européenne ? 

Le RAI classe les outils d’IA en quatre catégories, selon les risques qu’ils peuvent potentiellement engendrés, et prévoit un régime différent pour chaque catégorie d’IA.


  • Risque inacceptable : il s’agit de systèmes d’IA qui sont tout simplement prohibé au sein de l’Union européenne, car considérés contraires à nos valeurs. Il s’agit de systèmes ayant par exemple pour objet la notation sociale, l’exploitation de la vulnérabilité d’une personne, la reconnaissance des émotions sur le lieu de travail etc.


  • Haut risque : un système d’IA est considéré comme étant à haut risque lorsqu’il peut porter atteinte à la sécurité d’une personne ou à ses droits fondamentaux. Les systèmes d’AI à haut risque sont soumis à des exigences renforcées pour pouvoir être développés. Ils doivent notamment faire l’objet d’une documentation technique et d’évaluations de conformité.


  • Risque spécifique en matière de transparence : il peut s’agir par exemple de chatbots ou d’outils qui génèrent un contenu artificiel. Ces outils sont soumis à des obligations de transparences spécifiques (notamment en ce qui concerne l’information des personnes concernées).


  • Risque minimal : cette catégorie concerne par défaut tous les outils d’IA qui ne rentrent  pas dans l’une des catégories précédentes, à savoir la très grande majorité des outils d’IA. Pour ces outils, aucune réglementation spécifique n’est prévue.

Les modèles d’IA à usage général

A côté de ces quatre catégories d’IA énumérées ci-dessus, le RIA prévoit également la nouvelle catégorie de modèles dits à « usage général », qui concerne surtout l’IA générative. Ces modèles ont la capacité de servir à un grand nombre de tâches (tels que proposés par Mistral AI ou Open AI) et qui sont donc difficiles à classer dans une des catégories précédentes.


Pour ces modèles, le RIA prévoit plusieurs niveaux d’obligations (allant de la mesure de transparence jusqu’à une évaluation approfondie du système, en passant par la documentation technique…), en fonction des risques qu’ils peuvent comporter. 

Quelle autorité contrôlera l’application du RIA en France ? 

Le RIA prévoit que chaque Etat membre doit désigner une autorité compétente pour contrôler le respect du règlement, et cela jusqu’au 2 août 2025. 

Quand est-ce que le règlement IA entre-t-il en vigueur ? 

Le règlement IA entrera en vigueur progressivement à compter du 1er août 2024, selon les étapes suivantes :


  • 2 février 2025 :
  • Entrée en vigueur des interdictions relatives aux systèmes d’IA présentant des risques inacceptables


  • 2 août 2025 :
  • Nomination des autorités compétentes au niveau des Etats membres
  • Application des règles pour les modèles d’IA à usage général


  • 2 août 2026 :
  • L’ensemble des autres dispositions du règlement IA devient applicable (notamment les règles concernant les IA à haut risque prévu à l’annexe III du RIA : biométrie, infrastructures critiques, éducation, emploi, immigration administration de la justice etc.)
  • Mise en œuvre par les autorités des Etats membres d’au moins un bac à sable réglementaire


  • 2 août 2027 :
  • Entrée en vigueur des règles relatives aux systèmes d’IA à haut risque de l’Annexe 1 (jouets, équipements radios, etc.) 
Horloge pour symboliser marque de luxe
11 avril 2025
La transformation d'un produit de marque peut constituer un acte de contrefaçon.
Uhre um Luxusmarke zu symbolisieren
11 avril 2025
Die Personalisierung von Markenware ist eine Markenrechtsverletzung im französischen Recht.
Gebrauchtwagen zur Darstellung der Marke GPA
28 mars 2025
In einer Entscheidung vom 20.12.2024 löschte das französische Markenamt INPI eine Marke teilweise, aufgrund mangelnder rechtserhaltender Benutzung der Marke.
Casse automobile pour illustrer la marque GPA
28 mars 2025
Dans une décision du 20 décembre 2024, l’INPI a retenu la déchéance partielle d’une marque pour défaut d’usage sérieux des produits et services désignés par la marque.
Hand auf Mauspad für Nutzung von IT
14 mars 2025
Die Vertragsstrafe in IT-Verträgen hat in diesem Zusammenhang zum Zweck, von Anfang an die Strafe im Falle einer Nichterfüllung oder einer mangelhaften oder verspäteten Erfüllung durch den Dienstleister zu bestimmen.
Main sur la souris pour utilisation des nouvelles technologies
14 mars 2025
La clause pénale dans un contrat informatique a pour but de déterminer d'emblée la pénalité due par le prestataire en cas d'inexécution, de mauvaise exécution ou de retard dans l’exécution de sa part.
Stromkabel für Patent über Stromkabel
27 février 2025
Di Auesnahme des persönlichen Besitzrechts ist in Artikel L. 613-7 des französischen Gesetzbuchs über geistiges Eigentum bestimmt. Dieser Artikel sieht vier kumulative Bedingungen vor, die der Vorbesitzer nachweisen muss, um sich auf die Ausnahme des persönlichen Besitzrechts berufen zu können: - der Besitz muss vor dem Anmeldetag des Patents oder dem Prioritätstag bestanden haben, - die Techniken, die Gegenstand des persönlichen Vorbesitzes sind, muss mit der patentierten Erfindung identisch sein, - der Besitz muss auf französischem Hoheitsgebiet bestanden haben, - die Person, die den Besitz beansprucht (der Erfinder), muss gutgläubig sein.
fil électrique pour brevet sur des fils électriques
27 février 2025
L'exception de possession personnelle antérieure est prévue à l’article L. 613-7 du Code de la propriété intellectuelle. Cet article prévoit quatre conditions cumulatives que la personne qui revendique cette possession antérieure doit réunir pour pouvoir invoquer cette exception au droit d’exploitation du déposant du brevet : - la possession doit être antérieure par rapport à la date du dépôt de la demande d’enregistrement du brevet ou à la date de priorité - la technique possédée doit être identique à l’invention brevetée - la possession doit avoir eu lieu sur le territoire français - la personne qui revendique la possession (l’inventeur) doit être de bonne foi.
Rechnungen
19 février 2025
Situationen, in denen man keine Zahlung von einem französischen Vertragspartner erhält sind häufig und ärgerlich. Der erste Schritt beim Forderungseinzug in Frankreich ist es, eine anwaltliche Abmahnung an den Schuldner verschicken zu lassen. In manchen Fällen reagiert der französische Schuldner nicht auf die Abmahnung. Der nächste Schritt ist dann in den meisten Fällen die Einleitungen eines Mahnverfahrens.
Factures
19 février 2025
Nombreuses sont les situations dans lesquels on ne reçoit pas le paiement de ses créances…La première étape de tout recouvrement de créances est l’envoi d’un courrier de mise en demeure au débiteur, rédigé par un avocat. Dans certains cas, le débiteur ne répond pas au courrier de mise en demeure. L'étape suivante consiste alors à engager une procédure d'injonction de payer.
Plus de posts