Ein neuer Rechtsrahmen für künstliche Intelligenz in der EU: die KI-Verordnung
Die neue EU-Verordnung 2024/1689 vom 13. Juni 2024 über künstliche Intelligenz (KI-Verordnung) wurde am 12. Juli 2024 im Amtsblatt der Europäischen Union veröffentlicht. Sie tritt schrittweise ab dem 1. August 2024 in Kraft und bildet den neuen Rechtsrahmen für die Entwicklung, das Inverkehrbringen und die Inbetriebnahme von Systemen künstlicher Intelligenz (KI-Systeme).
Welche Systeme künstlicher Intelligenz sind von der neuen Verordnung betroffen?
Künstliche Intelligenz ist die logische und automatisierte Vorgehensweise einer Maschine, die in der Lage ist, genau definierte Aufgaben auszuführen, die in der Regel darin bestehen, menschliche Verhaltensweisen (wie Denken, Planen, Lernen usw.) zu imitieren. Sie basiert in der Regel auf Algorithmen. Systeme künstlicher Intelligenz sind Roboter, die während ihrer Entwicklungsphase vom Menschen trainiert wurden und anschließend in der Einsatzphase in der Lage sind, Aufgaben selbstständig auszuführen.
Systeme künstlicher Intelligenz werden in vielen Bereichen eingesetzt, z. B. bei der Personalverwaltung, der Marktüberwachung, der Strafverfolgung, Chatbots, der Generierung künstlicher, kreativer Inhalte usw.
Künstliche Intelligenz: Welche Herausforderungen? Welche Risiken?

Sowohl in der Entwicklungs- als auch in der Einsatzphase müssen KI-Tools mit Daten gefüttert werden, um zu funktionieren, und zwar oft mit personenbezogenen Daten. Daher ist es wichtig, die Rechte der betroffenen Personen, die sich insbesondere aus der Datenschutz-Grundverordnung (DSGVO) ergeben, bereits ab der Entwicklungsphase zu wahren.
Um die Rechte der betroffenen Personen zu gewährleisten, ist es auch in der Einsatzphase des KI-Tools wichtig, insbesondere im Rahmen automatisierter Entscheidungen, die von Robotern getroffen werden, dass immer ein Mensch „die Kontrolle behält", d.h. dass immer eine Kontrolle durch eine menschliche Person vorgesehen ist. In der Tat kann KI, wie jeder Mensch übrigens auch, immer Fehler machen, die mit der Entwicklung ihres Systems oder auch den Nutzungsbedingungen zusammenhängen können.
Um auf diese Herausforderungen zu antworten und Risiken für die Nutzer zu vermeiden, wurde mit der KI-Verordnung ein einheitlicher rechtlicher Rahmen für die europäische Union festgelegt.
Wie reguliert die RAI den Einsatz von KI-Systemen in der Europäischen Union?
Die KI-Verordnung sieht vier Kategorien für KI-Tools vor, je nach den Risiken, die diese potenziell verursachen können. Je nach Kategorie, habe die KI-Systeme einen unterschiedlichen rechtlichen Rahmen zu berücksichtigen:
- Inakzeptables hohes Risiko: Hier handelt es sich um KI-Systeme, die in der Europäischen Union schlicht verboten sind, weil sie als Verstoß gegen unsere Werte angesehen werden. Dabei handelt es sich um Systeme, deren Zweck z.B. die soziale Bewertung, die Ausnutzung der Verletzlichkeit einer Person, das Erkennen von Emotionen am Arbeitsplatz usw. ist.
- Hohes Risiko: Ein KI-System gilt als Hochrisiko-KI, wenn es die Sicherheit oder die Grundrechte einer Person beeinträchtigen kann. Um Hochrisiko-KI zu implementieren, müssen verschärfte rechtliche Anforderungen berücksichtigt werden, die je nach Rolle als Anbieter oder Betreiber unterschiedlich sein können. Die Einrichtung eines Risikomanagementsystems muss in Betracht gezogen werden.
- Begrenztes Risiko: Diese Kategorie betrifft vor allem Chatbots oder Tools, die künstliche Inhalte generieren. KI-Tools mit begrenztem Risiko sind grundsätzlich erlaubt. Sie unterliegen allerdings einer besonderen Transparenzpflichten, die die Information der betroffenen Personen betreffen sowie Barrierefreiheitsanforderungen.
- Kein Risiko: Zu dieser Kategorie gehören standardmäßig alle KI-Tools, die nicht in eine der vorherigen Risikoklassen fallen. Diese Kategorie betrifft die überwiegende Mehrheit aller KI-Tools. Zur Implementierung dieser Tools sind keine spezifischen rechtlichen Anforderungen vorgesehen.
KI-Modelle für allgemeine Zwecke
Neben den vier oben aufgeführten Risikoklassen für KI-Systeme sieht die KI-Verordnung auch die neue Kategorie der sogenannten KI-Modelle für allgemeine Zwecke vor, die hauptsächlich generative KI betrifft. Diese KI-Modelle können eine große Anzahl von möglichen Aufgaben übernehmen, wie z.B. Bild- und Spracherkennung, Audio- und Videogenerierung, Beantwortung von Fragen, Übersetzung usw. und lassen sich daher nur schwer in eine der vorherigen Risikoklassen einordnen.
Für diese KI-Modelle sieht die KI-Verordnung je nach den Risiken, die sie mit sich bringen können, mehrere Stufen von Anforderungen vor (von der Transparenzpflicht bis hin zu einer eingehenden Risikobewertung).
Welche Behörde wird die Anwendung der KI-Verordnung in Frankreich überwachen?
Die KI-Verordnung sieht vor, dass jeder Mitgliedstaat eine zuständige Behörde benennen muss, die die Einhaltung der Verordnung im jeweiligen Mitgliedsstaat überwacht. Diese Behörde muss bis zum 02.08.2025 benannt werden. In Frankreich wurde noch nicht bekannt gegeben, welche Behörde diese Aufgabe übernehmen wird.
Wann tritt die KI-Verordnung in Kraft?
Die KI-Verordnung tritt schrittweise ab dem 01.08.2024 wie folgt in Kraft:
- 02.02.2025:
- Inkrafttreten des Verbots von KI-Systemen, die ein inakzeptabel hohes Risiko mit sich bringen.
- 02.08.2025:
o Ernennung der zuständigen nationalen Überwachungsbehörden durch die Mitgliedstaaten
o Inkrafttreten der Bestimmungen über KI-Modelle für allgemeine Zwecke
- 02.08.2026:
o Alle anderen Bestimmungen der KI-Verordnung treten in Kraft (insbesondere die in Anhang III der KI-Verordnung enthaltenen Vorschriften über Hochrisiko-KI: Biometrie, kritische Infrastrukturen, Bildung, Beschäftigung, Einwanderung, Rechtspflege usw.)
o Umsetzung mindestens eines KI-Regulierungssandkasten durch die nationalen Behörden der Mitgliedstaaten
- 02.08.2027:
o Inkrafttreten der Vorschriften Hochrisiko-KI gemäß Anhang I der Verordnung (Spielzeug, Funkanlagen usw.)



