Der AI Act als Meilenstein der KI-Regulierung
von Ulrich Frings, Techn. Redakteur
Mit dem AI Act hat die Europäische Union im Juli 2024 die weltweit erste umfassende gesetzliche Regelung für künstliche Intelligenz verabschiedet. Ziel ist es, Innovation zu fördern und gleichzeitig Risiken für Grundrechte, Sicherheit und Gesundheit zu minimieren. Die finale Verhandlungsrunde dauerte 38 Stunden und betonte demokratische Werte, Datenschutz und technische Sicherheit.
Geltungsbereich und Zielsetzung
Laut Artikel 1 und 2 des AI Act gilt die Verordnung für das Inverkehrbringen, die Inbetriebnahme und Nutzung von KI-Systemen in der EU – unabhängig davon, ob Anbieter oder Nutzer innerhalb oder außerhalb der Union ansässig sind. Der Zweck ist die Schaffung eines harmonisierten Binnenmarkts für vertrauenswürdige, menschenzentrierte KI.
Geltungsbereich und Zielsetzung
Der AI Act unterteilt KI-Systeme in vier Risikokategorien (Art. 6–9):
Minimales Risiko: z. B. Spamfilter – keine regulatorischen Anforderungen
Begrenztes Risiko: z. B. Chatbots – Transparenzpflichten (Art. 52)
Hohes Risiko: z. B. biometrische Identifikation, Bewerberauswahl – strenge Anforderungen (Art. 8, 9, 16–29)
Nicht annehmbares Risiko: z. B. Social Scoring durch Behörden – verboten (Art. 5)
Diese Einteilung ist zentral für die Compliance-Strategie von Unternehmen.
Anforderungen für Hochrisiko-KI-Systeme
Für Hochrisiko-Systeme gelten laut Kapitel III folgende Pflichten:
Risikomanagementsysteme (Art. 9)
Datenqualität und Governance (Art. 10)
Technische Dokumentation (Art. 11)
Protokollierung und Nachvollziehbarkeit (Art. 12)
Transparenz und Nutzerinformation (Art. 13)
Menschliche Aufsicht (Art. 14)
Robustheit und Cybersicherheit (Art. 15)
Zusätzlich müssen Anbieter eine CE-Kennzeichnung vornehmen und Konformitätsbewertungsverfahren durchlaufen (Art. 43–51).
Pflichten für Anbieter und Betreiber
Artikel 16–29 regeln die Verantwortlichkeiten von Anbietern, Importeuren, Händlern und Betreibern:
Anbieter müssen technische Dokumentation, Konformitätserklärungen und Risikobewertungen bereitstellen.
Betreiber müssen sicherstellen, dass Systeme korrekt eingesetzt und überwacht werden.
Bei Änderungen am System oder neuen Trainingsdaten sind Re-Evaluierungen erforderlich.
Verbotene Praktiken
Artikel 5 listet Praktiken, die als unannehmbares Risiko gelten und verboten sind:
Manipulation menschlichen Verhaltens mit potenziell schädlichen Folgen
Emotionserkennung am Arbeitsplatz oder in Bildungseinrichtungen
Social Scoring durch öffentliche Stellen
Diese Verbote gelten unmittelbar und ohne Übergangsfrist.
KI-Kompetenz und Schulungspflicht
Artikel 4 verpflichtet Arbeitgeber dazu, die KI-Kompetenz ihrer Mitarbeitenden sicherzustellen. Dies umfasst Schulungen, Dokumentation und die Berücksichtigung des Anwendungskontexts. Die Bundesnetzagentur empfiehlt ein dreistufiges Maßnahmenmodell zur Umsetzung.
Sanktionen und Durchsetzung
Verstöße gegen den AI Act können mit Bußgeldern bis zu 35 Mio. € oder 7 % des weltweiten Jahresumsatzes geahndet werden (Art. 71). Nationale Behörden und die EU-Kommission erhalten weitreichende Kontroll- und Durchsetzungsbefugnisse (Art. 63–70).