Frings Medienservice

KI-Praktiken gemäß dem EU AI Act (Verordnung (EU) 2024/1689)

Der AI Act als Meilenstein der KI-Regulierung

von Ulrich Frings, Techn. Redakteur

Mit dem AI Act hat die Europäische Union im Juli 2024 die weltweit erste umfassende gesetzliche Regelung für künstliche Intelligenz verabschiedet. Ziel ist es, Innovation zu fördern und gleichzeitig Risiken für Grundrechte, Sicherheit und Gesundheit zu minimieren. Die finale Verhandlungsrunde dauerte 38 Stunden und betonte demokratische Werte, Datenschutz und technische Sicherheit.

Geltungsbereich und Zielsetzung

Laut Artikel 1 und 2 des AI Act gilt die Verordnung für das Inverkehrbringen, die Inbetriebnahme und Nutzung von KI-Systemen in der EU – unabhängig davon, ob Anbieter oder Nutzer innerhalb oder außerhalb der Union ansässig sind. Der Zweck ist die Schaffung eines harmonisierten Binnenmarkts für vertrauenswürdige, menschenzentrierte KI.

Geltungsbereich und Zielsetzung

Der AI Act unterteilt KI-Systeme in vier Risikokategorien (Art. 6–9):

  • Minimales Risiko: z. B. Spamfilter – keine regulatorischen Anforderungen

  • Begrenztes Risiko: z. B. Chatbots – Transparenzpflichten (Art. 52)

  • Hohes Risiko: z. B. biometrische Identifikation, Bewerberauswahl – strenge Anforderungen (Art. 8, 9, 16–29)

  • Nicht annehmbares Risiko: z. B. Social Scoring durch Behörden – verboten (Art. 5)

Diese Einteilung ist zentral für die Compliance-Strategie von Unternehmen.

Anforderungen für Hochrisiko-KI-Systeme

Für Hochrisiko-Systeme gelten laut Kapitel III folgende Pflichten:

  • Risikomanagementsysteme (Art. 9)

  • Datenqualität und Governance (Art. 10)

  • Technische Dokumentation (Art. 11)

  • Protokollierung und Nachvollziehbarkeit (Art. 12)

  • Transparenz und Nutzerinformation (Art. 13)

  • Menschliche Aufsicht (Art. 14)

  • Robustheit und Cybersicherheit (Art. 15)

Zusätzlich müssen Anbieter eine CE-Kennzeichnung vornehmen und Konformitätsbewertungsverfahren durchlaufen (Art. 43–51).

Pflichten für Anbieter und Betreiber

Artikel 16–29 regeln die Verantwortlichkeiten von Anbietern, Importeuren, Händlern und Betreibern:

  • Anbieter müssen technische Dokumentation, Konformitätserklärungen und Risikobewertungen bereitstellen.

  • Betreiber müssen sicherstellen, dass Systeme korrekt eingesetzt und überwacht werden.

  • Bei Änderungen am System oder neuen Trainingsdaten sind Re-Evaluierungen erforderlich.

Verbotene Praktiken

Artikel 5 listet Praktiken, die als unannehmbares Risiko gelten und verboten sind:

  • Manipulation menschlichen Verhaltens mit potenziell schädlichen Folgen

  • Emotionserkennung am Arbeitsplatz oder in Bildungseinrichtungen

  • Social Scoring durch öffentliche Stellen

Diese Verbote gelten unmittelbar und ohne Übergangsfrist.

KI-Kompetenz und Schulungspflicht

Artikel 4 verpflichtet Arbeitgeber dazu, die KI-Kompetenz ihrer Mitarbeitenden sicherzustellen. Dies umfasst Schulungen, Dokumentation und die Berücksichtigung des Anwendungskontexts. Die Bundesnetzagentur empfiehlt ein dreistufiges Maßnahmenmodell zur Umsetzung.

Sanktionen und Durchsetzung

Verstöße gegen den AI Act können mit Bußgeldern bis zu 35 Mio. € oder 7 % des weltweiten Jahresumsatzes geahndet werden (Art. 71). Nationale Behörden und die EU-Kommission erhalten weitreichende Kontroll- und Durchsetzungsbefugnisse (Art. 63–70).

Das ist die Überschrift

Der AI Act ist nicht nur ein regulatorischer Rahmen, sondern auch eine Chance, vertrauenswürdige KI in Ihrer Organisation strategisch zu verankern. Wir schulen Ihre relevanten Teams gerne für die Einbindung in den Arbeitsalltag, die Erstellung der technischen Dokumentation.