KI unterstützt Sie bei der Alltagsarbeit im Büro. Was ist erlaubt? Was ist verboten?
Verbotene KI-Praktiken (Artikel 5 AI Act)
von Ulrich Frings, Techn. Redakteur
Diese Praktiken gelten als „unannehmbares Risiko“ und sind ab 2. Februar 2025 EU-weit verboten:
Manipulative KI-Techniken
KI-Systeme, die unterschwellige oder täuschende Methoden nutzen, um Menschen zu Entscheidungen zu verleiten, die ihnen erheblich schaden könnten.Ausnutzung von Schwachstellen
Systeme, die gezielt auf alters-, behinderungs- oder sozialbedingte Schwächen abzielen, um Verhalten zu beeinflussen.Soziales Scoring
Bewertung von Personen basierend auf Verhalten oder Eigenschaften, die zu ungerechtfertigter Benachteiligung führen.Vorhersage von Straftaten durch Profiling
KI-Systeme, die ausschließlich auf Persönlichkeitsprofilen basieren, um kriminelles Verhalten vorherzusagen.Gesichtserkennungsdatenbanken durch Massen-Scraping
Erfassung von Gesichtsbildern aus dem Internet oder Videoüberwachung zur Erstellung von Datenbanken.Emotionserkennung in Arbeit und Bildung
KI-Systeme zur Analyse von Emotionen am Arbeitsplatz oder in Bildungseinrichtungen sind verboten – außer bei medizinischer Notwendigkeit.Biometrische Kategorisierung
KI-Systeme, die Menschen nach ethnischer Herkunft, Religion, politischer Einstellung oder sexueller Orientierung einordnen.
Erlaubte KI-Aktivitäten
Alle KI-Systeme, die nicht unter Artikel 5 fallen, sind grundsätzlich erlaubt – unter Einhaltung der jeweiligen Anforderungen:
Minimales Risiko: z. B. Spamfilter, Rechtschreibkorrektur – keine Pflichten
Begrenztes Risiko: z. B. Chatbots – Transparenzpflicht (Art. 52)
Hohes Risiko: z. B. Bewerberauswahl, Kreditvergabe, medizinische Diagnostik – strenge Anforderungen (Art. 9–15, 43–51)
konkrete Anforderungen für verschiedene Zielgruppen
Basierend auf der finalen Fassung der Verordnung (EU) 2024/1689 und den offiziellen Umsetzungsdaten ergeben sich konkrete Anforderungen. Zunächst ein Blick auf den Zeitstrahl des EU AI Act (Timeline).
Datum | Ereignis | Rechtsgrundlage / Kapitel |
---|---|---|
12. Juli 2024 | Veröffentlichung im Amtsblatt der EU | Art. 113 |
2. August 2024 | Inkrafttreten der Verordnung | Art. 113 |
2. November 2024 | Mitgliedstaaten müssen zuständige Behörden benennen | Art. 77 Abs. 2 |
2. Februar 2025 | Verbot bestimmter KI-Praktiken tritt in Kraft | Art. 5, Erwägungsgrund 179 |
2. Mai 2025 | Verhaltenskodizes für GPAI-Anbieter müssen vorliegen | Art. 56 Abs. 9 |
2. August 2025 | Anwendung zentraler Regelungen: GPAI, Governance, Sanktionen | Art. 99–100, Kapitel V & VII |
1. August 2026 | Vollständige Anwendung des AI Act für alle Hochrisiko-KI-Systeme | Art. 113 Buchstabe c |
Anforderungen nach Zielgruppen
Der AI Act wird schrittweise wirksam – mit ersten Verboten und Schulungspflichten seit Februar 2025, umfassenden Anbieterpflichten seit August 2025 und vollständiger Anwendung für Hochrisiko-KI ab August 2026. Unternehmen und Behörden sollten jetzt ihre Systeme klassifizieren, Governance-Strukturen aufbauen und Mitarbeitende schulen.
Unternehmen (z. B. Industrie, Softwareanbieter)
seit Februar 2025:
Verbotene KI-Praktiken müssen entfernt werden (Art. 5)
KI-Kompetenz im Unternehmen sicherstellen (Art. 4)
Erste Risikobewertungen und Transparenzmaßnahmen vorbereiten
seit August 2025:
Anbieter von GPAI-Modellen (z. B. ChatGPT, Gemini, CoPilot) müssen:
Technische Dokumentation offenlegen (Art. 53–55)
Urheberrechtlich relevante Trainingsdaten kennzeichnen
Risikomanagementsysteme einführen (Art. 9)
Governance-Strukturen etablieren (Art. 56–60)
Ab August 2026:
Hochrisiko-KI-Systeme (z. B. biometrische Erkennung, Bewerberauswahl) unterliegen:
CE-Kennzeichnungspflicht (Art. 43–51)
Konformitätsbewertung
Transparenz- und Aufsichtspflichten (Art. 13–14)
Öffentliche Verwaltung
Seit Februar 2025:
Verbotene KI-Praktiken wie emotionale Analyse oder Social Scoring sind untersagt (Art. 5)
Schulungspflicht für Mitarbeitende zur KI-Kompetenz (Art. 4)
Transparenz gegenüber Bürgern bei KI-Einsatz (Art. 52)
Seit August 2025:
Dokumentationspflichten bei GPAI-Nutzung (z. B. Chatbots, Entscheidungsunterstützung)
Einrichtung von KI-Governance-Strukturen (z. B. Ethikgremien, benannte Stellen)
Ab August 2026:
Hochrisiko-Anwendungen (z. B. automatisierte Leistungsbewilligung) müssen:
Konformitätsbewertung durchlaufen
Menschliche Kontrolle sicherstellen
Datenschutz-Folgenabschätzung ergänzen
KI-Kompetenz und Schulungspflicht
Artikel 4 verpflichtet Arbeitgeber dazu, die KI-Kompetenz ihrer Mitarbeitenden sicherzustellen. Dies umfasst Schulungen, Dokumentation und die Berücksichtigung des Anwendungskontexts. Die Bundesnetzagentur empfiehlt ein dreistufiges Maßnahmenmodell zur Umsetzung.
Sanktionen und Durchsetzung
Verstöße gegen den AI Act können mit Bußgeldern bis zu 35 Mio. € oder 7 % des weltweiten Jahresumsatzes geahndet werden (Art. 71). Nationale Behörden und die EU-Kommission erhalten weitreichende Kontroll- und Durchsetzungsbefugnisse (Art. 63–70).