Frings Medienservice

KI unterstützt Sie bei der Alltagsarbeit im Büro. Was ist erlaubt? Was ist verboten?

KI unterstützt Sie bei der Alltagsarbeit im Büro. Was ist erlaubt? Was ist verboten?

Verbotene KI-Praktiken (Artikel 5 AI Act)

von Ulrich Frings, Techn. Redakteur

Diese Praktiken gelten als „unannehmbares Risiko“ und sind ab 2. Februar 2025 EU-weit verboten:

  1. Manipulative KI-Techniken
    KI-Systeme, die unterschwellige oder täuschende Methoden nutzen, um Menschen zu Entscheidungen zu verleiten, die ihnen erheblich schaden könnten.

  2. Ausnutzung von Schwachstellen
    Systeme, die gezielt auf alters-, behinderungs- oder sozialbedingte Schwächen abzielen, um Verhalten zu beeinflussen.

  3. Soziales Scoring
    Bewertung von Personen basierend auf Verhalten oder Eigenschaften, die zu ungerechtfertigter Benachteiligung führen.

  4. Vorhersage von Straftaten durch Profiling
    KI-Systeme, die ausschließlich auf Persönlichkeitsprofilen basieren, um kriminelles Verhalten vorherzusagen.

  5. Gesichtserkennungsdatenbanken durch Massen-Scraping
    Erfassung von Gesichtsbildern aus dem Internet oder Videoüberwachung zur Erstellung von Datenbanken.

  6. Emotionserkennung in Arbeit und Bildung
    KI-Systeme zur Analyse von Emotionen am Arbeitsplatz oder in Bildungseinrichtungen sind verboten – außer bei medizinischer Notwendigkeit.

  7. Biometrische Kategorisierung
    KI-Systeme, die Menschen nach ethnischer Herkunft, Religion, politischer Einstellung oder sexueller Orientierung einordnen.

Erlaubte KI-Aktivitäten

Alle KI-Systeme, die nicht unter Artikel 5 fallen, sind grundsätzlich erlaubt – unter Einhaltung der jeweiligen Anforderungen:

  • Minimales Risiko: z. B. Spamfilter, Rechtschreibkorrektur – keine Pflichten

  • Begrenztes Risiko: z. B. Chatbots – Transparenzpflicht (Art. 52)

  • Hohes Risiko: z. B. Bewerberauswahl, Kreditvergabe, medizinische Diagnostik – strenge Anforderungen (Art. 9–15, 43–51)

 

konkrete Anforderungen für verschiedene Zielgruppen

Basierend auf der finalen Fassung der Verordnung (EU) 2024/1689 und den offiziellen Umsetzungsdaten ergeben sich konkrete Anforderungen. Zunächst ein Blick auf den Zeitstrahl des EU AI Act (Timeline).

DatumEreignisRechtsgrundlage / Kapitel
12. Juli 2024Veröffentlichung im Amtsblatt der EUArt. 113
2. August 2024Inkrafttreten der VerordnungArt. 113
2. November 2024Mitgliedstaaten müssen zuständige Behörden benennenArt. 77 Abs. 2
2. Februar 2025Verbot bestimmter KI-Praktiken tritt in KraftArt. 5, Erwägungsgrund 179
2. Mai 2025Verhaltenskodizes für GPAI-Anbieter müssen vorliegenArt. 56 Abs. 9
2. August 2025Anwendung zentraler Regelungen: GPAI, Governance, SanktionenArt. 99–100, Kapitel V & VII
1. August 2026Vollständige Anwendung des AI Act für alle Hochrisiko-KI-SystemeArt. 113 Buchstabe c

Anforderungen nach Zielgruppen

Der AI Act wird schrittweise wirksam – mit ersten Verboten und Schulungspflichten seit Februar 2025, umfassenden Anbieterpflichten seit August 2025 und vollständiger Anwendung für Hochrisiko-KI ab August 2026. Unternehmen und Behörden sollten jetzt ihre Systeme klassifizieren, Governance-Strukturen aufbauen und Mitarbeitende schulen.

Unternehmen (z. B. Industrie, Softwareanbieter)

seit Februar 2025:

  • Verbotene KI-Praktiken müssen entfernt werden (Art. 5)

  • KI-Kompetenz im Unternehmen sicherstellen (Art. 4)

  • Erste Risikobewertungen und Transparenzmaßnahmen vorbereiten

seit August 2025:

  • Anbieter von GPAI-Modellen (z. B. ChatGPT, Gemini, CoPilot) müssen:

    • Technische Dokumentation offenlegen (Art. 53–55)

    • Urheberrechtlich relevante Trainingsdaten kennzeichnen

    • Risikomanagementsysteme einführen (Art. 9)

    • Governance-Strukturen etablieren (Art. 56–60)

Ab August 2026:

  • Hochrisiko-KI-Systeme (z. B. biometrische Erkennung, Bewerberauswahl) unterliegen:

    • CE-Kennzeichnungspflicht (Art. 43–51)

    • Konformitätsbewertung

    • Transparenz- und Aufsichtspflichten (Art. 13–14)

 

Öffentliche Verwaltung

Seit Februar 2025:

  • Verbotene KI-Praktiken wie emotionale Analyse oder Social Scoring sind untersagt (Art. 5)

  • Schulungspflicht für Mitarbeitende zur KI-Kompetenz (Art. 4)

  • Transparenz gegenüber Bürgern bei KI-Einsatz (Art. 52)

Seit August 2025:

  • Dokumentationspflichten bei GPAI-Nutzung (z. B. Chatbots, Entscheidungsunterstützung)

  • Einrichtung von KI-Governance-Strukturen (z. B. Ethikgremien, benannte Stellen)

Ab August 2026:

  • Hochrisiko-Anwendungen (z. B. automatisierte Leistungsbewilligung) müssen:

    • Konformitätsbewertung durchlaufen

    • Menschliche Kontrolle sicherstellen

    • Datenschutz-Folgenabschätzung ergänzen

KI-Kompetenz und Schulungspflicht

Artikel 4 verpflichtet Arbeitgeber dazu, die KI-Kompetenz ihrer Mitarbeitenden sicherzustellen. Dies umfasst Schulungen, Dokumentation und die Berücksichtigung des Anwendungskontexts. Die Bundesnetzagentur empfiehlt ein dreistufiges Maßnahmenmodell zur Umsetzung.

Sanktionen und Durchsetzung

Verstöße gegen den AI Act können mit Bußgeldern bis zu 35 Mio. € oder 7 % des weltweiten Jahresumsatzes geahndet werden (Art. 71). Nationale Behörden und die EU-Kommission erhalten weitreichende Kontroll- und Durchsetzungsbefugnisse (Art. 63–70).

Das ist die Überschrift

Der AI Act ist nicht nur ein regulatorischer Rahmen, sondern auch eine Chance, vertrauenswürdige KI in Ihrer Organisation strategisch zu verankern. Wir schulen Ihre relevanten Teams gerne für die Einbindung in den Arbeitsalltag, die Erstellung der technischen Dokumentation.