von Ulrich Frings, Techn. Redakteur
Der EU AI Act fordert eine Bedienungsanleitung bzw. Nutzerinformation für KI-Systeme
Laut dem EU AI Act ist eine Bedienungsanleitung bzw. Nutzerinformation für KI-Systeme verpflichtend, insbesondere bei Hochrisiko-Anwendungen – sowohl für Unternehmen als auch für öffentliche Stellen. Diese Pflicht ergibt sich aus Artikel 13 der Verordnung (EU) 2024/1689, der die Anforderungen an Transparenz und Nutzerinformation regelt.
Was muss eine KI-Bedienungsanleitung enthalten?
Für alle Hochrisiko-KI-Systeme muss die Anleitung folgende Punkte abdecken:
🔹 Allgemeine Informationen
Zweck und Einsatzbereich des KI-Systems
Name und Kontaktdaten des Anbieters
Beschreibung der Systemfunktionen und Grenzen
🔹 Bedienung und Kontrolle
Anleitung zur sicheren Nutzung
Hinweise zur menschlichen Aufsicht (Art. 14)
Maßnahmen zur Fehlererkennung und -behebung
🔹 Risiken und Einschränkungen
Bekannte Risiken und potenzielle Fehlfunktionen
Warnhinweise bei kritischen Entscheidungen (z. B. automatisierte Ablehnung von Anträgen)
🔹 Datenschutz und Sicherheit
Umgang mit personenbezogenen Daten (Art. 10)
Hinweise zur DSGVO-Konformität
Zugriffsbeschränkungen und Berechtigungskonzepte
🔹 Validierung und Feedback
Verfahren zur Überprüfung von KI-Ausgaben
Kontaktmöglichkeit für Rückfragen oder Beschwerden
Empfohlener Standardaufbau für KI-Dokumentation
Grundlage für die Erstellung von Nutzerinformationen bzw. Gebrauchsanleitungen für Produkte gemäß Art. 13 des AI Act ist die DIN EN ISO 82079.
Sie beinhaltet folgende relevanten Prinzipien:
Relevante Prinzipien aus der EIN EN ISO 82079
Zielgruppenorientierung: Anleitung muss auf das Wissen und die Aufgaben der Nutzer abgestimmt sein
Informationsstruktur: klare Gliederung in Aufgaben, Warnhinweise, Bedienung, Fehlerbehebung
Medienneutralität: Inhalte müssen sowohl digital als auch gedruckt nutzbar sein
Modularisierung: Wiederverwendbare Informationsbausteine für verschiedene Kontexte
Anwendung auf KI-Systeme:
Anleitung für Bediener, Administratoren und Auditoren
Einbindung in digitale Workflows (z. B. LMS, Intranet, RSCE-Elemente)
Ergänzung durch interaktive Elemente (z. B. Quiz, Feedbacklogik)
Lean Documentation & Zielprogrammierung nach Juhl
Juhl propagiert eine zielorientierte Dokumentation, die sich an den konkreten Aufgaben und Zielen der Nutzer orientiert – ideal für komplexe KI-Systeme.
Kernelemente:
Zielgruppenanalyse: Welche Aufgaben will der Nutzer mit dem KI-System lösen?
Minimalismus: Nur relevante Informationen, keine redundanten Texte
Kontextualisierung: Dokumentation ist Teil des Nutzungserlebnisses, nicht losgelöst davon
Feedbackschleifen: Nutzer können Rückmeldungen geben, die zur Verbesserung der Inhalte führen
Anwendung auf KI:
Dokumentation als „Task Map“: z. B. „Wie überprüfe ich die KI-Ausgabe?“ oder „Wie erkenne ich Bias?“
Integration in Schulungsplattformen mit interaktiven Modulen
Funktionsdesign: Strukturierte Darstellung von Systemlogik
Das Funktionsdesign beschreibt, wie ein KI-System arbeitet – ideal für die technische Dokumentation gemäß Artikel 11 und Anhang IV des AI Act.
Bestandteile:
Systemarchitektur: Module, Schnittstellen, Datenflüsse
Funktionslogik: z. B. Entscheidungsregeln, Schwellenwerte, Trainingsdaten
Validierung & Tests: Genauigkeit, Robustheit, Cybersicherheit
Menschliche Kontrolle: Eingriffsmöglichkeiten, Eskalationslogik
Empfohlener Standardaufbau
Daraus ergibt sich folgender Standardaufbau:
Deckblatt & Metadaten
Systemname, Version, Anbieter, CE-Kennzeichnung
Zielgruppenbeschreibung
Rollen: Bediener, Admin, Auditor, Bürger (bei Verwaltung)
Systemübersicht
Zweck, Einsatzbereich, Risikokategorie (AI Act)
Funktionsdesign
Architektur, Algorithmen, Datenquellen, Entscheidungslogik
Bedienung & Aufgaben
Schritt-für-Schritt-Anleitungen (nach 82079)
Zielorientierte Task Maps (nach Juhl)
Sicherheit & Datenschutz
DSGVO-Konformität, Bias-Analyse, Protokollierung
Fehlerbehandlung & Wartung
typische Fehler, Eskalationspfade, Updates
Feedback & Verbesserung
Rückmeldekanäle, Änderungslogik, Schulungsressourcen
Anforderungen an die Bereitstellung der Bedienungsanleitung
Formate
Digital: PDF, HTML, interaktive Webformulare oder eingebettete Hilfe im System
Physisch: gedruckte Anleitung, falls das KI-System als Hardware ausgeliefert wird
Maschinenlesbar: für automatisierte Prüfprozesse oder Dokumentationssysteme
Inhalte (gemäß Art. 13 Abs. 3)
Die Anleitung muss klar, vollständig und verständlich sein und folgende Angaben enthalten:
Anbieteridentität und Kontaktdaten
Zweck, Funktionen und Grenzen des KI-Systems
Genauigkeit, Robustheit und Cybersicherheit (inkl. Metriken, Art. 15)
Risiken bei bestimmungsgemäßer und missbräuchlicher Nutzung
Hinweise zur Interpretation der Ergebnisse
Wartungs- und Updateanweisungen
Protokollierungsfunktionen (falls vorhanden)
Bereitstellungsmöglichkeiten für Unternehmen und Verwaltung
Unternehmen
Integration in digitale Betriebsanleitungen oder Intranets
Bereitstellung über QR-Code auf Geräten oder Dashboards
Einbindung in Schulungsplattformen oder LMS (z. B. Absorb, Moodle)
Öffentliche Verwaltung
Veröffentlichung auf Behördenwebsites oder Bürgerportalen
Einbindung in digitale Antragsprozesse (z. B. Hinweis bei KI-gestützter Entscheidung)
Barrierefreie PDF-Versionen für Bürger mit Einschränkungen
Wichtig: Zugänglichkeit & Verständlichkeit
Die Anleitung muss für die jeweilige Zielgruppe verständlich, sprachlich klar und barrierefrei sein. Das gilt besonders für:
Bürgerinteraktionen (Verwaltung)
Mitarbeitende ohne technische Vorkenntnisse (Industrie)
Schulungskontexte (z. B. LMS oder Einarbeitung)
Öffentliche Verwaltung: Besondere Anforderungen
Für Behörden gelten zusätzliche Anforderungen:
Transparenz gegenüber Bürgern: Einsatz von KI muss kenntlich gemacht werden (Art. 52)
Erklärbarkeit: Entscheidungen müssen nachvollziehbar und überprüfbar sein
Barrierefreiheit: Informationen müssen für alle Nutzergruppen verständlich sein
Unternehmen: Praxisbezug
Auch Unternehmen müssen sicherstellen, dass Mitarbeitende die KI-Systeme korrekt bedienen können. Dazu gehört:
Interne Schulung und Awareness (Art. 4)
Dokumentation für IT, Compliance und Fachabteilungen
Integration in bestehende Betriebsanleitungen oder digitale Workflows
Anforderungen nach Zielgruppen
Der AI Act wurde und wird schrittweise wirksam – mit ersten Verboten und Schulungspflichten seit Februar 2025, umfassenden Anbieterpflichten seit August 2025 und vollständiger Anwendung für Hochrisiko-KI ab August 2026. Unternehmen und Behörden sollten jetzt ihre Systeme klassifizieren, Governance-Strukturen aufbauen und Mitarbeitende schulen.
Datum | Ereignis | Rechtsgrundlage / Kapitel |
---|---|---|
12. Juli 2024 | Veröffentlichung im Amtsblatt der EU | Art. 113 |
2. August 2024 | Inkrafttreten der Verordnung | Art. 113 |
2. November 2024 | Mitgliedstaaten müssen zuständige Behörden benennen | Art. 77 Abs. 2 |
2. Februar 2025 | Verbot bestimmter KI-Praktiken tritt in Kraft | Art. 5, Erwägungsgrund 179 |
2. Mai 2025 | Verhaltenskodizes für GPAI-Anbieter müssen vorliegen | Art. 56 Abs. 9 |
2. August 2025 | Anwendung zentraler Regelungen: GPAI, Governance, Sanktionen | Art. 99–100, Kapitel V & VII |
1. August 2026 | Vollständige Anwendung des AI Act für alle Hochrisiko-KI-Systeme | Art. 113 Buchstabe c |
Unternehmen (z. B. Industrie, Softwareanbieter)
seit Februar 2025:
Verbotene KI-Praktiken müssen entfernt werden (Art. 5)
KI-Kompetenz im Unternehmen sicherstellen (Art. 4)
Erste Risikobewertungen und Transparenzmaßnahmen vorbereiten
seit August 2025:
Anbieter von GPAI-Modellen (z. B. ChatGPT, Gemini, CoPilot) müssen:
Technische Dokumentation offenlegen (Art. 53–55)
Urheberrechtlich relevante Trainingsdaten kennzeichnen
Risikomanagementsysteme einführen (Art. 9)
Governance-Strukturen etablieren (Art. 56–60)
Ab August 2026:
Hochrisiko-KI-Systeme (z. B. biometrische Erkennung, Bewerberauswahl) unterliegen:
CE-Kennzeichnungspflicht (Art. 43–51)
Konformitätsbewertung
Transparenz- und Aufsichtspflichten (Art. 13–14)
Öffentliche Verwaltung
Seit Februar 2025:
Verbotene KI-Praktiken wie emotionale Analyse oder Social Scoring sind untersagt (Art. 5)
Schulungspflicht für Mitarbeitende zur KI-Kompetenz (Art. 4)
Transparenz gegenüber Bürgern bei KI-Einsatz (Art. 52)
Seit August 2025:
Dokumentationspflichten bei GPAI-Nutzung (z. B. Chatbots, Entscheidungsunterstützung)
Einrichtung von KI-Governance-Strukturen (z. B. Ethikgremien, benannte Stellen)
Ab August 2026:
Hochrisiko-Anwendungen (z. B. automatisierte Leistungsbewilligung) müssen:
Konformitätsbewertung durchlaufen
Menschliche Kontrolle sicherstellen
Datenschutz-Folgenabschätzung ergänzen
KI-Kompetenz und Schulungspflicht
Artikel 4 verpflichtet Arbeitgeber dazu, die KI-Kompetenz ihrer Mitarbeitenden sicherzustellen. Dies umfasst Schulungen, Dokumentation und die Berücksichtigung des Anwendungskontexts. Die Bundesnetzagentur empfiehlt ein dreistufiges Maßnahmenmodell zur Umsetzung.
Sanktionen und Durchsetzung
Verstöße gegen den AI Act können mit Bußgeldern bis zu 35 Mio. € oder 7 % des weltweiten Jahresumsatzes geahndet werden (Art. 71). Nationale Behörden und die EU-Kommission erhalten weitreichende Kontroll- und Durchsetzungsbefugnisse (Art. 63–70).