Frings Medienservice

Der EU AI Act fordert eine KI Bedienungsanleitung.
von Ulrich Frings, Techn. Redakteur

Der EU AI Act fordert eine Bedienungsanleitung bzw. Nutzerinformation für KI-Systeme

Laut dem EU AI Act ist eine Bedienungsanleitung bzw. Nutzerinformation für KI-Systeme verpflichtend, insbesondere bei Hochrisiko-Anwendungen – sowohl für Unternehmen als auch für öffentliche Stellen. Diese Pflicht ergibt sich aus Artikel 13 der Verordnung (EU) 2024/1689, der die Anforderungen an Transparenz und Nutzerinformation regelt.

Was muss eine KI-Bedienungsanleitung enthalten?

Für alle Hochrisiko-KI-Systeme muss die Anleitung folgende Punkte abdecken:

🔹 Allgemeine Informationen

  • Zweck und Einsatzbereich des KI-Systems

  • Name und Kontaktdaten des Anbieters

  • Beschreibung der Systemfunktionen und Grenzen

🔹 Bedienung und Kontrolle

  • Anleitung zur sicheren Nutzung

  • Hinweise zur menschlichen Aufsicht (Art. 14)

  • Maßnahmen zur Fehlererkennung und -behebung

🔹 Risiken und Einschränkungen

  • Bekannte Risiken und potenzielle Fehlfunktionen

  • Warnhinweise bei kritischen Entscheidungen (z. B. automatisierte Ablehnung von Anträgen)

🔹 Datenschutz und Sicherheit

  • Umgang mit personenbezogenen Daten (Art. 10)

  • Hinweise zur DSGVO-Konformität

  • Zugriffsbeschränkungen und Berechtigungskonzepte

🔹 Validierung und Feedback

  • Verfahren zur Überprüfung von KI-Ausgaben

  • Kontaktmöglichkeit für Rückfragen oder Beschwerden

Empfohlener Standardaufbau für KI-Dokumentation

Grundlage für die Erstellung von Nutzerinformationen bzw. Gebrauchsanleitungen für Produkte gemäß Art. 13 des AI Act ist die DIN EN ISO 82079.

Sie beinhaltet folgende relevanten Prinzipien:

Relevante Prinzipien aus der EIN EN ISO 82079

  • Zielgruppenorientierung: Anleitung muss auf das Wissen und die Aufgaben der Nutzer abgestimmt sein

  • Informationsstruktur: klare Gliederung in Aufgaben, Warnhinweise, Bedienung, Fehlerbehebung

  • Medienneutralität: Inhalte müssen sowohl digital als auch gedruckt nutzbar sein

  • Modularisierung: Wiederverwendbare Informationsbausteine für verschiedene Kontexte

Anwendung auf KI-Systeme:

  • Anleitung für Bediener, Administratoren und Auditoren

  • Einbindung in digitale Workflows (z. B. LMS, Intranet, RSCE-Elemente)

  • Ergänzung durch interaktive Elemente (z. B. Quiz, Feedbacklogik)

Lean Documentation & Zielprogrammierung nach Juhl

Juhl propagiert eine zielorientierte Dokumentation, die sich an den konkreten Aufgaben und Zielen der Nutzer orientiert – ideal für komplexe KI-Systeme.

Kernelemente:

  • Zielgruppenanalyse: Welche Aufgaben will der Nutzer mit dem KI-System lösen?

  • Minimalismus: Nur relevante Informationen, keine redundanten Texte

  • Kontextualisierung: Dokumentation ist Teil des Nutzungserlebnisses, nicht losgelöst davon

  • Feedbackschleifen: Nutzer können Rückmeldungen geben, die zur Verbesserung der Inhalte führen

Anwendung auf KI:

  • Dokumentation als „Task Map“: z. B. „Wie überprüfe ich die KI-Ausgabe?“ oder „Wie erkenne ich Bias?“

  • Integration in Schulungsplattformen mit interaktiven Modulen

Funktionsdesign: Strukturierte Darstellung von Systemlogik

Das Funktionsdesign beschreibt, wie ein KI-System arbeitet – ideal für die technische Dokumentation gemäß Artikel 11 und Anhang IV des AI Act.

Bestandteile:

  • Systemarchitektur: Module, Schnittstellen, Datenflüsse

  • Funktionslogik: z. B. Entscheidungsregeln, Schwellenwerte, Trainingsdaten

  • Validierung & Tests: Genauigkeit, Robustheit, Cybersicherheit

  • Menschliche Kontrolle: Eingriffsmöglichkeiten, Eskalationslogik

 

Empfohlener Standardaufbau

Daraus ergibt sich folgender Standardaufbau:

  1. Deckblatt & Metadaten

    • Systemname, Version, Anbieter, CE-Kennzeichnung

  2. Zielgruppenbeschreibung

    • Rollen: Bediener, Admin, Auditor, Bürger (bei Verwaltung)

  3. Systemübersicht

    • Zweck, Einsatzbereich, Risikokategorie (AI Act)

  4. Funktionsdesign

    • Architektur, Algorithmen, Datenquellen, Entscheidungslogik

  5. Bedienung & Aufgaben

    • Schritt-für-Schritt-Anleitungen (nach 82079)

    • Zielorientierte Task Maps (nach Juhl)

  6. Sicherheit & Datenschutz

    • DSGVO-Konformität, Bias-Analyse, Protokollierung

  7. Fehlerbehandlung & Wartung

    • typische Fehler, Eskalationspfade, Updates

  8. Feedback & Verbesserung

    • Rückmeldekanäle, Änderungslogik, Schulungsressourcen

Anforderungen an die Bereitstellung der Bedienungsanleitung

Formate

  • Digital: PDF, HTML, interaktive Webformulare oder eingebettete Hilfe im System

  • Physisch: gedruckte Anleitung, falls das KI-System als Hardware ausgeliefert wird

  • Maschinenlesbar: für automatisierte Prüfprozesse oder Dokumentationssysteme

Inhalte (gemäß Art. 13 Abs. 3)

Die Anleitung muss klar, vollständig und verständlich sein und folgende Angaben enthalten:

  • Anbieteridentität und Kontaktdaten

  • Zweck, Funktionen und Grenzen des KI-Systems

  • Genauigkeit, Robustheit und Cybersicherheit (inkl. Metriken, Art. 15)

  • Risiken bei bestimmungsgemäßer und missbräuchlicher Nutzung

  • Hinweise zur Interpretation der Ergebnisse

  • Wartungs- und Updateanweisungen

  • Protokollierungsfunktionen (falls vorhanden)

Bereitstellungsmöglichkeiten für Unternehmen und Verwaltung

Unternehmen

  • Integration in digitale Betriebsanleitungen oder Intranets

  • Bereitstellung über QR-Code auf Geräten oder Dashboards

  • Einbindung in Schulungsplattformen oder LMS (z. B. Absorb, Moodle)

Öffentliche Verwaltung

  • Veröffentlichung auf Behördenwebsites oder Bürgerportalen

  • Einbindung in digitale Antragsprozesse (z. B. Hinweis bei KI-gestützter Entscheidung)

  • Barrierefreie PDF-Versionen für Bürger mit Einschränkungen

Wichtig: Zugänglichkeit & Verständlichkeit

Die Anleitung muss für die jeweilige Zielgruppe verständlich, sprachlich klar und barrierefrei sein. Das gilt besonders für:

  • Bürgerinteraktionen (Verwaltung)

  • Mitarbeitende ohne technische Vorkenntnisse (Industrie)

  • Schulungskontexte (z. B. LMS oder Einarbeitung)

Öffentliche Verwaltung: Besondere Anforderungen

Für Behörden gelten zusätzliche Anforderungen:

  • Transparenz gegenüber Bürgern: Einsatz von KI muss kenntlich gemacht werden (Art. 52)

  • Erklärbarkeit: Entscheidungen müssen nachvollziehbar und überprüfbar sein

  • Barrierefreiheit: Informationen müssen für alle Nutzergruppen verständlich sein

Unternehmen: Praxisbezug

Auch Unternehmen müssen sicherstellen, dass Mitarbeitende die KI-Systeme korrekt bedienen können. Dazu gehört:

  • Interne Schulung und Awareness (Art. 4)

  • Dokumentation für IT, Compliance und Fachabteilungen

  • Integration in bestehende Betriebsanleitungen oder digitale Workflows

Anforderungen nach Zielgruppen

Der AI Act wurde und wird schrittweise wirksam – mit ersten Verboten und Schulungspflichten seit Februar 2025, umfassenden Anbieterpflichten seit August 2025 und vollständiger Anwendung für Hochrisiko-KI ab August 2026. Unternehmen und Behörden sollten jetzt ihre Systeme klassifizieren, Governance-Strukturen aufbauen und Mitarbeitende schulen.

DatumEreignisRechtsgrundlage / Kapitel
12. Juli 2024Veröffentlichung im Amtsblatt der EUArt. 113
2. August 2024Inkrafttreten der VerordnungArt. 113
2. November 2024Mitgliedstaaten müssen zuständige Behörden benennenArt. 77 Abs. 2
2. Februar 2025Verbot bestimmter KI-Praktiken tritt in KraftArt. 5, Erwägungsgrund 179
2. Mai 2025Verhaltenskodizes für GPAI-Anbieter müssen vorliegenArt. 56 Abs. 9
2. August 2025Anwendung zentraler Regelungen: GPAI, Governance, SanktionenArt. 99–100, Kapitel V & VII
1. August 2026Vollständige Anwendung des AI Act für alle Hochrisiko-KI-SystemeArt. 113 Buchstabe c

Unternehmen (z. B. Industrie, Softwareanbieter)

seit Februar 2025:

  • Verbotene KI-Praktiken müssen entfernt werden (Art. 5)

  • KI-Kompetenz im Unternehmen sicherstellen (Art. 4)

  • Erste Risikobewertungen und Transparenzmaßnahmen vorbereiten

seit August 2025:

  • Anbieter von GPAI-Modellen (z. B. ChatGPT, Gemini, CoPilot) müssen:

    • Technische Dokumentation offenlegen (Art. 53–55)

    • Urheberrechtlich relevante Trainingsdaten kennzeichnen

    • Risikomanagementsysteme einführen (Art. 9)

    • Governance-Strukturen etablieren (Art. 56–60)

Ab August 2026:

  • Hochrisiko-KI-Systeme (z. B. biometrische Erkennung, Bewerberauswahl) unterliegen:

    • CE-Kennzeichnungspflicht (Art. 43–51)

    • Konformitätsbewertung

    • Transparenz- und Aufsichtspflichten (Art. 13–14)

 

Öffentliche Verwaltung

Seit Februar 2025:

  • Verbotene KI-Praktiken wie emotionale Analyse oder Social Scoring sind untersagt (Art. 5)

  • Schulungspflicht für Mitarbeitende zur KI-Kompetenz (Art. 4)

  • Transparenz gegenüber Bürgern bei KI-Einsatz (Art. 52)

Seit August 2025:

  • Dokumentationspflichten bei GPAI-Nutzung (z. B. Chatbots, Entscheidungsunterstützung)

  • Einrichtung von KI-Governance-Strukturen (z. B. Ethikgremien, benannte Stellen)

Ab August 2026:

  • Hochrisiko-Anwendungen (z. B. automatisierte Leistungsbewilligung) müssen:

    • Konformitätsbewertung durchlaufen

    • Menschliche Kontrolle sicherstellen

    • Datenschutz-Folgenabschätzung ergänzen

KI-Kompetenz und Schulungspflicht

Artikel 4 verpflichtet Arbeitgeber dazu, die KI-Kompetenz ihrer Mitarbeitenden sicherzustellen. Dies umfasst Schulungen, Dokumentation und die Berücksichtigung des Anwendungskontexts. Die Bundesnetzagentur empfiehlt ein dreistufiges Maßnahmenmodell zur Umsetzung.

Sanktionen und Durchsetzung

Verstöße gegen den AI Act können mit Bußgeldern bis zu 35 Mio. € oder 7 % des weltweiten Jahresumsatzes geahndet werden (Art. 71). Nationale Behörden und die EU-Kommission erhalten weitreichende Kontroll- und Durchsetzungsbefugnisse (Art. 63–70).

Das ist die Überschrift

Der AI Act ist nicht nur ein regulatorischer Rahmen, sondern auch eine Chance, vertrauenswürdige KI in Ihrer Organisation strategisch zu verankern. Wir schulen Ihre relevanten Teams gerne für die Einbindung in den Arbeitsalltag, die Erstellung der technischen Dokumentation.