Warum Transparenz für Hochrisiko-KI-Systeme wichtig ist
In Bezug auf KI-Systeme wird Transparenz definiert als „level of accessibility to the algorithm and data used” (ISO/IEC TR 29119-11) und stellt einen grundlegenden Regulierungsgrundsatz des AI Acts dar. Anbieter müssen Hoch-Risiko KI-Systeme so gestalten, dass „ihr Betrieb hinreichend transparent ist, damit die Betreiber die Ausgaben eines Systems angemessen interpretieren und verwenden können“ (Art. 13 (1)).
Anbieter und Anwender von KI-Systemen mit hohem Risiko müssen sicherstellen, dass Systeme, die mit Menschen in Kontakt kommen, spätestens zum Zeitpunkt der ersten Interaktion (Art. 50 (5)) eindeutig als KI-Systeme gekennzeichnet sind (Art. 50 (1)).
Transparenz fördert die Sicherheit, die Verantwortung und den Schutz der Grundrechte und ermöglicht es gleichzeitig Benannten Stellen und zuständigen Behörden, Konformitätsbewertungen und Marktüberwachungen effektiv durchzuführen.
Transparenzdokumentation trägt dazu bei, die Übereinstimmung mit anderen regulatorischen Verpflichtungen sicherzustellen, darunter Art. 9 (Risikomanagement), Art. 14 (menschliche Aufsicht) und Art. 15 (Genauigkeit, Robustheit, Cybersicherheit).
Gebrauchsanweisungen als Kernelement der Transparenz
Hoch-Risiko KI-Systeme müssen mit präzisen, vollständigen, korrekten und klaren Gebrauchsanweisungen in einem digitalen oder anderweitig zugänglichen Format versehen sein (Art. 13 (2)). Diese Anweisungen müssen auf die Kompetenzen und Bedürfnisse derjenigen zugeschnitten sein, die das System einsetzen, und dessen ordnungsgemäßen Betrieb während seines gesamten Lebenszyklus unterstützen.
Erforderlicher Inhalt
Der AI Act enthält eine detaillierte Liste von Informationskategorien, die in der Gebrauchsanweisung enthalten sein müssen (Art. 13 (3)):
- Namen und die Kontaktangaben des Anbieters (ggf. ist die Angabe des Bevollmächtigten obligatorisch)
- Merkmale, Fähigkeiten und Leistungsgrenzen
- Vorher festgelegte Änderungen (falls zutreffend)
- Maßnahmen zur menschlichen Aufsicht (gemäß Art. 14)
- Betriebsanforderungen (einschließlich Hardware) und Wartung
- Systemprotokollierungsmechanismen (gemäß Art. 12)
Diese Anforderungen stellen insgesamt sicher, dass die Anwender über die notwendigen Informationen verfügen, um das System sicher zu betreiben, Risiken zu mindern und die kontinuierliche Einhaltung der Vorschriften zu gewährleisten.
Wie Erklärbarkeit die Transparenz unterstützt
Gemäß ISO/IEC TR 29119-11 ist der Begriff „Explainability” als „level of understanding how the AI-based system came up with a given result” zu verstehen. Explainability unterstützt die Transparenz, indem er die interne Logik und die Entscheidungsprozesse eines Hoch-Risiko KI-Systems für die Betreiber verständlich macht.
Bitte beachten Sie, dass die Datenschutz-Grundverordnung (DSGVO) Erklärbarkeitsanforderungen für bestimmte Entscheidungssysteme enthält.
Best practices in EN 18229-1
Die praktische Umsetzung von Art. 13 profitiert erheblich von der neu entwickelten Norm EN 18229-1. Sie legt die Anforderungen zu folgenden Themen fest:
- Design und Entwicklung im Hinblick auf Transparenz
- Format, Qualität und Inhalt der Gebrauchsanweisung
Fazit
Art. 13 schafft einen der weltweit strengsten Transparenzrahmen für KI. Durch die Forderung nach klaren Erklärungen, detaillierter Begleitdokumentation und Offenlegung von Einschränkungen und Risiken stellt der AI Act sicher, dass Hoch-Risiko KI-Systeme verantwortungsbewusst und sicher eingesetzt werden. Anbieter sollten daher von Anfang an Transparenz-Workflows in den Design- und Entwicklungsprozess integrieren, die Dokumentation während des gesamten Lebenszyklus des Systems aktualisieren und die Anweisungen an die technischen Fähigkeiten der Anwender anpassen.