Auf dem Weg zu vertretbaren Restrisiken
Um die Anforderungen des Art. 9 wirksam umzusetzen, greifen der rechtliche Rahmen, harmonisierte Normen wie die EN 18228 und weitere technische Standards ineinander. Sie definieren Bereiche, in denen Risikokontrollmaßnahmen verbindlich etabliert werden müssen.
Daten-Governance
Die Qualität der verwendeten Daten bestimmt maßgeblich die Sicherheit eines KI‑Systems. Trainings‑, Validierungs‑ und Testdaten müssen relevant, repräsentativ und weitgehend fehlerfrei sein. Ein besonderer Schwerpunkt liegt auf der Erkennung und Minimierung von Bias, um Diskriminierung zu vermeiden.
Protokollierung
Eine angemessene Protokollierung ist notwendig, um Fehlfunktionen analysieren und Entscheidungen nachvollziehen zu können. Sie ist Grundlage für spätere Korrekturmaßnahmen und erhöht die Transparenz des Systemverhaltens.
Transparenz und Instruktionen
Die Gebrauchsanweisung muss Anwender in die Lage versetzen, das System sicher zu nutzen. Dazu gehören klare Informationen zur Zweckbestimmung, zu Grenzen und Restrisiken sowie zu Anforderungen an Eingabedaten und Betriebsumgebungen.
Menschliche Aufsicht
Das System muss so gestaltet sein, dass eine wirksame menschliche Aufsicht jederzeit möglich bleibt. Dies reduziert das Risiko des „Automation Bias“ und stellt sicher, dass Nutzer Ausgaben kritisch bewerten und bei Bedarf eingreifen können – beispielsweise durch klare Interventionsmöglichkeiten oder einen Stop‑Mechanismus.
Genauigkeit, Robustheit und Cybersicherheit
Hochrisiko‑KI‑Systeme müssen dauerhaft ein definiertes Maß an Genauigkeit und Stabilität erreichen. Dazu gehören Risikokontrollmaßnahmen gegen Fehler, Manipulationen und Angriffe.
Ziel ist die sichere Funktion auch unter erschwerten Bedingungen.
Fazit
Ein Risikomanagement gemäß AI Act und EN 18228 erfordert eine systematische und technisch belastbare Umsetzung aller regulatorischen Anforderungen. Nur wenn die Maßnahmenhierarchie konsequent angewendet und die Risikokontrollen in den zentralen Bereichen vollständig implementiert werden, lassen sich rechtskonforme und vertrauenswürdige Hochrisiko KI‑Systeme bereitstellen.