Risiko Button in rot auf weißer Tastatur
gunnar3000 / stock.adobe.com
25.02.2026 Fachinformation

Risikomanagement für Hochrisiko‑KI‑Systeme

Der EU AI Act verpflichtet in Art. 9 zu einem kontinuierlichen, lebenszyklusbegleitenden Risikomanagement für Hochrisiko KI‑Systeme. Dieses umfasst die fortlaufende Identifikation, Bewertung und Reduktion aller vorhersehbaren Risiken für Gesundheit, Sicherheit und Grundrechte sowie die regelmäßige Aktualisierung der Maßnahmen auf Basis neuer Erkenntnisse und Nutzungserfahrungen.

Kontakt
AI Projects & Services

Risikomanagementprozess

Die neu entwickelte Norm EN 18228 konkretisiert die Anforderungen des AI Acts und überführt sie in einen klar strukturierten Prozess im Qualitätsmanagementsystem zur systematischen Identifikation, Bewertung und Kontrolle von Risiken für Gesundheit, Sicherheit und Grundrechte. Damit erweitert die KI‑Verordnung den bisherigen Fokus klassischer Risikomanagementsysteme wie aus der Medizintechnik‑Norm ISO 14971: Neben physischen Sicherheitsrisiken müssen nun auch mögliche Grundrechtsverletzungen – etwa Diskriminierung oder Eingriffe in die Privatsphäre – bewertet und Kriterien festgelegt werden, ab wann solche Risiken als vertretbar gelten.

Auch Anwendern kommt eine wichtige Rolle zu: Sie müssen sicherstellen, dass Kontrollen, Überwachungsmechanismen und Nutzungsvorgaben aus der Gebrauchsanweisung im Betrieb eingehalten werden. Damit tragen sowohl Anbieter als auch Anwender Verantwortung für die Risikobeherrschung während des gesamten Lebenszyklus des KI‑Systems.

01. Risikoanalyse

Der Prozess startet mit der Erfassung aller bekannten und vorhersehbaren Risiken – einschließlich solcher, die aus der Interaktion mit dem Einsatzumfeld entstehen. Dabei berücksichtigt der Anbieter insbesondere:

Gleichzeitig werden mögliche Auswirkungen auf betroffene Grundrechte bewertet. Diese Bereiche bilden den Kern der Risikoanalyse nach Art. 9 und der neu entwickelten EN 18228.

02. Risikobewertung

Die identifizierten Risiken werden anhand definierter Kriterien bewertet, sowohl für die bestimmungsgemäße Nutzung als auch für vorhersehbaren Missbrauch. Nicht akzeptable Risiken müssen vor dem Inverkehrbringen reduziert werden.

03. Testaktivitäten

Tests dienen dazu, kritische Gefährdungen frühzeitig zu erkennen und nachzuweisen, dass das KI‑System – insbesondere bei lernenden Komponenten – stabil und innerhalb definierter Grenzen arbeitet.

04. Risikokontrolle

Art. 9 beschreibt keine Priorisierung der Maßnahmen zur Risikoreduktion. Normen wie EN 18228 präzisieren diese jedoch durch eine dreistufige Hierarchie:

  • Inhärent sichere Gestaltung
  • Schutztechnische Maßnahmen
  • Benutzerinformationen und Schulung

Diese Reihenfolge stellt sicher, dass Risiken bevorzugt durch technische und gestalterische Maßnahmen reduziert werden und erst zuletzt durch anwendungsbezogene Vorgaben.

05. Bewertung des Restrisikos

Nach Umsetzung aller Maßnahmen bewertet der Anbieter das Gesamtrestrisiko. Ist es akzeptabel, werden Restrisiken dokumentiert und in der Gebrauchsanweisung kommuniziert. Ist es nicht akzeptabel, darf das System nicht in Verkehr gebracht werden.

06. Review des Risikomanagements

Das Risikomanagement wird regelmäßig und vor dem Inverkehrbringen überprüft; die Ergebnisse werden dokumentiert.

07. Post‑Market‑Aktivitäten

Der Anbieter überwacht das KI‑System nach dem Inverkehrbringen durch ein dokumentiertes Verfahren zur Sammlung und Bewertung relevanter Informationen. Hier werden insbesondere Kenntnisse aus der Protokollierung der Systemereignisse ausgewertet.

Auf dem Weg zu vertretbaren Restrisiken

Um die Anforderungen des Art. 9 wirksam umzusetzen, greifen der rechtliche Rahmen, harmonisierte Normen wie die EN 18228 und weitere technische Standards ineinander. Sie definieren Bereiche, in denen Risikokontrollmaßnahmen verbindlich etabliert werden müssen.

Daten-Governance

Die Qualität der verwendeten Daten bestimmt maßgeblich die Sicherheit eines KI‑Systems. Trainings‑, Validierungs‑ und Testdaten müssen relevant, repräsentativ und weitgehend fehlerfrei sein. Ein besonderer Schwerpunkt liegt auf der Erkennung und Minimierung von Bias, um Diskriminierung zu vermeiden.

Protokollierung

Eine angemessene Protokollierung ist notwendig, um Fehlfunktionen analysieren und Entscheidungen nachvollziehen zu können. Sie ist Grundlage für spätere Korrekturmaßnahmen und erhöht die Transparenz des Systemverhaltens.

Transparenz und Instruktionen  

Die Gebrauchsanweisung muss Anwender in die Lage versetzen, das System sicher zu nutzen. Dazu gehören klare Informationen zur Zweckbestimmung, zu Grenzen und Restrisiken sowie zu Anforderungen an Eingabedaten und Betriebsumgebungen.

Menschliche Aufsicht

Das System muss so gestaltet sein, dass eine wirksame menschliche Aufsicht jederzeit möglich bleibt. Dies reduziert das Risiko des „Automation Bias“ und stellt sicher, dass Nutzer Ausgaben kritisch bewerten und bei Bedarf eingreifen können – beispielsweise durch klare Interventionsmöglichkeiten oder einen Stop‑Mechanismus.

Genauigkeit, Robustheit und Cybersicherheit

Hochrisiko‑KI‑Systeme müssen dauerhaft ein definiertes Maß an Genauigkeit und Stabilität erreichen. Dazu gehören Risikokontrollmaßnahmen gegen Fehler, Manipulationen und Angriffe.
Ziel ist die sichere Funktion auch unter erschwerten Bedingungen.

Fazit

Ein Risikomanagement gemäß AI Act und EN 18228 erfordert eine systematische und technisch belastbare Umsetzung aller regulatorischen Anforderungen. Nur wenn die Maßnahmenhierarchie konsequent angewendet und die Risikokontrollen in den zentralen Bereichen vollständig implementiert werden, lassen sich rechtskonforme und vertrauenswürdige Hochrisiko KI‑Systeme bereitstellen.

Nehmen Sie Kontakt mit uns auf!

Briefumschlaege als Icons, Netzwerkkonzept
thodonal / stock.adobe.com

Wir bieten unsere Dienstleistungen in Beratungsprojekten und internen Workshops an und geben Ihnen gerne weitere Informationen zu unseren Dienstleistungen und beantworten Ihre Fragen.

AI Projects & Services: aips@vde.com