Veranstaltungen
Mehr erfahren
Kontakt
Dr. Sebastian Hallensleben
Studie, Positionspapier, Anwendungsregel oder Norm gesucht?


> VDE VERLAG

Im Shop des VDE VERLAGs finden Sie Normen zur elektrotechnischen Sicherheit und Fachbücher.

> VDE Shop

Im VDE Shop finden Sie aktuelle VDE Studien, Roadmaps und Positionspapiere.


Mehr Wissen, mehr Erfolg!

Für VDE Mitglieder gibt es Rabatte auf Publikationen, VDE Studien, Fachliteratur des VDE Verlags und Fachzeitschriften-Abonnements: Jetzt VDE Mitglied werden!

Künstliche Intelligenz

Künstliche Intelligenz (KI) ist eines der Themen, die Technik und Gesellschaft derzeit dominieren. Dabei wurde der Begriff bereits vor über 60 Jahren geprägt. Aber erst der Durchbruch von Deep Neural Networks als KI-Methode hat seit 2011 die Entwicklung förmlich explodieren lassen.

Mittlerweile stellen wissenschaftliche Einrichtungen sowie große und kleine Unternehmen vielfältige, bis vor wenigen Jahren noch undenkbare Angebote bereit. Gleichzeitig sind kommerzielle und private Anwender überfordert, Nutzen und Sicherheit von KI-Systemen einzuschätzen. Genau hier setzt der VDE an: Wir stehen für einen Umgang mit KI, der Innovationen fördert und gleichzeitig Werte sichert. Gemeinsam mit Partnern setzen wir so auf deutscher, europäischer und internationaler Ebene wichtige Impulse und gestalten KI mit. Einige Beispiele:

  • Wie sieht künftig die Schnittstelle zwischen Mensch und Maschine in der digitalen Fabrikhalle aus? Antworten auf diese Frage erarbeiten VDE-Experten: Interdisziplinär tragen sie relevante Gestaltungsregeln zusammen und entwickelt diese anhand konkreter Use Cases weiter.
  • Wie wirken Ärzte und Technik in Zukunft zusammen? Und was bedeutet das für die Gesundheitsversorgung?
    Das VDE Praxisnetz Digitale Technologien und die Deutsche Gesellschaft für Biomedizinische Technik im VDE führen alle relevanten Stakeholder zusammen: Gemeinsam haben wir gerade ein Orientierungsbild für die Arzt-Technik-Symbiose 2035 erarbeitet. Auch im Bereich Ambient Assisted Living entwickeln wir Konzepte für einen konstruktiven Umgang mit KI.
  • Wie lässt sich Ethik in KI-Anwendungen konkret fassen und prüfen? Wie gelingt dies international, ohne unsere europäischen Werte zu verwässern?
    Zusammen mit  anderen Institutionen haben wir dazu einen Labelling-Ansatz entwickelt. Damit möchten wir über eine bloße Standardisierung oder Zertifizierung von Prozessen hinausgehen – denn diese wäre nur bedingt wirksam.
  • Wie lässt sich die funktionale Sicherheit von KI-Systemen garantieren, die selbstlernend sind und sich daher morgen anders verhalten als heute?
    Hier entwickelt der VDE Grundlagen, etwa im Bereich Bilderkennung, und Prüfansätze.
  • Wie gelingt es der deutschen Industrie, allen voran dem Mittelstand, die Potenziale von KI für sich zu bewerten und die richtigen KI-Systeme einzuführen?
    Der VDE bereitet dafür Matching-Mechanismen und kuratierte Informationsangebote vor, um bei den ersten Schritten unter die Arme zu greifen.

Darüber hinaus ist der VDE national und international vernetzt: Er stellt die Vorsitzenden in wichtigen europäischen (CEN-CENELEC AI Focus Group) und internationalen (IEC SEG 10) Standardisierungsgremien. Er unterstützt Bundestagsabgeordnete, Bundesministerien und die EU-Kommission mit neutralem Fachwissen zu KI. Mit konkreten Vorschlägen schlagen wir die Brücke zwischen technischen Möglichkeiten und gesellschaftlichen Bedürfnissen. Und nicht zuletzt baut der VDE Konsortien und greifbare Projekte auf, etwa um das Zusammenführen von Trainingsdaten für KI vor allem für den Mittelstand zu erleichtern. Dazu kooperieren wir unter anderem mit dem Bundesverband Künstliche Intelligenz, mit den Normungskollegen im DIN, mit zahlreichen Forschungseinrichtungen wie dem DFKI sowie mit Vordenkern unter KI-Anbietern und KI-Anwendern.


Ihr Ansprechpartner

ChatGPT und andere Generative KI: Einordnung, Herausforderungen, Handlungsräume

Der VDE hat schon ab 2019 auf ihre Bedeutung aufmerksam gemacht und erschließt seitdem vorausschauend Handlungsräume für Politik und Wirtschaft: Generative Künstliche Intelligenz ist 2023 ganz oben auf die Agenda geklettert. In diesem Briefing geht es um die Fähigkeiten und Unfähigkeiten dieser Technologie, um ihre Chancen und Risiken sowie um Möglichkeiten, die politische, gesellschaftliche und wirtschaftliche Disruption aktiv zu gestalten.

Der VDE hat schon ab 2019 auf ihre Bedeutung aufmerksam gemacht und erschließt seitdem vorausschauend Handlungsräume für Politik und Wirtschaft: Generative Künstliche Intelligenz ist 2023 ganz oben auf die Agenda geklettert. In diesem Briefing geht es um die Fähigkeiten und Unfähigkeiten dieser Technologie, um ihre Chancen und Risiken sowie um Möglichkeiten, die politische, gesellschaftliche und wirtschaftliche Disruption aktiv zu gestalten.

Kurzbriefing ChatGPT und andere Generative KI
Bild mit Solar Panels, Windräder und Wasserkraftwerk

DKE Whitepaper KI Energy

Bild mit Solar Panels, Windräder und Wasserkraftwerk

Das DKE Whitepaper KI Energy bringt Künstliche Intelligenz als innovative und für den Energiesektor immer noch neue Technologie mit den bewährten Systemansätzen und Anwendungsmöglichkeiten der Expertinnen und Experten im Bereich der Energietechnik zusammen. 

Computer Hacking

Was ist der Unterschied zwischen Funktionaler Sicherheit und Informationssicherheit?

Sicherheitsfunktionen haben die Aufgabe, Leib und Leben oder die Umgebung vor Gefahren zu schützen. Ein Beispiel dafür sind Fehlfunktionen von Automatisierungssystemen. Security hingegen schützt Automatisierungssysteme vor Angriffen aus der Umgebung. Ein solcher Angriff kann neben der Betriebsfunktion auch auf die Safety-Funktionen eines Systems abzielen.

Computer Hacking

Sicherheitsfunktionen haben die Aufgabe, Leib und Leben oder die Umgebung vor Gefahren zu schützen. Ein Beispiel dafür sind Fehlfunktionen von Automatisierungssystemen. Security hingegen schützt Automatisierungssysteme vor Angriffen aus der Umgebung. Ein solcher Angriff kann neben der Betriebsfunktion auch auf die Safety-Funktionen eines Systems abzielen.

Kurz gesagt: Funktionale Sicherheit = Safety; Informationssicherheit = Security

Safety und Security sind also zwei unterschiedliche Konzepte und müssen folglich auch anders behandelt werden: Bei Security lässt sich – anders als bei Safety – keine Wahrscheinlichkeit oder Rate eines Angriffs abschätzen,  in der Security liegt der Fokus auf dem Angreifer, der die Schwachstelle eines Systems  ausnutzt. Sein Ziel ist es, die Vertraulichkeit, Integrität oder Verfügbarkeit zu verletzen. In der Safety hingegen lassen bestimmte Bedingungen in der Betriebsumgebung zum Beispiel einen Software-Fehler wirksam werden, was dann zu einem Systemversagen führt.

In der Safety gilt die allgemeine Regel, dass der erste Fehler nicht gefährlich sein darf. Erst ein zweiter, ähnlicher Fehler darf ein Versagen verursachen. Daher beruhen viele Sicherheitsdesigns darauf, den ersten Fehler zu erkennen und unschädlich zu machen. In der Security existiert ein ähnliches Konzept: Verteidigung in der Tiefe (Defense in Depth). Das bedeutet, dass eine einzelne Security-Maßnahme niemals als perfekt und ausreichend angesehen werden darf.

Das britische Verkehrsministerium bringt es auf den Punkt: „Wenn etwas nicht secure ist, ist es wahrscheinlich nicht safe.“ Das bedeutet: Die Security-Umgebung muss die essenziellen Funktionen schützen – vor allem die Sicherheitsfunktionen.

Eine Herausforderung für die Zukunft wird daher sein, die Themenfelder Safety und Security und deren Zusammenspiel genau zu erfassen, um keine unzureichend oder unangemessen hohe Anforderungen zu stellen. Unzureichende Anforderungen können die Funktionale Sicherheit beeinträchtigen, unangemessen hohe Anforderungen die Wirtschaftlichkeit.

Industrieroboter greift Drehscheibe

Funktionale Sicherheit und Autonome Systeme

Das Hauptmerkmal und der Vorteil autonomer Systeme ist ihre Flexibilität. Der Konstrukteur des Systems ist jedoch in der Pflicht, die Systemgrenzen und Einsatzszenarien – also Abstände, Geschwindigkeiten, Ausweichmöglichkeiten sowie Quetsch-und Scherstellen etc. – für eine Risikobeurteilung zu analysieren.

Industrieroboter greift Drehscheibe

Das Hauptmerkmal und der Vorteil autonomer Systeme ist ihre Flexibilität. Der Konstrukteur des Systems ist jedoch in der Pflicht, die Systemgrenzen und Einsatzszenarien – also Abstände, Geschwindigkeiten, Ausweichmöglichkeiten sowie Quetsch-und Scherstellen etc. – für eine Risikobeurteilung zu analysieren.

Dies widerspricht auf den ersten Blick dem Grundprinzip autonomer Systeme: in ihnen werden keine konkreten Bereiche definiert. Deshalb gilt es, beim Zusammenspiel von Funktionaler Sicherheit und Autonomen Systemen diese unterschiedlichen Anforderungen zu berücksichtigen. Hier braucht es Lösungen, die Autonome Systeme auch für beliebige Individualität sicher machen.

Die Möglichkeiten für autonome Systeme werden durch Hinzufügen von Künstlicher Intelligenz massiv erweitert: So kann KI kritische Situationen beim autonomen Fahren vermeiden. Und auch in Sicherheitssystemen spielt KI eine wichtige Rolle.

Besonders weit entwickelt ist Maschinelles Lernen bei der Bilderkennung, die beim autonomen Fahren zum Einsatz kommt. Hierbei verstärkt Maschinelles Lernen die Fähigkeiten der Sensoren. Die eigentliche Regelung oder Steuerung übernehmen konventionelle Softwaremethoden.

Es zeigt sich, dass vor allem die Qualität der Trainingsdaten für den Erfolg entscheidend ist. Allerdings besteht hier noch Forschungsbedarf, inwiefern sich diese Qualität erreichen lässt, um Robustheit zu erlangen. So unterscheidet sich beispielsweise das deutsche Straßenbild von dem in Indien – mit unter Umständen verheerende Folgen: eine in Indien trainierte KI könnte eine deutsche Fußgängerzone für eine Straße halten.

Die IEC 61508 verbietet die Verwendung von KI nicht, allerdings wird diese auch nicht empfohlen. Experten raten deshalb auf KI zu verzichten, wenn sich eine Aufgabe auch mit konventionellen oder etablierten Software-Methoden bewältigen lässt. Auch beim Maschinellen Lernen lässt sich mit – einigem Aufwand – das Verhalten nachvollziehen. Es bietet sich deshalb an Verfahren zum Maschinellen Lernen als scheinbar-nicht-deterministisch zu bezeichnen.

Mehr erfahren
Leerer Prozessorsockel

Wie lässt sich Funktionale Sicherheit nachweisen?

Am zuverlässigsten lässt sich Funktionale Sicherheit nachweisen, indem alle relevanten Normen zu diesem Thema eingehalten werden. So regeln beispielsweise die IEC 61508, ISO 13849, ISO 26262 Anforderungen an die Funktionale Sicherheit. Dass diese Normen korrekt angewendet werden, überprüfen Fachleute, wie die unabhängigen Prüfingenieure des VDE-Instituts.

Leerer Prozessorsockel

Am zuverlässigsten lässt sich Funktionale Sicherheit nachweisen, indem alle relevanten Normen zu diesem Thema eingehalten werden. So regeln beispielsweise die IEC 61508, ISO 13849, ISO 26262 Anforderungen an die Funktionale Sicherheit. Dass diese Normen korrekt angewendet werden, überprüfen Fachleute, wie die unabhängigen Prüfingenieure des VDE-Instituts.

Der Vorteil dabei: Externe Fachleute können bereits während der Entwicklungsphase eingebunden werden und die Sicherheit des Produktes am Ende der Entwicklung mit einem Zertifikat bestätigen. Diese Services und Dienstleistungen bietet Ihnen das VDE-Institut im Bereich Funktionale Sicherheit.

AI Ethics Impact Group

Technologie-, und Innovationskonzept
peshkova / stock.adobe.com
25.09.2020

Der VDE und die Bertelsmann Stiftung haben im Herbst 2019 die interdisziplinäre AI Ethics Impact Group ins Leben gerufen und gemeinsam die Studie „AI Ethics: From Principles to Practice - An interdisciplinary framework to operationalise AI ethics“ erarbeitet, die zeigt wie sich Ethik in der KI konkret umsetzen und messen lässt.

Mehr erfahren

Künstliche Intelligenz mit Normen und Standards

Cyborg Han Gehirn Kuenstliche Intelligenz
Production Perig - stock.adobe.com

Künstliche Intelligenz (KI) gilt als das vielleicht größte Zukunftsthema. Schon heute kommt KI in den unterschiedlichsten Anwendungsfeldern zum Einsatz. Eine zentrale Fragestellung ist dabei immer wieder die, wie Ethik und Technik miteinander vereinbart werden können. Die DKE hat ihre Expertise mit Dr. Sebastian Hallensleben in diesen Bereichen genutzt und wurde auf europäischer sowie internationaler Ebene zum Vorsitz der dort eingerichteten Gremien gewählt.

Künstliche Intelligenz bei der DKE

News zum Thema

Das könnte Sie auch interessieren: