Technologie-, und Innovationskonzept
peshkova / stock.adobe.com
09.05.2019 Fachinformation

Künstliche Intelligenz im Gesundheitsbereich – eine Einordnung

Für ein reguliertes Software-Medizinprodukt ist unklar, wie mit einem kontinuierlich lernenden – und damit sein Verhalten möglicherweise positiv oder negativ autonom ändernden – System umzugehen ist. Eine Vielzahl von Institutionen greift diese Themen heute auf. Auch im VDE werden Fragestellungen auf den Ebenen der Normung und ethischer Rahmenbedingungen bearbeitet.

Kontakt
Johannes Koch
Downloads + Links

„Wir beginnen zu beobachten, dass Computer vorhersehen können, was Menschen tun, bevor sie es tun“, konstatiert Michael Chui, Partner am McKinsey Global Institute. Was bedeute seine Aussage? Experten unterscheiden zwischen schwacher und starker Künstlicher Intelligenz (KI), sowie der Künstlichen Superintelligenz. Die schwache KI ist auf ein spezifisches und abgegrenztes Fachgebiet limitiert. Als erster Durchbruch der schwachen Künstlichen Intelligenz gilt der Sieg des IBM-Schachprogramms Deep Blue 1997 in New York gegen Garri Kimowitsch Kasparow, den Schachweltmeister von 1985 – 2000. Heute ist schwache Künstliche Intelligenz Gegenstand des täglichen Lebens und wird beispielsweise in jedem Smartphone oder von Spracherkennungsprogrammen unter anderem in intelligenten Lautsprechern, wie Amazon Echo, verwendet. Starke Künstliche Intelligenz wird von Prof. W. Wahlster, DFKI, hingegen als „Versuch, Leistungen, für die der Mensch Intelligenz benötigt, auch durch Computer erbringen zu lassen“ bezeichnet. Dies bedeutet, dass die starke KI das Erlernte autark auf andere Gebiete übertragen und dort anwenden kann. Aussagen zum Zeitpunkt der Verfügbarkeit diese Fähigkeit eines Computersystemen, sind spekulativ. Die Künstliche Superintelligenz ist ein Zukunftsszenario und bezeichnet einen Reifegrad, bei dem künstliche Systeme in jeder Hinsicht intelligenter sind als der Mensch.

Der von dem Informatik-Pionier Alan Turing 1950 vorgeschlagene gleichnamige Test dient der Verifikation, ob eine Maschine/Software als „intelligent“ zu bezeichnen ist. Das Testszenario besteht darin, dass eine Testperson nur aufgrund eines frei gewählten Dialog mit zwei ihr ansonsten unbekannten Dialogpartnern entscheidet, welcher der beiden Gesprächspartner ein Mensch und welcher eine Maschine ist. Gelingt es der Testperson nicht eindeutig, die Maschine im Dialog zu identifizieren, ist diese Maschine/Software „intelligent“. Nach Wahlster wird zwischen kognitiver, sensomotorischer, emotionaler und sozialer Intelligenz unterschieden. Rekrutiert Michael Chuis Aussage auf einer Überlegenheit der Maschine gegenüber dem Menschen in Bezug auf dessen „kognitive Intelligenz“? Bis heute jedenfalls hat noch keine Maschine bzw. Software den Turing-Test zweifelsfrei bestanden.

Künstliche neuronale Netzwerke in der Medizintechnik

Artificial Intelligence Konzept
metamorworks / stock.adobe.com

KI-basierte Softwaresysteme werfen nicht nur Probleme hinsichtlich der Ausgewogenheit, Repräsentativität und Vollständigkeit der verwendeten Trainingsdaten für die vorgesehene Benutzergruppe auf. Sie müssen nach europäischem Werteverständnis auch ethisch-moralischen Randbedingungen folgen. Für ein reguliertes Software-Medizinprodukt ist unklar, wie mit einem kontinuierlich lernenden – und damit sein Verhalten möglicherweise positiv oder negativ autonom ändernden – System umzugehen ist. Eine Vielzahl von Institutionen greift diese Themen heute auf. Auch im VDE werden Fragestellungen auf den Ebenen der Normung und ethischer Rahmenbedingungen bearbeitet.

Grundlage des aktuellen sprunghaften Leistungsfortschrittes in der KI sind künstliche neuronale Netzwerke („Artificial Neuronal Network“, ANN), bei denen künstliche Neuronen Signale der Eingangsschicht in Schlussfolgerungen aus diesen Signalen in der Ausgangsschicht abbilden. Dabei kommen typischerweise sehr viele Zwischenschichten zwischen Eingabe- und Ausgabeschicht zum Einsatz („tiefe neuronale Netzwerke“), mit denen die ANNs auch unbekannte Strukturen in den Eingabesignalen erkennen können. Diese Fähigkeit der neuronalen Netzwerke begründet ihre wirtschaftliche Potenz. Bisher mussten entsprechende Schlussfolgerungsprozesse aufwendig im Detail ausprogrammiert werden, die entsprechenden Algorithmen erforderten zusätzlich ein umfassendes Datenmodell. ANNs können solche Schlussfolgerungen alleine aus einer sehr großen Menge von Trainingsdaten erlernen und so zum Beispiel Muster in Texten, Bildern oder Sprache erkennen.

In der Trainingsphase wird die Verifizierung oder Falsifizierung solcher Muster typischerweise anhand manuell bewerteter Trainingsbeispiele durchgeführt („überwachtes Lernen“). Umfang und Qualität der Trainingsdaten bilden dabei die „Achillesferse“ der ANNs. So musste das KI-System für das strategische Brettspiel GO erst Millionen archivierter Spielverläufe analysieren und gegen sich selber spielen, ehe es 2015/2016 einige der weltbesten menschlichen GO-Spieler überzeugend schlagen konnte. Für medizinische Diagnosesysteme bedeutet dies, dass eine repräsentative und
ausgewogene Auswahl von Trainingsdaten verwendet werden muss, die Kinder, junge und alte Patienten, männliche und weibliche, gesunde und selektiv an der zu erkennenden Krankheit leidende, aber auch multimorbide Patienten einbezieht, damit das KI-System die Kompetenz eines Facharztes erreichen kann. 2017 hat die US-amerikanische Zulassungsbehörde FDA erstmals ein auf ANNs beruhendes Bildanalysesystem zur Beurteilung der Zellpathologie für den medizinischen Einsatz freigegeben.

Künstliche Intelligenz und Digitalisierung

Gesundheitsapp auf einer Smart Watch
alexey_boldin / Fotolia

Die beeindruckende Leistungsfähigkeit heutiger schwacher KI-Systeme in ihren jeweiligen Fachgebieten ist nicht nur der Leistungsfähigkeit der verwendeten Computer-Hardware und den Software-Technologien für die ANNs geschuldet. Eine weitere, wesentliche Voraussetzung für den Erfolg der KI bildet die breite Verfügbarkeit digitaler Daten aufgrund stetig fortschreitender Vernetzung und Digitalisierung. Nur mit diesen Daten – als Trainingsdaten für die Systeme – und Realzeitdaten im Wirkbetrieb ist es den KI-Systemen möglich, diese Daten in einen betriebwirtschaftlichen Nutzen zu transformieren. Die prädiktive Fehleranalyse von Maschinen, die sich anbahnende Störungen während des Betriebs erkennt und teure Stillstandzeiten vermeidet, ist dafür ein paradigmatisches Beispiel. Entsprechende KI-Verfahren setzen umfassende vernetzte Sensorik an der Maschine voraus (Internet of Things, IOT). Durch eine große Menge von Trainingsdaten lernt das jeweilige ANN, welche Symptomkombinationen eine ausfallrelevante Störung ankündigen, wie das Wirkungsgefüge ist und welche Komponenten der Maschine für den zu erwartenden Ausfall ursächlich sein werden. Der vorausschauende Austausch dieser Komponenten auf Basis der Schlussfolgerungen des KI-Systems verhindert störungsbedingte teure Stillstandzeiten; dieser bedarfsgesteuerte Austausch ist zudem kosteneffizienter als der bisherige regelmäßige, prophylaktische Austausch von Komponenten ohne spezifischen Anlass.

KI kann auch dem seit einem Jahrzehnt diskutierten Thema Ambient Assisted Living (AAL) Impulse verleihen. Smart-Home-Systeme und Wearables stellen zunehmend umfangreiche digitale Verhaltens- und Vitaldaten auch von unterstützungsbedürftigen Menschen zur Verfügung. KI-basierte Systeme können diese Daten in unmittelbaren Nutzen für die Zielgruppe transformieren, indem gesundheitsbezogene Krisensituationen autonom zuverlässig erkannt und nach Möglichkeit vermieden werden. Das Ziel, sicher, gesund und selbstbestimmt im vertrauten Zuhause leben zu können, wird realistischer. In einer aktuellen Umfrage sehen 68 Prozent aller Befragten in einem Einsatz für ältere Menschen und im Gesundheitsbereich das Hauptanwendungsfeld von KI (Quelle: Statista / Bitkom Research, 2018, 1007 Befragte ab 16 Jahren).

KI und DSGVO sowie regulierte Medizinprodukte – das Problem lernender KI-Systeme

Hand unter hängenden Paragraphen
vege / Fotolia

Die EU-Datenschutzgrundverordnung (EU-DSGVO) gesteht in §13, Abs. 2, f sowie §15, Abs. 1, h) einer Person im Falle einer sie betreffenden voll automatisierten Entscheidungsfindung – insbesondere, wenn diese mit Konsequenzen in Form von rechtlicher Wirksamkeit oder erheblichen Beeinträchtigungen für sie verbunden ist (§22) – zu, dass sie unter anderem „aussagekräftige Informationen über die involvierte Logik“ der automatisierten Entscheidungsfindung erhält. Über diese Logik ist die Person gemäß §13 vorab zu informieren und hat nach §15 ein zusätzliches, jederzeitiges Auskunftsrecht. Typischerweise handelt es sich bei KI-Systemen im Gesundheitsbereich um Systeme, die durch ihre Diagnosen und Therapievorschläge solche „erheblichen Beeinträchtigungen“ für den Patienten hervorrufen können. Die genannten Anwendungsvoraussetzungen für die Regelungen der EU-DSGVO sind also gegeben. Gerade lernende, tiefe neuronale Netze als aktuell erfolgversprechendste KI-Technologie zeichnen sich aber heute (noch) durch besonders schlechte Selbsterklärungsfähigkeiten aus, zum einen, weil die Systeme - im Gegensatz zu regelbasierten Expertensystemen – kein explizites Datenmodell haben, zum anderen, weil das in den Zwischenschichten zwischen Eingabe- und Ausgabeschicht des Netzwerkes verborgene Wissen über die durch das Netzwerk selbst erkannten und erlernten Strukturen in den Trainingsdaten sich einer semantischen Interpretation durch den Menschen entzieht.

Die vom Gesetzgeber vorgesehene Information des Betroffenen, die auch noch gemäß §12, Abs. 1 der EU-DSGVO in „präziser, transparenter, verständlicher und leicht zugänglicher Form in einer klaren und einfachen Sprache“ erfolgen soll, dürfte damit für ein KI-System auf Basis neuronaler Netzwerke heute nicht darstellbar sein. In der Konsequenz bleibt ein Einsatz von KI-Systemen damit auf den assistiven Bereich beschränkt, in dem stets ein Mensch die Letztverantwortung trägt. Dies wird auch von der Expertengruppe der EU-Kommission in (dem Entwurf) ihrer aktuellen Ethik-Leitlinie für vertrauenswürdige KI unter dem Primat von „Human Oversight“ ausdrücklich gefordert. Ob dies in der Praxis dazu führt, unter Zeitdruck den überwiegend nicht nachvollziehbaren Schlussfolgerungen eines KI-Systems „blind“ zu folgen und dafür als Mensch auch noch die Verantwortung übernehmen zu müssen, wird sich in der Zukunft erweisen. Gerade die viel diskutierte KI-Einsatzbereiche des autonomen Fahrens, wo in einer Gefahrensituation von einem KI-System binnen Bruchteilen von Sekunden verbindliche Entscheidungen über Leben oder Tod von Menschen getroffen werden müssen, oder in der Notfallmedizin, wo ebenfalls jede Sekunde zählt, führen vor Augen, dass die prinzipielle Rolle eines KI-Systems als ausschließlich assistive und stets vom Menschen beaufsichtigte Technologie nicht wirklich trägt.

Die vielfältigen rechtlichen und ethischen Probleme lernender KI-Systeme zeigen sich insbesondere auch im Bereich regulierter Software Medizinprodukte. Aus guten Gründen hat der Gesetzgeber hier vorgegeben, dass im Rahmen eines Zulassungsverfahrens die klinische Wirksamkeit der Software (und die Abwesenheit unerwünschter Seiteneffekte des Produkts) sorgfältig zu prüfen und dokumentieren ist. Was aber, wenn durch Lernen - typischerweise ein überwachtes Lernen neuer, paradigmatischer Trainingsbeispiele für ein neuronales Netzwerk – sich die Leistungsfähigkeit des Systems nach der Zulassung ändert? Sinnvollerweise muss vor einer weiteren Verwendung des KI-Systems die Wirksamkeitsprüfung dann wiederholt werden, um auszuschließen, dass sich durch das neu erlernte Wissen das bisherige Systemverhalten (in Bezug auf Diagnose, Therapieempfehlungen) nicht verschlechtert hat. Ethisch geboten ist in diesem Fall zusätzlich, alle bisher durch das KI-System schon berechneten Schlussfolgerungen für (noch lebende) frühere Patienten im Lichte des neu erlernten Wissens automatisiert zu wiederholen. So lässt sich verifizieren, ob die bisherige Diagnose / Therapieempfehlung des KI-Systems für den jeweiligen Patienten weiterhin Bestand hat. Patienten können so stets an dem medizinischen Erkenntnisfortschritt, neu erlernten Wissen des KI-Systems durch optimierte, personalisierte Schlussfolgerungen profitieren.

Ein Beitrag von Christina Rode-Schubert, Partnerin der Unternehmensberatung TCI GmbH und Gründerin von Orange ITB, und Rainer Lutze, Inhaber der Unternehmensberatung Dr.-Ing. Rainer Lutze Consulting.

VDE Health Expertenbeiträge zum Download

Icon finden und kaufen
VDE
05.03.2020

In den Expertenbeiträgen publizieren führende Experten Arbeiten zu aktuellen Themen der Medizintechnik. In der aktuellen Ausgabe (März 2020) finden Sie Beiträge zur 3D-Drucktechnik, Lasern, Cloud Computing und zu regulatorischen Anforderungen für

Künstliche Intelligenz-Anwendungen. Jetzt im Shop kostenlos herunterladen!

Zum Shop