Anwendungsszenario Lungenkrebs Künstliche Intelligenz in der Medizin

Autor Susanne Ehneß

Was kann künstliche Intelligenz (KI) in der Medizin leisten? KI-basierte Assistenzsysteme unterstützen beispielsweise das frühe Erkennen von Krankheiten, ermöglichen ein schnelles Auswerten großer Mengen von Bild- und Labordaten und bieten die Chance für individuelle Therapien.

Anbieter zum Thema

„Wenn die Endgeräte, der PC der Apotheke, der Krankenversicherung oder des Mediziners, nicht sicher sind, werden wir Probleme haben, die zu Datenskandalen führen könnten“
„Wenn die Endgeräte, der PC der Apotheke, der Krankenversicherung oder des Mediziners, nicht sicher sind, werden wir Probleme haben, die zu Datenskandalen führen könnten“
(© I-Viewfinder - stock.adobe.com)

Der KI-Einsatz im medizinischen Bereich verspricht deutliche Verbesserungen:

  • bessere Behandlungsergebnisse,
  • individuelle Therapie,
  • Entdeckung neuer medizinischer Zusammenhänge,
  • schnellere Diagnosen,
  • frühe Erkennung seltener Erkrankungen,
  • Entlastung des medizinischen Personals,
  • differenziertere Behandlungsmethoden,
  • bessere Ergebnisse in der Vor- und Nachsorge.

Gleichzeitig stellt der Einsatz von intelligenten und selbstlernenden Systemen im Gesundheitswesen hohe Anforderungen an die IT-Sicherheit der Systeme:

  • fehlerhafte oder bewusst verfälschte Trainingsdaten,
  • Angriffe auf die KI-Software,
  • Verletzungen der Privatsphäre der Patienten,
  • Angriffe auf KI-Datenbanken,
  • fehlende Integration in die klinische Praxis.

Anwendungsszenario Lungenkrebs

Mit diesen Chancen und Gefahren befasst sich auch das jüngst veröffentlichte Whitepaper „Sichere KI-Systeme für die Medizin“. Anhand des fiktiven Anwendungsszenarios „Mit KI gegen Krebs” werden technische und organisatorische Bedingungen des KI-Einsatzes am Beispiel eines Lungenkrebspatienten dargestellt. Das Whitepaper wendet sich an politische Entscheider, will aber allen Interessierten Einblick in das Thema Datenmanagement und IT-Sicherheit in der Medizin bieten.

Veröffentlicht hat es die vom Bundesministerium für Bildung und Forschung initiierte „Plattform Lernende Systeme (PLS)“. Jörn Müller-Quade, Professor für Kryptographie und Sicherheit am Karlsruher Institut für Technologie (KIT), ist einer der Autoren des Whitepapers. Er leitet, gemeinsam mit der an der Universität Tübingen lehrenden Philosophin Jessica Heesen, die interdisziplinär besetzte Arbeitsgruppe IT-Sicherheit, Privacy, Recht und Ethik der PLS.

Produkthaftung

„KI-Systeme brauchen große Datenmengen, damit sie aus ihnen lernen können. Die Herausforderung besteht darin, die Patientendaten sowohl zu nutzen als auch sie zu schützen“, erläutert Müller-Quade. Durch die Vielzahl der Akteure im Gesundheitswesen hätten viele Personen potenziell Zugriff auf die Patientendaten. „Dies macht es schwierig, sensible Gesundheitsdaten vor unberechtigtem Zugriff zu schützen“, so der Kryptograph.

Es gebe informationstechnologische Lösungen für die sichere Datenübertragen und die Zugangskontrolle, „wenn aber die Endgeräte, der PC der Apotheke, der Krankenversicherung oder des Mediziners, nicht sicher sind, werden wir Probleme haben, die zu Datenskandalen führen könnten“, sagt Müller-Quade. „Wichtig wäre eine Produkthaftung, damit Hersteller sich in der Verantwortung sehen, sicherere Produkte zu entwickeln.“

Zertifizierung und menschliche Überwachung

Für ebenfalls notwendig hält er die Zertifizierung von KI-Systemen und -Datenbanken in der Medizin sowie der elektronischen Patientenakte (ePA) durch unabhängige Prüfstellen. Eine besondere Herausforderung sieht der Informatiker im Einsatz kontinuierlich weiter lernender KI-Systeme, deren Software sich im Betrieb ohne menschliche Überwachung verändert.

Die Entscheidungen eines solchen KI-Systems sollten durch die behandelnden Menschen auf ihre Nachvollziehbarkeit hin überprüft werden. Hier würde eine erklärbare KI enorm helfen, so der Wissenschaftler. „Ärztinnen und Ärzte dürfen das vorgeschlagene Ergebnis nicht unreflektiert übernehmen.“

„Datenskandale werden nicht ausbleiben“

„Wenn wir intelligente IT in der Medizin nutzen wollen, werden Datenskandale, obwohl sehr auf Sicherheit geachtet wird, voraussichtlich nicht ausbleiben“, befürchtet Müller-Quade. Deren Auswirkungen ließen sich aber einschränken, wenn Gesundheitsdaten aus Datenlecks nicht zum Nachteil der Patienten genutzt werden dürften. Es gelte, Diskriminierung aufgrund von Kenntnissen aus solchen Datenlecks zu verhindern, etwa wenn jemand aufgrund von bekannt gewordenen Vorerkrankungen eine Arbeitsstelle nicht bekomme. „Es wäre wichtig, künftig auf technischer Ebene nachweisen zu können, dass ein Algorithmus diskriminierungsfrei entscheidet.“

ePA

Auch hinsichtlich der geplanten Einführung der elektronischen Patientenakte (ePA) pocht Müller-Quade auf Datensicherheit. Da die Daten der ePA auf den heimischen PCs der Patienten gespeichert seien, gelte es umso mehr, bestimmte Grundregeln der IT-Sicherheit einzuhalten – immer das neueste Betriebssystem zu nutzen und sichere Passwörter zu verwenden –, andernfalls könne der PC zum Einfallstor für Angreifer werden und die Krankengeschichte offenliegen.

(ID:46566728)