Künstliche Intelligenz KI: Vertrauen ist gesund

Ein Gastbeitrag von Kerstin Harzendorf 5 min Lesedauer

Anbieter zum Thema

Vertrauenswürdige KI sichert den digitalen Fortschritt im Gesundheitswesen. Wie das gelingen kann, erläutert Kerstin Harzendorf in ihrem Gastbeitrag auf Healthcare Digital.

Mitschauen: Die Ergebnisse der KI müssen kontrolliert werden.(Bild:  AltheaD – stock.adobe.com)
Mitschauen: Die Ergebnisse der KI müssen kontrolliert werden.
(Bild: AltheaD – stock.adobe.com)

KI-basierte Systeme unterstützen bereits vielerorts die tägliche Arbeit im Gesundheitswesen. Fachkräfte setzen sie ein, um Daten auszuwerten, Entscheidungen vorzubereiten oder administrative Abläufe zu erleichtern. Sprachassistenten und Übersetzungstools erleichtern die Kommunikation mit den Patientinnen und Patienten. Das Vertrauen in die Technologie wächst – doch Unsicherheiten im Umgang mit neuen Anwendungen bleiben.

Viele medizinische Fachkräfte wünschen sich mehr Orientierung und Unterstützung im praktischen Umgang mit den Systemen. Vertrauen spielt dabei eine zentrale Rolle, denn medizinische Entscheidungen betreffen die Gesundheit und Grundrechte der Patientinnen. Besonders anspruchsvoll ist der Einsatz von KI in medizinischen Geräten, die Diagnosen stellen, patientenspezifische Behandlungen planen oder riesige Datenmengen verarbeiten und auswerten. Diese Systeme gelten aufgrund ihrer Komplexität als Hochrisiko-Anwendungen, bei denen fehlerhafte Analysen oder Entscheidungen – etwa durch verzerrte Trainingsdaten – schwerwiegende Konsequenzen nach sich ziehen können.

Der sensible Umgang mit Gesundheitsdaten erfordert zudem höchste Standards bei Datenschutz und IT-Sicherheit. Nur wenn KI-Systeme transparent und sicher arbeiten, gewinnen sie das Vertrauen aller Beteiligten. Für Gesundheitsorganisationen bedeutet das: Sie müssen Vertrauensbildung aktiv gestalten und die regelkonforme Integration von KI-Systemen vorantreiben.

Warum Gesundheitsorganisationen KI sicher und ethisch einsetzen müssen

Technologische Entscheidungen und der Einsatz bestimmter medizinischer Geräte im Gesundheitswesen wirken sich direkt auf Diagnosen, Behandlungen und die Akzeptanz durch Mitarbeitende und Patienten aus. Daher tragen Gesundheitsorganisationen eine besondere Verantwortung für den sorgfältigen Einsatz von KI-Systemen. Sie müssen hohe Schutzstandards bei der Datenverarbeitung und beim Einsatz von KI-Modellen gewährleisten.

Neben Fachgesetzen bestimmen zwei zentrale Regelwerke den Einsatz von KI im Gesundheitswesen: Die Datenschutzgrundverordnung (DSGVO) schützt die informationelle Selbstbestimmung der Betroffenen und stellt hohe Anforderungen an die Verarbeitung genetischer, biometrischer und Gesundheitsdaten. Die europäische KI-Verordnung (EU AI Act) setzt Vorgaben für KI-Systeme, deren Training und Nutzung. Sie klassifiziert KI-Systeme in Risikoklassen und definiert besondere Vorgaben für Hochrisiko-Anwendungen.

Organisationen müssen Transparenz und menschliche Aufsicht über ihre KI-Anwendungen gewährleisten. Das erfordert umfassende Risikobewertungen und die Prüfung möglicher Grundrechtsfolgen – sowohl für den Datenschutz als auch für die persönliche Unversehrtheit der Patientinnen. Besonders sensible Anwendungsfelder wie die Bilddiagnostik in Kliniken, KI-gestützte Leistungsanalysen oder der Einsatz KI-unterstützter Überwachung zur Sturz- oder Notfallerkennung in Pflegeheimen und in der ambulanten Versorgung erfordern ein erhöhtes Maß an Sorgfalt.Daher ist eine besonders gründliche Prüfung und kontinuierliche Überwachung der KI-Systeme unerlässlich.

KI-Risiken identifizieren, systematisch bewerten und aktiv steuern

Gesundheitsorganisationen müssen die Risiken für den Einsatz und das Training von KI-Systemen systematisch prüfen. Die mangelnde Nachvollziehbarkeit von KI-Entscheidungen – die „Black Box-Problematik“ – gefährdet die Patientensicherheit und erschwert die informierte Einwilligungen. Da KI-Ergebnisse auf Wahrscheinlichkeiten basieren, orientieren sie sich nicht automatisch am Patientenwohl oder ethischen Grundsätzen.

Ein weiteres zentrales Risiko betrifft den Datenschutz bei der Verarbeitung sensibler Gesundheitsdaten. KI-Systeme können unbeabsichtigt vertrauliche Informationen preisgeben. Besonders problematisch sind verzerrte Trainingsdaten: Sie führen zu falschen Ergebnissen und können bestimmte Patientengruppen benachteiligen.

Auch Haftungs- und Verantwortungsfragen bleiben herausfordernd. Die Verantwortlichkeit für Entscheidungen liegt weiterhin klar bei den Ärzt*innen – nicht bei der KI. Doch Pflichtverletzungen in Verbindung mit KI-Anwendungen sind oft schwer nachweisbar. Menschliche Aufsicht, systematische Tests und sorgfältige Überprüfungen sind daher unverzichtbar.

Auch die IT-Sicherheit ist von Anfang an entscheidend, da KI-Systeme neue Angriffsflächen für Cyberattacken bieten. Um diese Risiken zu minimieren, ist die Implementierung eines umfassenden Risikomanagements nach den Vorgaben des EU AI Act und der DSGVO erforderlich.

Außerdem müssen Gesundheitsorganisationen technische und organisatorische Schutzmaßnahmen einführen. Diese umfassen Modellüberwachung, Zugriffskontrollen und Privacy Enhancing Technologies (PET) sowie Privacy- und Security-by-Design. Die Anonymisierung und Pseudonymisierung von Gesundheitsdaten bleibt dabei Schlüssel und Herausforderung zugleich. Regelmäßiges Monitoring und Tests gewährleisten die dauerhafte Sicherheit der Systeme, validieren deren Ergebnisse und optimieren das Training.

Jetzt Newsletter abonnieren

Wöchentlich die wichtigsten Infos zur Digitalisierung im Gesundheitswesen

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Liefert ein KI-System wiederholt problematische Ergebnisse, müssen Organisationen den Einsatz des Systems einstellen. Eine lückenlose Dokumentation von Daten, Modellentwicklungen und Entscheidungswegen bildet die Grundlage für wirksame Data Governance und garantiert die Einhaltung von Audit- und Compliance-Anforderungen.

Eine tragfähige KI-Governance im Gesundheitswesen schaffen

Eine tragfähige KI-Governance erfordert klare Strukturen und gelebte Zusammenarbeit. Interdisziplinäre Teams aus IT, Medizin, Datenschutz und Recht schaffen die Basis für einen verantwortungsvollen Umgang mit KI-Systemen. Klare Verantwortlichkeiten regeln Auswahl, Freigabe, Betrieb und Kontrolle der eingesetzten Technologien.

Für einen sicheren und selbstbewussten Umgang mit KI-gestützten Anwendungen benötigt das medizinische Personal gezielte Schulungen. KI-Ethikkommissionen begleiten kritische Anwendungen und gewährleisten die Berücksichtigung ethischer Aspekte. Eine standardisierte Dokumentation erleichtert spätere Audits und garantiert die Nachvollziehbarkeit medizinischer und administrativer Prozesse.

Fachlich und technisch steht die Nachvollziehbarkeit von KI-Entscheidungen im Mittelpunkt. Explainable AI macht die Ergebnisse für alle Beteiligten transparent und verständlich. Nur wenn wir die Schlussfolgerungen der KI nachvollziehen können, lassen sich die Ergebnisse sinnvoll nutzen und fachfremde Entscheidungskriterien ausschließen.

Die kontinuierliche Einbindung von medizinischem Personal (Human-in-the-Loop-Prinzip) ermöglicht in kritischen Situationen jederzeit menschliches Eingreifen und sichert die Kontrolle über medizinische und digitale Prozesse. Die Entwicklung der KI-Modelle erfordert maximale Genauigkeit, Robustheit und Cybersicherheit. Dadurch entsteht eine hohe Widerstandsfähigkeit gegen externe Angriffe. Diese Maßnahmen bilden die Grundlage für einen sicheren KI-Einsatz im Gesundheitswesen.

Eine transparente Kommunikation über Potenziale und Risiken der KI fördert das Verständnis aller Beteiligten. Die aktive Einbindung des medizinischen Personals und die Information der Patienten stärkt das Vertrauen zusätzlich. Werden Erfolge durch höhere Effizienz, bessere Diagnosesqualität oder genauere Dosierungen sichtbar, wächst die Unterstützung für KI-Modelle.

Um diesen positiven Trend zu verstärken und aufrechtzuerhalten, ist ein kontinuierliches Feedback-System unerlässlich. Es ermöglicht die stetige Verbesserung der KI-Systeme und sorgt dafür, dass sich die KI-Governance dynamisch an neue Herausforderungen anpassen kann.

Vertrauen braucht vorausschauendes Handeln

Vertrauenswürdige KI ist der Schlüssel für die digitale Zukunft im Gesundheitswesen. Transparente Entscheidungsprozesse und verständliche Ergebnisse schaffen Akzeptanz bei allen Beteiligten. Datenschutz und Systemintegrität bilden das Fundament und ein systematisches Risikomanagement fördert Innovationen und stärkt die patientenzentrierte Versorgung. Wer heute tragfähige KI-Governance-Strukturen etabliert, sichert die Einhaltung des EU AI Act und stärkt die digitale Souveränität.

Kerstin Harzendorf
ist Expert Consultant Privacy bei Telekom MMS. Sie verantwortet Themen wie die Durchführung von Datenschutz-Folgenabschätzungen, die Beratung zu Cloud Privacy und den Einsatz als externe Datenschutzbeauftragte für Unternehmen.

Bildquelle: Telekom MMS

(ID:50474718)