Vertrauenswürdige KI sichert den digitalen Fortschritt im Gesundheitswesen. Wie das gelingen kann, erläutert Kerstin Harzendorf in ihrem Gastbeitrag auf Healthcare Digital.
Mitschauen: Die Ergebnisse der KI müssen kontrolliert werden.
(Bild: AltheaD – stock.adobe.com)
KI-basierte Systeme unterstützen bereits vielerorts die tägliche Arbeit im Gesundheitswesen. Fachkräfte setzen sie ein, um Daten auszuwerten, Entscheidungen vorzubereiten oder administrative Abläufe zu erleichtern. Sprachassistenten und Übersetzungstools erleichtern die Kommunikation mit den Patientinnen und Patienten. Das Vertrauen in die Technologie wächst – doch Unsicherheiten im Umgang mit neuen Anwendungen bleiben.
Viele medizinische Fachkräfte wünschen sich mehr Orientierung und Unterstützung im praktischen Umgang mit den Systemen. Vertrauen spielt dabei eine zentrale Rolle, denn medizinische Entscheidungen betreffen die Gesundheit und Grundrechte der Patientinnen. Besonders anspruchsvoll ist der Einsatz von KI in medizinischen Geräten, die Diagnosen stellen, patientenspezifische Behandlungen planen oder riesige Datenmengen verarbeiten und auswerten. Diese Systeme gelten aufgrund ihrer Komplexität als Hochrisiko-Anwendungen, bei denen fehlerhafte Analysen oder Entscheidungen – etwa durch verzerrte Trainingsdaten – schwerwiegende Konsequenzen nach sich ziehen können.
Der sensible Umgang mit Gesundheitsdaten erfordert zudem höchste Standards bei Datenschutz und IT-Sicherheit. Nur wenn KI-Systeme transparent und sicher arbeiten, gewinnen sie das Vertrauen aller Beteiligten. Für Gesundheitsorganisationen bedeutet das: Sie müssen Vertrauensbildung aktiv gestalten und die regelkonforme Integration von KI-Systemen vorantreiben.
Warum Gesundheitsorganisationen KI sicher und ethisch einsetzen müssen
Technologische Entscheidungen und der Einsatz bestimmter medizinischer Geräte im Gesundheitswesen wirken sich direkt auf Diagnosen, Behandlungen und die Akzeptanz durch Mitarbeitende und Patienten aus. Daher tragen Gesundheitsorganisationen eine besondere Verantwortung für den sorgfältigen Einsatz von KI-Systemen. Sie müssen hohe Schutzstandards bei der Datenverarbeitung und beim Einsatz von KI-Modellen gewährleisten.
Neben Fachgesetzen bestimmen zwei zentrale Regelwerke den Einsatz von KI im Gesundheitswesen: Die Datenschutzgrundverordnung (DSGVO) schützt die informationelle Selbstbestimmung der Betroffenen und stellt hohe Anforderungen an die Verarbeitung genetischer, biometrischer und Gesundheitsdaten. Die europäische KI-Verordnung (EU AI Act) setzt Vorgaben für KI-Systeme, deren Training und Nutzung. Sie klassifiziert KI-Systeme in Risikoklassen und definiert besondere Vorgaben für Hochrisiko-Anwendungen.
Organisationen müssen Transparenz und menschliche Aufsicht über ihre KI-Anwendungen gewährleisten. Das erfordert umfassende Risikobewertungen und die Prüfung möglicher Grundrechtsfolgen – sowohl für den Datenschutz als auch für die persönliche Unversehrtheit der Patientinnen. Besonders sensible Anwendungsfelder wie die Bilddiagnostik in Kliniken, KI-gestützte Leistungsanalysen oder der Einsatz KI-unterstützter Überwachung zur Sturz- oder Notfallerkennung in Pflegeheimen und in der ambulanten Versorgung erfordern ein erhöhtes Maß an Sorgfalt.Daher ist eine besonders gründliche Prüfung und kontinuierliche Überwachung der KI-Systeme unerlässlich.
KI-Risiken identifizieren, systematisch bewerten und aktiv steuern
Gesundheitsorganisationen müssen die Risiken für den Einsatz und das Training von KI-Systemen systematisch prüfen. Die mangelnde Nachvollziehbarkeit von KI-Entscheidungen – die „Black Box-Problematik“ – gefährdet die Patientensicherheit und erschwert die informierte Einwilligungen. Da KI-Ergebnisse auf Wahrscheinlichkeiten basieren, orientieren sie sich nicht automatisch am Patientenwohl oder ethischen Grundsätzen.
Ein weiteres zentrales Risiko betrifft den Datenschutz bei der Verarbeitung sensibler Gesundheitsdaten. KI-Systeme können unbeabsichtigt vertrauliche Informationen preisgeben. Besonders problematisch sind verzerrte Trainingsdaten: Sie führen zu falschen Ergebnissen und können bestimmte Patientengruppen benachteiligen.
Auch Haftungs- und Verantwortungsfragen bleiben herausfordernd. Die Verantwortlichkeit für Entscheidungen liegt weiterhin klar bei den Ärzt*innen – nicht bei der KI. Doch Pflichtverletzungen in Verbindung mit KI-Anwendungen sind oft schwer nachweisbar. Menschliche Aufsicht, systematische Tests und sorgfältige Überprüfungen sind daher unverzichtbar.
Auch die IT-Sicherheit ist von Anfang an entscheidend, da KI-Systeme neue Angriffsflächen für Cyberattacken bieten. Um diese Risiken zu minimieren, ist die Implementierung eines umfassenden Risikomanagements nach den Vorgaben des EU AI Act und der DSGVO erforderlich.
Außerdem müssen Gesundheitsorganisationen technische und organisatorische Schutzmaßnahmen einführen. Diese umfassen Modellüberwachung, Zugriffskontrollen und Privacy Enhancing Technologies (PET) sowie Privacy- und Security-by-Design. Die Anonymisierung und Pseudonymisierung von Gesundheitsdaten bleibt dabei Schlüssel und Herausforderung zugleich. Regelmäßiges Monitoring und Tests gewährleisten die dauerhafte Sicherheit der Systeme, validieren deren Ergebnisse und optimieren das Training.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel Communications Group GmbH & Co. KG, Max-Planckstr. 7-9, 97082 Würzburg einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
Liefert ein KI-System wiederholt problematische Ergebnisse, müssen Organisationen den Einsatz des Systems einstellen. Eine lückenlose Dokumentation von Daten, Modellentwicklungen und Entscheidungswegen bildet die Grundlage für wirksame Data Governance und garantiert die Einhaltung von Audit- und Compliance-Anforderungen.
Eine tragfähige KI-Governance im Gesundheitswesen schaffen
Eine tragfähige KI-Governance erfordert klare Strukturen und gelebte Zusammenarbeit. Interdisziplinäre Teams aus IT, Medizin, Datenschutz und Recht schaffen die Basis für einen verantwortungsvollen Umgang mit KI-Systemen. Klare Verantwortlichkeiten regeln Auswahl, Freigabe, Betrieb und Kontrolle der eingesetzten Technologien.
Für einen sicheren und selbstbewussten Umgang mit KI-gestützten Anwendungen benötigt das medizinische Personal gezielte Schulungen. KI-Ethikkommissionen begleiten kritische Anwendungen und gewährleisten die Berücksichtigung ethischer Aspekte. Eine standardisierte Dokumentation erleichtert spätere Audits und garantiert die Nachvollziehbarkeit medizinischer und administrativer Prozesse.
Fachlich und technisch steht die Nachvollziehbarkeit von KI-Entscheidungen im Mittelpunkt. Explainable AI macht die Ergebnisse für alle Beteiligten transparent und verständlich. Nur wenn wir die Schlussfolgerungen der KI nachvollziehen können, lassen sich die Ergebnisse sinnvoll nutzen und fachfremde Entscheidungskriterien ausschließen.
Die kontinuierliche Einbindung von medizinischem Personal (Human-in-the-Loop-Prinzip) ermöglicht in kritischen Situationen jederzeit menschliches Eingreifen und sichert die Kontrolle über medizinische und digitale Prozesse. Die Entwicklung der KI-Modelle erfordert maximale Genauigkeit, Robustheit und Cybersicherheit. Dadurch entsteht eine hohe Widerstandsfähigkeit gegen externe Angriffe. Diese Maßnahmen bilden die Grundlage für einen sicheren KI-Einsatz im Gesundheitswesen.
Eine transparente Kommunikation über Potenziale und Risiken der KI fördert das Verständnis aller Beteiligten. Die aktive Einbindung des medizinischen Personals und die Information der Patienten stärkt das Vertrauen zusätzlich. Werden Erfolge durch höhere Effizienz, bessere Diagnosesqualität oder genauere Dosierungen sichtbar, wächst die Unterstützung für KI-Modelle.
Um diesen positiven Trend zu verstärken und aufrechtzuerhalten, ist ein kontinuierliches Feedback-System unerlässlich. Es ermöglicht die stetige Verbesserung der KI-Systeme und sorgt dafür, dass sich die KI-Governance dynamisch an neue Herausforderungen anpassen kann.
Vertrauen braucht vorausschauendes Handeln
Vertrauenswürdige KI ist der Schlüssel für die digitale Zukunft im Gesundheitswesen. Transparente Entscheidungsprozesse und verständliche Ergebnisse schaffen Akzeptanz bei allen Beteiligten. Datenschutz und Systemintegrität bilden das Fundament und ein systematisches Risikomanagement fördert Innovationen und stärkt die patientenzentrierte Versorgung. Wer heute tragfähige KI-Governance-Strukturen etabliert, sichert die Einhaltung des EU AI Act und stärkt die digitale Souveränität.
Kerstin Harzendorf ist Expert Consultant Privacy bei Telekom MMS. Sie verantwortet Themen wie die Durchführung von Datenschutz-Folgenabschätzungen, die Beratung zu Cloud Privacy und den Einsatz als externe Datenschutzbeauftragte für Unternehmen.