KI im Klinikalltag Wird 2026 das Jahr der Governance?

Von Johannes Kapfer 4 min Lesedauer

Anbieter zum Thema

Über alle Bereiche des Gesundheitswesens breitet sich Schatten-KI unreguliert aus. Während die Fachkräfte ihre digitalen Assistenten munter verwenden, schlagen Experten Alarm. Wer sich als Organisation nicht schleunigst gut aufstellt, könnte gleichermaßen Patientensicherheit und Compliance riskieren.

In Stresssituationen die KI um Hilfe bitten. Für Normalsterbliche Teil des Alltags. Für Ärztinnen und Ärzte ein Spiel mit dem Feuer. Denn nur die wenigsten KI-Tools sind für den Einsatz in Kliniken und Krankenhäusern freigegeben.(Antony Weerut - stock.adobe.com)
In Stresssituationen die KI um Hilfe bitten. Für Normalsterbliche Teil des Alltags. Für Ärztinnen und Ärzte ein Spiel mit dem Feuer. Denn nur die wenigsten KI-Tools sind für den Einsatz in Kliniken und Krankenhäusern freigegeben.
(Antony Weerut - stock.adobe.com)

Intelligente Systeme verlassen derzeit im Gesundheitswesen die Experimentierphase und drängen nach und nach in Behandlungsräume, Dokumentationssysteme sowie Diagnose-Workflows. Moderne KI-Systeme automatisieren klinische Notizen, decken Versorgungslücken auf und verbessern die Kommunikation zwischen Ärzten und Patienten. Doch im Schatten der regulierten KI-Tools wächst sogenannte Schatten-KI zu einem echten Problem heran.

„2026 wird das Jahr der Governance“, sagt Dr. Peter Bonis, Chief Medical Officer bei Wolters Kluwer Health. Die Realität in Kliniken zeige, dass Fachkräfte die digitalen Helferlein längst einsetzen. Als Hauptgründe werden dafür insbesondere arbeitstechnische Überlastung, immanenter Personalmangel sowie ständiger Zeitdruck genannt. Einmal ChatGPT für Diagnose-Support zu Rate ziehen? Ein anderes Mal einen automatisierten Anamnesebogen mittels einer ungeprüfter Software erstellen? Die Versuchung sei oftmals groß. Das Risiko allerdings auch. „Ärzte haben Schwierigkeiten, Antworten zu erkennen, die fachkundig klingen, aber klinisch falsch sind – selbst wenn glaubwürdige Quellen angegeben werden“, gibt Bonis zu bedenken. Hinzu komme der Verlust ärztlicher Kompetenzen durch übermäßige Technologie-Abhängigkeit.

Europa zieht die Zügel an

Der EU AI Act, Verordnung 2024/1689, tritt am 2. August 2026 für Hochrisiko-Systeme in Kraft. Dazu zählen auch Diagnostik-Tools und diverse medizinische Anwendungen. Deutschland muss bis dahin den AI-Act in nationales Recht gießen. Die Bundesnetzagentur wird die zentrale Aufsicht, das Bundesinstitut für Arzneimittel und Medizinprodukte die Kontrolle über die Medizinprodukte übernehmen. So weit, so gut. Doch das bedeutet, dass für sämtliche Systeme im klinischen Einsatz eine risikobasierte Validierung, für computergestützte Entscheidungen eine Transparenzpflicht, für digitale Gesundheitsanwendungen eine CE-Kennzeichnung sowie quartalsweise Datenberichte über Wirksamkeit und Nebenwirkungen ab dem dritten Quartal 2026 zur Pflicht werden.

Alex Tyrrell, Chief Technology Officer bei Wolters Kluwer Health, schlägt eine Strategie vor: „Die zukunftsorientiertesten Organisationen richten Sicherheitszonen ein – kontrollierte Umgebungen, in denen Leistungserbringer mit zugelassenen Tools und Datensätzen experimentieren.“ Statt Verbote durchzusetzen sollen Kliniken regulierte Räume für Innovation schaffen und Fachpersonal Anwendungen unter Aufsicht – mit definierten Datensätzen und klaren Compliance-Richtlinien – testen. Erste Pilotprojekte laufen diesbezüglich bereits am Universitätsklinikum Dresden, der Charité Berlin sowie dem britischen National Health Service (NHS).

„Um das Wachstum der Schatten-KI einzudämmen, müssen Organisationen formalisierte Rahmenwerke einführen“, sagt Tyrrell weiter. „Angesichts der Regulierungsbemühungen werden diese Rahmenwerke dazu beitragen, dass Leistungserbringer in Sachen Compliance einen Schritt voraus sind.“

Greg Samios, CEO von Wolters Kluwer Health, formuliert die notwendigen Qualitätskriterien: „Ärzte sollten Systeme verwenden, die auf von Experten validierter Evidenz basieren, transparente Quellenangaben liefern und maßgeschneiderte Empfehlungen geben.“ Moderne Assistenten würden von einem Werkzeug zu einem Partner. Dies sei allerdings nur unter strikten Bedingungen zu erreichen. Eine „Expert-in-the-Loop-Aufsicht“ soll sicherstellen, dass medizinische Fachkräfte jedwede Empfehlung prüfen. Klinische Validierung bedeute in den Augen von Samios, dass Systeme Tests nach Medizinprodukte-Standards zu durchlaufen haben. Transparente Quellen ermöglichten die Rückverfolgung sämtlicher Informationen zu medizinischer Fachliteratur. Embedded Integration lasse Software mit bestehenden Workflows verschmelzen und isolierte Apps – gemeinhin als Datensilos bekannt – der Vergangenheit angehören.

(ID:50712012)

Jetzt Newsletter abonnieren

Wöchentlich die wichtigsten Infos zur Digitalisierung im Gesundheitswesen

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung