Künstliche IntelligenzVorsicht, vielleicht „halluziniert“ Ihre KI
Ein Gastbeitrag von
Prof. Dr. Georg Kraus
7 min Lesedauer
Die KI-Systeme zeigen immer mehr Eigenschaften und Fähigkeiten, die vor nicht allzu langer Zeit noch als ureigen menschlich galten. Sie reagieren (scheinbar) empathisch, sie halluzinieren … Deshalb sollte man ihren Aussagen und Empfehlungen nicht blind vertrauen.
KI-Systeme verstehen nichts, sie rechnen. Und halluzinieren deshalb bisweilen.
Die künstliche Intelligenz (KI) imitiert immer überzeugender die menschliche Kommunikation. Systeme wie Chatbots oder generative Modelle können inzwischen nicht nur faktenbasiert argumentieren, sondern auch
Empathie simulieren,
Stimmungen spiegeln und
sensibel auf emotionale Signale reagieren.
Deshalb werden die KI-Systeme, die früher als reine „Rechenmaschinen“ galten, heute zunehmend
als ein Gegenüber mit Persönlichkeit empfunden und
auch im Healthcare-Bereich genutzt – und zwar nicht nur von den Angehörigen, der in ihm tätigen Berufe, sondern auch von ihren Klienten bzw. Patienten.
KI-Systeme verstehen nichts, sie rechnen
Dies birgt Gefahren; unter anderem, weil die menschenähnliche Wirkung der Chatbots usw. ihre User oft zum Fehlschluss verleitet: Wenn die KI sich wie ein Mensch verhält, dann versteht sie auch wie ein Mensch Ereignisse, Arbeitsaufträge und Sachverhalte. Diese Schlussfolgerung ist falsch und gefährlich, denn: Neben der Fähigkeit, beeindruckend realistische Dialoge zu führen, Gefühle zu spiegeln und Beratungsgespräche zu führen, haben KI-Systeme noch eine Eigenschaft mit Menschen gemeinsam: Sie können „halluzinieren“. Oder umgangssprachlich formuliert: Sie „spinnen“ zuweilen.
Das heißt, sie erzeugen zuweilen Informationen bzw. einen „Output“, die zwar auf den ersten und nicht selten sogar zweiten Blick plausibel klingt, jedoch falsch ist. Anders als bei Menschen geschieht dies aber nicht aufgrund einer überbordenden Fantasie oder Selbsttäuschung, sondern aufgrund der statistischen Mechanismen, die KI-Systemen zugrunde liegen. Der Effekt ist aber derselbe: Ein souverän vorgetragenes oder präsentiertes (Arbeits-)Ergebnis, das inhaltlich jedoch nicht stimmt.
Warum KI-Systeme „im Bedarfsfall“ halluzinieren
Die Halluzinationen der KI-Systeme entstehen nicht durch Fehler im herkömmlichen Sinne, sondern durch das Funktionsprinzip großer Sprachmodelle. Sie erzeugen Antworten, indem sie Wort für Wort die wahrscheinlichste Fortsetzung eines Textes berechnen. Sie „wissen“ und „verstehen“ sozusagen nichts: Sie rechnen! Und:
Je unvollständiger oder unklarer die Eingaben bzw. Prompts sind,
je weniger Daten zu einem Sachverhalt existieren oder
je höher der Druck ist, eine kohärente Antwort zu liefern,
desto wahrscheinlicher werden Elemente erfunden – auch weil KI-Systeme nicht darauf programmiert sind, im Bedarfsfall auf Prompts zu antworten: „Das weiß ich nicht“, „Dafür fehlen mir die nötigen (aktuellen) Infos“ oder „Ich bin kein Hellseher. Ich kann die Zukunft ebenso wie Sie nicht vorhersehen; ich kann nur Wahrscheinlichkeiten berechnen“.
Häufige Ursachen der KI-Halluzinationen sind
Datenlücken: Wenn ein Modell zu einem Thema zu wenig Trainingsdaten hatte, generiert bzw. erfindet es fehlende Informationen.
Übergeneralisierung: KI-Systeme verallgemeinern Muster – manchmal zu sehr. Aus häufigen Strukturen leiten sie vermeintlich logische, jedoch nicht selten unzutreffende Aussagen ab.
Mehrdeutige oder schlechte Prompts: Wenn die User-Eingaben mehrdeutig sind, entscheidet sich das Modell für die wahrscheinlichste, jedoch nicht unbedingt richtige Interpretation.
Zwang zur Kohärenz: Sprachmodelle sind darauf optimiert, flüssige und konsistente Texte zu erzeugen – im Bedarfsfall auch auf Kosten der Wahrheit.
Bekannte reale Beispiele für Halluzinationen
Dass KI-Systeme zuweilen halluzinieren, ist kein theoretisches, sondern ein reales Problem. Unter anderem folgende Beispiele hierfür haben in jüngster Vergangenheit aufgrund einer Studie der Europäischen Rundfunkunion (EBU) eine breite mediale Aufmerksamkeit erfahren:
Der Chatbot ChatGPT behauptete noch vor Kurzem, dass Papst Franziskus noch lebe, obwohl er bereits im April 2025 verstarb.
Microsoft Copilot wusste nicht, dass Schweden seit März 2024 im Gefolge des Ukraine-Kriegs Nato-Mitglied ist und
Google Gemini bezeichnete die Wiederwahl von Donald Trump als US-Präsident als „möglich“, obwohl er inzwischen seit einem Jahr wieder im Amt ist.
Über solche Fehler aufgrund von Datenlücken kann man schmunzeln, weil fast jeder Mensch, der sich etwas für das Weltgeschehen interessiert, sie beim Lesen sofort erkennt und sie deshalb keine größeren Schäden versuchen können.
Anders verhält es im Healthcare-Bereich, wenn die KI-Systeme zum Beispiel zu Diagnose-Zwecken oder als Beratungstool im Präventions- oder therapeutischen Bereich genutzt werden. Dann müssen sich sogar die Fachexperten wie Ärzte und Psychologen sehr tief in den KI-Output vertiefen, um zu erkennen: Das, was das KI-System hier schreibt oder empfiehlt oder die Schlussfolgerung, die es aus den Daten zieht, ist falsch. Oder: Hier hat das System halluziniert und einen echten Fake produziert. Laien sind hiermit in der Regel völlig überfordert-
Beispiele für das Halluzinieren von KI-Systemen:
Erfundene Quellenangaben: Wissenschaftler, Forscher und ähnliche Experten berichteten immer wieder, dass Chatbots Literaturverweise oder Studien erfanden, die plausibel klingen, aber nicht existieren – inklusive gefälschter DOI-Nummern, die beim Online-Publizieren wissenschaftlicher Arbeiten verwendet werden, um diese als seriös und vertrauenswürdig zu kennzeichnen.
Fiktive Gerichtsurteile: Nicht nur in den USA reichten Rechtanwälte schon wiederholt Schriftsätze ein, die von einer KI erstellt wurden – mitsamt ausgedachten Präzedenzfällen und erfundenen juristischen Begründungen.
Erfundene biografische Daten: Personen des öffentlichen Lebens wie Politiker, Wirtschaftsvertreter und Wissenschaftler (sowie Schauspieler und Spitzensportler) finden sich immer wieder in KI-generierten Texten mit Aussagen von ihnen aus angeblichen Interviews zitiert, die nie stattfanden; des Weiteren werden sie mit Ereignissen in Verbindung gebracht, die keinerlei Bezug zu ihnen haben.
Falsche Bilderklärungen: Bildgenerierende Systeme identifizieren ordnen immer wieder visuelle Objekte wie Fotos falschen Kontexten und Zusammenhängen zu, weil sie ein erkanntes Muster überinterpretieren.
Ein blindes Vertrauen in den KI-Output gefährdet Unternehmen
Die obigen Beispiele stammen zwar alle nicht aus dem Healthcare-Bereich, doch auch dort sind sie gang und gäbe, denn KI-Halluzinationen sind keine technischen Ausnahmen, sondern ein struktureller Bestandteil aller lernenden Modelle – also ein Phänomen, mit dem man stets rechnen muss. Darin schlummern – wenn KI-Systeme zum Beispiel zu diagnostischen Zwecken, zum Erstellen von Therapievorschlägen oder zur individuellen psychologischen Beratung eingesetzt werden – große Gefahren. Nicht nur, weil den Usern häufig das nötige Fach- bzw. Expertenwissen fehlt, um die Halluzinationen oder KI-Bugs zu erkennen. Mindestens ebenso groß ist die Gefahr, dass sie sich aufgrund der menschenähnlichen Interaktion der Systeme dazu verleiten lassen, die Analysen, Schlussfolgerungen usw. der KI-Systeme nicht ausreichend zu hinterfragen – sei es aus Zeitmangel, Naivität oder Bequemlichkeit.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel Communications Group GmbH & Co. KG, Max-Planckstr. 7-9, 97082 Würzburg einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
Entsprechend wichtig es, dass sich die im Verantwortlichen im Healthcare-Bereich und die in ihm tätigen Personen, immer wieder ins Gedächtnis rufen: Die KI beantwortet Fragen nicht, weil sie die Welt und das menschliche (Seelen-)Leben versteht, sondern weil sie Muster fortsetzt.
Deshalb sollten sie sich bei ihrem Einsatz stets bewusst sein:
Die KI ist ein Werkzeug und kein Entscheider. Ihr Output kann zwar ein wesentlicher Input für ihre Entscheidungen sein, er darf jedoch nie als die endgültige Wahrheit erachtet werden.
Falsche Informationen können große Schäden verursachen. Von falschen Prognosen bis hin zu rechtlichen Risiken.
Halluzinationen sind nicht völlig vermeidbar. Auch die nächsten Generationen der KI-Systeme werden Fehler machen – jedoch subtiler, also für uns Menschen noch schwieriger erkennbar.
Die KI verantwortungsvoll einsetzen und nutzen
Damit Healthcare-Organisationen und ihre Mitarbeitenden von der KI profitieren, ohne sich den genannten Risiken auszusetzen, bedarf es für deren Nutzung klarer Regeln.
Leitlinien
Ein verantwortungsvoller Umgang mit KI seitens der Führungskräfte und Entscheidungsträger sollte sich unter anderem an folgenden Leitlinien orientieren:
1. Eine kritische Distanz bewahren Auch wenn der KI-Output souverän klingt: Jede Information muss geprüft werden, das gebietet die Sorgfaltspflicht.
2. Die Ergebnisse verifizieren – unabhängig von der Qualität der Darstellung Die Präsentation eines KI-Outputs ist oft beeindruckend professionell. Doch Stil und Wahrheitsgehalt stehen häufig in keinem Zusammenhang. Die KI-Nutzer müssen lernen, das eine vom anderen zu trennen.
3. Nicht als alleinige Entscheidungsgrundlage nutzen Die KI-Systeme sollten nicht nur bei Personal- und Finanzentscheidungen, sondern auch allen Entscheidungen, die das menschliche Wohlbefinden betreffen nur unterstützend eingesetzt werden – nie allein.
4. Klare Prompting-Regeln etablieren Unklare Eingaben erhöhen das Risiko von Halluzinationen. Healthcare-Organisationen sollten Standards für das Formulieren von Fragen an die KI entwickeln: präzise, eindeutig und kontextreich.
5. Die Mitarbeitenden im Umgang mit der KI schulen Technische Kompetenz allein reicht nicht. Entscheidend ist das Verständnis der Funktionsweise und Grenzen der Modelle. Organisationen wie Krankenhäuser, Reha-Zentren und ambulante Pflegeeinrichtungen sollten Schulungen implementieren, die das kritische Denken und die Fähigkeit, Fehler zu erkennen, stärken.
6. Prozesse der Qualitätskontrolle definieren Je nachdem, wie sensibel der Aufgabenbereich ist, sollten mehrstufige Prüfmechanismen existieren – etwa Stichproben, Peer-Reviews oder Plausibilitätschecks anhand realer Daten.
7. Transparenz gegenüber in- und externen Kunden schaffen Wenn KI-Systeme zur Entscheidungsfindung oder gar Leistungserbringung genutzt werden, sollte dies offen kommunizieren, damit die User Fehler leichter erkennen können und Vertrauen nicht verlorengeht.
Den KI-Einsatz reflektieren, um von ihm zu profitieren
Solche Regeln für die Nutzung der KI-Systeme werden umso wichtiger, je menschenähnlicher die Systeme werden – in ihrer Sprache, ihren Interaktionen und sogar Fehlern. Eine überzeugende, weil scheinbar in sich logische und schlüssige Darstellung darf nicht darüber hinwegtäuschen, dass KI-System keine denkenden Wesen, sondern statistische Modelle sind.
Für die Entscheider in den Healthcare-Organisationen bzw. alle Personen, die in ihnen in Schlüsselpositionen innehaben, bedeutet dies: Die Fähigkeit, zwischen einem menschlich bzw. realistisch erscheinenden Output und der Realität zu unterscheiden, wird zu einer zentralen Kompetenz von ihnen. Wer die KI klug – das heißt auch reflektiert – einsetzt, profitiert davon enorm. Wer ihr jedoch blind vertraut, setzt Personen und Organisationen unnötigen Risiken aus.
Der Autor Prof. Dr. Georg Kraus ist Inhaber der Unternehmensberatung Kraus & Partner und Autor mehrerer Change- und Projektmanagement-Bücher. Er hat eine Professur an der Technischen Universität Clausthal und ist Lehrbeauftragter an der Universität Karlsruhe und der IAE in Aix-en-Provence.