DOSIGNY Lexikon · KI & AI

Halluzination (KI)

Eine KI-Halluzination ist eine plausibel klingende, aber sachlich falsche Antwort — KI-Modelle erfinden Fakten, weil sie Sprache nachahmen, nicht Wahrheit prüfen.

Eine KI-Halluzination ist eine Antwort eines KI-Modells, die plausibel klingt, aber sachlich falsch ist. Das Modell erfindet Fakten, Quellen, Zitate, Personen oder Zusammenhänge — nicht aus böser Absicht, sondern weil es nach Wahrscheinlichkeiten arbeitet, nicht nach Wahrheit. Halluzinationen sind 2026 das größte praktische Problem bei der KI-Nutzung — und zu wissen, wann du Outputs misstrauen musst, ist eine Schlüsselkompetenz.

Warum KI halluziniert

Sprachmodelle wie GPT oder Claude sind darauf trainiert, das wahrscheinlichste nächste Wort vorherzusagen. Sie haben kein Konzept von „wahr" oder „falsch" — sie produzieren das, was statistisch zu ihren Trainingsdaten passt. Wenn ein Nutzer nach einem obskuren Fakt fragt, den das Modell nicht wirklich kennt, generiert es trotzdem eine selbstbewusst klingende Antwort. Genau das ist die Halluzination.

Wo Halluzinationen besonders häufig auftreten

Spezifische Daten und Zahlen: Geburtsdaten, Statistiken, exakte Zitate. Quellen und Zitate: erfundene wissenschaftliche Studien, fiktive URLs, Bücher die nicht existieren. Personen und ihre Werke: nicht existierende Bücher angeblich bekannter Autoren. Code-APIs: Funktionsnamen, die echt klingen aber nicht existieren. Rechtliche/medizinische Details: Präzedenzfälle, Wirkstoff-Dosierungen, Paragraphen.

Halluzinationen erkennen und reduzieren

Quellen verlangen: KI bitten, Quellen anzugeben — und diese dann verifizieren. Zwei Modelle vergleichen: dieselbe Frage an ChatGPT und Claude stellen, abweichende Antworten sind ein Warnsignal. Konkrete Behauptungen prüfen: alles, was wie ein Fakt klingt (Datum, Zahl, Name), unabhängig nachschlagen. Web-Search-Modus nutzen: moderne KI-Tools können Live-Suche kombinieren und reduzieren Halluzinationen drastisch. Mehr dazu im Beitrag über verantwortungsvolle KI-Nutzung.

Häufig gestellte Fragen

Werden KI-Halluzinationen 2026 noch ein Problem sein?
Sie sind reduziert, aber nicht beseitigt. Moderne Modelle mit Web-Suche und besserer Architektur halluzinieren weniger — aber bei spezifischen Fakten bleibt Vorsicht geboten. Verifikation ist 2026 weiter wichtig.
Sind KI-Halluzinationen rechtlich relevant?
Sehr — wer KI-Outputs ungeprüft veröffentlicht und falsche Behauptungen verbreitet, haftet selbst. Bei Anwälten, Ärzten, Steuerberatern und Journalisten ist das besonders heikel. KI-Outputs sind nie rechtsverbindlich.
Was tun, wenn die KI mir falsche Infos gibt?
Konfrontieren („Stimmt das wirklich? Bitte belege"), Quelle verlangen, gegenrecherchieren. Bei wiederholt falschen Antworten Modell wechseln oder die Frage anders formulieren.

Brauchst du Unterstützung bei diesem Thema?

Kostenlos beraten lassen →