IDEAL-X
← KI-Glossar

KI-Glossar

Halluzinationen (KI)

Wenn KI Fakten erfindet — und warum das passiert.

KI-Halluzinationen sind Aussagen, die ein Sprachmodell mit hoher Überzeugung formuliert — die aber faktisch falsch oder vollständig erfunden sind. Sie entstehen durch die Funktionsweise von LLMs, die wahrscheinliche Antworten generieren, keine verifizierten Fakten.

Drei Kernmerkmale

  • Überzeugend: Halluzinationen klingen genauso selbstsicher wie korrekte Antworten
  • Unabsichtlich: Das Modell lügt nicht — kennt aber keine Unterscheidung zwischen Fakt und Fiktion
  • Reduzierbar: Mit korrekten Methoden lässt sich das Risiko drastisch senken

Typische Halluzinationen und ihre Risiken

TypBeispielRisiko
Erfundene QuellenKI zitiert nicht existierende StudienHoch bei Recherche
Falsche ZahlenUmsatzzahlen, Paragrafen falsch angegebenHoch bei Finanzen & Recht
Veraltetes WissenInformationen nach Trainings-Cutoff fehlenMittel
SelbstwidersprücheKI widerspricht sich im selben GesprächNiedrig, aber sichtbar

Wie man Halluzinationen reduziert

1. RAG einsetzen Retrieval-Augmented Generation verankert Antworten in echten Dokumenten. Das Modell antwortet auf Basis verifizierter Quellen.

2. Guardrails definieren Klare Regeln legen fest, was das Modell darf. Bei Unsicherheit soll es „Ich weiß es nicht” antworten — statt zu raten.

3. Menschliche Prüfung einbauen Bei kritischen Ausgaben — Verträge, Finanzdaten, medizinische Informationen — immer einen menschlichen Prüfschritt integrieren.

4. Quellenangaben erzwingen Das Modell anweisen, jede Aussage mit einer Quelle zu belegen. Wenn keine vorhanden ist, soll es das explizit sagen.

Wo das Risiko am höchsten ist

Rechtliche Dokumente (Hohes Risiko): Vertragsklauseln, Paragrafen, Fristen — falsche Angaben können teuer werden. Immer mit Originalquellen abgleichen.

Finanzdaten (Hohes Risiko): Zahlen, Kennzahlen, Prognosen — LLMs können plausibel falsche Zahlen generieren. Nie ohne Verifikation verwenden.

Textentwürfe (Niedriges Risiko): E-Mails, Angebote, Marketingtexte — Risiko überschaubar, sofern keine spezifischen Faktenangaben enthalten sind.

Häufige Fragen

Halluzinieren manche LLMs mehr als andere? Ja. Neuere, größere Modelle halluzinieren weniger. Modelle mit Quellenangaben (wie RAG-Systeme) sind zuverlässiger als reine Generativmodelle.

Kann ich einer KI vertrauen, die sagt „Ich bin mir nicht sicher”? Ja — das ist ein gutes Zeichen. Modelle, die Unsicherheit kommunizieren, sind besser kalibriert.

Werden Halluzinationen irgendwann verschwinden? Vollständig nicht — sie sind inhärent in generativen Modellen. Aber sie werden seltener und durch bessere Architekturen beherrschbarer.

Was ist der Unterschied zwischen Halluzination und Bias? Halluzinationen sind erfundene Fakten. Bias bezeichnet systematische Verzerrungen in Urteilen — z. B. wenn ein Modell Gruppen systematisch benachteiligt.

Verwandte Begriffe

  • RAG — Die wichtigste Gegenmaßnahme
  • Guardrails — KI in sicheren Grenzen halten
  • LLM — Warum Halluzinationen entstehen
  • Audit-Trail — KI-Entscheidungen nachvollziehen

KI konkret für Ihr Unternehmen einordnen

Wir besprechen Ihre Ausgangslage und zeigen, wo KI in Ihrem Kontext realistische Wirkung entfaltet.

Kostenloses Erstgespräch