KI-Halluzinationen sind Aussagen, die ein Sprachmodell mit hoher Überzeugung formuliert — die aber faktisch falsch oder vollständig erfunden sind. Sie entstehen durch die Funktionsweise von LLMs, die wahrscheinliche Antworten generieren, keine verifizierten Fakten.
Drei Kernmerkmale
- Überzeugend: Halluzinationen klingen genauso selbstsicher wie korrekte Antworten
- Unabsichtlich: Das Modell lügt nicht — kennt aber keine Unterscheidung zwischen Fakt und Fiktion
- Reduzierbar: Mit korrekten Methoden lässt sich das Risiko drastisch senken
Typische Halluzinationen und ihre Risiken
| Typ | Beispiel | Risiko |
|---|---|---|
| Erfundene Quellen | KI zitiert nicht existierende Studien | Hoch bei Recherche |
| Falsche Zahlen | Umsatzzahlen, Paragrafen falsch angegeben | Hoch bei Finanzen & Recht |
| Veraltetes Wissen | Informationen nach Trainings-Cutoff fehlen | Mittel |
| Selbstwidersprüche | KI widerspricht sich im selben Gespräch | Niedrig, aber sichtbar |
Wie man Halluzinationen reduziert
1. RAG einsetzen Retrieval-Augmented Generation verankert Antworten in echten Dokumenten. Das Modell antwortet auf Basis verifizierter Quellen.
2. Guardrails definieren Klare Regeln legen fest, was das Modell darf. Bei Unsicherheit soll es „Ich weiß es nicht” antworten — statt zu raten.
3. Menschliche Prüfung einbauen Bei kritischen Ausgaben — Verträge, Finanzdaten, medizinische Informationen — immer einen menschlichen Prüfschritt integrieren.
4. Quellenangaben erzwingen Das Modell anweisen, jede Aussage mit einer Quelle zu belegen. Wenn keine vorhanden ist, soll es das explizit sagen.
Wo das Risiko am höchsten ist
Rechtliche Dokumente (Hohes Risiko): Vertragsklauseln, Paragrafen, Fristen — falsche Angaben können teuer werden. Immer mit Originalquellen abgleichen.
Finanzdaten (Hohes Risiko): Zahlen, Kennzahlen, Prognosen — LLMs können plausibel falsche Zahlen generieren. Nie ohne Verifikation verwenden.
Textentwürfe (Niedriges Risiko): E-Mails, Angebote, Marketingtexte — Risiko überschaubar, sofern keine spezifischen Faktenangaben enthalten sind.
Häufige Fragen
Halluzinieren manche LLMs mehr als andere? Ja. Neuere, größere Modelle halluzinieren weniger. Modelle mit Quellenangaben (wie RAG-Systeme) sind zuverlässiger als reine Generativmodelle.
Kann ich einer KI vertrauen, die sagt „Ich bin mir nicht sicher”? Ja — das ist ein gutes Zeichen. Modelle, die Unsicherheit kommunizieren, sind besser kalibriert.
Werden Halluzinationen irgendwann verschwinden? Vollständig nicht — sie sind inhärent in generativen Modellen. Aber sie werden seltener und durch bessere Architekturen beherrschbarer.
Was ist der Unterschied zwischen Halluzination und Bias? Halluzinationen sind erfundene Fakten. Bias bezeichnet systematische Verzerrungen in Urteilen — z. B. wenn ein Modell Gruppen systematisch benachteiligt.
Verwandte Begriffe
- RAG — Die wichtigste Gegenmaßnahme
- Guardrails — KI in sicheren Grenzen halten
- LLM — Warum Halluzinationen entstehen
- Audit-Trail — KI-Entscheidungen nachvollziehen