Wenn eine KI etwas erfindet das nicht stimmt — ueberzeugend klingend aber faktisch falsch.
Halluzinationen sind falsche Aussagen die ein KI-Modell als Fakten praesentiert. Das Modell erfindet Informationen, Zitate, URLs oder Zahlen die nicht existieren. Ursache: LLMs generieren Text basierend auf Wahrscheinlichkeiten, nicht auf Wahrheit. Gegenmassnamen: RAG (Antworten basierend auf echten Dokumenten), Quellenangaben verlangen, Fakten manuell pruefen, Temperature auf 0 setzen fuer deterministische Antworten. In Claude Code: Der System Prompt enthaelt ein explizites Luegen-Verbot: 'Sage niemals dass Tests bestanden wurden wenn der Output Fehler zeigt.'
Ohne RAG: 'Wie lautet unsere Rueckgaberichtlinie?' → Claude erfindet eine plausibel klingende aber falsche Richtlinie. Mit RAG: Claude liest das echte Dokument und zitiert daraus.