Glossar
Halluzination
Halluzination bezeichnet das Phänomen, dass KI-Modelle sachlich falsche Informationen selbstsicher und plausibel klingend präsentieren. Eines der wichtigsten Risiken beim produktiven Einsatz von KI.
Halluzinationen entstehen, weil LLMs nicht “nachschlagen”, sie sagen das statistisch wahrscheinlichste nächste Wort voraus. Wenn das Modell zu einem Thema wenig Trainingsdaten hat oder die Frage zu spezifisch ist, erfindet es plausibel klingende Antworten.
Typische Beispiele
- Erfundene Gesetze, Gerichtsurteile oder Quellen mit korrektem Format
- Falsche Produktspezifikationen oder Preisangaben
- Nicht existierende Ansprechpartner oder Abteilungen
Wie man Halluzinationen minimiert
Retrieval-Augmented Generation (RAG) ist der effektivste Ansatz: Das Modell antwortet nur auf Basis von Dokumenten, die ihm explizit bereitgestellt wurden, und kann bei fehlendem Wissen “Ich weiß es nicht” sagen.
Weitere Maßnahmen:
- Klare Systemanweisungen, die das Modell zur Angabe von Quellen verpflichten
- Eingeschränkter Aktionsradius für KI-Agenten
- Menschliche Prüfung bei kritischen Entscheidungen
Einordnung
Halluzinationen sind kein Programmier-Fehler, sondern ein inhärentes Merkmal von LLMs. Der richtige Umgang ist nicht, KI zu meiden, sondern Systeme so zu gestalten, dass Halluzinationen erkannt und eingegrenzt werden können.