Zum Inhalt springen

Glossar

Halluzination

Halluzination bezeichnet das Phänomen, dass KI-Modelle sachlich falsche Informationen selbstsicher und plausibel klingend präsentieren. Eines der wichtigsten Risiken beim produktiven Einsatz von KI.

Halluzinationen entstehen, weil LLMs nicht “nachschlagen”, sie sagen das statistisch wahrscheinlichste nächste Wort voraus. Wenn das Modell zu einem Thema wenig Trainingsdaten hat oder die Frage zu spezifisch ist, erfindet es plausibel klingende Antworten.

Typische Beispiele

  • Erfundene Gesetze, Gerichtsurteile oder Quellen mit korrektem Format
  • Falsche Produktspezifikationen oder Preisangaben
  • Nicht existierende Ansprechpartner oder Abteilungen

Wie man Halluzinationen minimiert

Retrieval-Augmented Generation (RAG) ist der effektivste Ansatz: Das Modell antwortet nur auf Basis von Dokumenten, die ihm explizit bereitgestellt wurden, und kann bei fehlendem Wissen “Ich weiß es nicht” sagen.

Weitere Maßnahmen:

  • Klare Systemanweisungen, die das Modell zur Angabe von Quellen verpflichten
  • Eingeschränkter Aktionsradius für KI-Agenten
  • Menschliche Prüfung bei kritischen Entscheidungen

Einordnung

Halluzinationen sind kein Programmier-Fehler, sondern ein inhärentes Merkmal von LLMs. Der richtige Umgang ist nicht, KI zu meiden, sondern Systeme so zu gestalten, dass Halluzinationen erkannt und eingegrenzt werden können.

grundlagen risiko datenschutz

KI strategisch in Ihrem Unternehmen einsetzen?

Im kostenlosen Erstgespräch analysieren wir gemeinsam Ihr Potenzial.

Kostenloses Erstgespräch buchen
Kostenloses Erstgespräch buchen