Glossar
RAG (Retrieval-Augmented Generation)
RAG ist eine Technik, bei der ein KI-Modell vor dem Antworten gezielt relevante Dokumente aus einer Wissensdatenbank abruft. So entstehen aktuelle, quellenbasierte Antworten statt ausgedachter Informationen.
Retrieval-Augmented Generation (RAG) löst eines der größten Probleme reiner LLMs: Sie wissen nur, was im Training stand, nichts über Ihre internen Dokumente, aktuellen Preise oder jüngsten Änderungen. RAG kombiniert ein Sprachmodell mit einer Suche über Ihre eigenen Inhalte.
So funktioniert RAG
- Frage eingeht: z. B. “Was steht in unserem Wartungsvertrag mit Firma X?”
- Retrieval: per semantischer Suche mit Embeddings werden die relevantesten Dokument-Abschnitte gefunden
- Augmentation: diese Abschnitte werden dem LLM als Kontext mitgegeben
- Generation: das Modell antwortet auf Basis der echten Quelle, nicht aus dem Training
Typische Einsatzszenarien in KMU
- Interner Chatbot für Handbücher, Verträge, Produktunterlagen
- Kundensupport mit Zugriff auf aktuelle Dokumentation
- Automatisierte Auswertung von Angeboten oder Protokollen
RAG vs. Fine-Tuning
RAG ist meist die bessere Wahl für unternehmensspezifisches Wissen: günstiger, flexibler und ohne Risiko, dass das Modell falsche Fakten “einbrennt”. Fine-Tuning eignet sich eher für Tonalität und Format, nicht für Faktenwissen.