Zum Inhalt springen

Glossar

Token & Context Window

Token sind die kleinsten Verarbeitungseinheiten eines KI-Modells (ca. ¾ eines Worts), das Context Window ist die maximale Menge an Token, die ein Modell gleichzeitig verarbeiten kann, und bestimmt, wie viel Text ein KI-System auf einmal 'im Kopf' behalten kann.

Token verstehen

Ein Token ist nicht gleich ein Wort. Grob gilt: 1.000 Token ≈ 750 Wörter ≈ eine DIN-A4-Seite Text. Das ist relevant, weil KI-Anbieter nach Token abrechnen: Eingabe (Input) und Ausgabe (Output) werden separat berechnet.

Beispiel: “Zusammenfassung” ist ein Wort, aber drei Token: “Zusammen”, “fass”, “ung”.

Context Window: das Arbeitsgedächtnis der KI

Das Context Window bestimmt, wie viel Text ein Modell in einer Anfrage gleichzeitig verarbeiten kann, inklusive Ihrer Eingabe, Systeminstruktionen und der bisherigen Unterhaltung.

Aktuelle Claude-Modelle bieten Context Windows von 200.000 bis zu einer Million Token (ca. 150–750 MB Text). Führende Sprachmodelle anderer Anbieter liegen je nach Modellklasse zwischen 128.000 und über einer Million Token.

Warum das für Unternehmen relevant ist

  • Große Context Windows ermöglichen es, lange Verträge, ganze Projektordner oder umfangreiche Datenexporte direkt zu verarbeiten
  • Kleine Context Windows können dazu führen, dass wichtige Informationen “vergessen” werden
  • Bei RAG-Systemen wird das Context Window gezielt mit den relevantesten Abschnitten befüllt
grundlagen technologie

KI strategisch in Ihrem Unternehmen einsetzen?

Im kostenlosen Erstgespräch analysieren wir gemeinsam Ihr Potenzial.

Kostenloses Erstgespräch buchen
Kostenloses Erstgespräch buchen