← Alle Begriffe grundlagen

Kontextfenster (Context Window)

Die maximale Menge an Text die ein KI-Modell gleichzeitig verarbeiten kann — bestimmt wie viel es 'sehen' kann.

Erklaerung

Das Kontextfenster ist der Arbeitsspeicher eines LLM. Alles was drin ist (System Prompt, Chatverlauf, Dateien, Tool-Ergebnisse) kann das Modell nutzen. Was nicht drin ist, existiert fuer das Modell nicht. Claude Opus hat 1 Million Token (~750.000 Woerter). GPT-5 hat 256.000 Token. Problem: Auch bei grossen Fenstern tritt Context Rot ein — das Modell wird durch irrelevante Informationen verwirrt. Loesung: Schlanke CLAUDE.md (max 200 Zeilen), Skills mit 3-Schichten-Modell (nur Header wird geladen), Subagents fuer isolierte Aufgaben. Befehl /context zeigt den aktuellen Verbrauch.

Beispiel

Leere Claude Code Session: bereits 18.000 Token durch System Prompt, Tools, Memory. Bei intensiver Nutzung: 100.000+ Token. Dann neue Session starten oder /compact nutzen.

Verwandte Begriffe

token llm claude-code