DOSIGNY Lexikon · KI & AI

Context Window (Kontextfenster)

Das Context Window ist die maximale Textmenge, die ein KI-Modell gleichzeitig verarbeiten kann — von wenigen Tausend Tokens 2022 bis zu mehreren Millionen 2026.

Das Context Window (deutsch: Kontextfenster) ist die maximale Textmenge, die ein KI-Modell gleichzeitig verarbeiten kann — Eingabe plus Ausgabe zusammen. Gemessen wird es in Tokens (ungefähr ¾ eines Wortes auf Deutsch oder Englisch). Das Context Window definiert, wie viel ein Modell „im Kopf" behalten kann: Je größer, desto längere Dokumente, längere Gespräche und komplexere Aufgaben sind möglich.

Entwicklung der Kontextfenster

Die Größen sind zwischen 2022 und 2026 explosionsartig gewachsen: GPT-3 (2020): 2.048 Tokens. GPT-3.5 (2022): 4.096 Tokens. GPT-4 (2023): 8.192–32.768 Tokens. Claude 2 (2023): 100.000 Tokens. GPT-4 Turbo (2024): 128.000 Tokens. Gemini 1.5 (2024): 1 Million Tokens. 2026: moderne Modelle wie Claude und Gemini bewältigen mehrere Millionen Tokens.

Was große Kontextfenster ermöglichen

Mit Millionen-Tokens-Fenstern sind 2026 ganz neue Anwendungen möglich: ein vollständiges Buch in einem Prompt analysieren, eine ganze Codebase durchsuchen und refaktorisieren, Stunden von Meeting-Transkripten zusammenfassen, mehrere Verträge gleichzeitig vergleichen, persönliche Assistenten mit langem Memory. Was vorher zerteilt werden musste, geht jetzt am Stück.

Grenzen großer Kontextfenster

Mehr ist nicht immer besser. Bei sehr langem Kontext können Modelle „in der Mitte vergessen" — Informationen am Anfang oder Ende werden besser verarbeitet als in der Mitte (das sogenannte „Lost in the Middle"-Phänomen). Außerdem: Längerer Kontext kostet mehr Rechenzeit und Geld pro Anfrage. Für die meisten Aufgaben reichen 100.000–200.000 Tokens völlig aus. Mehr im Beitrag über ChatGPT 5 für Unternehmer.

Häufig gestellte Fragen

Wie viele Tokens sind 1 Million Wörter?
Etwa 1,3 Millionen Tokens (ungefähr — variiert je nach Sprache und Inhalt). Auf Deutsch sind Tokens etwas länger als auf Englisch. Ein dickes Buch hat etwa 100.000–200.000 Tokens.
Welches Modell hat 2026 das größte Kontextfenster?
Gemini 1.5 Pro und Claude Sonnet/Opus liegen mit mehreren Millionen Tokens vorne. Aber: das ist nicht alles — wichtig ist auch die Qualität der Verarbeitung über den langen Kontext.
Verliert die KI im langen Kontext Informationen?
Ja, das kann passieren — vor allem in der Mitte sehr langer Texte. Wichtige Informationen lieber an Anfang oder Ende platzieren oder explizit in der Frage referenzieren.

Brauchst du Unterstützung bei diesem Thema?

Kostenlos beraten lassen →