Das Context Window (deutsch: Kontextfenster) ist die maximale Textmenge, die ein KI-Modell gleichzeitig verarbeiten kann — Eingabe plus Ausgabe zusammen. Gemessen wird es in Tokens (ungefähr ¾ eines Wortes auf Deutsch oder Englisch). Das Context Window definiert, wie viel ein Modell „im Kopf" behalten kann: Je größer, desto längere Dokumente, längere Gespräche und komplexere Aufgaben sind möglich.
Entwicklung der Kontextfenster
Die Größen sind zwischen 2022 und 2026 explosionsartig gewachsen: GPT-3 (2020): 2.048 Tokens. GPT-3.5 (2022): 4.096 Tokens. GPT-4 (2023): 8.192–32.768 Tokens. Claude 2 (2023): 100.000 Tokens. GPT-4 Turbo (2024): 128.000 Tokens. Gemini 1.5 (2024): 1 Million Tokens. 2026: moderne Modelle wie Claude und Gemini bewältigen mehrere Millionen Tokens.
Was große Kontextfenster ermöglichen
Mit Millionen-Tokens-Fenstern sind 2026 ganz neue Anwendungen möglich: ein vollständiges Buch in einem Prompt analysieren, eine ganze Codebase durchsuchen und refaktorisieren, Stunden von Meeting-Transkripten zusammenfassen, mehrere Verträge gleichzeitig vergleichen, persönliche Assistenten mit langem Memory. Was vorher zerteilt werden musste, geht jetzt am Stück.
Grenzen großer Kontextfenster
Mehr ist nicht immer besser. Bei sehr langem Kontext können Modelle „in der Mitte vergessen" — Informationen am Anfang oder Ende werden besser verarbeitet als in der Mitte (das sogenannte „Lost in the Middle"-Phänomen). Außerdem: Längerer Kontext kostet mehr Rechenzeit und Geld pro Anfrage. Für die meisten Aufgaben reichen 100.000–200.000 Tokens völlig aus. Mehr im Beitrag über ChatGPT 5 für Unternehmer.