Zum Hauptinhalt springen

LLM-Vergleich: Context Windows

Das Context Window bestimmt, wie viel Text eine KI gleichzeitig verarbeiten kann. Hier erfährst du, was das für deine Arbeit mit PeakPrivacy bedeutet.

Larissa ZUTTER avatar
Verfasst von Larissa ZUTTER
Vor über einem Monat aktualisiert

Was ist ein Context Window?

Das Context Window (auch Kontextfenster oder Token-Limit genannt) gibt an, wie viele Informationen eine KI gleichzeitig im "Gedächtnis" behalten kann. Stell dir vor, du liest ein Buch und kannst nur eine bestimmte Anzahl Seiten gleichzeitig im Kopf behalten – so ähnlich funktioniert das bei KI-Modellen.

Die Grösse wird in Tokens gemessen. Ein Token kann ein ganzes Wort sein, aber auch nur ein Wortteil oder Sonderzeichen. Deutsche Texte brauchen oft mehr Tokens als englische, da die Wörter häufig länger sind.

Beispiele:

  • Ein durchschnittlicher deutscher Satz hat etwa 15-20 Tokens

  • Eine A4-Seite Text entspricht ungefähr 500-800 Tokens

  • Ein 50-seitiges Dokument benötigt also rund 25'000-40'000 Tokens

Context Window-Grössen bei PeakPrivacy

Unsere verschiedenen KI-Modelle haben unterschiedlich grosse Context Windows (Stand Oktober 2025):

Grosse Context Windows (1 Million+ Tokens)

  • Gemini-2-5-pro-preview: 1 Million Tokens

  • Claude-sonnet: 1 Million Tokens

  • GPT-4.1: 1 Million Tokens

Mittlere Context Windows (30'000-400'000 Tokens)

  • GPT-5: 400'000 Tokens

  • Qwen-3-fast: 262'000 Tokens

  • Qwen-3: 256'000 Tokens

  • Claude-opus: 200'000 Tokens

  • GPT-4o: 200'000 Tokens

  • o3-mini: 200'000 Tokens

  • gpt-swiss: 131'000 Tokens

  • Deepseek-r1: 128'000 Tokens

  • Gemma-3: 128'000 Tokens

  • Mistral-small-swiss: 30'000 Tokens

Kleinere Context Windows (4'000 bis 30'000 Tokens)

Haben wir nicht!

Warum ist das Context Window wichtig?

Das Context Window beeinflusst direkt, was du mit der KI machen kannst:

Grosse Dokumente analysieren: Mit einem grossen Context Window kannst du komplette Berichte, Verträge oder Studien auf einmal hochladen und analysieren lassen.

Längere Gespräche führen: Die KI "erinnert" sich an den gesamten Gesprächsverlauf, solange er ins Context Window passt.

Komplexe Aufgaben bearbeiten: Du kannst mehrere Dokumente gleichzeitig als Referenz verwenden.

Beispiel: Du möchtest einen 80-seitigen Jahresbericht zusammenfassen. Mit einem Modell wie Claude-sonnet (1 Million Tokens) kein Problem. Bei einem kleineren Modell müsstest du das Dokument in Teile aufteilen.

Wichtige Punkte beim Arbeiten

Prompt + Antwort = Gesamtkontext: Wenn du ein 100'000-Token-Dokument hochlädst, hat die KI weniger Platz für ihre Antwort. Plane das bei grossen Dokumenten ein.

"Lost-in-the-middle"-Effekt: Auch bei sehr grossen Context Windows kann die KI manchmal Informationen aus der Mitte des Textes "übersehen". Wichtige Punkte gehören an den Anfang oder das Ende.

Kosten und Geschwindigkeit: Grössere Context Windows brauchen mehr Rechenleistung. Bei sehr langen Texten kann die Verarbeitung etwas länger dauern.

Tipps für die optimale Nutzung

1. Wähle das richtige Modell: Für kurze Fragen reicht ein kleineres Context Window. Für Dokumentenanalyse nimm ein Modell mit grossem Fenster.

2. Strukturiere deine Eingaben: Stelle wichtige Informationen an den Anfang deines Prompts.

3. Teile grosse Aufgaben auf: Wenn ein Dokument zu gross ist, verarbeite es in sinnvollen Abschnitten.

Wichtiger Hinweis: Die Context Window-Grössen entwickeln sich rasant weiter. Was heute gross erscheint, ist morgen vielleicht Standard. PeakPrivacy aktualisiert regelmässig die verfügbaren Modelle, damit du immer Zugang zu den neuesten Möglichkeiten hast.

Hat dies deine Frage beantwortet?