glossar:token-limit
Dies ist eine alte Version des Dokuments!
Token Limit
Das Token Limit legt fest, wie viele Tokens ein Modell gleichzeitig verarbeiten kann – inklusive Eingabe und Ausgabe.
Beispiel
GPT-4 mit 8k Kontext kann ca. 6000 Wörter aufnehmen.
glossar token-limit kontext
glossar/token-limit.1747722539.txt.gz · Zuletzt geändert: 2025/05/20 08:28 von 20.171.207.105
