glossar:token-limit
Token Limit
Das Token Limit legt fest, wie viele Tokens ein Modell gleichzeitig verarbeiten kann – inklusive Eingabe und Ausgabe.
Beispiel
GPT-4 mit 8k Kontext kann ca. 6000 Wörter aufnehmen.
glossar token-limit kontext
glossar/token-limit.txt · Zuletzt geändert: 2025/05/11 13:22 (Externe Bearbeitung)
