Das Token Limit legt fest, wie viele Tokens ein Modell gleichzeitig verarbeiten kann – inklusive Eingabe und Ausgabe.
GPT-4 mit 8k Kontext kann ca. 6000 Wörter aufnehmen.
glossar token-limit kontext