Token Limit

Das Token Limit legt fest, wie viele Tokens ein Modell gleichzeitig verarbeiten kann – inklusive Eingabe und Ausgabe.

Beispiel

GPT-4 mit 8k Kontext kann ca. 6000 Wörter aufnehmen.

glossar token-limit kontext