glossar:self-attention
Dies ist eine alte Version des Dokuments!
Self-Attention
Self-Attention ist der Mechanismus in Transformer-Modellen, der es ermöglicht, den Kontext aller Wörter einer Eingabe gleichzeitig zu berücksichtigen.
Beispiel
Das Wort „Bank“ kann je nach Kontext als Finanzinstitut oder Sitzgelegenheit erkannt werden.
glossar self-attention transformer
glossar/self-attention.1746967621.txt.gz · Zuletzt geändert: 2025/05/11 14:47 von 127.0.0.1
