ThinkWi-KI

Künstliche Intelligenz erklärt – verständlich und praxisnah

Benutzer-Werkzeuge

Webseiten-Werkzeuge


glossar:self-attention

Dies ist eine alte Version des Dokuments!


Self-Attention

Self-Attention ist der Mechanismus in Transformer-Modellen, der es ermöglicht, den Kontext aller Wörter einer Eingabe gleichzeitig zu berücksichtigen.

Beispiel

Das Wort „Bank“ kann je nach Kontext als Finanzinstitut oder Sitzgelegenheit erkannt werden.

glossar self-attention transformer

glossar/self-attention.1747717939.txt.gz · Zuletzt geändert: 2025/05/20 07:12 von 20.171.207.119

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki
Chat
WiKiBot ×
Laden...