ThinkWi-KI

Künstliche Intelligenz erklärt – verständlich und praxisnah

Benutzer-Werkzeuge

Webseiten-Werkzeuge


glossar:self-attention

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

Beide Seiten der vorigen RevisionVorhergehende Überarbeitung
glossar:self-attention [2025/05/20 07:12] – gelöscht 20.171.207.119glossar:self-attention [Unbekanntes Datum] (aktuell) – Externe Bearbeitung (Unbekanntes Datum) 127.0.0.1
Zeile 1: Zeile 1:
 +====== Self-Attention ======
  
 +Self-Attention ist der Mechanismus in [[methoden:transformer|Transformer-Modellen]], der es ermöglicht, den Kontext aller Wörter einer Eingabe gleichzeitig zu berücksichtigen.
 +
 +==== Beispiel ====
 +Das Wort „Bank“ kann je nach Kontext als Finanzinstitut oder Sitzgelegenheit erkannt werden.
 +
 +{{tag>glossar self-attention transformer}}
glossar/self-attention.1747717939.txt.gz · Zuletzt geändert: 2025/05/20 07:12 von 20.171.207.119

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki
Chat
WiKiBot ×
Laden...