ThinkWi-KI

Künstliche Intelligenz erklärt – verständlich und praxisnah

Benutzer-Werkzeuge

Webseiten-Werkzeuge


glossar:self-attention

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

Nächste Überarbeitung
Vorhergehende Überarbeitung
glossar:self-attention [2025/05/11 14:47] – angelegt - Externe Bearbeitung 127.0.0.1glossar:self-attention [Unbekanntes Datum] (aktuell) – Externe Bearbeitung (Unbekanntes Datum) 127.0.0.1
Zeile 1: Zeile 1:
 ====== Self-Attention ====== ====== Self-Attention ======
  
-Self-Attention ist der Mechanismus in Transformer-Modellen, der es ermöglicht, den Kontext aller Wörter einer Eingabe gleichzeitig zu berücksichtigen.+Self-Attention ist der Mechanismus in [[methoden:transformer|Transformer-Modellen]], der es ermöglicht, den Kontext aller Wörter einer Eingabe gleichzeitig zu berücksichtigen.
  
 ==== Beispiel ==== ==== Beispiel ====
glossar/self-attention.1746967621.txt.gz · Zuletzt geändert: 2025/05/11 14:47 von 127.0.0.1

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki
Chat
WiKiBot ×
Laden...