glossar:self-attention
Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen angezeigt.
| Nächste Überarbeitung | Vorhergehende Überarbeitung | ||
| glossar:self-attention [2025/05/11 14:47] – angelegt - Externe Bearbeitung 127.0.0.1 | glossar:self-attention [Unbekanntes Datum] (aktuell) – Externe Bearbeitung (Unbekanntes Datum) 127.0.0.1 | ||
|---|---|---|---|
| Zeile 1: | Zeile 1: | ||
| ====== Self-Attention ====== | ====== Self-Attention ====== | ||
| - | Self-Attention ist der Mechanismus in Transformer-Modellen, | + | Self-Attention ist der Mechanismus in [[methoden: |
| ==== Beispiel ==== | ==== Beispiel ==== | ||
glossar/self-attention.1746967621.txt.gz · Zuletzt geändert: 2025/05/11 14:47 von 127.0.0.1
