methoden:transformer
Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen angezeigt.
| Beide Seiten der vorigen RevisionVorhergehende ÜberarbeitungNächste Überarbeitung | Vorhergehende Überarbeitung | ||
| methoden:transformer [2025/05/11 14:47] – Externe Bearbeitung 127.0.0.1 | methoden:transformer [Unbekanntes Datum] (aktuell) – Externe Bearbeitung (Unbekanntes Datum) 127.0.0.1 | ||
|---|---|---|---|
| Zeile 1: | Zeile 1: | ||
| ====== 05. Transformer-Architektur ====== | ====== 05. Transformer-Architektur ====== | ||
| + | Siehe auch: [[theorie: | ||
| Transformer sind die Architektur-Grundlage moderner Sprachmodelle wie GPT. Sie wurden 2017 in dem Paper „Attention is All You Need“ vorgestellt. | Transformer sind die Architektur-Grundlage moderner Sprachmodelle wie GPT. Sie wurden 2017 in dem Paper „Attention is All You Need“ vorgestellt. | ||
| ==== Hauptkonzepte ==== | ==== Hauptkonzepte ==== | ||
| - | * **Self-Attention**: | + | * **[[glossar: |
| * **Encoder-Decoder-Struktur**: | * **Encoder-Decoder-Struktur**: | ||
| * **Skalierbarkeit**: | * **Skalierbarkeit**: | ||
| Zeile 12: | Zeile 13: | ||
| ==== Weiterführende Seiten ==== | ==== Weiterführende Seiten ==== | ||
| - | * [[methoden: | + | * [[methoden: |
| * [[glossar: | * [[glossar: | ||
| {{tag> | {{tag> | ||
methoden/transformer.1746967621.txt.gz · Zuletzt geändert: 2025/05/11 14:47 von 127.0.0.1
