methoden:transformer
Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen angezeigt.
| Nächste Überarbeitung | Vorhergehende Überarbeitung | ||
| methoden:transformer [2025/05/10 18:47] – angelegt - Externe Bearbeitung 127.0.0.1 | methoden:transformer [Unbekanntes Datum] (aktuell) – Externe Bearbeitung (Unbekanntes Datum) 127.0.0.1 | ||
|---|---|---|---|
| Zeile 1: | Zeile 1: | ||
| - | ====== Transformer-Architektur ====== | + | ====== |
| + | Siehe auch: [[theorie: | ||
| Transformer sind die Architektur-Grundlage moderner Sprachmodelle wie GPT. Sie wurden 2017 in dem Paper „Attention is All You Need“ vorgestellt. | Transformer sind die Architektur-Grundlage moderner Sprachmodelle wie GPT. Sie wurden 2017 in dem Paper „Attention is All You Need“ vorgestellt. | ||
| ==== Hauptkonzepte ==== | ==== Hauptkonzepte ==== | ||
| - | * **Self-Attention**: | + | * **[[glossar: |
| * **Encoder-Decoder-Struktur**: | * **Encoder-Decoder-Struktur**: | ||
| * **Skalierbarkeit**: | * **Skalierbarkeit**: | ||
| Zeile 12: | Zeile 13: | ||
| ==== Weiterführende Seiten ==== | ==== Weiterführende Seiten ==== | ||
| - | * [[02_methoden:llm|Large Language Models]] | + | * [[methoden: |
| - | * [[04_glossar: | + | * [[glossar: |
| {{tag> | {{tag> | ||
methoden/transformer.1746895662.txt.gz · Zuletzt geändert: 2025/05/10 18:47 von 127.0.0.1
