ThinkWi-KI

Künstliche Intelligenz erklärt – verständlich und praxisnah

Benutzer-Werkzeuge

Webseiten-Werkzeuge


methoden:transformer

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

Beide Seiten der vorigen RevisionVorhergehende Überarbeitung
methoden:transformer [2025/05/20 07:39] – gelöscht 20.171.207.105methoden:transformer [Unbekanntes Datum] (aktuell) – Externe Bearbeitung (Unbekanntes Datum) 127.0.0.1
Zeile 1: Zeile 1:
 +====== 05. Transformer-Architektur ======
 +Siehe auch: [[theorie:begriffe|Transformer-Architektur]]\\ \\
  
 +Transformer sind die Architektur-Grundlage moderner Sprachmodelle wie GPT. Sie wurden 2017 in dem Paper „Attention is All You Need“ vorgestellt.
 +
 +==== Hauptkonzepte ====
 +  * **[[glossar:self-attention|Self-Attention]]**: Das Modell bezieht sich auf alle Eingabewörter gleichzeitig, nicht sequentiell.
 +  * **Encoder-Decoder-Struktur**: Ursprünglich für Übersetzungsaufgaben, später weiterentwickelt.
 +  * **Skalierbarkeit**: Ermöglicht paralleles Training riesiger Modelle.
 +
 +==== Beispiel ====
 +Ein Transformer kann den Zusammenhang zwischen Wörtern wie „Bank“ und „Fluss“ erkennen – abhängig vom Kontext.
 +
 +==== Weiterführende Seiten ====
 +  * [[methoden:llm|[[methoden:llm|Large Language Models]]]]
 +  * [[glossar:transformer|Glossar: Transformer]]
 +
 +{{tag>methoden transformer architektur}}
methoden/transformer.1747719559.txt.gz · Zuletzt geändert: 2025/05/20 07:39 von 20.171.207.105

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki
Chat
WiKiBot ×
Laden...