ThinkWi-KI

Künstliche Intelligenz erklärt – verständlich und praxisnah

Benutzer-Werkzeuge

Webseiten-Werkzeuge


methoden:transformer

05. Transformer-Architektur

Siehe auch: Transformer-Architektur

Transformer sind die Architektur-Grundlage moderner Sprachmodelle wie GPT. Sie wurden 2017 in dem Paper „Attention is All You Need“ vorgestellt.

Hauptkonzepte

  • Self-Attention: Das Modell bezieht sich auf alle Eingabewörter gleichzeitig, nicht sequentiell.
  • Encoder-Decoder-Struktur: Ursprünglich für Übersetzungsaufgaben, später weiterentwickelt.
  • Skalierbarkeit: Ermöglicht paralleles Training riesiger Modelle.

Beispiel

Ein Transformer kann den Zusammenhang zwischen Wörtern wie „Bank“ und „Fluss“ erkennen – abhängig vom Kontext.

Weiterführende Seiten

methoden/transformer.txt · Zuletzt geändert: 2025/05/11 13:22 (Externe Bearbeitung)

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki
Chat
WiKiBot ×
Laden...