Let's dive in...
Ohne zu sehr ins Detail zu gehen, möchte ich doch einiges dazu erklären, wie man mit Wörtern Berechnungen anstellt und Vorhersagen treffen kann.
Zunächst wird ein Textblock aus dem Lernmaterial in Tokens zerlegt. Um die Bedeutung eines Wortes zu erfassen, beobachten LLMs diese Trainingsdaten und beachten die umliegenden Wörter. Das Modell verarbeitet diese Wörter und erstellt einen Vektor, bekannt als «Word Embedding», der auf der Nähe der Wörter in den Trainingsdaten basiert. Ein Word Embedding kann Hunderte Werte haben, wobei jeder Wert einen anderen Aspekt der Bedeutung eines Wortes repräsentiert. Genauso wie du ein Haus anhand seiner Merkmale beschreibst – Typ, Standort, Schlafzimmer, Badezimmer, Stockwerke –, quantifizieren die Werte in einem Embedding die sprachlichen Eigenschaften eines Wortes.
Die Art und Weise, wie diese Charakteristika abgeleitet werden, bedeutet, dass wir nicht genau wissen, was jeder Wert darstellt. Aber Wörter, von denen wir erwarten, dass sie auf vergleichbare Weise verwendet werden, haben oft ähnlich aussehende Embeddings. Im nachfolgenden Beispiel sieht man, dass die Wörter «Sea» und «Ocean» sowie «football» und «soccer» oder «I» und «we» sehr ähnliche «Word Embeddings» haben.
Hier geht es zum gesamten Artikel: Mit Wörtern rechnen: AI & LLMs für Entscheidungsträger