Frage 1: Was ist KI?

Wie funktionieren Sprachmodelle wirklich?

Was sind Chatbots?

Claude (Anthropic)

Gemini (Google)

Was sind LLMs?

Ein LLM kann man sich wie einen ausgefeilten Autocomplete-Mechanismus vorstellen.

Die Kernidee

Sprachmodelle sagen das nächste Wort vorher.

\[\green{P(\text{Wort}_{i+1}} \mid \red{\text{Kontext}}, \blue{\text{Modell}})\]

Jede Vorhersage basiert auf dem Kontext und dem internen Modell.

Was bedeutet das konkret?

Gegeben einen Satzanfang wie “Der Hund liegt auf dem”, berechnet das Modell die Wahrscheinlichkeit für jedes mögliche nächste Wort:

  • “Boden” → 32%
  • “Sofa” → 24%
  • “Bett” → 18%

Zwei Faktoren bestimmen diese Vorhersage:

  1. Kontext: Was wurde bisher gesagt?
  2. Modell: Was hat das System aus Trainingsdaten gelernt?

Token-Vorhersage und Temperatur

Basis-Wahrscheinlichkeiten

Mit Temperature =

Vorhersage in Aktion

Nicht alle Teile des Kontexts sind gleich wichtig:


“Die Familie, die sehr wohlhabend war, lebte in einem grossen Haus. Das Haus stand inmitten eines weitläufigen Gartens. Es war bekannt für seine prächtige Fassade und die grosszügigen _


Welche Wörter sind besonders wichtig für die Vorhersage?

Wie generieren LLMs ganze Sequenzen?


\[\green{P(\text{Wort}_{i+1}} \mid \red{\text{Kontext}}, \blue{\text{Modell}})\]

Wie werden LLMs trainiert?

Chain-of-Thought “Denken”

Wenn wir das Modell auffordern, “Schritt für Schritt zu denken”:

  1. Es generiert Zwischenschritte als zusätzliche Tokens
  2. Diese Tokens erweitern den Kontext für die nächste Vorhersage
  3. Mehr Kontext führt zu besseren Vorhersagen

Das “Denken” ist zusätzliche Textgenerierung. Dieser Text dient als erweiterter Kontext.

Beispiel: 9.11 vs 9.8

Frage: “Was ist grösser: 9.11 oder 9.8?”


Ohne Anleitung: Oft falsch (verwechselt mit Datumsformat)

Mit “Denke Schritt für Schritt”: Meist richtig


Warum? Mehr Tokens = mehr “Rechenzeit” für die statistische Vorhersage

“Think Deeper” in Copilot

Warum funktioniert “Denken”?

Mehr Kontext, bessere Vorhersagen

“Denken” verbessert die Ergebnisse, weil mehr Kontext (die Zwischenschritte) zur Verfügung steht.

Die Implementierung unterscheidet sich von menschlichem Denken, aber die Funktion ist ähnlich: Schritt für Schritt zum Ziel.

Takeaway

Antwort auf Frage 1

Was ist KI?

Sprachmodelle generieren Text durch Vorhersage des nächsten Worts. Das ist funktional ähnlich wie unser Gehirn Muster vervollständigt. Der Unterschied liegt im Grad der Zuverlässigkeit: Der Kontext bestimmt das Ergebnis.