Temperatur

Beginner

Verstehe, wie ein einzelner Parameter die Balance zwischen vorhersagbarer Logik und kreativer Zufälligkeit in KI-Ausgaben steürt.

Zuletzt aktualisiert: 24. Jan. 2026

Was ist Temperatur?

In LLMs ist Temperatur ein Hyperparameter, der die "Logits" (Rohwerte) der nächsten Token-Vorhersagen skaliert, bevor sie in Wahrscheinlichkeiten umgewandelt werden. Er steürt im Wesentlichen, wie stark das Modell die wahrscheinlichsten Optionen gegenüber weniger wahrscheinlichen bevorzugt.

Niedrige Temperatur

Konzentriert sich auf die Top-Ergebnisse. Zuverlässig, konsistent und faktisch. Ideal für Code, Mathematik und strukturierte Daten.

Hohe Temperatur

Verteilt Wahrscheinlichkeit auf mehr Tokens. Vielfältig, kreativ und überraschend. Ideal für Geschichten, Brainstorming und Pösie.

🎛️

Interaktive Verteilung

Stelle die Temperatur ein, um den Effekt zu sehen

Bewege den Temperaturregler, um zu sehen, wie er die Wahrscheinlichkeitsverteilung für das nächste Token umformt. Beobachte, wie "the" (die wahrscheinlichste Wahl) bei niedrigen Temperaturen dominiert und bei steigender Temperatur seinen Vorsprung verliert.

Bedienfeld

Temperatur anpassen

Ausgewogen
0.7
DeterministischAusgewogenKreativChaotisch

Beispiel-Prompt

"Es war einmal..."

Wahrscheinlichkeitsverteilung

Nächste Token-Wahrscheinlichkeiten

"the"
72.1%
"a"
20.6%
"one"
5.6%
"every"
1.5%
"some"
0.2%

Fokussiertes Sampling: Die Verteilung wird geschärft. Das Modell sampelt zufällig, aber Tokens mit hoher Wahrscheinlichkeit werden viel eher gewählt.

Live-Vervollständigung

"Es war einmal" "

Ausgewogen: Natürliche Mischung aus Vorhersehbarkeit und Vielfalt.

Warum unterschiedliche Ausgaben? Die Balken zeigen Wahrscheinlichkeiten, aber das Modell wählt nicht immer den höchsten Balken. Es sampelt zufällig—wie ein gewichteter Würfel. Höhere Temperatur = gleichere Gewichte = unvorhersehbarere Würfe. Klicke "Neu generieren" um erneut zu sampeln!

Wie es mathematisch funktioniert

Das Modell generiert einen Score für jedes mögliche Token. Um Wahrscheinlichkeiten zu erhalten, verwenden wir die Softmax-Funktion, modifiziert durch die Temperatur:

P(xi)=ezi/Tjezj/TP(x_i) = \frac{e^{z_i / T}}{\sum_{j} e^{z_j / T}}
Wenn T → 0Niedrig

Division durch ein kleines T verstärkt die Unterschiede zwischen den Scores. Der höchste Logit dominiert exponentiell.

limT0P(xmax)=1\lim_{T \to 0} P(x_{\text{max}}) = 1
Wenn T → ∞Hoch

Division durch ein großes T komprimiert alle Scores gegen Null, wodurch sie nach der Exponentialfunktion nahezu gleich werden.

limTP(xi)=1N\lim_{T \to \infty} P(x_i) = \frac{1}{N}

Praktische Richtlinien

AnwendungsfallTemperaturWarum?
Programmierung & Mathematik0.0 - 0.2Fehler in der Logik sind kostspielig; du willst den wahrscheinlichsten korrekten Pfad.
Faktenabfrage0.1 - 0.4Reduziert "Halluzinationen", indem es sich an die wahrscheinlichsten Datenpunkte hält.
Allgemeiner Chat0.7 - 0.8Der "Sweet Spot" für die meisten Modelle, um natürlich und hilfreich zu klingen.
Kreatives Schreiben1.0 - 1.2Ermutigt das Modell, interessanteres, vielfältigeres Vokabular zu verwenden.
Brainstorming1.2 - 1.5Generiert wilde, unkonventionelle Ideen, die Inspiration wecken könnten.

Wichtige Erkenntnisse

  • 1Temperatur 0 ist deterministisch ("Greedy Search") – wählt immer das Top-Token
  • 2Höhere Temperatur erhöht Vielfalt und Kreativität, verringert aber die Kohärenz
  • 3Zu hohe Temperatur (> 1.5) führt oft zu Kauderwelsch
  • 4Passe die Temperatur immer an die Anforderungen der Aufgabe bezüglich Präzision vs. Kreativität an