Was ist Temperatur?
In LLMs ist Temperatur ein Hyperparameter, der die "Logits" (Rohwerte) der nächsten Token-Vorhersagen skaliert, bevor sie in Wahrscheinlichkeiten umgewandelt werden. Er steürt im Wesentlichen, wie stark das Modell die wahrscheinlichsten Optionen gegenüber weniger wahrscheinlichen bevorzugt.
Niedrige Temperatur
Konzentriert sich auf die Top-Ergebnisse. Zuverlässig, konsistent und faktisch. Ideal für Code, Mathematik und strukturierte Daten.
Hohe Temperatur
Verteilt Wahrscheinlichkeit auf mehr Tokens. Vielfältig, kreativ und überraschend. Ideal für Geschichten, Brainstorming und Pösie.
Interaktive Verteilung
Stelle die Temperatur ein, um den Effekt zu sehen
Bewege den Temperaturregler, um zu sehen, wie er die Wahrscheinlichkeitsverteilung für das nächste Token umformt. Beobachte, wie "the" (die wahrscheinlichste Wahl) bei niedrigen Temperaturen dominiert und bei steigender Temperatur seinen Vorsprung verliert.
Bedienfeld
Temperatur anpassen
Beispiel-Prompt
"Es war einmal..."
Wahrscheinlichkeitsverteilung
Nächste Token-Wahrscheinlichkeiten
Fokussiertes Sampling: Die Verteilung wird geschärft. Das Modell sampelt zufällig, aber Tokens mit hoher Wahrscheinlichkeit werden viel eher gewählt.
Live-Vervollständigung
Ausgewogen: Natürliche Mischung aus Vorhersehbarkeit und Vielfalt.
Warum unterschiedliche Ausgaben? Die Balken zeigen Wahrscheinlichkeiten, aber das Modell wählt nicht immer den höchsten Balken. Es sampelt zufällig—wie ein gewichteter Würfel. Höhere Temperatur = gleichere Gewichte = unvorhersehbarere Würfe. Klicke "Neu generieren" um erneut zu sampeln!
Wie es mathematisch funktioniert
Das Modell generiert einen Score für jedes mögliche Token. Um Wahrscheinlichkeiten zu erhalten, verwenden wir die Softmax-Funktion, modifiziert durch die Temperatur:
Division durch ein kleines T verstärkt die Unterschiede zwischen den Scores. Der höchste Logit dominiert exponentiell.
Division durch ein großes T komprimiert alle Scores gegen Null, wodurch sie nach der Exponentialfunktion nahezu gleich werden.
Praktische Richtlinien
| Anwendungsfall | Temperatur | Warum? |
|---|---|---|
| Programmierung & Mathematik | 0.0 - 0.2 | Fehler in der Logik sind kostspielig; du willst den wahrscheinlichsten korrekten Pfad. |
| Faktenabfrage | 0.1 - 0.4 | Reduziert "Halluzinationen", indem es sich an die wahrscheinlichsten Datenpunkte hält. |
| Allgemeiner Chat | 0.7 - 0.8 | Der "Sweet Spot" für die meisten Modelle, um natürlich und hilfreich zu klingen. |
| Kreatives Schreiben | 1.0 - 1.2 | Ermutigt das Modell, interessanteres, vielfältigeres Vokabular zu verwenden. |
| Brainstorming | 1.2 - 1.5 | Generiert wilde, unkonventionelle Ideen, die Inspiration wecken könnten. |
Wichtige Erkenntnisse
- 1Temperatur 0 ist deterministisch ("Greedy Search") – wählt immer das Top-Token
- 2Höhere Temperatur erhöht Vielfalt und Kreativität, verringert aber die Kohärenz
- 3Zu hohe Temperatur (> 1.5) führt oft zu Kauderwelsch
- 4Passe die Temperatur immer an die Anforderungen der Aufgabe bezüglich Präzision vs. Kreativität an