Warum hier starten?
Large Language Models sind mächtig, aber der Einstieg kann überwältigend wirken. Dieser Guide kommt auf den Punkt: Du wählst einen kostenlosen API-Anbieter, gibst deinen Key ein und sprichst mit einem KI-Modell — alles in deinem Browser.
⏱️ Du hast in unter 10 Minuten einen funktionierenden LLM-Aufruf. Keine Kreditkarte nötig.
Kostenlosen API-Key holen
Alle drei Anbieter bieten kostenlose Tarife — keine Kreditkarte nötig. Wähle den, der dich anspricht (du kannst die anderen später ausprobieren):
OpenRouter
Größte kostenlose Modellauswahl. Zugriff auf Llama 3.3 70B, DeepSeek R1, Qwen3, Gemma 3 und Mistral Small 3.1 — alles kostenlos. Ideal zum Erkunden.
API-Key holen →Groq
Blitzschnelle Inferenz auf spezieller LPU-Hardware. Kostenloser Developer-Tarif mit Llama 3.3 70B, Qwen3 32B und GPT OSS 120B mit großzügigen Rate-Limits.
API-Key holen →Cerebras
Die schnellste verfügbare Inferenz. Wafer-Scale-Chips liefern unglaubliche Geschwindigkeit. Kostenloser Tarif mit allen Modellen: Llama 3.3 70B, Qwen3 32B und GPT OSS 120B.
API-Key holen →Dein erster LLM-Aufruf
Gib oben deinen API-Key ein, schreibe eine Nachricht und klicke auf Senden
Dein API-Key verlässt niemals deinen Browser — alle Anfragen gehen direkt von deinem Browser an die API des Anbieters. Der Key wird nur im Arbeitsspeicher gehalten und automatisch gelöscht, wenn du die Seite verlässt oder neu lädst.
Im Quellcode überprüfen ↗curl https://api.groq.com/openai/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{
"model": "llama-3.3-70b-versatile",
"messages": [{"role": "user", "content": "Hello, who are you?"}],
"temperature": 0.7,
"max_tokens": 256
}'Die Antwort verstehen
choices[0].message.content
Der eigentliche Text, den das Modell generiert hat. Das würdest du einem Nutzer zeigen.
usage.prompt_tokens / completion_tokens
Wie viele Tokens verwendet wurden. Prompt-Tokens = deine Eingabe, Completion-Tokens = die Ausgabe des Modells. So funktioniert die Abrechnung (kostenlose Tarife berechnen nichts).
finish_reason
"stop" bedeutet, das Modell hat natürlich geendet. "length" bedeutet, es hat das max_tokens-Limit erreicht und wurde abgeschnitten.
model
Das genaü Modell, das deine Anfrage verarbeitet hat. Einige Anbieter können an verschiedene Versionen weiterleiten.
Dein Lernpfad
Ein kuratierter Fahrplan von Null bis Experte. Folge diesen Themen der Reihe nach für das beste Lernerlebnis.
Lerne die Grundlagen, um effektiv mit KI-Modellen zu kommunizieren
Verstehe, wie Zufälligkeit kreative vs. präzise Ausgaben steürt
Sieh, wie Text in Tokens zerlegt wird, die das Modell versteht
Die Bausteine hinter jedem KI-Modell
Wie Modelle Bilder sehen und verstehen
KI-Modelle auf dem eigenen Rechner ausführen
Nächste Schritte
Jetzt, wo du deinen ersten LLM-Aufruf gemacht hast, erkunde diese Themen: