Erste Schritte

Beginner

Dein erster LLM-API-Aufruf in 10 Minuten — komplett kostenlos. Keine Kreditkarte nötig.

Zuletzt aktualisiert: 10. Feb. 2026

Warum hier starten?

Large Language Models sind mächtig, aber der Einstieg kann überwältigend wirken. Dieser Guide kommt auf den Punkt: Du wählst einen kostenlosen API-Anbieter, gibst deinen Key ein und sprichst mit einem KI-Modell — alles in deinem Browser.

⏱️ Du hast in unter 10 Minuten einen funktionierenden LLM-Aufruf. Keine Kreditkarte nötig.

Kostenlosen API-Key holen

Alle drei Anbieter bieten kostenlose Tarife — keine Kreditkarte nötig. Wähle den, der dich anspricht (du kannst die anderen später ausprobieren):

OpenRouter

Größte kostenlose Modellauswahl. Zugriff auf Llama 3.3 70B, DeepSeek R1, Qwen3, Gemma 3 und Mistral Small 3.1 — alles kostenlos. Ideal zum Erkunden.

API-Key holen →

Groq

Blitzschnelle Inferenz auf spezieller LPU-Hardware. Kostenloser Developer-Tarif mit Llama 3.3 70B, Qwen3 32B und GPT OSS 120B mit großzügigen Rate-Limits.

API-Key holen →

Cerebras

Die schnellste verfügbare Inferenz. Wafer-Scale-Chips liefern unglaubliche Geschwindigkeit. Kostenloser Tarif mit allen Modellen: Llama 3.3 70B, Qwen3 32B und GPT OSS 120B.

API-Key holen →
🚀

Dein erster LLM-Aufruf

Gib oben deinen API-Key ein, schreibe eine Nachricht und klicke auf Senden

API-Key

Dein API-Key verlässt niemals deinen Browser — alle Anfragen gehen direkt von deinem Browser an die API des Anbieters. Der Key wird nur im Arbeitsspeicher gehalten und automatisch gelöscht, wenn du die Seite verlässt oder neu lädst.

Im Quellcode überprüfen
Modell:
Temperatur0.7
Max Tokens256
curl https://api.groq.com/openai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -d '{
    "model": "llama-3.3-70b-versatile",
    "messages": [{"role": "user", "content": "Hello, who are you?"}],
    "temperature": 0.7,
    "max_tokens": 256
  }'

Die Antwort verstehen

choices[0].message.content

Der eigentliche Text, den das Modell generiert hat. Das würdest du einem Nutzer zeigen.

usage.prompt_tokens / completion_tokens

Wie viele Tokens verwendet wurden. Prompt-Tokens = deine Eingabe, Completion-Tokens = die Ausgabe des Modells. So funktioniert die Abrechnung (kostenlose Tarife berechnen nichts).

finish_reason

"stop" bedeutet, das Modell hat natürlich geendet. "length" bedeutet, es hat das max_tokens-Limit erreicht und wurde abgeschnitten.

model

Das genaü Modell, das deine Anfrage verarbeitet hat. Einige Anbieter können an verschiedene Versionen weiterleiten.

Dein Lernpfad

Ein kuratierter Fahrplan von Null bis Experte. Folge diesen Themen der Reihe nach für das beste Lernerlebnis.

Gesamtfortschritt0/18

Nächste Schritte

Jetzt, wo du deinen ersten LLM-Aufruf gemacht hast, erkunde diese Themen: