19 Themen
Große Sprachmodelle
Verstehe die inneren Abläufe großer Sprachmodelle, von der Tokenisierung bis zu Aufmerksamkeitsmechanismen.
Hilf mit, das hier zu verbessern
Dieser Guide ist Open Source. Hast du eine Idee für ein neues Thema? Einen Fehler gefunden? Eine Erklärung verbessern? Jeder Beitrag hilft.
Grundlagen
Verhalten
Fähigkeiten
01
RAG (Retrieval Augmented Generation)LLM-Antworten mit abgerufenem externem Wissen anreichern31. Jan. 2026
I02
BildverarbeitungWie LLMs Bilder neben Text verarbeiten und verstehen24. Jan. 2026
B03
Visuelle HerausforderungenWo Bildmodelle scheitern: Zählen, Raumverständnis, OCR29. Jan. 2026
I04
Agentische BildverarbeitungAktive Bildanalyse durch Zoom, Zuschnitt und Code-Ausführung29. Jan. 2026
E05
MultimodalitätText, Bilder, Audio und Video in einem Modell verarbeiten1. Feb. 2026
BArchitektur
01
Transformer-ArchitekturDie grundlegende Architektur hinter GPT, BERT und allen modernen LLMs9. Feb. 2026
I02
LLM-TrainingVom Vortraining auf Rohdaten bis zum Feintuning mit Feedback29. Jan. 2026
I03
TrainingsdatenWoher KI-Modelle ihr Wissen beziehen: legitime Quellen, Kontroversen und synthetische Daten24. Feb. 2026
I04
Mixture of ExpertsNur einen Bruchteil der Modellparameter pro Token aktivieren31. Jan. 2026
E05
QuantisierungModellgröße durch reduzierte Zahlenpräzision verkleinern31. Jan. 2026
E06
Verschachteltes LernenLernalgorithmen, die auf mehreren Ebenen arbeiten8. Feb. 2026
E07
DestillationWissen von einem großen Modell auf ein kleineres übertragen5. Feb. 2026
I08
Fine-Tuning & LoRAGroße Modelle effizient anpassen durch Training winziger Low-Rank-Matrizen9. Feb. 2026
I09
Spekulatives DecodingInferenz beschleunigen durch Vorhersage mit kleinerem Modell5. Feb. 2026
E