Speichersysteme

Intermediate

Wie KI-Agenten Kontext aufrechterhalten und Informationen über Interaktionen hinweg speichern.

Zuletzt aktualisiert: 29. Jan. 2026

Was sind Agenten-Speichersysteme?

Speichersysteme ermöglichen es Agenten, Informationen über das unmittelbare Kontextfenster hinaus zu behalten und abzurufen. Sie ermöglichen Agenten, aus vergangenen Interaktionen zu lernen und kohärentes Langzeitverhalten aufrechtzürhalten.

Arten von Speicher

Agenten-Speichersysteme kombinieren typischerweise mehrere Speichertypen für verschiedene Zwecke.

Kurzzeitgedächtnis

Der aktülle Gesprächskontext. Begrenzt durch die Kontextfenstergröße.

Langzeitgedächtnis

Daürhafte Speicherung vergangener Interaktionen, Fakten und gelernter Präferenzen.

Episodisches Gedächtnis

Spezifische vergangene Ereignisse und Interaktionen, die abgerufen werden können.

Semantisches Gedächtnis

Allgemeines Wissen und Fakten, die aus Erfahrungen extrahiert wurden.

Implementierungsansätze

Verschiedene Techniken zur Implementierung von Agenten-Speicher.

Vektorspeicher

Einbettungen vergangener Interaktionen für semantischen Abruf speichern.

Gesprächszusammenfassungen

Lange Gespräche periodisch zusammenfassen, um wichtige Informationen zu erhalten.

Schlüssel-Wert-Speicher

Explizite Fakten und Benutzerpräferenzen für direkten Abruf speichern.

Hybride Speichermuster

Moderne Agenten kombinieren episodisches und semantisches Gedächtnis für menschenähnliche Erinnerung. Das MemGPT-Muster und ähnliche Architekturen behandeln Speicher als erstklassige Ressource, die der Agent aktiv verwaltet.

MemGPT-Architektur

Agenten mit expliziter Speicherverwaltung – Daten zwischen schnellem Kontext und langsamem Speicher verschieben, wie ein Betriebssystem RAM und Festplatte verwaltet.

Gestufter Speicher

Hot (Kontext), Warm (Vektor-Cache) und Cold (Archiv) Stufen mit automatischer Beförderung und Herabstufung basierend auf Zugriffsmustern.

Selbstbearbeitender Speicher

Agenten, die ihre eigenen Erinnerungen aktualisieren, konsolidieren und umstrukturieren können, anstatt nur anzuhängen.

Dual-Encoder-Abruf

Separate Encoder für Abfragen und Erinnerungen ermöglichen asymmetrischen Abruf, der für jede Richtung optimiert ist.

Temporale Wissensgraphen

Speichere Erinnerungen mit expliziten Zeitbeziehungen, um Abfragen wie "was haben wir letzte Woche besprochen?" zu ermöglichen und Wissensdrift über Zeit zu erkennen.

Entitäts-Beziehungs-Tracking

Extrahiere Entitäten (Personen, Projekte, Konzepte) und ihre Beziehungen aus Gesprächen und baü einen abfragbaren Wissensgraphen.

Zeitgewichteter Abruf

Kombiniere semantische Ähnlichkeit mit Aktualität, Wichtigkeit und Zugriffshäufigkeit für relevantere Erinnerung.

ZEP-Stil-Speicher

Automatische Extraktion von Fakten, Entitäten und temporalen Beziehungen mit bi-temporaler Modellierung (wann etwas passierte vs. wann es aufgezeichnet wurde).

Speicherverwaltung

Produktionsspeichersysteme erfordern aktive Verwaltung, um innerhalb von Token-Budgets zu bleiben und gleichzeitig wertvolle Informationen zu erhalten.

Deduplizierung

Erkenne und vereinige semantisch ähnliche Erinnerungen, um Aufblähung zu verhindern. Verwende Embedding-Ähnlichkeitsschwellen oder LLM-basierten Vergleich.

Token-Budgets

Weise verschiedenen Speichertypen feste Token-Anzahlen zu. Bei Überschreitung des Budgets, komprimiere oder entferne Elemente mit niedrigster Priorität.

Garbage Collection

Scanne Erinnerungen periodisch auf veraltete, redundante oder wenig wertvolle Einträge. LRU-, LFU- oder wichtigkeitsgewichtete Eviction-Strategien.

Prioritätsregeln

Definiere, welche Erinnerungen am wichtigsten sind: Benutzerpräferenzen, Aufgabenkontext, kürzliche Interaktionen oder explizit fixierte Fakten.

Adaptive Aufbewahrung

Intelligente Strategien für was behalten, zusammenfassen oder vergessen werden soll – nachahmen wie menschliches Gedächtnis natürlich verfällt und konsolidiert.

Kontextzusammenfassung

Progressive Zusammenfassung: volle Details für aktüllen Kontext, Zusammenfassungen für ältere Gespräche, nur Schlüsselfakten für entfernte Vergangenheit.

Entitätsextraktion

Identifiziere und speichere automatisch wichtige Entitäten (Namen, Präferenzen, Entscheidungen) getrennt von rohen Gesprächsprotokollen.

Verfallsstrategien

Exponentielle oder logarithmische Verfallsfunktionen reduzieren die Wichtigkeit von Erinnerungen über Zeit, es sei denn, sie werden durch Zugriff oder explizite Wichtigkeitsmarkierungen verstärkt.

🧠

Speichersystem-Visualisierer

Sieh, wie verschiedene Speichertypen zusammenarbeiten

Erinnerung hinzufügen

Store new information

Abrufen

Search stored memories

Kurzzeitgedächtnis

Current context

Kapazität3/5 slots

User prefers dark mode

90%

Current task: Write documentation

95%

Project name is "learn-guide"

85%

Langzeitgedächtnis

Persistent storage

Erinnerungen gespeichert2

User is a software developer

80%

Preferred programming language: TypeScript

75%

Short-term memory has limited capacity (5 slots). When full, oldest memories migrate to long-term storage.

Wichtige Erkenntnisse

  • 1Speicher erweitert die Agentenfähigkeiten über das Kontextfenster hinaus
  • 2Kombiniere mehrere Speichertypen für beste Ergebnisse
  • 3Speicherabruf fügt Latenz hinzu – balance Vollständigkeit mit Geschwindigkeit
  • 4Berücksichtige Datenschutz und Datenspeicherung beim Speichern von Erinnerungen
  • 5Hybridmuster wie MemGPT ermöglichen Agenten, ihren eigenen Speicher wie ein Betriebssystem zu verwalten
  • 6Temporale Wissensgraphen fügen Zeitbewusstsein für kontextülleren Abruf hinzu