Docs

Concepts

Agent Brain hat 7 kognitive Schichten, inspiriert von der menschlichen Gedächtnisarchitektur. Kein LLM. Reine Datenbankarbeit und Mathematik.

1

Perception Gate

Jede eingehende Information wird sofort bewertet, bevor sie gespeichert wird. Vier unabhängige Scoring-Metriken bestimmen das Gewicht der Erinnerung.

MetrikRangeBeschreibung
emotion_score-1.0 bis +1.0Emotionale Valenz. -1 = stark negativ, +1 = stark positiv. Extreme Werte erhalten höheres Gewicht.
novelty_score0.0 bis 1.0Wie neu ist diese Information? Gemessen via Cosine Distance zu bestehenden Memories. Hohe Novelty = wichtiger.
urgency_score0.0 bis 1.0Zeitliche Dringlichkeit. Keywords wie "sofort", "dringend", "Deadline" erhöhen den Score.
source_trust0.0 bis 1.0Vom Caller gesetzt. 0.9+ = offizielle Quelle, 0.5 = unbestätigt, 0.3 = Gerücht.
Gewichtsberechnung
Das finale Gewicht wird aus allen 4 Scores berechnet: weight = |emotion| * 0.3 + novelty * 0.3 + urgency * 0.2 + source_trust * 0.2. Erinnerungen mit höherem Gewicht bleiben länger erhalten und werden bei Recall bevorzugt.
2

Working Memory

Wie beim Menschen: maximal 7 Items gleichzeitig (Miller's Law). Der Working Memory Buffer hält die aktuell relevantesten Punkte griffbereit.

  • Kapazität: 7 Items pro Workspace/Agent
  • Strategie: FIFO mit Priorität. Neue Items mit höherem Gewicht verdrängen schwächere.
  • Decay: Working Memory verfällt in Minuten, nicht Tagen. Kurzfristiger Kontext.
  • Aktualisierung: Bei jedem Store und Recall wird der Buffer neu berechnet.
Warum 7?
George Miller's Forschung (1956) zeigte, dass das menschliche Kurzzeitgedächtnis 7 +/- 2 Items halten kann. Agent Brain nutzt dieses Prinzip, um den Kontext fokussiert zu halten.
3

Episodisches Gedächtnis

Konkrete Erinnerungen mit Zeitstempel, Kontext und Gewicht. Jede Memory wird als 384-dimensionaler Vektor gespeichert und via pgvector Cosine Similarity durchsucht.

Reconsolidation bei Recall

Jedes Mal wenn eine Erinnerung abgerufen wird, passiert Reconsolidation:

  • access_count wird um 1 erhöht
  • weight erhält einen kleinen Bump (häufig abgerufene Erinnerungen werden stärker)
  • last_accessed wird aktualisiert
-- Vector Search (vereinfacht)
SELECT *, 1 - (embedding <=> query_embedding) AS relevance
FROM memories
WHERE workspace_id = $1
ORDER BY relevance DESC
LIMIT $2
4

Knowledge Graph

spaCy NER (deutsches Modell: de_core_news_md) extrahiert automatisch Entities aus jedem gespeicherten Text.

Entity-Typen

person
z.B. Müller
org
z.B. Valtis AG
location
z.B. Zürich
concept
z.B. Heizung

Relationships

Entities die im selben Text auftreten, werden automatisch verknüpft (Co-Mention). Jede Beziehung hat:

  • confidence: Wie sicher ist die Verbindung (0.0 - 1.0)
  • observation_count: Wie oft wurde die Verbindung beobachtet
  • weight: Steigt mit jeder Beobachtung
5

Prozedurales Gedächtnis

Muster die durch Wiederholung entstehen. Nach 3+ Beobachtungen desselben Verhaltens wird ein Pattern erkannt und gespeichert.

// Pattern-Struktur
{
  "trigger_condition": "Kunde ruft wegen Heizung an",
  "action_recommendation": "Techniker-Termin vorschlagen",
  "confidence": 0.85,
  "observation_count": 5,
  "last_observed": "2026-04-05T14:30:00Z"
}
3x-Regel
Ein Muster wird erst ab 3 Beobachtungen gespeichert. Das verhindert Overfitting auf einzelne Events. Confidence steigt mit jeder weiteren Beobachtung.
6

Predictive Engine

Läuft alle 60 Minuten automatisch. Scannt zeitliche Muster und generiert proaktive Alerts mit Wahrscheinlichkeits-Scores.

Alert-Typen

  • Zeitliche Muster: Events die saisonal oder periodisch auftreten (z.B. "Heizungsmeldung trat 3x im Oktober auf")
  • Überfällige Events: Erwartete regelmässige Events die ausbleiben (z.B. "Monatsbericht wurde nicht erstellt")
// Alert-Beispiel
{
  "content": "Saisonales Muster: Heizungsmeldung trat 3x im Oktober auf. Wahrscheinlichkeit: 85%",
  "probability": 0.85,
  "resolved": false
}
7

Dream Cycle

Läuft jede Nacht zwischen 02:00 und 04:00. Drei Prozesse, inspiriert von der menschlichen Schlafphase:

1. Ebbinghaus Decay (Vergessen)

Basierend auf der Ebbinghaus Vergessenskurve (1885). Erinnerungen verlieren exponentiell an Gewicht über Zeit:

R(t) = e^(-t/S)

R = Retention (verbleibendes Gewicht)
t = Zeit seit letztem Zugriff
S = Stability (abhängig von access_count + source_trust)

Häufig abgerufene und vertrauenswürdige Erinnerungen haben höhere Stability und verfallen langsamer.

2. Consolidation (Verdichten)

Erinnerungen mit hoher Cosine Similarity (92%+) werden zusammengeführt. Die stärkere bleibt, die schwächere wird absorbiert. Access Counts und Entities werden kombiniert. Das reduziert Redundanz und stärkt Kernwissen.

3. Creative Linking (Entdecken)

Sucht nach nicht-offensichtlichen Verbindungen zwischen Entities, die noch nie im selben Kontext aufgetaucht sind. Findet Verbindungen über Brücken-Entities und erzeugt neue Beziehungen im Knowledge Graph. Das ist die "Kreativität" des Systems.