Concepts
Agent Brain hat 7 kognitive Schichten, inspiriert von der menschlichen Gedächtnisarchitektur. Kein LLM. Reine Datenbankarbeit und Mathematik.
Perception Gate
Jede eingehende Information wird sofort bewertet, bevor sie gespeichert wird. Vier unabhängige Scoring-Metriken bestimmen das Gewicht der Erinnerung.
| Metrik | Range | Beschreibung |
|---|---|---|
| emotion_score | -1.0 bis +1.0 | Emotionale Valenz. -1 = stark negativ, +1 = stark positiv. Extreme Werte erhalten höheres Gewicht. |
| novelty_score | 0.0 bis 1.0 | Wie neu ist diese Information? Gemessen via Cosine Distance zu bestehenden Memories. Hohe Novelty = wichtiger. |
| urgency_score | 0.0 bis 1.0 | Zeitliche Dringlichkeit. Keywords wie "sofort", "dringend", "Deadline" erhöhen den Score. |
| source_trust | 0.0 bis 1.0 | Vom Caller gesetzt. 0.9+ = offizielle Quelle, 0.5 = unbestätigt, 0.3 = Gerücht. |
weight = |emotion| * 0.3 + novelty * 0.3 + urgency * 0.2 + source_trust * 0.2. Erinnerungen mit höherem Gewicht bleiben länger erhalten und werden bei Recall bevorzugt.Working Memory
Wie beim Menschen: maximal 7 Items gleichzeitig (Miller's Law). Der Working Memory Buffer hält die aktuell relevantesten Punkte griffbereit.
- Kapazität: 7 Items pro Workspace/Agent
- Strategie: FIFO mit Priorität. Neue Items mit höherem Gewicht verdrängen schwächere.
- Decay: Working Memory verfällt in Minuten, nicht Tagen. Kurzfristiger Kontext.
- Aktualisierung: Bei jedem Store und Recall wird der Buffer neu berechnet.
Episodisches Gedächtnis
Konkrete Erinnerungen mit Zeitstempel, Kontext und Gewicht. Jede Memory wird als 384-dimensionaler Vektor gespeichert und via pgvector Cosine Similarity durchsucht.
Reconsolidation bei Recall
Jedes Mal wenn eine Erinnerung abgerufen wird, passiert Reconsolidation:
access_countwird um 1 erhöhtweighterhält einen kleinen Bump (häufig abgerufene Erinnerungen werden stärker)last_accessedwird aktualisiert
-- Vector Search (vereinfacht)
SELECT *, 1 - (embedding <=> query_embedding) AS relevance
FROM memories
WHERE workspace_id = $1
ORDER BY relevance DESC
LIMIT $2Knowledge Graph
spaCy NER (deutsches Modell: de_core_news_md) extrahiert automatisch Entities aus jedem gespeicherten Text.
Entity-Typen
Relationships
Entities die im selben Text auftreten, werden automatisch verknüpft (Co-Mention). Jede Beziehung hat:
- confidence: Wie sicher ist die Verbindung (0.0 - 1.0)
- observation_count: Wie oft wurde die Verbindung beobachtet
- weight: Steigt mit jeder Beobachtung
Prozedurales Gedächtnis
Muster die durch Wiederholung entstehen. Nach 3+ Beobachtungen desselben Verhaltens wird ein Pattern erkannt und gespeichert.
// Pattern-Struktur
{
"trigger_condition": "Kunde ruft wegen Heizung an",
"action_recommendation": "Techniker-Termin vorschlagen",
"confidence": 0.85,
"observation_count": 5,
"last_observed": "2026-04-05T14:30:00Z"
}Predictive Engine
Läuft alle 60 Minuten automatisch. Scannt zeitliche Muster und generiert proaktive Alerts mit Wahrscheinlichkeits-Scores.
Alert-Typen
- Zeitliche Muster: Events die saisonal oder periodisch auftreten (z.B. "Heizungsmeldung trat 3x im Oktober auf")
- Überfällige Events: Erwartete regelmässige Events die ausbleiben (z.B. "Monatsbericht wurde nicht erstellt")
// Alert-Beispiel
{
"content": "Saisonales Muster: Heizungsmeldung trat 3x im Oktober auf. Wahrscheinlichkeit: 85%",
"probability": 0.85,
"resolved": false
}Dream Cycle
Läuft jede Nacht zwischen 02:00 und 04:00. Drei Prozesse, inspiriert von der menschlichen Schlafphase:
1. Ebbinghaus Decay (Vergessen)
Basierend auf der Ebbinghaus Vergessenskurve (1885). Erinnerungen verlieren exponentiell an Gewicht über Zeit:
R(t) = e^(-t/S)
R = Retention (verbleibendes Gewicht)
t = Zeit seit letztem Zugriff
S = Stability (abhängig von access_count + source_trust)Häufig abgerufene und vertrauenswürdige Erinnerungen haben höhere Stability und verfallen langsamer.
2. Consolidation (Verdichten)
Erinnerungen mit hoher Cosine Similarity (92%+) werden zusammengeführt. Die stärkere bleibt, die schwächere wird absorbiert. Access Counts und Entities werden kombiniert. Das reduziert Redundanz und stärkt Kernwissen.
3. Creative Linking (Entdecken)
Sucht nach nicht-offensichtlichen Verbindungen zwischen Entities, die noch nie im selben Kontext aufgetaucht sind. Findet Verbindungen über Brücken-Entities und erzeugt neue Beziehungen im Knowledge Graph. Das ist die "Kreativität" des Systems.