Technische Architektur

Die Architektur der Intuition

Wie Agent Brain Erinnerungen speichert, verbindet und vergisst — inspiriert von der kognitiven Neurowissenschaft.

Paradigma

Das Paradigma: Entkoppeltes Gedächtnis

Strikte Trennung zwischen Reasoning Engine (AI Agent) und kognitivem Substrat (Brain).

Agent Brain denkt nicht. Es speichert, verbindet und liefert. Keine LLM-Calls für Gedächtnisoperationen — reine Datenbank-Mathematik und lokale Modelle.

Die Architektur bewegt sich von «stochastischer Amnesie» hin zu «institutioneller Intuition»: Ein Agent, der sich erinnert wie ein erfahrener Mitarbeiter, nicht wie ein frisch gebooteter Prozess.

0 LLM-CallsPure MathLokale Embeddings
AI Agent
API
Agent Brain
SQL
PostgreSQL
Schicht 1

Perception Gate

4 Scoring-Metriken bewerten jeden Input in Echtzeit. Nur relevante Informationen passieren das Gate.

MetrikRangeFunktion
Emotion-Score-1.0 bis +1.0Emotionaler Inhalt widersteht Decay, priorisiert beim Recall
Novelty-Score0.0 bis 1.0Abweichung von Mustern löst tiefere Graph-Updates aus
Urgency-Score0.0 bis 1.0Sofortige Priorität im Working Memory Buffer
Source-Trust0.0 bis 1.0Zuverlässigkeits-Gewichtung der Informationsquelle
W_init = f(emotion, novelty, urgency, trust)

Scoring-Vergleich: Zwei Inputs

High-Priority vs. Low-Priority Nachricht

Schicht 2

Working Memory Buffer

Exakt 7 Slots nach Miller's Law (1956). FIFO + Prioritäts-Gewichtung. Items verlieren Gewicht in Minuten.

Mieter A
95%
Budget Q2
82%
Heizung
68%
E-Mail
55%
Meeting
40%
Notiz
22%
Leer
0%

7 Items Max

Miller's Law: Der Mensch hält 7±2 Items im Arbeitsgedächtnis. Agent Brain hält sich daran.

Minuten-Decay

Nicht reaktivierte Items verlieren Gewicht in Minuten und werden durch relevantere ersetzt.

Token-Bloat-Schutz

Schützt das Context Window vor Überladung. Nur die wichtigsten 7 Items im Fokus.

Schicht 3-4

Episodisches Gedächtnis & Knowledge Graph

Reconsolidation-Mechanik und bi-temporales Datenmodell für verlustfreie Wissensarchitektur.

Reconsolidation

Erinnerungen sind nicht statisch. Bei jedem Abruf wird eine Erinnerung im aktuellen Kontext aktualisiert. Häufig abgerufene Spuren werden stärker — genau wie im menschlichen Gehirn.

PostgreSQL mit Zeitstempeln, 384-dimensionalen Embeddings und dynamischer Gewichtung. Jede Erinnerung trägt Kontext, Emotion und Vertrauenswert.

Verlustfreie Architektur

Alte Kanten werden invalidiert, nie gelöscht. Der Agent kann über die Vergangenheit mit derselben Genauigkeit schlussfolgern wie über die Gegenwart.

Beispiel: Ein Mieter zieht um. Die alte Adresse wird t_invalid gesetzt, die neue ergänzt. Der Agent weiss beides — früher und jetzt.

Bi-Temporales Modell

Zwei zeitliche Dimensionen für jede Kante im Knowledge Graph

AttributParameterRolle
Valid Timet_valid → t_invalidWann war das Fakt in der Realität wahr?
Transaction Timet_created → t_expiredWann hat das System es gelernt / verlernt?
-- Alte Kante invalidieren, nicht löschen
UPDATE edges SET t_invalid = NOW() WHERE ...;
INSERT INTO edges (t_valid, t_created, ...) VALUES (NOW(), NOW(), ...);
Metriken

Vergessen & Lernen in Zahlen

Vergessenskurve (Ebbinghaus Decay)

Herkömmliche DB behält alles. Agent Brain vergisst aktiv.

Lernkurve der Predictive Engine

Präzision steigt mit jeder Interaktion über 6 Monate.

Schicht 7

Der Dream Cycle

Jeden Tag um 02:00 Uhr durchläuft Agent Brain vier Konsolidierungsprozesse — analog zur REM-Schlafphase des Menschen.

1

Pattern Consolidation

Ähnliche episodische Erinnerungen werden zusammengeführt. Redundanzen entfernt.

2

Ebbinghaus Decay

Exponentielle Vergessenskurve. Nicht reaktivierte Erinnerungen verlieren Gewicht.

3

Creative Synthesis

Nicht-offensichtliche Verbindungen zwischen entfernten Erinnerungen finden.

4

Rule Derivation

Konsistente Beobachtungen werden zu prozeduralen Regeln promoviert.

// Ebbinghaus Decay Formel
W(t) = W_init * e^(-decay_rate * t)

W_init = initiales Gewicht aus dem Perception Gate. decay_rate = individueller Verfallsfaktor. t = Zeit seit letzter Reaktivierung.

Schicht 5-6

Prozedurale Erinnerung & Predictive Engine

Vom Erkennen von Mustern zur aktiven Vorhersage von Ereignissen.

Prozedurale Erinnerung

Nach 3+ Wiederholungen erkennt Agent Brain ein Muster und kodiert es als prozedurale Regel. Erfolgreiche Aktionssequenzen werden gespeichert.

Das Ergebnis: «Institutionelle Intuition»— der Agent handelt wie ein erfahrener Profi, nicht wie ein Neuling.

Predictive Engine

Läuft alle 60 Minuten. Analysiert temporale Muster in episodischen und semantischen Schichten.

// Beispiel-Alert
{
  "probability": 0.87,
  "event": "Heizungsbericht fällig",
  "timeframe": "30 Tage"
}
Tech Stack

Technologie-Stack

Produktionsreife Infrastruktur. Keine experimentellen Abhängigkeiten.

API
FastAPI (Python 3.12)
Storage
PostgreSQL (Supabase)
Vector Search
pgvector (384d Embeddings)
Graph Engine
Graphiti (temporal awareness)
NLP
spaCy (German model)
Embeddings
sentence-transformers (local)
Deployment
Railway
Kennzahlen

Agent Brain in Zahlen

384
Dimensionen
Embeddings
7
Items
Working Memory Buffer
3x
Wiederholung
= Regel (Procedural)
60
Min
Predictive Cycle
02:00
Uhr
Dream Cycle Start
0
LLM-Calls
Pure Math