LLM Wiki Konzept
Basierend auf Andrej Karpathys Ansatz (April 2026 GitHub Gist).
Kernidee
Statt transaktionalem RAG (bei jeder Anfrage Chunks aus Vektordatenbank suchen) wird Wissen vorab von einem LLM-Agent synthetisiert und als verlinkte Markdown-Dateien abgelegt.
3-Schichten-Architektur
- Raw Sources — Unveränderliche Originaldokumente. Die KI liest, verändert aber nie.
- LLM Wiki — Markdown-Dateien, gepflegt von einem LLM-Agent. Zusammenfassungen, Konzeptseiten, Querverweise.
- Frontend — Viewer für das Wiki (Obsidian, Quartz, oder ähnlich).
Vorteile gegenüber RAG
- Kumulativ statt transaktional — Wissen wächst über Zeit
- Keine Vektordatenbank nötig — plain Markdown
- Transparenz — man sieht was die KI “weiß” (es steht in den Dateien)
- Compute beim Ingest statt bei der Abfrage
Umsetzung bei Robert
- Wiki lebt in
~/brain/content/wiki/ - Raw Sources in
~/brain/content/raw/ - Claude Code als “Gärtner-Agent”
- Quartz als Web-Frontend auf
brain.xlr8n.io - Zugriff via Claude Code (lokal + Dispatch vom iPhone)
Offene Fragen
- Wie triggert man den Agent automatisch bei neuen Raw Sources?
- Wie verhindert man Wiki-Drift (veraltete Seiten)?
- Sinnvolle Granularität: eine Seite pro Konzept oder pro Themengebiet?