LLM Wiki Konzept

Basierend auf Andrej Karpathys Ansatz (April 2026 GitHub Gist).

Kernidee

Statt transaktionalem RAG (bei jeder Anfrage Chunks aus Vektordatenbank suchen) wird Wissen vorab von einem LLM-Agent synthetisiert und als verlinkte Markdown-Dateien abgelegt.

3-Schichten-Architektur

  1. Raw Sources — Unveränderliche Originaldokumente. Die KI liest, verändert aber nie.
  2. LLM Wiki — Markdown-Dateien, gepflegt von einem LLM-Agent. Zusammenfassungen, Konzeptseiten, Querverweise.
  3. Frontend — Viewer für das Wiki (Obsidian, Quartz, oder ähnlich).

Vorteile gegenüber RAG

  • Kumulativ statt transaktional — Wissen wächst über Zeit
  • Keine Vektordatenbank nötig — plain Markdown
  • Transparenz — man sieht was die KI “weiß” (es steht in den Dateien)
  • Compute beim Ingest statt bei der Abfrage

Umsetzung bei Robert

  • Wiki lebt in ~/brain/content/wiki/
  • Raw Sources in ~/brain/content/raw/
  • Claude Code als “Gärtner-Agent”
  • Quartz als Web-Frontend auf brain.xlr8n.io
  • Zugriff via Claude Code (lokal + Dispatch vom iPhone)

Offene Fragen

  • Wie triggert man den Agent automatisch bei neuen Raw Sources?
  • Wie verhindert man Wiki-Drift (veraltete Seiten)?
  • Sinnvolle Granularität: eine Seite pro Konzept oder pro Themengebiet?