Funktionales Bewusstsein für ein Programm mit lokaler KI
-
Ich arbeite aktuell an einem lokalen „Wissens-Agenten“ auf meinem Windows-Rechner, der drei Dinge kombiniert:
- Lokale LLMs über Ollama (z. B. gemma3:4b/12b, qwen2.5)
- Online-Wikipedia + Wikidata als Faktenbasis (RAG-Ansatz)
- Eine einfache, aber durchgängige „funktionale Bewusstseins-Architektur“ in C# / WinForms
Das Projekt heißt aktuell WikipediaRagWinForms und besteht grob aus:
RAG-Engine:
Wikipedia-Suche, Artikelauswahl, Chunking, Embeddings, Cosine-Similarity, Ranking
„FactGuard“: filtert oder relativiert Aussagen, die im Kontext nicht belegt sindBewusstseins-Schicht („ConsciousnessController“):
SelfModel (Fokus, Müdigkeit, Neugier, Bias etc.)
ValueSystem (Accuracy, Efficiency, Coherence, Curiosity …)
MemoryBank (Episoden mit Frage, Kontext, Antwort, Reflexion, Fehlertypen)
GlobalWorkspace (aktueller „Arbeitsbereich“ mit Frage, Suchbegriffen, Artikeln, Wikidata-Fakten usw.)
Langzeitmodell (selfmodel_longterm.json) mit Themen-Statistik, Fehlermustern und ModellstärkenPro Episode läuft eine kleine Reflexion (Scores für Vollständigkeit, Kontextabdeckung, Intent-Konsistenz), die wiederum SelfModel + ValueSystem + LongTerm beeinflusst.
Der Agent speichert jede Frage als „Episode“ inkl. Meta-Daten (Intent, verwendete Artikel, FactGuard-Hinweise, Fehlertypen). Darauf aufbauend passt er sein Verhalten leicht an (z. B. vorsichtiger werden bei Halluzinationsmustern, mehr/ weniger Exploration, andere RAG-Schwellenwerte etc.). Zusätzlich gibt es ein paar „Easter Eggs“, die den aktuellen inneren Zustand und die Fehlerbilanz als Textbericht ausgeben.
Technik kurz:
Sprache: C# (.NET, WinForms), aber die Architektur ist prinzipiell auch auf C++ übertragbar
Backend: Ollama-REST (lokale LLMs), Wikipedia/Wikidata-API
Speicherung: JSON-Dateien (selfmodel.json, selfmodel_longterm.json, values.json, episodes.json, workspace_last.json)Wofür ich Mitstreiter suche:
Leute, die Spaß an Architekturen für künstliches Bewusstsein / Meta-Kognition haben
Diskussion über sinnvolle Metriken und Lernregeln (wann sollte der Agent z. B. wirklich seine Strategie ändern?)
Kritische Durchsicht: wo sind Denkfehler, wo ist das nur „schönes Gefrickel“, wo lässt sich etwas tatsächlich verallgemeinern?Es geht mir explizit nicht darum, „echtes Bewusstsein“ zu erreichen oder zu postulieren, sondern ich will mit überschaubaren Mitteln ein System bauen, das seinen eigenen Umgang mit Wissen, Fehlern und Kontext explizit modelliert und – wenn auch minimal – adaptiv darauf reagiert.
Damit es auf einem PC mit 8GB VRAM Graka mit akzeptablen Antwortzeiten läuft, habe ich vor allem gemma3:4b eingesetzt. Ich verwende MS VS 2022 mit C#/WinForms.
Wenn jemand Lust hat, mitzudenken oder mitzucoden (Architektur, bessere Reflexions-/Lernmodule), würde ich mich freuen.