Funktionales Bewusstsein für ein Programm mit lokaler KI



  • Ich arbeite aktuell an einem lokalen „Wissens-Agenten“ auf meinem Windows-Rechner, der drei Dinge kombiniert:

    1. Lokale LLMs über Ollama (z. B. gemma3:4b/12b, qwen2.5)
    2. Online-Wikipedia + Wikidata als Faktenbasis (RAG-Ansatz)
    3. Eine einfache, aber durchgängige „funktionale Bewusstseins-Architektur“ in C# / WinForms

    Das Projekt heißt aktuell WikipediaRagWinForms und besteht grob aus:

    RAG-Engine:
    Wikipedia-Suche, Artikelauswahl, Chunking, Embeddings, Cosine-Similarity, Ranking
    „FactGuard“: filtert oder relativiert Aussagen, die im Kontext nicht belegt sind

    Bewusstseins-Schicht („ConsciousnessController“):
    SelfModel (Fokus, Müdigkeit, Neugier, Bias etc.)
    ValueSystem (Accuracy, Efficiency, Coherence, Curiosity …)
    MemoryBank (Episoden mit Frage, Kontext, Antwort, Reflexion, Fehlertypen)
    GlobalWorkspace (aktueller „Arbeitsbereich“ mit Frage, Suchbegriffen, Artikeln, Wikidata-Fakten usw.)
    Langzeitmodell (selfmodel_longterm.json) mit Themen-Statistik, Fehlermustern und Modellstärken

    Pro Episode läuft eine kleine Reflexion (Scores für Vollständigkeit, Kontextabdeckung, Intent-Konsistenz), die wiederum SelfModel + ValueSystem + LongTerm beeinflusst.

    Der Agent speichert jede Frage als „Episode“ inkl. Meta-Daten (Intent, verwendete Artikel, FactGuard-Hinweise, Fehlertypen). Darauf aufbauend passt er sein Verhalten leicht an (z. B. vorsichtiger werden bei Halluzinationsmustern, mehr/ weniger Exploration, andere RAG-Schwellenwerte etc.). Zusätzlich gibt es ein paar „Easter Eggs“, die den aktuellen inneren Zustand und die Fehlerbilanz als Textbericht ausgeben.

    Technik kurz:
    Sprache: C# (.NET, WinForms), aber die Architektur ist prinzipiell auch auf C++ übertragbar
    Backend: Ollama-REST (lokale LLMs), Wikipedia/Wikidata-API
    Speicherung: JSON-Dateien (selfmodel.json, selfmodel_longterm.json, values.json, episodes.json, workspace_last.json)

    Wofür ich Mitstreiter suche:
    Leute, die Spaß an Architekturen für künstliches Bewusstsein / Meta-Kognition haben
    Diskussion über sinnvolle Metriken und Lernregeln (wann sollte der Agent z. B. wirklich seine Strategie ändern?)
    Kritische Durchsicht: wo sind Denkfehler, wo ist das nur „schönes Gefrickel“, wo lässt sich etwas tatsächlich verallgemeinern?

    Es geht mir explizit nicht darum, „echtes Bewusstsein“ zu erreichen oder zu postulieren, sondern ich will mit überschaubaren Mitteln ein System bauen, das seinen eigenen Umgang mit Wissen, Fehlern und Kontext explizit modelliert und – wenn auch minimal – adaptiv darauf reagiert.

    Damit es auf einem PC mit 8GB VRAM Graka mit akzeptablen Antwortzeiten läuft, habe ich vor allem gemma3:4b eingesetzt. Ich verwende MS VS 2022 mit C#/WinForms.

    Wenn jemand Lust hat, mitzudenken oder mitzucoden (Architektur, bessere Reflexions-/Lernmodule), würde ich mich freuen.



  • Schade, dass Du nix mit Java machst... sonst wäre ich dabei gewesen. Aber Java und LLMs vertragen sich ja auch (noch) nicht. Gutes Gelingen.



  • @Lennox C# ist doch das "Java" von Microsoft. 😁
    Das Projekt hat schon viele Tausend Zeilen Code, und das "Bewusstsein" funktioniert bereits. Es geht also mehr um interne Regelmechanismen, Parameter und das Zusammenspiel von RAG (Fakten aus wiki) und direkter Antwort (kleine lokale KI Modelle haluzinieren und haben Zeithorizont). Dann gibt es noch das interessante Thema Übersetzung und die Auswahl der Sprachversion von Wikidata und Wikipedia. Mittelfristig möchte ich auch eine Schwarmintelligenz dieser Wissensagenten testen.

    Warum lokal? Damit die Vertraulichkeit gewährleistet ist.



  • Ja, ein Bekannter hat auch eine C# Firma... ist aber dennoch nicht so meins, afaik ist Java immer noch "durchdachter", und außerdem deckt man damit auch gleich Multi-Plattform ab. Aber will dich nicht ärgern, haben eben unterschiedliche Wege gewählt.^^ (*... geht zurück in seine Nische*) 😆


Anmelden zum Antworten