Funktionales Bewusstsein für ein Programm mit lokaler KI



  • Ich arbeite aktuell an einem lokalen „Wissens-Agenten“ auf meinem Windows-Rechner, der drei Dinge kombiniert:

    1. Lokale LLMs über Ollama (z. B. gemma3:4b/12b, qwen2.5)
    2. Online-Wikipedia + Wikidata als Faktenbasis (RAG-Ansatz)
    3. Eine einfache, aber durchgängige „funktionale Bewusstseins-Architektur“ in C# / WinForms

    Das Projekt heißt aktuell WikipediaRagWinForms und besteht grob aus:

    RAG-Engine:
    Wikipedia-Suche, Artikelauswahl, Chunking, Embeddings, Cosine-Similarity, Ranking
    „FactGuard“: filtert oder relativiert Aussagen, die im Kontext nicht belegt sind

    Bewusstseins-Schicht („ConsciousnessController“):
    SelfModel (Fokus, Müdigkeit, Neugier, Bias etc.)
    ValueSystem (Accuracy, Efficiency, Coherence, Curiosity …)
    MemoryBank (Episoden mit Frage, Kontext, Antwort, Reflexion, Fehlertypen)
    GlobalWorkspace (aktueller „Arbeitsbereich“ mit Frage, Suchbegriffen, Artikeln, Wikidata-Fakten usw.)
    Langzeitmodell (selfmodel_longterm.json) mit Themen-Statistik, Fehlermustern und Modellstärken

    Pro Episode läuft eine kleine Reflexion (Scores für Vollständigkeit, Kontextabdeckung, Intent-Konsistenz), die wiederum SelfModel + ValueSystem + LongTerm beeinflusst.

    Der Agent speichert jede Frage als „Episode“ inkl. Meta-Daten (Intent, verwendete Artikel, FactGuard-Hinweise, Fehlertypen). Darauf aufbauend passt er sein Verhalten leicht an (z. B. vorsichtiger werden bei Halluzinationsmustern, mehr/ weniger Exploration, andere RAG-Schwellenwerte etc.). Zusätzlich gibt es ein paar „Easter Eggs“, die den aktuellen inneren Zustand und die Fehlerbilanz als Textbericht ausgeben.

    Technik kurz:
    Sprache: C# (.NET, WinForms), aber die Architektur ist prinzipiell auch auf C++ übertragbar
    Backend: Ollama-REST (lokale LLMs), Wikipedia/Wikidata-API
    Speicherung: JSON-Dateien (selfmodel.json, selfmodel_longterm.json, values.json, episodes.json, workspace_last.json)

    Wofür ich Mitstreiter suche:
    Leute, die Spaß an Architekturen für künstliches Bewusstsein / Meta-Kognition haben
    Diskussion über sinnvolle Metriken und Lernregeln (wann sollte der Agent z. B. wirklich seine Strategie ändern?)
    Kritische Durchsicht: wo sind Denkfehler, wo ist das nur „schönes Gefrickel“, wo lässt sich etwas tatsächlich verallgemeinern?

    Es geht mir explizit nicht darum, „echtes Bewusstsein“ zu erreichen oder zu postulieren, sondern ich will mit überschaubaren Mitteln ein System bauen, das seinen eigenen Umgang mit Wissen, Fehlern und Kontext explizit modelliert und – wenn auch minimal – adaptiv darauf reagiert.

    Damit es auf einem PC mit 8GB VRAM Graka mit akzeptablen Antwortzeiten läuft, habe ich vor allem gemma3:4b eingesetzt. Ich verwende MS VS 2022 mit C#/WinForms.

    Wenn jemand Lust hat, mitzudenken oder mitzucoden (Architektur, bessere Reflexions-/Lernmodule), würde ich mich freuen.



  • Schade, dass Du nix mit Java machst... sonst wäre ich dabei gewesen. Aber Java und LLMs vertragen sich ja auch (noch) nicht. Gutes Gelingen.


Anmelden zum Antworten