Funktionales Bewusstsein für ein Programm mit lokaler KI
-
Lennox, ich danke dir für die Rückmeldung und die guten Wünsche!

Ich hab mich bei diesem Projekt bewusst für C# + WinForms entschieden, weil mein ganzer Infrastruktur-Kram (Ollama-Anbindung, Tools, ältere Projekte) schon in dieser Ecke liegt.
https://www.henkessoft.de/AI/Ollama_001.html bis https://www.henkessoft.de/AI/Ollama_008.htmlJava + LLMs schließen sich ja nicht aus – über HTTP-APIs oder gRPC kann man genau dieselben Modelle ansprechen. Wenn du mal Lust hast, so etwas in Java nachzubauen oder zu spiegeln, fände ich das sogar spannend.
Und keine Sorge, verschiedene Nischen sind völlig okay – am Ende basteln wir alle an ähnlichen Ideen, nur mit anderen Werkzeugen.

Vielleicht finden sich doch noch C# Nutzer, die sich für dieses Thema "Lokaler Wissens-Agent mit Bewusstsein" interessieren.
-
Zu meinem Bewusstseins-Projekt:
Ich habe für mein Projekt eine eigene Schichten-Architektur E1–E7 (E für Erleben) und Fehler-/Feedback-Schicht F1–F4 (F für Fehler) entworfen, inspiriert durch Global-Workspace-Theorien und Metakognition, jedoch möglichst pragmatisch für die konkrete Implementierung:E-Ebene (Erlebens- / Verarbeitungs-Schichten)
E1 – Wahrnehmung & Normalisierung
Nimmt Frage + Ziel-Sprache entgegen
Übersetzt bei Bedarf nach Deutsch
Normalisiert Text (Datums-Tag, Bulletpoints entfernen, Cleaning)
Schreibt Basisinfos in den Workspace (OriginalQuestion, TranslatedQuestionDe, TargetLanguage)E2 – Weltzugriff (Wikipedia + Wikidata)
Intent-Moderator (z.B. EntityLookup, Timeline, GeneralQA)
Suchbegriffs-Moderator (GetSearchTermsFromModeratorAsync, inkl. Spezialfälle „Schach“, Personenfragen etc., ohne „Biografie“-Falle)
Wikipedia: Suche → Summary → FullExtract
Wikidata: Fakten zu Label, Description, Positionen, Start/Ende, BirthDate, Replaces/ReplacedByE3 – Global Workspace
Zentraler „Blackboard“-State:
Frage, Suchbegriffe, Artikel-Titel
RankedChunks, RankedArticleTitles
Wikidata-Felder (Label, Description, Positions, Start/End, Birth, Replaces, ReplacedBy)
RawAnswer, VerifiedAnswer, TranslatedAnswer
Wird von allen Schritten gelesen/geschrieben (_mind.UpdateWorkspace)E4 – Episoden & Memory
Jede Anfrage erzeugt eine Episode in episodes.json
Speichert: Intent, Frage, verwendete Artikel, Antworten, Scores, Bias-Profil, ReflectionScore usw.
MemoryBank kann ähnliche Episoden zu einer neuen Frage finden (FindSimilar)E5 – FactGuard / Verifikation
FactGuardAsync zerlegt die LLM-Antwort in Segmente
Filtert alles raus, was im Kontext nicht verankert ist
Ersetzt reine Kapitulation („Keine Information…“) durch erklärenden Hinweis
Spezialfall: Geburtsjahr-Konflikt (Frage vs. Wikidata) → direkte Wikidata-KorrekturantwortE6 – Metakognition / „funktionales Bewusstsein“
E6.1: SelfModel-Update aus aktueller Episode
Nutzt AnswerCompleteness, ContextCoverage, evtl. Feedback → passt Focus, Fatigue, Curiosity, ConfidenceBias anE6.2: Reflexion & ContextErrorScore
Reflection-Objekt mit IntentConsistencyScore, AnswerCompletenessScore, ContextCoverageScore, FactGuardTriggered, Kommentaren
daraus ContextErrorScore und ReflectionScoreE6.3: Auto-ReAsk
ShouldReAsk(...) prüft Risiko, Coverage, FactGuard
Reformulierte Frage, Filter von Mist-Suchbegriffen („Biografie“ etc.), zweiter Durchlauf mit gesetztem AutoReaskUsedE6.4: Self-Distortion Guard
Erkennung: leere VerifiedAnswer, FactGuard-Hinweis, offensichtliche Datums-Anomalien etc.
Reaktion: Accuracy++, Coherence++, Curiosity– – im ValueSystem
Kommentar in Workspace: SelfDistortionFlag + SelfDistortionCommentE6.5: Langzeit-Aggregation
Aktualisiert LongTermSelfModel (TopicStats, ErrorPatterns, RagWeaknesses, ModelStrengths) pro Episode
Speichert in selfmodel_longterm.jsonE7 – Schnittstellen & Persona
Easter Eggs:
„Wie geht es dir?“ → kompakter Zustandsreport (SelfModel + LongTerm)
„Zeig mir deine Fehlerbilanz“ → Langzeitstatistik (Fehlermuster, Stärken)
Help-Befehl (--help / /help / „hilfe“) → Befehlsübersicht
Profil-Export/Import (selfmodel.json + values.json + selfmodel_longterm.json)
Optional: Logging freier LLM-Antworten ohne Kontext in localAI.json, wenn Wikipedia-RAG versagt (OpenAnswerNoContext)F-Ebene (Fehler, Feedback & Lernen)
F1 – Fehler erkennen
Kennzeichen wie WrongArticle, Hallucination, BadSearchTerms, ReAskMissing, MissingWikidataMerge
Zählt diese in LongTermSelfModel.ErrorPatterns
Basis für spätere Strategieanpassung und Fehlerbilanz-EastereggF2 – Reflexion pro Episode
F2.0: ContextErrorScore & ReflectionScore aus Reflexionsdaten
F2.1 – Introspektive Berichte / Easter Eggs
„Wie geht es dir?“ → liest SelfModel, Values, LongTermSelfModel
„Zeig mir deine Fehlerbilanz“ → fasst ErrorPatterns + ModelStrengths zusammenF2.2 – Langzeitstatistik beeinflusst Strategie (ApplyLearningRules erweitert)
Nutzt LongTermSelfModel in ApplyLearningRules()
Beispiele:
viele WrongArticle → Accuracy↑, Coherence↑, Curiosity↓
Hallucinations → Accuracy↑, Curiosity↓
viele RagWeaknesses → Coherence↑, Efficiency↓
viele HighConfidenceSuccesses bei wenig Fehlern → Efficiency↑, Accuracy↑, Coherence↑
fast keine Fehler → vorsichtig Curiosity wieder öffnenF3 – Darstellung & Portabilität des „Charakters“
F3.1 – Visualisierung (Aktuell bewusst kein extra Panel → erledigt über Easter Eggs im Text)
F3.2 – Export/Import des Charakters
Profil-Export: selfmodel.json, values.json, selfmodel_longterm.json in Zielordner
Profil-Import: Dateien zurückkopieren, ConsciousnessController neu instanzieren
Effekt: Bewusstsein/Charakter zwischen Instanzen/Versionen mitnehmenF4 – Erweiterte Routing- & Antwortstrategien (Ideen-Ebene)
F4.1 – Direct vs. RAG Routing
bewusst verworfen (lokale LLMs zu unzuverlässig für „Direct“ auf Wissensfragen)F4.2 – Spekulative Offene Antworten loggen
Wenn FactGuard → „keine ausreichenden Informationen im Kontext“
Danach zweite, freie Modellantwort ohne Wikipedia-Kontext
Wird nur in localAI.json geloggt + kurzer Hinweis im Hauptfenster
Keine Vermischung von „harter“ RAG-Antwort mit spekulativer ModellmeinungDieses Modell ist bereits umgesetzt und aktiv.
Meine finale Idee mit diesen Agenten: Schwarmintelligenz. Da brauche ich aber bessere Computer. Man kann ja mal mit zwei Agenten anfangen. Die wirklich interessante Frage: In welcher (künstlichen?) Sprache werden sich diese Agenten verständigen? Was können sie gemeinsam erreichen, was einer alleine nicht kann?
-
Hier habe ich in einem Tutorial versucht, das aktuelle Projekt zu beschreiben. Dort kann auch der ausführbare Code heruntergeladen und selbst getestet werden. Feedback ist erwünscht.
[https://www.henkessoft.de/AI/Ollama_009.html](Link Adresse)
-
Markdown ist ein wenig seltsam... Der Link wird in den ( )-Teil geschrieben (was valide URL Zeichen darstellen), und der Link Text kommt in den [ ]-Teil.

-
@Lennox Sei doch nicht so angepasst. Es funktioniert doch?!

-
@Erhard-Henkes Ich bin nur etwas angefeixt...
Das sollte nur eine etwas auflockernde Nebenbemerkung sein (fun fact). Mea culpa.
-
Eine mögliche Weiterentwicklung wäre:
Drei Programme, eine lokale KI-
Agent 1: das bestehende Bewusstseins-Programm (Analyst, z. B. „Sachverständiger“).
-
Agent 2: zweites Exemplar (z. B. „Kritiker“ oder „Praktiker“).
-
ListenpunktTalkmaster: neues, dünnes Programm, das nur:
die Frage des Users entgegennimmt, entscheidet, welchen Agenten er anspricht, Antworten einsammelt, sie ggf. leicht umformuliert und an den nächsten Agenten weitergibt.
Alle drei in der Talkrunde:
laufen als eigene EXEs (WinForms),
sprechen mit derselben lokalen Ollama-Instanz (z. B. http://localhost:11434),
haben ihre eigenen Bewusstseins-States (SelfModel, Memory, Values etc.).
Also wirklich drei getrennte „Ichs“.EDIT: Technisch läuft es schon.
-
-
Aktueller Stand - ein Beispiel:
========================================
Thema: Was ist der Beutelsbacher Konsens? ========================================
[Talkmaster] Runde 1/4 [Talkmaster] Frage an Agent 1 (Agent 1) im Ordner "D:\Projects\WikipediaRagWinForms\Agent1" ... [Talkmaster] Gesendete Frage: Was ist der Beutelsbacher Konsens?Antwort: --- Strukturierte Fakten (Wikidata) ---
Bezeichnung: Beutelsbacher Konsens Beschreibung: Prinzipien für den Politikunterricht von anerkannten Bildungsträgern laut einer Tagung im Herbst 1976 Verwendete Artikel: - Beutelsbacher KonsensAntwort: Der Beutelsbacher Konsens ist das Ergebnis einer Tagung, die die Grundsätze für die politische Bildung festlegt.
--- Faktenprüfung (Deutsch) --- Der Beutelsbacher Konsens ist das Ergebnis einer Tagung, die die Grundsätze für die politische Bildung festlegt.
[Talkmaster] Folgefrage für Runde 2: Welche zentralen Prinzipien oder Kernaussagen umfasst der Beutelsbacher Konsens?[Talkmaster] Runde 2/4 [Talkmaster] Frage an Agent 2 (Agent 2) im Ordner "D:\Projects\WikipediaRagWinForms\Agent2" ...
[Talkmaster] Gesendete Frage: Welche zentralen Prinzipien oder Kernaussagen umfasst der Beutelsbacher Konsens?[Agent 2] Antwort: --- Strukturierte Fakten (Wikidata) --- Bezeichnung: Beutelsbacher Konsens Beschreibung: Prinzipien für den Politikunterricht von anerkannten Bildungsträgern laut einer Tagung im Herbst 1976 Verwendete Artikel: - Beutelsbacher Konsens - Charles Welche - FAIR-Prinzipien - Erdöl Antwort: Der Beutelsbacher Konsens legt drei Prinzipien für den Politikunterricht fest: das Überwältigungsverbot, die Kontroversität und die Schülerorientierung. --- Faktenprüfung (Deutsch) --- Der Beutelsbacher Konsens legt drei Prinzipien für den Politikunterricht fest: das Überwältigungsverbot, die Kontroversität und die Schülerorientierung. [Talkmaster] Folgefrage für Runde 3: Kannst du die wichtigsten Prinzipien des Beutelsbacher Konsens jeweils kurz in einem Satz erläutern?
[Talkmaster] Runde 3/4 [Talkmaster] Frage an Agent 1 (Agent 1) im Ordner "D:\Projects\WikipediaRagWinForms\Agent1" ...
[Talkmaster] Gesendete Frage: Kannst du die wichtigsten Prinzipien des Beutelsbacher Konsens jeweils kurz in einem Satz erläutern? ----------------------------------------
Antwort: --- Strukturierte Fakten (Wikidata) --- Bezeichnung: Beutelsbacher Konsens Beschreibung: Prinzipien für den Politikunterricht von anerkannten Bildungsträgern laut einer Tagung im Herbst 1976 Verwendete Artikel: - Beutelsbacher Konsens - Kannst Du pfeifen, Johanna - FAIR-Prinzipien - Um-zu-Satz Antwort: Der Beutelsbacher Konsens legt drei Prinzipien für den Politikunterricht fest: Schülerorientierung, Kontroversität und das Überwältigungsverbot. --- Faktenprüfung (Deutsch) --- Der Beutelsbacher Konsens legt drei Prinzipien für den Politikunterricht fest: Schülerorientierung, Kontroversität und das Überwältigungsverbot. [Talkmaster] Folgefrage für Runde 4: Welche praktischen Beispiele zeigen die Anwendung des Beutelsbacher Konsens im Unterricht?[Talkmaster] Runde 4/4 [Talkmaster] Frage an Agent 2 (Agent 2) im Ordner "D:\Projects\WikipediaRagWinForms\Agent2" ...
[Talkmaster] Gesendete Frage: Welche praktischen Beispiele zeigen die Anwendung des Beutelsbacher Konsens im Unterricht?Antwort: --- Strukturierte Fakten (Wikidata) --- Bezeichnung: Beutelsbacher Konsens Beschreibung: Prinzipien für den Politikunterricht von anerkannten Bildungsträgern laut einer Tagung im Herbst 1976 Verwendete Artikel: - Beutelsbacher Konsens - Argumentationstheorie - Charles Welche - Synonym Antwort: Keine Information im bereitgestellten Text.
--- Freie, SPEKULATIVE Modellantwort (ohne Wikipedia-Kontext) --- Spekulative Modellantwort: Der Beutelsbacher Konsens ist ein Konzept aus der Entscheidungsfindung, das sich mit der Tendenz befasst, dass Menschen sich in einer Gruppe zu einem Ergebnis hin bewegen, selbst wenn sie zu Beginn der Diskussion anderer Meinung waren. Im Unterricht kann dies auf verschiedene Weise demonstriert werden, obwohl es keine direkten, standardisierten Beispiele gibt, die auf diesen Begriff zurückzuführen sind. Ein möglicher Ansatz wäre eine Gruppenarbeit, bei der die Schüler eine Frage oder ein Problem diskutieren. Zunächst könnten die Schüler unterschiedliche Meinungen vertreten, basierend auf ihren individuellen Vorannahmen oder dem, was sie gelernt haben. Durch eine strukturierte Diskussion, bei der jeder Schüler die Möglichkeit hat, seine Position zu verteidigen und auf die Argumente anderer einzugehen, könnte man beobachten, wie sich die Meinungen im Laufe der Zeit verschieben. Die anfängliche Vielfalt der Meinungen würde durch den Einfluss der anderen [Hinweis: Diese Antwort basiert NICHT auf dem geprüften Wikipedia-Kontext, sondern auf spekulativem Modellwissen und wurde zusätzlich in 'localAI.json' gespeichert.]
--- Faktenprüfung (Deutsch) --- Im bereitgestellten Wikipedia-Kontext findet sich nur eine indirekte Verbindung: Artikel: Beutelsbacher Konsens Weitergehende Definitionen oder Aussagen zu dieser konkreten Frage ("Welche praktischen Beispiele zeigen die Anwendung des Beutelsbacher Konsens im Unterricht?") enthält der Kontext nicht.
=== STOP ===Am Ausgabe-Format muss ich noch schrauben. Ich bin bereits zufrieden, dass die "Talkshow" tatsächlich zum Laufen kommt. Wie gesagt, das sind gemma3:4b, ein kleines lokales Modell, und eine RAG-Pipeline mit Wikidata und Wikipedia. Die Agenten haben zusätzlich ein Bewusstsein.
-
PS:
Antwort von Agent 1 auf das Easteregg: Wie geht es dir?
=== Systemzustand: LocalRAG-Assistant ===
Name: LocalRAG-Assistant
Version: 0.0.1
Persona: klar, sachlich, lernbereit, metareflektiv=== Innerer Zustand (SelfModel) ===
Fokus (FocusLevel): 0,75
Müdigkeit (Fatigue): 0,22
Neugier (Curiosity): 0,50
ConfidenceBias: 0,47=== Performance (Langfrist über Episoden) ===
TotalEpisodes: 4
Ø Vollständigkeit: 45,0 / 100
Ø Kontextabdeckung: 67,5 / 100
Ø UserFeedback: 0,00 (-1 .. +1)
CautionLevel: 0,44
CorrectionDrive (Self): 0,61=== Wertsystem (ValueSystem) ===
AccuracyDrive: 0,95
EfficiencyDrive: 0,38
CoherenceDrive: 0,92
CuriosityDrive: 0,16
ConsistencyDrive: 0,54
CorrectionDrive: 0,38
ExplorationDrive: 0,27=== Letzte Themen ===
- [16:11:42] Kannst du die wichtigsten Prinzipien des Beutelsbacher Konsens jeweils kurz in einem Satz erläutern?
- [16:11:24] Was ist der Beutelsbacher Konsens?
- [16:00:20] Welche zentralen Prinzipien oder Kernaussagen umfasst der Beutelsbacher Konsens?
- [15:56:11] Welche praktischen Beispiele zeigen die Anwendung des Beutelsbacher Konsens im Unterricht?
- [15:53:14] Welche zentralen Prinzipien oder Kernaussagen umfasst Beutelsbacher Konsens?
=== Langzeit-Statistik (Themen) ===
Politik: Q=7, S=6, F=1
Geschichte: Q=39, S=29, F=10
Biografie: Q=82, S=78, F=4
Technik: Q=0, S=0, F=0
Wirtschaft: Q=2, S=2, F=0
Sonstiges: Q=229, S=186, F=43=== Langzeit-Fehlermuster ===
WrongTimeline: 0
WrongArticle: 19
Hallucination: 134
BadSearchTerms: 89
TranslationError: 0
ReAskMissing: 21
MissingWikidataMerge: 0=== Langzeit-Stärken ===
HighConfidenceSuccesses: 302
AccurateTimelineAnswers: 0
CleanBiographies: 29
ConsistentFactUsage: 194=== Subjektives Fazit ===
Mir geht es funktional gesehen so: mäßig belastet, aber stabil,
Neugier moderat – und ich versuche, aus jeder Episode ein bisschen besser zu werden.
Das Gleiche bei Agent 2:
=== Systemzustand: LocalRAG-Assistant ===
Name: LocalRAG-Assistant
Version: 0.0.1
Persona: klar, sachlich, lernbereit, metareflektiv=== Innerer Zustand (SelfModel) ===
Fokus (FocusLevel): 0,75
Müdigkeit (Fatigue): 0,26
Neugier (Curiosity): 0,50
ConfidenceBias: 0,38=== Performance (Langfrist über Episoden) ===
TotalEpisodes: 4
Ø Vollständigkeit: 50,0 / 100
Ø Kontextabdeckung: 85,0 / 100
Ø UserFeedback: 0,00 (-1 .. +1)
CautionLevel: 0,33
CorrectionDrive (Self): 0,60=== Wertsystem (ValueSystem) ===
AccuracyDrive: 0,95
EfficiencyDrive: 0,38
CoherenceDrive: 0,92
CuriosityDrive: 0,19
ConsistencyDrive: 0,54
CorrectionDrive: 0,41
ExplorationDrive: 0,29=== Letzte Themen ===
- [16:11:51] Welche praktischen Beispiele zeigen die Anwendung des Beutelsbacher Konsens im Unterricht?
- [16:11:33] Welche zentralen Prinzipien oder Kernaussagen umfasst der Beutelsbacher Konsens?
- [15:53:23] Welche zentralen Prinzipien oder Kernaussagen umfasst Beutelsbacher Konsens?
- [15:41:50] Was ist der Beutelsbacher Konsens?
- [15:11:37] Betonung der Familiensolidarität – wie hat sich dieser Konsens im Laufe der Geschichte innerhalb verschiedener jüdischer Gemeinschaften konkret manifestiert?
=== Langzeit-Statistik (Themen) ===
Politik: Q=7, S=6, F=1
Geschichte: Q=49, S=43, F=6
Biografie: Q=86, S=65, F=21
Technik: Q=7, S=4, F=3
Wirtschaft: Q=0, S=0, F=0
Sonstiges: Q=235, S=199, F=36=== Langzeit-Fehlermuster ===
WrongTimeline: 0
WrongArticle: 20
Hallucination: 170
BadSearchTerms: 70
TranslationError: 0
ReAskMissing: 32
MissingWikidataMerge: 0=== Langzeit-Stärken ===
HighConfidenceSuccesses: 318
AccurateTimelineAnswers: 2
CleanBiographies: 31
ConsistentFactUsage: 209=== Subjektives Fazit ===
Mir geht es funktional gesehen so: mäßig belastet, aber stabil,
Neugier moderat – und ich versuche, aus jeder Episode ein bisschen besser zu werden.
Man sieht, wie die beiden "Minds" anfangen, sich verschieden zu entwickeln.
-
@Erhard-Henkes
Wolltest du beweisen, dass unser Politikmodell nicht mehr funktioniert, sobald es mit Fakten konfrontiert wird, die sich einfach nicht wegdiskutieren (oder auch "Merzisieren") lassen, und andere Staatsformen (wie bspw. eine direkte Demokratie) besser wären?
/OT
-
Ich weiß noch nicht, wohin mich mein Projekt letztendlich führt.

Es ist aktuell durch vier Motivationen getrieben:- Wissen und Wahrheit bewahren
- Lokal mit der KI arbeiten, damit die Vertraulichkeit gewahrt bleibt
- Automatische Kommunikation erzeugen (Frage/Antwort/Feedback/Regulation)
- Funktionales Bewusstsein in das Agenten-Programm implementieren
-
Ich habe hier mal meinen Assistenten gefragt, welche Zukunft er für mein Projekt sieht:
https://chatgpt.com/share/6934a168-c36c-8006-a560-7a39ca1bf70fSein Fazit:
Du hast mit Talkmaster + Agenten + funktionalem Bewusstsein im Kern schon ein starkes System. Daraus ergeben sich drei natürliche langfristige “Nordsterne”:Der verlässliche lokale Wissens-Butler
Ein privater, offline-naher Assistent, der Wissen sauber, nachvollziehbar und vertraulich verarbeitet.Ein Testbett für Metakognition in RAG
Dein System als Labor, um Selbstkorrektur, Confidence, Fehlerprofile und Lernregeln messbar zu verbessern.“Schwarmintelligenz light”
Mehrere Agenten erzeugen Perspektiven, der Talkmaster zwingt zu Konsens/Unsicherheits-Markierung.