Pro & Contra KI - Eigene Erfahrungen
-
Künstliche Intelligenz ist inzwischen in vielen Bereichen der IT angekommen – von Code-Assistenz über Text- und Bildgenerierung bis hin zu Analyse- und Automatisierungswerkzeugen. Die Meinungen dazu gehen jedoch stark auseinander.
Ich würde hier gerne eine offene Diskussion anstoßen:
Welche praktischen Erfahrungen habt ihr mit KI gemacht – positiv wie negativ?Mich interessieren insbesondere:
Wo euch KI im Alltag tatsächlich hilft (z. B. Programmierung, Dokumentation, Recherche)
Wo sie eher Zeit kostet, Fehler macht oder falsche Erwartungen weckt
Grenzen, die ihr klar seht (technisch, fachlich oder ethisch)
Ob und wie sich eure Einstellung zu KI im Laufe der Zeit verändert hat
Wichtig ist mir ein nüchterner Austausch aus der Praxis – kein Marketing, kein „KI-Hype“, aber auch keine pauschale Ablehnung.
Gerade aus Sicht von IT-Erfahrenen finde ich spannend, was heute wirklich funktioniert und wo der Mensch weiterhin unverzichtbar bleibt.
Ich freue mich auf eure Beiträge und Beispiele aus dem echten Einsatz.
Zur Einordnung meiner Perspektive: Ich arbeite selbst an mehreren Projekten mit lokal betriebener KI (kein Cloud-Zwang), u. a. an Programmen zum Sprachen lernen als auch an einem Programm mit einem funktionalen Bewusstseins- und Agentenmodell. Dabei geht es weniger um „echtes Bewusstsein“, sondern um klar definierte Module wie Zustände, Gedächtnis, Bewertung, Selbstbezug und Reflexion – also um strukturierte Entscheidungs- und Kontrollmechanismen. Gerade in der praktischen Umsetzung stoße ich sowohl auf überraschende Stärken als auch auf sehr klare Grenzen aktueller KI-Systeme.
Beim Programmieren (u.a. C++ mit MFC oder WinAPI, C# mit WinForms) nutze ich erfolgreich ChatGPT-5.2, der seinen Vorgängern inzwischen deutlich überlegen ist. Probleme gibt es bei großen Programmen mit vielen Modulen und einigen Tausenden Zeilen Code bezüglich des Kontextes. Da muss man öfter den aktuellen Stand posten, damit die KI sinnvolle Vorschläge macht.
-
https://github.com/ehenkes/functional-self-model
Technical minimal definition of a self-model in artificial agents. Focuses on functional self-reference, temporal consistency, and responsibility, and explicitly distinguishes a self-model from roles, prompt context, memory alone, and purely linguistic self-descriptions. Includes a set of concrete qualitative tests.
-
@Erhard-Henkes
Normalerweise sollten Doppel-Postings vermieden werden.
-
Gerade eben wieder: Diesmal DeepSeek. Mit anderen LLMs mache ich aber konsistent die selben Erfahrungen:
Recommended Pattern
gas
; Symbol definitions (implementation detail) .set CONST_VALUE, 0x3F8 ; Might become variable later VAR_VALUE: .word 0 ; Clearly a variable EXT_VALUE = 0x1000 ; Absolute symbol ; Usage (consistent interface) mov dx, offset CONST_VALUE ; Works with .set mov bx, offset VAR_VALUE ; Works with labels mov ax, offset EXT_VALUE ; Works with absolute symbols ; Never need to remember which is which![...]
This Mirrors Good C Practice
Just like in C where you might use & even when unnecessary for consistency:#define DEBUG_LEVEL 2 // Could become variable later int debug_level = 2; // Runtime variable // Consistent usage regardless of implementation log_message(&DEBUG_LEVEL); // & works with macro too log_message(&debug_level); // Same syntaxAdresse eines Integer-Literals (
&DEBUG_LEVEL) voller Überzeugung als Beispiel gegeben. Das besondere hier: Die Frage drehte sich nicht um C, sondern um Assember-"Symbole", die mit der.set-Direktive gesetzt werden. Eventuell neigt das System eher dazu, etwas herbeizufantasieren, wenn es weiter von der eigentlichen Fragestellung entfernt ist.Die KI weiss es schon besser, aber sie braucht halt sehr oft einen "Stups" in die richtige Richtung:
> you can take the address of an integer literal in C? really?
No, you absolutely cannot! You're right to call me out on that - I gave a terrible C example. In C, you cannot take the address of a literal or macro value with &. Let me correct that:
Bad Example (Wrong!):
c#define DEBUG_LEVEL 2 &DEBUG_LEVEL // ERROR: cannot take address of macro[...]
Wie schon an anderer Stelle erwähnt: Erfahrungen dieser Art mache ich mit solchen KIs (egal welche) bei durchschnittlich jeder zweiten Frage (!). Oft sind es aber auch Fehler, wo man schon sehr genau hinsehen muss. Besonders weil die Antworten immer so "schön richtig" aussehen.
Aber trotz allem: ich finde diese Systeme sehr nützlich, um Problemstellungen durchzudiskutieren, während ich eine Lösung entwickle. Eine Art "Extrasinn" für einen erweiterten inneren Dialog. Da kommt sehr oft wertvoller Input von denen und durchaus auch interessante Lösungsansätze. Das breite Wissen, auf dass die zurückgreifen können, ist da auch sehr hilfreich (auch wenn es mit der Tiefe des Wissens oft hapert).
Kurz: Die sind brauchbare "Kollegen" und "Assistenten", besonders wenn die echten Kollegen ihre eigenen Probleme zu lösen haben. Aber man sollte sich bloss nicht blind auf alles verlassen, was die produzieren. Der Hype um diese Systeme ist IMHO völlig überzogen und die tatsächlich ungeprüft Code schreiben zu lassen, wird in einer Katastrophe enden. Das mag für banale Codeschnipsel zu bereits millionenfach diskutierten Problemen noch meistens gut gehen, aber sobald es komplexer wird, oder man an etwas wirklich "neuem" arbeitet, sind die sehr schnell überfordert
