@Erhard-Henkes sagte in ChatGPT ist stellenweise echt schwer von Begriff: @Finnegan sagte in ChatGPT ist stellenweise echt schwer von Begriff: On x86, when is the CPU exception 0xF raised? Ich teste mit dieser Frage den aktuellen ChatGPT-5.1: Gut. Da hat das Modell wohl dazu gelernt Die Problematik zeigt aber generell einen wichtigen Aspekt bei LLMs auf: Die Modelle können nicht alle Dokumentationen und Referenzen 1:1 reproduzierbar in ihren Gewichtungen gespeichert haben. Dafür sind selbst die fettesten Modelle einfach "viel zu klein" (von den Dateigrößen her). Die arbeiten mit Wahrscheinlichkeiten und "Pattern Matching", daher sind solche Fehler völlig normal je fein-granularer die benötigen Informationen sind (0xF und 0xE sind einfach zu nah beieinander um da nicht hin und wieder falsch verstanden zu werden). Und wenn ChatGPT mittlerweile die Exception richtig zuordnet bin ich mir sicher, dass es noch jede Menge Ähnlich gelagerte Beispiele gibt. Das muss einfach auftreten, wenn man zu sehr ins Detail geht. Kurz: LLMs können gut Konzepte erklären und viel Hintergrundinformationen liefern. Wenn man jedoch exakte, detaillierte Informationen benötigt, sollte man die KI besser nur fragen, wo man die passende Dokumentation findet und die Feinheiten selbst nachschlagen.