Informationen finden zu: BasicLowLevel C++ / Interne Funktionsweise



  • 10 ist immer dezimal. Du kannst denselben Wert auch als 012 (oktal), 0xA (hexadezimal) oder 0b1010 (binär) darstellen. Andere Basen gibt es in C++ nicht, und wenn es sie gäbe, müsste man die natürlich auch irgendwie kennzeichnen. Gedankenlesen kann der Compiler nicht.



  • Ah, danke
    (War mir neu)

    Also Merke (Memo an mich):
    Zahl == Zahl (Wie gewohnt Dezimal)
    Zahl mit Vorzeichen 0 == oktalZahl
    Zahl mit Vorzeichen 0x == heXaZahl
    Zahl mit Vorzeichen 0b == binZahl

    Seh mir jetzt dann mal die Links genauer an.
    (Danke auch dafür)



  • Wichtig ist vor allem, dass man sich das mit der führenden 0 für oktal merkt. Man kann leicht reinfallen, wenn man Zahlen ausrichten möchte:

    int a = 0123;
    int b = 1234;
    int c = 2345;
    

    sieht erstmal unverdächtig aus, bis man die erste Zeile (=83) genauer anschaut. Meiner Meinung eine sehr unglückliche Sache, dass man damals die führende 0 für oktal gewählt hat. Ein 0o123 wäre meiner Meinung nach besser gewesen.



  • @axam

    Wenn die Eingabe des Werts einer Varible vom Typ int mit jeder belibige Basis erfolgen kann, woher weiß der Compiler dann welchen Wert die Varible besitzt.

    Du musst unterscheiden zwischen dem was du im Source-Code hinschreibst, und dem was dann in der Variable gespeichert wird.

    z.B.

    int x = 10;
    int y = 0xA;
    int z{};
    z++;
    z = z + z;
    z = z + z;
    z = z + z;
    z++;
    z++;
    // x, y und z haben jetzt den exakt selben Wert
    

    Bzw. wenn du willst kannst du sagen dass der Wert in der Variable immer binär gespeichert wird. Nur du kannst es halt im Source-Code dezimal, hexadezimal, oktal oder binär hinschreiben -- wenn du die passende Schreibweise verwendest. Der Compiler rechnet das dann entsprechend für dich um. Im ausführbaren Code ist alles binär.



  • Zusatzfrage:
    Es wurde hier ja erwähnt, daß der Compiler den Code optimiert.
    Wie weitreichend können diese Optimierungen sein?
    Konkret geht es mir dabei jetzt um das oben angeführte Beispiel einer Zähl-Adition:

    int plus(int w1, int w2)
    {
    for(i=0; i < w2; i++) {w1++;}
    return w1;
    }
    

    Das Ergebnis der Funktion ist eine simple Addition, ich kann mir jedoch Situationen vorstellen, wo mir auch das zählen selbst wichtig wäre. Vereinfacht gesagt, daß die Funktion für das Ergebnis von 100+200 länger braucht als für 1+2, aber gleich lange wie für 1.000+200.

    Besteht überhaupt die Gefahr, daß der Compiler solche Funktionen zB. im obigen Fall durch eine Addition ersetzt?
    Gibt es eine Möglichkeit wie ich Funktionen irgend wie kennzeichnen kann, so daß sie vom Optimierungsprozess ausgenommen sind?

    Oder macht es zumindest im obigen Beispiel ohnehin keinen unterschied, da ein Prozesor ohnehin nur Zählt - also für die Adition ohnehin immer gleichlange brauchen würde, wie für die Ausführung obiger Funktion?

    Fals Adition und Zählen für den Prozessor das selbe wäre, gilt meine Frage übrigens für eine Zähl-Multiplikations-Funktion:

    int mal(int w1, int w2)
    { 
    int w=0;
    for(i=0; i < w2; i++) {w=plus(w, w1);}
    return w;
    }
    

    (PS.: bin mir jetzt nicht ganz sicher ob das so richtig wäre, oder ob es in der Zeile 5 für das richtige Ergebnis "int w=w1; " lauten müßte, da es jedoch nur ein Beispiel sein soll, ist es mehr oder weniger nebensächlich.)



  • Eine Gefahr besteht in dem Sinne nicht, da diese Ersetzungen nur vorgenommen werden, wenn sie nicht zu durch anderen Code beobachtbaren Änderungen führt. Wenn du std::cout << mal(5,7) schreibst kann da durchaus std::cout << 35 im rauskommen. Konkret kann man das aber nicht sagen, was in Einzelfall passiert müsste man immer nachschauen, wenn es einen so dringend interessiert.



  • @axam sagte in Informationen finden zu: BasicLowLevel C++ / Interne Funktionsweise:

    Wie weitreichend können diese Optimierungen sein?

    So klug wie die Compilerentwickler waren - solange du keinen Unterschied in der Ausgabe siehst.

    Sogar sowas wie die Summe der Zahlen von 1 bis n wird von clang durch die Gauß-Summenformel ersetzt.

    Schau dir das doch in godbolt an, wozu haben wir da schon hingelinkt?

    Hier: https://gcc.godbolt.org/z/YEWPKd
    Deine plus-Funktion: Der Parameter w1 wird (unter Linux x86_64) in rdi und w2 im Register rsi übergeben.
    Also

    int plus(int edi, int esi) {
      int eax = 0;               //  xor     eax, eax
      if (esi nicht negativ) {   //  test    esi, esi [1]
        eax = esi;               //  cmovns  eax, esi [1a]
      }
      eax += edi;                //  add     eax, edi
      return eax;                //  ret
    

    [1] und [1a] gehören zusammen - test ist hier "setze sign-Bit" und das cmov (conditional move) ist ein "if + Zuweisung zusammen": move wenn nicht sign-Bit gesetzt"

    Du siehst also: deine Schleife ist weg.

    Und wenn du z.B. noch -march=skylake als Parameter angibst, ist der Algorithmus anders...

    Und wenn du deine mal-Funktion einfach mal in Godbolt reinkopierst, wirst du da ein "imul", also eine Multiplikation, finden...



  • @axam: Noch zur Info für dich: ein Prozessor verwendet intern dafür keine Schleifen, sondern die Hardware-Schaltungen Addierwerk und Multiplizierer.
    Die Performance ist also unabhängig von den verwendeten Summanden (bzw. Faktoren), sondern nur von der Bitbreite.



  • @wob: Danke daß du mich an godbold erinnerst, hab irgend wie gar nicht daran gedacht ... "Brett vorm Kopf". ("grins")

    Also was ich hier so höre gefällt mir irgend wie gar nicht.
    (Liegt nicht an euch, sondern an den Gegebenheiten).

    Dann werd ich mal weiter überlegen, wie ich daß ganze Realisieren könnte.

    Um mein Dilemer vieleicht etwas nachvollziehbarer zu machen und dann eventuell sogar eine gute Anregung für eine Lösung zu bekommen, hier nun wofür ich es brauchen könnte:

    Meine Überlegungen sind zwar vorerst nur theoretischer Natur ist jedoch an eine Reale Situation angelehnt:
    Ein kleines Kind rechnet nicht, es Zählt:
    1-2-3-4Finger + 1-2-3-4Finger = 1-2-3-4-5-6-7-8Finger
    Ein Erwachsener (jemand der schon Rechnen kann) zählt nicht, sondern hat bereits Ergebnisse auswendig gelernt, die er nun nur noch miteinander verknüpfen muß. Wenn jemand sagt 4+4 weis er sofort das es 8 ist, und bei 44+44 zählt er nicht bis 88 sondern rechnet:
    Stelle1: 4+4=8
    Stelle2: 4+4=8
    Stelle1 Stelle2 = 88

    Nun mache ich mir gedanklich ein Objekt "Kind" und ein Objekt "Erwachsener" und weise ihnen verschiedene "Eigenschaften" zu.
    Bei der "Eigenschaft" "Mathematik/Logik" "erbt" "Erwachsener" zwar von "Kind" die "Fähigkeit" "Zählen()" verfügt aber zusätzlich über die "Fähigkeit" "Rechnen()".
    Stelle ich jetzt beiden Objekten("Erwachsener" & "Kind") die Aufgabe eine Liste mit Rechenaufgaben zu lösen, sollte entsprechend der AlltagsLogik "Erwachsener" mit seiner Erfahrung("Rechnen()") schneller sein als "Kind" mit "Zählen()".

    Jetzt weis aber der Compiler nicht worauf es mir ankommt, und wenn er mein Funktionen ändert, zugunsten der Preformenz teilweise sogar unterschiedliche Aufgaben gleich übersetzt, ist am Ende womöglich sogar "Erwachsener" mit seinem "umständlichen" "Rechnen()" langsamer als "Kind" mit "Zählen()".
    (Deswegen "Kind" zählen zu erschweren [zwischen zwei Zahlen immer eine pause einlegen] wäre in dem Fall zwar eine Korrekturmöglichkeit, eine Lösung, die sich aus der Natur der Sache ergibt, wäre mir jedoch lieber. Und wichtiger, ohne Compilerwisen muß man erstmal darauf kommen, daß so ein Händikap notwendig ist.)



  • @axam Irgendwie überlegst du an komischen Sachen 😃

    Normalerweise ist man an der schnellsten Lösung zu einem Problem interessiert. Wenn du eine zeitabhängige Simulation machen möchtest, musst du dich auch selbst um die Zeitabhängigkeit kümmern.

    Ansonsten kannst du dem Compiler natürlich verbieten Optimierungen vorzunehmen. Wenn du dir den Godbolt Link von @wob anguckst, gibt es da das Flag -O2, wenn du daraus -O0 machst, wird nicht mehr optimiert.

    Aber ich möchte dich bitten, dir nicht anzugewöhnen mit -O0 für echten produktiven Code zu kompilieren 😉



  • @Schlangenmensch

    @Schlangenmensch sagte in Informationen finden zu: BasicLowLevel C++ / Interne Funktionsweise:
    Ansonsten kannst du dem Compiler natürlich verbieten Optimierungen vorzunehmen. Wenn du dir den Godbolt Link von @wob anguckst, gibt es da das Flag -O2, wenn du daraus -O0 machst, wird nicht mehr optimiert.

    Genau deshalb war ja auch meine Frage:

    @axam sagte in Informationen finden zu: BasicLowLevel C++ / Interne Funktionsweise:
    Gibt es eine Möglichkeit wie ich Funktionen irgend wie kennzeichnen kann, so daß sie vom Optimierungsprozess ausgenommen sind?

    So wie ich das Verstanden habe deaktiviere ich mit dem Flag -O0 die Optimierung global für den gesamten Compelierungssprozes. Adlerdings soll der Compiler ja seine Aufgabe bestmöglich machen, lediglich ausgewählten Funktionen würde ich gerne mit einer CompilerInformation makieren, damit der Compiler diese Stellen "wortwörtlich" übersetzt, schon allein um sicher sein zu können, daß durch das Compelieren kein unerwartetes "Verhalten" entsteht [wie etwa "Rechnen()" dauert länger als "Zählen()"].



  • @Schlangenmensch sagte in [Informationen finden zu: BasicLowLevel C++ / Interne Funktionsweise]

    wenn du daraus -O0 machst, wird nicht mehr optimiert.

    Niemand garantiert, dass bei -O0 gar keine Optimierungen stattfinden. "Einfachste" Optimierungen passieren trotzdem (was "einfachst" ist, ist abhängig vom Compilerhersteller).

    Aber ich möchte dich bitten, dir nicht anzugewöhnen mit -O0 für echten produktiven Code zu kompilieren 😉

    !



  • Implementiere das Rechnen selber mit Strings statt int.



  • @axam sagte in Informationen finden zu: BasicLowLevel C++ / Interne Funktionsweise:

    Adlerdings soll der Compiler ja seine Aufgabe bestmöglich machen, lediglich ausgewählten Funktionen würde ich gerne mit einer CompilerInformation makieren, damit der Compiler diese Stellen "wortwörtlich" übersetzt, schon allein um sicher sein zu können, daß durch das Compelieren kein unerwartetes "Verhalten" entsteht [wie etwa "Rechnen()" dauert länger als "Zählen()"].

    Du kannst diese Funktionen in einer separaten Datei übersetzen und dort -O0 nehmen, für den Rest -O2. Oder auch deine Variablen als volatile deklarieren... Oder den Algorithmus kompliziert genug machen, sodass er nicht mehr automatisch optimiert wird.



  • @wob sagte in Informationen finden zu: BasicLowLevel C++ / Interne Funktionsweise:
    Du kannst diese Funktionen in einer separaten Datei übersetzen und dort -O0 nehmen, für den Rest -O2. Oder auch deine Variablen als volatile deklarieren... Oder den Algorithmus kompliziert genug machen, sodass er nicht mehr automatisch optimiert wird.

    Das mit dem Auslagern der Entsprechenden Funktionen hab ich auch schon überlegt.
    volatile klingt vielversprechend (weiß zwar nicht was das bedeutet, werd' ich mir jedoch nachher mal aber näher ansehen).
    Funktionen unnötig kompliziert machen, erscheint mir jedoch wenig sinnvoll, und wäre mir auch zu unsicher (schließlich ist das "Endresultat" dann immer noch "ungewiß").



  • @axam Ich glaube, du solltest vor allem vorm Programmieren überlegen, was genau dein gewünschtes Ergebniss ist und dann ein Programm schreiben, dass dir das berechnet.

    Du kannst, um das Verhältnis Kind <-> Erwachsener in deinem Beispiel wiederzuspiegeln z.B. benötigte Rechenschritte mitzählen. Erwachsener: 1 Kind: kommt drauf an wie weit hoch gezählt werden muss. Und schon kannst du den Unterschied auch simulieren, ohne dass du da irgendwelche künstlichen Schranken auf Compiler Ebene anlegen musst.

    @wob Stimmt, -O0 garantiert lediglich, dass man beim debuggen, die Werte angezeigt bekommt, die man an der Stelle im Source Code erwartet.



  • @axam sagte in Informationen finden zu: BasicLowLevel C++ / Interne Funktionsweise:

    volatile klingt vielversprechend

    Naja, war eigentlich nur halb ernst gemeint. Normalerweise solltest du das nicht benutzen, wenn du nicht ganz genau weißt, warum du es brauchst. Schritte mitzählen, was Schlangenmensch vorgeschlagen hat, klingt vernünftiger.



  • Ok, das mit dem counten wäre eventuel eine Möglichkeit.
    Man betrachtet das "berechnet" Ergebnis als unabhängigen Wert, zählt dabei die Rechenschritte, die für die Berechnung vorgesehen wärden, und läst dann das Objekt entsprechend der counterZahl warten. Macht das ganze zwar etwas "langsamer" aber dafür ist man auf der sicheren Seite.
    Erwachsener ist übrigens nicht automatisch counterZahl=1 für zB. 44+44 bräuchte er min3 Schritte (für einen genauen Wert müsste ich es mir jedoch im Detail anseh'n wie viele Schritte es dann wirklich sind).



  • volatile bedeutet, dass die Lese- und Schreibzugriffe auf entsprechend qualifizierte Speicherstellen mit zum beobachtbaren Verhalten des Programms gezählt werden. Der Compiler kann also z.B. hier:

    volatile int x = 10;
    x = 10;
    int y = x;
    cout << x << y;
    

    nicht die Zuweisung (nach der Initialisierung) an x weglassen, er darf auch nicht einfach annehmen, dass y den Wert 10 hat, sondern muss den Wert von x tatsächlich nochmal aus dem Speicher lesen. Das ist zwar eigentlich für Hardware-Zugriffe und ähnliches gedacht, kann aber auch als Optimierungsbremse missbraucht werden.



  • Hatte jetzt Zeit mir mal "volatile" ein wenig näher anzusehen (an der Stelle auch dank an @Bashar für deine Zusamenfassung) und hab folgendes herausgefunden:
    Die meisten (u.a. auch Wikipedia) schreiben daß es genau dafür da ist was ich bräuchte, bzw. dafür verwendet wird.

    Was die Nachteile von "volatile" betrift:

    1. Varible belegt RAM (begrenzt akzeptabel)
    2. Langsamer, da zugriff über RAM erfolgt
    3. Langsamer, da Variable bei jedem Aufruf neu aus dem RAM geladen wird.
      Ob jetzt "4) keine/eingeschränkte Codeoptimierung" ein Vor- oder Nachteil ist hängt von der jeweiligen Situation ab.

    Letzten Endes würde also "volatile" das machen was ich bräuchte, die Nachteile sind jedoch ... Nur mal laut gedacht: Ich frage mich ob der Compiler meine Funktion auch in ruhe läst wenn in der Funktion ein "volatile int null" steht. Wüste aber nicht so recht was ich mit "null" machen soll. Steht in der Schleife "volatile int null;" erfolgt bei jedem Durchlauf eine neue initalisierung, bei "null=null;" erfolgt ein Speicherzugriff, eben so bei "null=0;" und mit if(null==null) ist es vermutlich auch nicht besser.
    Schreibe ich einfach nur "null;" so erzeugt dies zumindest in VS2019 erstmal keine Warnung/Fehlermeldung. Ob es auch so beim Compelieren wäre und ob ein "null;" in der for-Schleife den gewünschten Effekt hätte (keine Änderung der Funktion durch den Compiler und trotzdem kein Speicherzugriff auf "null") kann ich jedoch nicht beurteilen.

    Übrigens hab ich während meiner Suche auch eine witzige Atwort auf die Frage "Why do we use volatile..." gefunden, die ich euch nicht vorenthalten will:

    In other words, I would explain this as follows:
    volatile tells the compiler:

    "Hey compiler, I'm volatile and, you know, I can be changed by some XYZ that you're not even aware of. That XYZ could be anything. Maybe some alien outside this planet called program. Maybe some lightning, some form of interrupt, volcanoes, etc can mutate me. Maybe. You never know who is going to change me! So O you ignorant, stop playing an all-knowing god, and don't dare touch the code where I'm present. Okay?"

    Well, that is how volatile prevents the compiler from optimizing code.

    "smile"😁

    Nachtrag:
    Eventeull wäre es ja eine Lösung wenn ich beim Funktionsaufruf "volatile" benutze?
    V1:

    volatile int plus(int w1, int w2)
    

    Mögliches Problem:
    Gesetzt dem Fall dies wäre Möglich, dann wäre der return-Wert ja vermutlich ein volatile, was dann im weiteren Verlauf zu Problemen führen könnte?

    V2:

    int plus(int w1, int w2, volatile int null)
    

    Hier wird beim Funktionsaufruf "0" als driter Wert an die Funktion übergeben.
    "null" findet in der Funktion selbst keine Verwendung ergo höchstens 1 Speicherzugriff (= Initialisierung)?


Anmelden zum Antworten