Integer in 4 Bytes zerlegen - Wie?



  • Und warum nicht "long" anstatt "int32_t"?



  • Frage1 schrieb:

    Und warum nicht "long" anstatt "int32_t"?

    weil du einen 4 byte breiten typen haben willst und long wenn du pech hast 7,3 milliarden bytes groß ist?



  • So ne Kacke aber auch, ich dachte "long" ist immer 4 Bytes lang, garantiert das der Standard nicht?



  • Nein, siehe dazu auch diesen Thread.



  • Shade Of Mine schrieb:

    Wilma schrieb:

    Ein int32_t hat immer die Bits 0 bis 31 - ob littel oder big endian gespeichert, spielt beim Schieben keine Rolle.

    Und int32_t hat auch immer die Bytes 0-3
    egal ob little big oder median gespeichert...

    Ich verstehe weder die "Warum?"-Frage ein paar Posts vorher noch diese Aussage.

    Little Endian: LSB 2B 3B HSB
    Mapt man das direkt auf Bytes, dann bekommt man für byte[0] eben das LSB
    Big Endian: HSB 3B 2B LSB
    Mapt man das direkt auf Bytes, dann bekommt man für byte[0] eben das HSB

    (uint32_t >> 24) && 0xFF liefert hingegen immer das HSB. Egal, ob dem Wert Little- oder Big Endian zugrunde liegt.



  • Danke, interessanter Thread @Nexus.

    Eine Frage aber noch:
    "int32_t" ist auf einem 32bit System gleich "int" oder "long" nehme ich an.
    Und auf einem 64bit System? short? Ist "short" auf einem 64bit system 32bit breit?



  • Kapier ich nicht. Kannst du mir das bitte mal vorrechnen?
    Irgendwie sehe ich den Unterschied nicht...



  • Shade Of Mine schrieb:

    Kapier ich nicht. Kannst du mir das bitte mal vorrechnen?
    Irgendwie sehe ich den Unterschied nicht...

    Ich hoffe, Du beziehst Dich auf meinen Post...

    Beispiel:

    uint32_t val = 0xAABBCCDD

    Auf einer Big Endian Maschine wäre das dann im Speicher AA BB CC DD
    Auf einer LittleEndian Maschine DD CC BB AA

    Macht man jeweils auf einer Little Endian Maschine (potentielle Probleme neben der Endianess mal außer acht gelassen) nun Folgendes:
    Big Endian:

    uint8* pval = &val;
    ausgabe(pval[0]); //   ->AA
    

    Little Endian:

    uint8* pval = &val;
    ausgabe(pval[0]); //  -> DD
    

    hat man unterschiedliche Ergebnisse. Das ist klar denke ich.

    val & 0xFF liefert hingegen immer DD. Egal ob Little- oder Big Endian.
    Soll heißen: Mit der Bitshift Methode lässt sich ein int plattformunabhängig serialisieren. Irgendwelche Overlays sind hingegen (logischerweise) "Implementation dependent". Und die Sache mit der Union ist so ein Overlay.



  • Tachyon schrieb:

    val & 0xFF liefert hingegen immer DD. Egal ob Little- oder Big Endian.
    Soll heißen: Mit der Bitshift Methode lässt sich ein int plattformunabhängig serialisieren. Irgendwelche Overlays sind hingegen (logischerweise) "Implementation dependent". Und die Sache mit der Union ist so ein Overlay.

    Nur was wenn ich val vorher 24bits nach rechts schiebe?

    Wenn ich AA BB CC DD um 24 bit nach rechts verschiebe habe ich ja
    00 00 00 AA

    Wenn ich aber DD CC BB AA um 24bit nach rechts verschiebe habe ich
    00 00 00 DD

    wenn ich
    val & 0xFF mache, dann weiss ich ja dennoch nicht in welchem byte nun der interessante wert steht...



  • Ich vermute, daß der Shift - Operator >> eben nicht 'nach rechts' verschiebt, sondern 'in Richtung LSB', rein physikalisch also auf einem Little Endian System anders, als auf einem Big Endian System.



  • Belli schrieb:

    Ich vermute, daß der Shift - Operator >> eben nicht 'nach rechts' verschiebt, sondern 'in Richtung LSB', rein physikalisch also auf einem Little Endian System anders, als auf einem Big Endian System.

    macht natürlich sinn. danke.



  • Shade Of Mine schrieb:

    Nur was wenn ich val vorher 24bits nach rechts schiebe?

    Wenn ich AA BB CC DD um 24 bit nach rechts verschiebe habe ich ja
    00 00 00 AA

    Wenn ich aber DD CC BB AA um 24bit nach rechts verschiebe habe ich
    00 00 00 DD

    wenn ich
    val & 0xFF mache, dann weiss ich ja dennoch nicht in welchem byte nun der interessante wert steht...

    🙄

    val = 0xAABBCCDD; 
          val >>= 24;
          // val == 0xAA
    


  • Also, vielen Dank erstmal für eure zahlreichen Antworten!

    Habe das ganze jetzt mehr oder weniger am laufen: Ich splitte den Integer jetzt so:

    int x, x_1, x_2, x_3, x_4;
    
    x_4 = a & 0xff; 
    x_3 = ( a >> 8 ) & 0xff;
    x_2 = ( a >> 16) & 0xff;
    x_1 = ( a >> 24) & 0xff;
    
    x=x_1+256*x_2+(x_3+256*x_4)/65536;
    

    x ist dann die endgültige X-Koordinate. Das funktioniert soweit auch wunderbar, doch gibt es einen Fehler:

    Als ich meine ersten 8 Vertices ausgelesen habe, hatte der erste folgende Koordinaten: 10, 10, 246
    Korrekt wäre aber: 10, 10, -10

    Sprich: es gibt Probleme, sobald eine negative Zahl auftritt. Der gesplittete Integer sieht dabei so aus:

    x_1=246, x_2=0, x_3=0, x4=0

    Scheint also ein Fehler beim splitten zu sein.
    Was ist hier falsch?



  • Die negativen Zahlen kannst Du z.B. so holen:

    x_4 = (int)(char)(a & 0xff); 
    x_3 = (int)(char)(( a >> 8 ) & 0xff); 
    x_2 = (int)(char)(( a >> 16) & 0xff); 
    x_1 = (int)(char)(( a >> 24) & 0xff);
    

    😉



  • Danke Dir! Es funktioniert 😃



  • Ich glaube, ob char signed ist ist abhängig von der Implementierung. Schreib (signed char) , dann bist du auf der sicheren Seite.



  • In C++ noch static_cast verwenden, und dann ist man schon nahe an der Perfektion. 🙂



  • Nexus schrieb:

    In C++ noch static_cast verwenden, und dann ist man schon nahe an der Perfektion. 🙂

    warum? der c-cast macht doch hier nix anderes.
    ich schlage mal den c++-cast vor:

    x_3 = int(char( (a>>8)&0xff) ));
    

    ps: ich mag static_cast nicht und benutze ihn eigentlich nur für downcasts in der klassenhierarchie.



  • Den C++-Function-Style-Cast sieht man auch sehr selten.

    Ich bevorzuge static_cast , weil der sicherer ist und ich sehe da schneller, was getan wird. Die Länge des Schlüsselwortes nehme ich dafür in Kauf. Die Diskussion hatte ich aber schon ein paar Mal. Schlussendlich ists wie so oft auch ein wenig Geschmackssache...


Anmelden zum Antworten