Zweidimensionales Array (Strings) sortieren



  • Der Code von Wutz ist natürlich nur dazu da den TA zu verstören und abzuschrecken... Wie soll er das

    (*(char***)&a[i])[0]
    char **x=*(char***)a;
    

    verstehen, wenn er schon Probleme bei ** hat?

    Siehe Frage zweidimensionales Array String. Ein einfaches Beispiel hätte da sicher genügt.



  • Jetzt geht der Thread ganz auseinander, sorry für den internen Themenwechsel, ich hätte doch ein neues Thema eröffnen sollen.
    Wie in meinem letzten Post beschrieben, habe ich ein Problem beim Einfuegen in das 2D Array. Das Problem des Quicksorts habe ich nun gelöst, ähnlich dem Code von Wutz.So sehr schreckt mich der Code nun nicht ab.

    Aber nun gut, mein Problem liegt nach wie vor beim Einfuegen (Code im letzten Post) von Strings ganz am Anfang, ohne Sortierung.

    Achja, das Array ist wie folgt deklariert:
    String **values; (wobei Srting ein typedef auf char * ist).



  • Und woher soll der Compiler bei values[rows][cols] = insert; wissen bis zu welchem Wert cols gehen kann?



  • Ich habe das Array in einem struct deklariert, dort wird das Array
    mit row_cnt und col_cnt verwaltet. Dies ist Teil eines Listenelements.
    Die ganze Kiste wird dann über eine Liste verwaltet.



  • Das ganze hängt daran wie der Speicher mit deinem value verarbeitet wird.
    Und du kommst nicht damit heraus wie das ganze zugewiesen wird.

    Einmal machst du

    values = malloc(row_cnt * sizeof(char*));
    

    dann ist das wieder

    values[rows][cols] = insert;
    

    Das passt irgendwie nicht zusammen.

    Darum nochmal die Frage:
    Wie ist das Array wirklich deklariert.



  • So wie ich das aufgefasst habe, wird so Speicher fuer ein 2D Array
    reserviert, sprich erst fuer die char-Zeiger (zeile) und dann in der Schleife
    Speicher für die einzelnen Spalten der Zeilen.

    Das Array ist in diesem Stuct:

    struct Data
    {
       String **values; /* String = char* */
       int row_cnt;
       int col_cnt;
    };
    

    Verwaltet wird dieses Struct ueber ein weiteres, welches einem Listenelement meiner verketteten Liste entspricht:

    struct Element 
    {
    	String id;
    	Data data; 
    };
    

    Hier nochmal der Code fuer das Reservieren und Einfuegen:

    Element e; 
    
    e.data.values = malloc(max_row_cnt * sizeof(char*));
    /*max_row_cnt wird vorher ermittelt, entspricht später e.data.row_cnt */
    
    for (i=0;i < max_row_cnt; i++) {
       e.data.values[i] = malloc(max_col_cnt * sizeof(char*));
    }   
    /*max_col_cnt wird ebenfalls vorher ermittelt */
    
    while (fgets(line,fsize,file) {
       e.data.col_cnt = 0;
       token = strtok(zeile, separator);
    
       while (token) {
          insert = malloc(strlen(token)+1 * sizeof(char));
          strcpy(insert,token);
          e.data.values[e.data.row_cnt][e.data.col_cnt] = insert;
          ++e.data.col_cnt;
          token = strtok(NULL, separator);
       }
       ++e.data.row_cnt;
    }
    

    Das Element e wird dann in die Liste eingefuegt.



  • Ein 2D-Array ist sowas:

    #define MAX_X 10
    #define MAX_Y 20
    int x,y;
    
    int feld[MAX_X][MAX_Y];
    

    Das ergibt einen Block von MAX_X * MAX_Y (also 200) int, der gleich reserviert wird.

    // Du kannst darauf als Feld zugreifen:
    feld[x][y] = 5;
    // oder als Zeiger;
    *(feld+x*MAX_Y+y) = 5; // Beachte das da steht: x * MAX_[b]Y[/b] (und [b]nicht [/b]x * MAX_X)
    

    Bei dem Zugriff als Feld muss der Compiler aber wissen wie groß das Feld beim höchsten Index ist (Hier der 2. Index MAX_Y)

    Du schreibst:

    String **values; /* String = char* */
    ...
    e.data.values = malloc(max_row_cnt * sizeof(char*));    // geht noch  (String**)
    ...
    e.data.values[i] = malloc(max_col_cnt * sizeof(char*)); // geht auch noch (String*)
    ...
    e.data.values[e.data.row_cnt][e.data.col_cnt] = insert;  // Hier weiß der Compiler doch gar nicht wie groß dein letzter Index ist. :warning:
    // Außerdem ist das immer noch ein String* und du wolltest ein einfachen String haben
    


  • Ok, langsam leuchtet es mir ein, aber ich kann die Groesse via #define
    nicht festlegen, weil ich zur Complierzeit noch nicht weiss, wie groß das 2D Array wird, sondern erst, wenn ich weiss, wieviele Zeilen + Spalten in der Datei stehen, die ich einlese.





  • Nachdem ich einiges über zweidimensionale Arrays gelesen habe, wird mir klar, das man das so wohl nicht machen kann, und ich wirklich die Groesse via define festlegen muss.

    Aber, was wäre, wenn ich sage:

    #define MAX_X 30
    #define MAX_Y 20

    aber, was ich noch nicht wisse, nur 10 Zeilen und 5 Spalten benötige? Ist das so legitim, kann man das so machen?



  • Du brauchst die #defines nicht. Das war nur ein Beispiel.

    Du kannst auch diese MAX_ auch als Variablen machen

    int max_row, max_col;
    int *feld;
    
    int row,col;
    
      max_row = 20;
      max_col = 10;
    
      feld = malloc(max_row * max_col * sizeof(int));
    
      row = 2;
      col=6;
    
      *(feld r*max_col+c) = 100;
    

    Die Idee ein Spalten-Array mit Zeigern auf Zeilen-Arrays zu machen ist schon in Ordnung. Nur hast du das nur noch nicht richtig implementiert.



  • Ich würde mich wesentlich besser fühlen, wenn diese dann auch "const" wären. Anstelle von defines versteht sich.



  • Ok, dann ist meine Datenstruktur vielleicht doch noch zu retten. Ich werd mich mal ransetzen und schauen, ob es es hinkriege.



  • @DirkB Irgendwie stehe ich gerade auf dem Schlauch. Also dein Beispiel soll ein 2D-Array von int's verdeutlichen? Wie ist denn die letzte Zeile zu interpretieren?

    Weiss jetzt nicht konkret, wie ich das umsetzen soll - wahrscheinlich habe ich heute einfach zu lange daran gesessen und mit den Kopf zerbrochen, Luft ist echt raus 😞



  • Da muss noch ein + hin (feld+rmax_col+c) = 100;

    Ing0 schrieb:

    ..., Luft ist echt raus 😞

    Geht mir gerade genauso, denn ....
    was ich geschrieben stimmt für Arrays.

    In dem Beispiel aus dem Buch wir ja von einem (Doppel-)Zeiger ausgegangen und da dereferenziert jedes [] wieder. Darum funktioniert das auch.
    Asche auf mein Haupt :p



  • in der letzten Zeile hat er zwei kleine Fehler gemacht (falsche namen). Du musst dir den Array als Folge im Speicher vorstellen.

    x 0 1 2 3 4 5
    0 0 1 2 3 4 5
    1 6 7 8 9 10 11

    Im Speicher sieht das dann aber so aus:

    0 1 2 3 4 5 6 7 8 9 10 11

    Wenn du nun die Zweite Zeile ansprechen willst musst du dementsprechend row * max_col nehmen.

    0 1 2 3 4 5 6 7 8 9 10 11
    ---------------|row * max_col

    Wenn du die Zeile hast, dann muss noch der Offset zur Spalte mit rein.

    0 1 2 3 4 5 6 7 8 9 10 11 ...
    --------------------|row * max_col + col

    Im Beispiel wäre es dann:

    0 1 2 3 4 5 6 7 8 9 10 11 ...
    --------------------|1 * 6 + 2

    Das Ergebnis ist 8.

    const int max_row = 2;
        const int max_col = 6; 
    	int *feld; 
    
    	int row, col; 
    	int i, y;
    
    	feld = (int*)malloc(max_row * max_col * sizeof(int)); 
    
    	for(i = 0; i < max_row; ++i)
    		for(y = 0; y < max_col; ++y)
    			*(feld + i * max_col + y) = i * max_col + y; //steigender Wert 0 - 11
    
    	row = 1; // 0 bis max_row - 1
    	col = 2; // 0 bis max_col - 1
    
    	printf("%i", *(feld + row * max_col + col));
    


  • DirkB schrieb:

    In dem Beispiel aus dem Buch wir ja von einem (Doppel-)Zeiger ausgegangen und da dereferenziert jedes [] wieder. Darum funktioniert das auch.
    Asche auf mein Haupt :p

    Genau, der Compiler muss nur den größten Index kennen, wenn es sich um ein auf dem Stack abgelegtes, nicht dynamisches Array (z. B. char [][]) handelt. Dort werden die Zeilen nämlich direkt hintereinander abgelegt.

    Bei einem dynamisch allozierten Array (char **) handelt es sich um ein Array von Arrays, wo lediglich die Pointer dereferenziert werden müssen, ohne umständlich die Position eines Elementes über die Zeilenlänge zu berechnen.

    Die von Ing0 zuerst vorgeschlagene Lösung zur Reservierung des Speichers für das Array war also völlig richtig.



  • values = malloc(row_cnt * sizeof(char*));
    
    for (i=0;i < row_cnt; i++) {
    values[i] = malloc(col_cnt * sizeof(char*));
    }
    

    Also ist das völlig korrekt?

    Wie sieht denn dann die korrekte Zuweisung von char * aus, also das Einfügen von Strings?



  • Ja, ist es, bis auf eine Kleinigkeit. Die erste Zeile sollte

    values = malloc(row_cnt * sizeof(char**));
    

    lauten. Und wie gesagt, bei

    insert = malloc(strlen(token)+1 * sizeof(char*));
    

    fehlen noch Klammern und es ist ein Sternchen zu viel, also

    insert = malloc((strlen(token)+1) * sizeof(char));
    

    An der Zuweisung mit

    values[rows][cols] = insert;
    

    ist auch nichts auszusetzen, da es sich bei values ja um ein String ** (bzw. char ***) handelt und bei zweifacher Dereferenzierung nur noch char * überbleibt.

    Warum Valgrind meckert, kann ich mir allerdings auch nicht erklären.



  • Ok, ich werd das mal ändern und schauen, ob ich noch was finde.
    Vielen Dank euch erstmal für die Tipps & Erklärungen.


Anmelden zum Antworten