[gelöst] Vector ist wesentlich langsamer als Array?



  • cooky451 schrieb:

    Du hast es nicht verstanden.

    Das ist möglich, aber nicht sehr wahrscheinlich 😃

    cooky451 schrieb:

    vector<vector<vector<double>>> ist natürlich wesentlich langsamer, als vector<array<array<double, N>, N>>. Dieser Effekt wird stärker, je mehr du im Speicher herumspringst.

    Nein, das stimmt so nicht. Du setzt nämlich voraus, dass bei vector der Speicher "natürlich" nicht zusammenhängend im Speicher liegt. Das ist aber z.B. bei der Standard Lib, die ich hier habe der Fall. Die Standard-Bibliothek verlangt das aber nicht von std::vector<> wohingegen std::array<> das zusichert.


  • Mod

    ogni42 schrieb:

    cooky451 schrieb:

    Du hast es nicht verstanden.

    Das ist möglich, aber nicht sehr wahrscheinlich 😃

    cooky451 schrieb:

    vector<vector<vector<double>>> ist natürlich wesentlich langsamer, als vector<array<array<double, N>, N>>. Dieser Effekt wird stärker, je mehr du im Speicher herumspringst.

    Nein, das stimmt so nicht. Du setzt nämlich voraus, dass bei vector der Speicher "natürlich" nicht zusammenhängend im Speicher liegt. Das ist aber z.B. bei der Standard Lib, die ich hier habe der Fall. Die Standard-Bibliothek verlangt das aber nicht von std::vector<> wohingegen std::array<> das zusichert.

    Du hast es nicht verstanden und das ist sicher.



  • ogni42 schrieb:

    Das ist aber z.B. bei der Standard Lib, die ich hier habe der Fall.

    Okay, dann hast du eine ziemlich komische Lib. Hat die für vector<vector<T>> eine Spezialisierung oder wie funktioniert das? Hm.. wenn man mal drüber nachdenkt, dürfte so eine Implementierung eigentlich nicht funktionieren. Ich muss also annehmen, dass du hier Schwachfug verzfapst, bis du mir das Gegenteil zeigst.



  • Cooky, hier ist der Code mit dem ich jetzt noch mal getestet habe:

    void benchAssignmentVector()
    {
    	cout << "benchmarking vector and array..." << endl;
    	const size_t sx = 256;
    	const size_t sy = sx;
    	const size_t sz = sx;
    
    	vector<vector<vector<double>>> v;
    	v.resize(sx);
    	for (int i = 0; i < v.size(); i++)
    	{
    		v[i].resize(sy);
    		for (int j = 0; j < v[i].size(); j++)
    		{
    			v[i][j].resize(sz);
    		}
    	}
    
    	cout << "vector = \t";
    	double startTime = clock();
    	for (int i = 0; i != sx; ++i)
    		for (int j = 0; j != sy; ++j)
    			for (int k = 0; k != sz; ++k)
    				v[i][j][k] = v[k][j][i] = v[j][i][k] = std::rand(); 	
    	double expired = clock() - startTime;
    	cout << "vector based = " << expired/CLOCKS_PER_SEC << endl << endl;
    
    	vector<array<array<double, sz>, sy>> a;
    	a.resize(sx);
    	cout << "array = \t";
    	double startTime2 = clock();
    	for (int i = 0; i != sx; ++i)
    		for (int j = 0; j != sy; ++j)
    			for (int k = 0; k != sz; ++k)
    				v[i][j][k] = v[k][j][i] = v[j][i][k] = std::rand(); 	
    	double expired2 = clock() - startTime2;
    	cout << "array based = " << expired/CLOCKS_PER_SEC << endl;
    }
    

    Heraus kommt:

    benchmarking vector and array...
    vector =        vector based = 1.4980000000
    
    array =         array based = 1.4980000000
    

    Und das ist die normale Standard Bibliothek von Visual Studio.

    @Sepp: Mit ist schon klar, dass wenn die Daten fragmentiert im Speicher liegen, die Performance deutlich schlechter ist als wenn sie konsekutiv im Speicher liegen. Aber das war nicht die Aussage, sondern, dass vector<vector<vector<double>>> "natürlich" wesentlich langsamer ist, als vector<array<array<double, N>, N>>. Und das stimmt so nicht.

    Oder hast Du was anderes gemeint?


  • Mod

    ogni42 schrieb:

    @Sepp: Mit ist schon klar, dass wenn die Daten fragmentiert im Speicher liegen, die Performance deutlich schlechter ist als wenn sie konsekutiv im Speicher liegen. Aber das war nicht die Aussage, sondern, dass vector<vector<vector<double>>> "natürlich" wesentlich langsamer ist, als vector<array<array<double, N>, N>>. Und das stimmt so nicht.

    Oder hast Du was anderes gemeint?

    Doch das habe ich schon gemeint. Aber wenn du denkst, das deine Standardbibliothek vector<vector<vector<double>>> am Stück im Speicher hat und somit gleich schnell wie vector<array<array<double, N>, N>> ist, dann hast du ganz sicher etwas nicht verstanden. Es ist nämlich unmöglich, dass alles am Stück liegt.

    edit: Hah:

    cout << "vector based = " << [b]expired[/b]/CLOCKS_PER_SEC << endl << endl;
      cout << "array based = " << [b]expired[/b]/CLOCKS_PER_SEC << endl;
    

    edit2: Und das heißt, du benutzt noch nicht einmal Compilerwarnungen, denn ich hoffe doch sehr, dass VS unbenutzte Variablen erkennnt.



  • Teste mal:

    class Stopwatch
    {
      std::clock_t time_;
    public:
      Stopwatch()
        : time_(std::clock())
      {}
      void reset()
      {
        time_ = std::clock();
      }
      double time()
      {
        return (std::clock() - time_) / static_cast<double>(CLOCKS_PER_SEC);
      }
    };
    
    int main()
    {
      const unsigned sx = 256, sy = 256, sz = 256;
      //DynamicArray<double> mem(sx, sy, sz);
    
      Stopwatch w;
      //for (int i = 0; i != sx; ++i)
      //  for (int j = 0; j != sy; ++j)
      //    for (int k = 0; k != sz; ++k)
      //      mem(i, j, k) = mem(k, j, i) = mem(j, i, k) = std::rand();
      //std::cout << "Time: " << w.time() << '\t' << mem(std::rand() % sx, std::rand() % sy, std::rand() % sz) << '\n';
    
      std::vector<std::vector<std::vector<double>>> v(sx);
      for (int i = 0; i != sx; ++i)
      {
        v[i].resize(sy);
        for (int j = 0; j != sy; ++j)
          v[i][j].resize(sz);
      }
    
      w.reset();
      for (int i = 0; i != sx; ++i)
        for (int j = 0; j != sy; ++j)
          for (int k = 0; k != sz; ++k)
            v[i][j][k] = v[k][j][i] = v[j][i][k] = std::rand();
      std::cout << "Time: " << w.time() << '\t' << v[std::rand() % sx][std::rand() % sy][std::rand() % sz] << '\n';
    
      std::vector<std::array<std::array<double, sz>, sy>> v2(sx);
    
      w.reset();
      for (int i = 0; i != sx; ++i)
        for (int j = 0; j != sy; ++j)
          for (int k = 0; k != sz; ++k)
            v2[i][j][k] = v2[k][j][i] = v2[j][i][k] = std::rand();
      std::cout << "Time: " << w.time() << '\t' << v2[std::rand() % sx][std::rand() % sy][std::rand() % sz] << '\n';
    
      getchar();
    }
    

    😉



  • @sepp: Ja, das war falsch. Hatte ich übersehen.

    Bei mir kommt auch nach Korrektur dennoch was sehr komisches raus:

    benchmarking vector and array...
    vector =        vector based = 1.5040000000
    
    array =         array based = 1.5160000000
    
    Cookybench
    Time: 1.4310000000      27227.0000000000
    Time: 0.7100000000      3797.0000000000
    

    Ich nehme mal an, dass ich irgendwo noch einen Fehler habe. Ich find's nur nicht.

    EDIT: OK. Copy Paste Dummheit. Jetzt kommen dieselben Werte. (also auch die 50%)



  • ogni42 schrieb:

    Nein, das stimmt so nicht. Du setzt nämlich voraus, dass bei vector der Speicher "natürlich" nicht zusammenhängend im Speicher liegt. Das ist aber z.B. bei der Standard Lib, die ich hier habe der Fall. Die Standard-Bibliothek verlangt das aber nicht von std::vector<> wohingegen std::array<> das zusichert.

    1. bei std::vector sichert der Standard das seit C++03 zu.

    2. std:.vector<std::vector<double> > kann nicht zusammenhängend im Speicher liegen.

    denn was ist ein vereinfachter std::vector?

    template<class T>
    class vector{
        T* data;
        std::size_t size;
    };
    

    und was ist damit vereinfacht ein vector<vector<double> >?

    class vector<vector<double>{
        vector<double>* data;
        std::size_t size;
    };
    =>Einsetzen von def std::vector<double> unformern und vereinfachen:
    class vector<vector<double>{
        double** data;
        std::size_t* sizeI;
        std::size_t size;
    };
    

    wenn man dann einen vector mit 100 Elementen konstruiert (die jeweils wieder 100 elemente enthalten), dann steht da im constructor vereinfacht wieder folgendes:

    double** data = new double[100];
    for(std::size_t i = 0; i != 100; ++i)
        data[i]=new double[100];
    

    und das ist 100% kein zusammenhängender Speicher. Du hast es also wirklich nicht verstanden.

    //edit ich psote nochmal das hier wichtigste Bild vom benchmark:

    http://download.tuxfamily.org/eigen/btl-results-110323/atv.png

    siehst du den performanceloss bei ca 800-1000? Das sind die einsetzen Cache-Misses, wenn der vector so groß ist, dass die CPU nicht mehr alle Daten sinnvoll gleichzeitig im Cache halten kann. Mit Fragmentiertem Speicher wie einem verschachtelten array hast du diese Misses direkt in der Struktur der Matrix eingebaut.



  • otze schrieb:

    C/C++ Code:
    double** data = new double[100];
    for(std::size_t i = 0; i != 100; ++i)
    data[i]=new double[100];

    Ich nehmen mal an, Du meinst

    double** data = new double* [100];
    for(std::size_t i = 0; i != 100; ++i)
        data[i]=new double[100];
    


  • ich habe einen Zeiger vergessen! mein ganzes Argument ist ungültig.



  • Keineswegs. Es ist vollkommen richtig.

    Meine Aussage war ja, dass bei einem vector<> dessen Elemente zusammenhängend im Speicher liegen. Mehr nicht.

    Aber ich lass das jetzt lieber. Wir reden sonst nur noch mehr aneinander vorbei



  • Da war noch etwas mehr:

    Wo ist denn der Beleg, dass das Verschachteln von vector<> langsamer ist als ein C-Stil Feld?

    beleg folgt aus Definition der verwendeten Elementtypen.


Anmelden zum Antworten