operator+ ohne Kopie?



  • yYy schrieb:

    Wär ich nie drauf gekommen...

    Stell deine Fragen präziser.

    Im Beispiel mit operator* wird RVO (Return Value Optimization) angewandt, weil es sich beim return -Ausdruck um ein temporäres Objekt handelt. Bei benannten Objekten kann unter Umständen NRVO (Named Return Value Optimization) angewandt werden, was aber vom Compiler und vor allem vom Code abhängt.



  • Nexus schrieb:

    Im Beispiel mit operator* wird RVO (Return Value Optimization) angewandt, weil es sich beim return -Ausdruck um ein temporäres Objekt handelt. Bei benannten Objekten kann unter Umständen NRVO (Named Return Value Optimization) angewandt werden, was aber vom Compiler und vor allem vom Code abhängt.

    Naja, ich habe aber im Debug-Modus gestartet und die Optimierung ausgeschaltet. Deswegen wundert es mich. Wird es also trotzdem optimiert?



  • DocShoe schrieb:

    megaweber schrieb:

    Hier eine Lösung mit ein wenig template Vodoo:

    www.uop.edu.jo/download/PdfCourses/Cplus/sanderson_templates_lecture_uqcomp7305.pdf

    Hihi,

    habe gerade sowas Ähnliches hingefrickelt. Schön isses zwar nicht, aber es zeigt, dass es funktioniert.

    #include <memory>
    
    class Matrix
    {
    	double values_[4][4];
    
    public:
    	Matrix()
    	{
       	std::memset( &values_, 0, sizeof( values_ ) );
    	}
    
    	template<typename T>
    	Matrix( const T& op )
    	{
    		for( unsigned int r = 0; r < 4; ++r )
    			for( unsigned int c = 0; c < 4; ++c )
    				values_[r][c] = op( r,c );
    	}
    
    	double operator()( unsigned int Row, unsigned int Col ) const
    	{
    		return values_[Row][Col];
    	}
    
    	double& operator()( unsigned int Row, unsigned int Col ) 
    	{
    		return values_[Row][Col];
    	}
    
    	template<typename T>
    	Matrix& operator=( const T& op )
    	{
    		for( unsigned int r = 0; r < 4; ++r )
    			for( unsigned int c = 0; c < 4; ++c )
    				values_[r][c] = op( r,c );
    		return *this;
    	}
    };
    
    template<typename T, typename U>
    class MatrixAdditionProxy
    {
    	const T& M1_;
    	const U& M2_;
    
    public:
    	MatrixAdditionProxy( const T& M1, const U& M2 ) : M1_( M1 ), M2_( M2 )
    	{
    	}
    
    	double operator()( unsigned int Row, unsigned int Col ) const
    	{
    		return M1_( Row, Col ) + M2_( Row, Col );
    	}
    };
    
    template<typename T, typename U>
    MatrixAdditionProxy<T,U> operator+( const T& M1, const U& M2 )
    {
    	return MatrixAdditionProxy<T,U>( M1, M2 );
    }
    
    template<typename T, typename U>
    class MatrixSubtractionProxy
    {
    	const T& M1_;
    	const U& M2_;
    
    public:
    	MatrixSubtractionProxy( const T& M1, const U& M2 ) : M1_( M1 ), M2_( M2 )
    	{
    	}
    
    	double operator()( unsigned int Row, unsigned int Col ) const
    	{
    		return M1_( Row, Col ) - M2_( Row, Col );
    	}
    };
    
    template<typename T, typename U>
    MatrixSubtractionProxy<T,U> operator-( const T& M1, const U& M2 )
    {
    	return MatrixSubtractionProxy<T,U>( M1, M2 );
    }
    
    int main()
    {
    	Matrix m1, m2, m3, m4;
    
    	m1( 0,0 ) = 1;
    	m2( 0,0 ) = 2;
    	m3( 0,0 ) = 3;
    	m4( 0,0 ) = 11;
    
    	Matrix m5 = m1 + m2 - (m3 - m4);
    
    	double r = m5( 0,0 );
    }
    

    volkard schrieb:

    DocShoe schrieb:

    So Sachen wie

    Matrix D = A + B + C * D;
    

    gingen jedoch deutlich flotter und ohne Kopien.

    Sicher auch mit Cache-Effekten?
    Bei E=(A+B)*(C+D) hätte ich aber schon zu viel Angst.

    Blitz++ setzt diese oder ähnliche Techniken ein und erreicht dabei Geschwindigkeiten von Fortran, scheint also zu gehen.

    Dann aber MatrixProxy lieber einen Funktor übergeben 😉

    z.B.:

    template<typename T, typename U, typename Functor>
    class MatrixProxy
    {
    	const T& M1_;
    	const U& M2_;
    
    public:
    	MatrixProxy( const T& M1, const U& M2) : M1_( M1 ), M2_( M2 )
    	{
    	}
    
    	double operator()( unsigned int Row, unsigned int Col ) const
    	{
    		return Functor()(M1_( Row, Col ), M2_( Row, Col ));
    	}
    };
    


  • @bmario:

    Warum? Damit schaffst du nur eine unnötige weitere Zwischenschicht. Außerdem verlierst du den nötigen Kontext, z.B. bei der Multiplikation zweier Matrizen, wo die beiden Elemente der Matrizen allein nicht mehr ausreichen.
    Du hast zwar nur noch einen Proxytyp, aber dafür musst du die einzelnen Funktoren noch implementieren. Wenn die beiden Elemente ausreichend wären könnte man tatsächlich std::plus etc. nehmen, aber das reicht eben nicht.



  • Coderedundanz ist mir schon ein ausreichendes Argument 😉

    Außerdem könnte man dem Funktor statt den beiden Elementen auch Referenzen auf die Matrizen, sowie die Spalten- und Zeilenangabe mitgeben. Durch inlining sollte diese Zwischenschicht dann auch nichtmehr auf die Performance gehen.

    Aber nicht ganz unrecht hast du auch... das werd ich gleich mal testen.



  • DocShoe schrieb:

    @bmario:
    Warum?

    Weil es geht. Wer den Template-Dungeon erforscht, muß halt erstmal jede Truhe öffnen und jede Tür aufmachen.



  • bmario schrieb:

    Außerdem könnte man dem Funktor statt den beiden Elementen auch Referenzen auf die Matrizen, sowie die Spalten- und Zeilenangabe mitgeben. Durch inlining sollte diese Zwischenschicht dann auch nichtmehr auf die Performance gehen.

    Nur um + und - zu optimieren.
    Denk dran, daß E=(A+B)*(C+D) gerne vielleicht X=A+B,Y=C+D,E=X+Y sein würde. Also kein Proxy mehr, ätschebätsch, weil man nicht 2n^3 mal zweimal + machen mag, sondern nur 2n^2 mal zweimal +. Das kannste wieder mit Metaprogrammierung rausfischen, was der Funktor machen muß, wenn links und rechts welche Funktoren waren. Dabei brauchen die Funktoren noch Zusatzinfos, was sie machen.
    Aber das waren doch gerade DocShoes Proxies. Die sind zu füttern und schlau zu machen. Soo viele verschiedene Rechenoperatoren wird's dann schon nicht geben, daß man totgeht, wenn ein bißchen Code mehrfach ist. Das ist eh fast schon Write-Only-Code.
    Ich hätte gerne, daß A+-B zu A-B vereinfacht wird. Da mußte der Vereinfacher des Plusproxys schauen, ob der rechte Teil ein UnärerMinusProxy ist und ein MinusProxy zurückgeben mit dem selben linken Teil und rechts nur dem Inhalt des UnärenMinusproxies. Das macht bestimmt viel mehr Freude, wenn diese zusätzliche Abstraktion noch nicht dabei ist.
    Zumal wohl doch noch eine Ebene hinzukommen muß, nämlich denke ich, man muß AdditionProxy und AdditionAusdruck schon trennen, wobei AdditionAusdruck::eval() einen AdditionProxy zurückgibt, oder vermutlich besser ein Ausdruck<Addition<Matrix,Matrix>> gibt einen Proxy<Addition<Matrix,Matrix>> zurück, da spart man sich viel SFINAE mit, weil man im Prototyp auf Ausdruck<T> matchen kann und im Inneren dann T genüßlich zerlegen.


  • Mod

    yYy schrieb:

    Naja, ich habe aber im Debug-Modus gestartet und die Optimierung ausgeschaltet. Deswegen wundert es mich. Wird es also trotzdem optimiert?

    Optimierung ist nicht gleich Optimierung.

    Wenn der Compiler "Optimierung" sagt, meint er "as-if" im Sinne des Standards (1.9/1), d.h. besseren Code zu erzeugen, der das Gleiche tut.

    RVO und NRVO sind "Optimierungen" im Sinne des Standards, d.h. Transformationen, die das erzeugte Progamm und dessen Verhalten ändern, man könnte sagen, dass es sich um Sprachvarianten handelt. Es wäre eher kontraprofuktiv das eine vom anderen abhängig zu machen. Führt der Compiler nämlich (N)RVO nur durch, wenn im Optimierung im Allgemeinen erlaubt ist, dann ist es nicht mehr möglich, die (RVO)-optimierte Version vernünftig zu debuggen.



  • Ich hab grade mal probiert, wie das für + und * Funktoren und einem einheitlichen MatrixProxy gehen könnte und musste feststellen, dass man dann in die Funktoren zu viel Logik packen müsste. Etwa dadurch, dass sich die Dimension der resultierenden Matrix bei der + und der * Operation unterschiedlich verhält.



  • Hallo noch mal,

    ich habe den Operator^ als Potenzierungsoperator überladen. Wenn ich diesen aufrufe, wird wieder keine (N)RVO angewendet. Ich habe auch versucht, ihn als freien Operator zu implementieren, wie schon mal geraten (und geholfen), aber das bringt nichts. Habe ich jetzt wider irgendwas falsch gemacht, oder muss man bei unterschiedlichen Operatoren unterschiedliches beachten?

    Matrix operator^(unsigned int const &c) const
    		{
    			if (m != n)
    			{
    				//...
    			}
    			if (c == 0)
    			{
    				Matrix tmp = identity(m);
    				return tmp;
    			}
    			Matrix M = *this;
    			unsigned int potenz = 1;
    			for (; potenz <= c/2; potenz *= 2)
    				M *= M;
    			for (; potenz < c; potenz++)
    				M *= *this;
    			return M;
    		}
    


  • Benutz doch fürs Potenzieren die Funktion pow() aus dem Header <cmath>. Evtl wäre es auch nützlich, Wurzelziehen über Exponenten zuzulassen?



  • 314159265358979 schrieb:

    Benutz doch fürs Potenzieren die Funktion pow() aus dem Header <cmath>. Evtl wäre es auch nützlich, Wurzelziehen über Exponenten zuzulassen?

    Und pow kann meine Matrizen potenzieren?
    Wie du aus einer Matrix eine Wurzel ziehen willst, will ich sehen...



  • yYy schrieb:

    ich habe den Operator^ als Potenzierungsoperator überladen.

    Schlechte Idee. Erstens assoziiert kein C++-Programmierer den operator^ mit Potenz, zweitens hast du eine unglückliche Operatorpriorität. Schreib eine benannte Funktion dafür.

    yYy schrieb:

    Wenn ich diesen aufrufe, wird wieder keine (N)RVO angewendet.

    NRVO wird nicht immer angewandt. In deinem Fall hast du mehrere unterschiedliche Objekte, die zurückgegeben werden. Der Compiler nimmt dann wahrscheinlich an, dass er ohnehin kopieren muss.

    Schau dir mal Exploiting Copy Elisions und Want Speed? Pass by Value inklusive der Kommentare an.

    yYy schrieb:

    unsigned int const &c
    

    Nimm unsigned int , die Referenz auf const bringt hier nichts.


  • Mod

    yYy schrieb:

    Hallo noch mal,

    ich habe den Operator^ als Potenzierungsoperator überladen. Wenn ich diesen aufrufe, wird wieder keine (N)RVO angewendet. Ich habe auch versucht, ihn als freien Operator zu implementieren, wie schon mal geraten (und geholfen), aber das bringt nichts. Habe ich jetzt wider irgendwas falsch gemacht, oder muss man bei unterschiedlichen Operatoren unterschiedliches beachten?

    Matrix operator^(unsigned int const &c) const
    		{
    			if (m != n)
    			{
    				//...
    			}
    			if (c == 0)
    			{
    				Matrix tmp = identity(m);
    				return tmp;
    			}
    			Matrix M = *this;
    			unsigned int potenz = 1;
    			for (; potenz <= c/2; potenz *= 2)
    				M *= M;
    			for (; potenz < c; potenz++)
    				M *= *this;
    			return M;
    		}
    

    Operatorfunktionen sind ganz normale Funktionen die lediglich einen speziellen "Namen" haben. Es gelten also keine besonderen Regeln. Ansonsten spricht in dem gezeigten Code nichts prinzipiell gegen die Anwendung von NRVO bei den returns; andererseits verhalten sich Compiler manchmal seltsam. Das erste was du veruschen könntest (und das würde ich sowieso aus anderen Gründen empfehlen), ist, die Funktion in kleinere Teile zu zerlegen.

    Matrix operator^(unsigned int const &c) const
    {
        return m == n ? c == 0 ? identity(m) : pow_square(*this,c) : pow_non_square(*this,c);
    }
    

    mit den entsprechrechenden privaten Funktionen. RVO bezogen auf den Operator ist dann trivial - und wenn der Compiler das nicht schafft, gibt es wenig was du noch tun könntest - und die Einzelfunktionen sind dann erheblich simpler. Übrigens ist dein Algorithmus nicht ganz optimal: x^32 ist schnell, x^31 dagegen nicht.



  • Jetzt mal eine Verständnissache. Nach meiner Auffassung ist (N)RVO, dass die Funktion das Returnobjekt nicht auf ihrem Bereich des Stacks anlegt, sondern direkt in den Stackbereich des Aufrufers konstruiert. Das impliziert, dass nur ein Rückgabewert optimiert werden kann - wenn die Funktion an unterschiedlichen Stellen bzw. mit unterschiedlichen Werten verlassen wird, muss der Compiler sich aussuchen, welche Rückgabe er optimiert. Ergo ist campers Beispiel gerade nicht trivial, weil der Compiler überhaupt keinen Ansatz hat, bei welchen der möglichen Werte sich eine Optimierung lohnt.

    Auf der sicheren Seite bist du auf jeden Fall, wenn du deine Matrix movable machst. Dann hast du auch in dem Fall, dass keine (N)RVO angewendet wird, nur geringen Overhead.


  • Mod

    ipsec schrieb:

    Jetzt mal eine Verständnissache. Nach meiner Auffassung ist (N)RVO, dass die Funktion das Returnobjekt nicht auf ihrem Bereich des Stacks anlegt, sondern direkt in den Stackbereich des Aufrufers konstruiert.

    Das ist der Trick, um NRVO zu implementieren.

    Das impliziert, dass nur ein Rückgabewert optimiert werden kann - wenn die Funktion an unterschiedlichen Stellen bzw. mit unterschiedlichen Werten verlassen wird, muss der Compiler sich aussuchen, welche Rückgabe er optimiert.

    Nicht ganz, problematisch ist es nur, wenn zu irgendeinem Zeitpunkt zwei Objekte gleichzeitig existieren, die potentiell als Rückgabewerte in Frage kommen

    Ergo ist campers Beispiel gerade nicht trivial, weil der Compiler überhaupt keinen Ansatz hat, bei welchen der möglichen Werte sich eine Optimierung lohnt.

    was hier nicht der Fall ist. Die potentiellen Scopes überschneiden sich nämlich nicht.



  • Gut, kleiner Denkfehler, das ergbt natürlich Sinn.


  • Mod

    ipsec schrieb:

    Gut, kleiner Denkfehler, das ergbt natürlich Sinn.

    Es ist aber möglicherweise tatsächlich ein praktischer Grund für den Compiler.
    Nämlich dann, wenn dieser - als nichtstandardkonforme Erweiterung - Sprünge zwischen in Scopes von non-POD Objekten zulässt (was mit goto ja nicht geht, aber man könnte z.B. an longjmp & co. denken).



  • Ich habe überlegt, ob ich dem Compiler ein wenig auf die Sprünge helfen kann.
    Mit folgendem Code wird immerhin schon beim Aufruf von A^0 die Optimierung durchgeführt. (Zumindest bekomme ich nur eine Konstruktor und eine Destuktor-Ausgabe.)

    Matrix operator^(Matrix const &A, unsigned int c)
    	{
    		if (A.m != A.n)
    		{
    			throw std::invalid_argument("Matrix muss quadratisch sein.");
    		}
    		else if (c == 0)
    		{
    			return identity(A.m);
    		}
    		else
    		{
    			Matrix M = A;
    			unsigned int potenz = 1;
    			for (; potenz <= c/2; potenz *= 2)
    				M *= M;
    			for (; potenz < c; potenz++)
    				M *= A;
    			return M;
    		}
    	}
    


  • Hmm... Diese interessante Diskussion habe ich erst jetzt gesehen. Ich möchte da auch noch mal meinen Senf dazugeben:

    Die Berechnung des Matrixprodukts (mit einer neuen Matrix statt eines Proxies als Ergebnis) würde ich auslagern in eine Funktion der Art

    void multiply(matrix const& a, matrix const& b, matrix & result);
    

    Ich wüsste jetzt auch nicht wie man ein Produkt "in-place" berechnen kann. Von daher würde ich lieber so eine Funktion wie oben statt *= in den restlichen Operatoren verwenden. Diese lässt sich dann auch beim Potenzieren per square-and-multiply verwenden. Ich denke mal, dass, wenn man das Matrix-Potenzieren per *= implementiert, viele temporäre Matrizen anfallen. Und das ewige Speicherreservieren/freigeben kostet Zeit.

    Move Semantics (C++2011)
    Wenn man es sich einfach machen möchte und trotzdem möglichst wenig überflüssige Kopierorgien durchführen will, geht das meiner Meinung in C++2011 mit Move Semantics am besten. Dazu benötigt die matrix-Klasse einen Move-Ctor und einen Move-Assignmeht-Operator.

    inline matrix operator*(matrix const& a, matrix const& b)
    { matrix result; multiply(a,b,result); return result; }
    

    Ich zweifle hier jedoch daran, ob eine Überladung für && (rvalues) sinvoll ist. da ich spontan nicht wüsste, wie man ein Produkt "in-place" berechnen soll. Aber für + und - geht das natürlich:

    inline matrix operator+(matrix const& a, matrix const& b)
    { matrix result (     a ); result += b; return result; }
    inline matrix operator+(matrix && a, matrix const& b)
    { matrix result (move(a)); result += b; return result; }
    inline matrix operator+(matrix && a, matrix && b)
    { matrix result (move(a)); result += b; return result; }
    inline matrix operator+(matrix const& a, matrix && b)
    { matrix result (move(b)); result += a; return result; }
    

    (Hier nehme ich an, dass matrix dynamischen Speicher verwendet, so dass sich move semantics lohnt)

    Ich gebe hier absichtlich nicht constante Matrix-Objekte zurück. Wer sich hier auf Scott Meyers' Regel beruft, dem sei gesagt, dass er sein "Effective C++" vor der Einführung von Move Semantics aufgestellt hat und bereits öffentlich zugegeben hat, dass diese Daumenregel damit nicht mehr zeitgemäß ist, da sie move semantics unnötig verhindern könnte.

    non-const Rückgabewerte
    Ich gebe auch absichtlich keine Referenzen zurück, da zu gefährlich und da es nichts bringen würde.

    Wer so Sachen wie a+b=c immer noch verhindern will, darf, wenn die Compiler das dann endlich mal unterstützen, eine Ref-Qualifier verwenden:

    matrix& operator=(matrix m) [b]&[/b]
      { swap(*this,m); return *this; }
    

    Swaptimization
    Steht einem "move semantics" nicht zur Verfügung, darf man "Swaptimization" verwenden. Nexus hat dazu einen netten Link parat gehabt. Hier würde das dann so aussehen:

    // absichtlich keine const-ref bei a !
    matrix operator+(matrix a, matrix const& b)
    {
      matrix result;   // <-- billig
      swap(result,a);  // <-- billig
      result += b;
      return result;   // <-- NRVO (guter Compiler tut das)
    }
    

    double --> vector<double>**
    Von double** würde ich abraten. Lieber std::vector<double> verwenden und dann alle Matrix-Elemente hintereinander packen (row-major oder column-major storage).

    Expression Templates und Proxies
    Dann gibt es natürlich noch Expression Templates oder so Ansätze wie Proxy-Objekte. Damit kann man auch temporäre Objekte sparen. Sowas ist aber ein relativ großer Implementierungsaufwand und nicht ganz unproblematisch, was die Lebensdauer von referenzierten Matrizen angeht. Auch in Zeiten von "auto" wo man mal gerne schreibt:

    auto x = a*b + c*d;
    

    sind Expression Templates (ET) mit großer Vorsicht zu genießen. Deswegen bin ich auch eher dagegen, Expression Templates "implizit" einzusetzen. Unter "explizitem ET-Einsatz" verstehe ich folgendes:

    matrix ergeb = xpr(a)*b + xpr(c)*d;
    auto z = eval( xpr(a)*b + xpr(c)*d );
    

    Man sieht hier sofort, dass man mit Expression-Objekten arbeitet und kann auch sehen, ob man ein eval() hinter dem auto vergessen hat. Ein xpr-Aufruf würde ein Expression-Objekt erzeugen (ähnlich wie bei Boost.Lambda) und mit eval() würde es explizit ausgewertet. Eine implizite Konvertierung eines Matrix-Expression-Objekts zu einer Matrix ist sinnvoll. Dann kann man auch viele Operatoren einfach so implementieren:

    inline matrix operator*(matrix const& a, matrix const& b)
    { return xpr(a)*b; }
    

    wenn man ohne ETs rechnen will.

    Die Lebenszeitproblematik von referenzierten Objekten bei ET-Nutzung kann man etwas entschärfen, indem man mit C++2011-Mitteln beispielsweise nach lvalues und rvalues unterscheidet. lvalues leben hoffentlich lang genug, dass man Referenzen darauf im expression-objekt speichern darf. rvalues kann man dank move semantics effizient in das expression-objekt umziehen lassen. Dann sollte man expression-Objekte aber auch nicht leichtfertig kopieren sondern auch ggf "moven". Das endet womöglich in vielen vielen const&/&& Überladeungen, was auch einiges an Schreibarbeit ist. 😞

    Alternativ wird auch wieder COW (copy-on-write) wieder interessant, finde ich. So habe ich letztes Jahr angefangen, eine Bibliothek für spezielle Optimierungsprobleme zu schreiben, bei der auch Expression Templates zum Einsatz kamen. Hier habe ich auf COW gesetzt. Vektoren werden in das Expression-Objekt kopiert -- ob lvalue oder rvalue. Aber das Kopieren ist billig dank COW und die Expression-Objekte werden damit auch nie ungültig. Für COW hatte mich mir ein Klassentemplate für eine Wrapper-Klasse geschrieben. Diese kann man dann auch noch move-optimieren. Das bringt sogar bei COW etwas, weil man damit die Referenzzähler schön niedrig halten kann und sich das Kopieren vor einer Modifikation ggf sparen kann.

    kk
    (hatte zuletzt implizite ETs verwendet, die sich über COW mit "containern" die resourcen teilen).


Anmelden zum Antworten