gradientenbasierte Optimierung



  • Hi,

    kann mir jemand mal erklaeren wie gradientenbasierte Optimierung funktioniert? Ich habe ein mehrdimensionales Parameterfeld W welches ich so optimieren will, so das eine Kostenfunktion G minimiert wird. G haengt natuerlich von W ab: G(W). Einen Gradient hat mir auch schon jemand ausgerechnt, ich kenne also schon Delta-W *freu* ...

    Leider weiss ich nicht so recht was ich jetzt machen muss ...kann mir jemand helfen?

    Gruesse und Dankeschoen.
    🙂



  • Der Gradient sagt Dir in welche Richtung Du im Parameterfeld laufen mußt, damit's möglichst steil hochgeht. Also läufste in die entgegengesetzte Richtung, da geht's nämlich möglichst steil runter. Da Du nicht weißt wie weit Du laufen mußt nimmste einfach nen Faktor alpha davor und probierst mit dem ein bissel rum. An der neuen Stelle machste wieder das gleich usw usw und irgendwann landest Du in nem lokalen Minimum.



  • kannst mal unter "hill climbing algorithmus" nachschlagen.


Anmelden zum Antworten