Grundlegende Algorithmen in der Bildverarbeitung



  • erstmal danke für die schnelle Antwort. Werde mal in deine Beispielimplementierungen schauen und versuchen da was draus mitzunehmen. Falls es noch irgendwo hakt werde ich euch wahrscheinlich weiter nerven mit sinnlosen fragen

    gruß



  • Korbinian schrieb:

    für den gaussfilter auf jeden fall, für den mittelwertfilter wäre ich mir da nicht so sicher: meine implementierung durchläuft das NxM feld genau einmal mit M*N + 2M schritten, für jeden schritt 8 additionen und zwei zuweisung. die aufspaltung würde dazu führen, das feld 2 mal im ganzen zu durchlaufen, dafür nur mit einer addition, einer subtraktion und einer zuweisung. ich habs jetz nicht exakt nachgeprüft, aber für große bilder dürft meins schneller sein, auch wenn du das bild nicht spiegelst sondern über pointer gehst.

    für farbbilder ist ein 3x3 2d-mittelwertfilter schneller als zwei separierte 1d-kernel. hab ich zumindest so in meinen tests rausgebekommen (AMD Athlon XP 2800+, 1 GiB RAM). für alle anderen filtergrössen bringt die separierung enorme geschwindigkeitsgewinne.

    Graubild					
    
    Filter Filtergröße Bildgröße  Zeit-2D (in ms) Zeit-1D (in ms) Differenz
    
    Mean    3x3        1024x960     79,9847        63,5322        79,43%
    Mean    5x5        1024x960    109,5654        64,2914        58,68%
    Mean    7x7        1024x960    146,9064        65,0890        44,31%
    Mean    9x9        1024x960    178,9027        62,5780        34,98%
    Mean   11x11       1024x960    210,9300        66,6648        31,61%
    Mean   13x13       1024x960    244,8744        68,5941        28,01%
    Mean   15x15       1024x960    278,5071        69,4492        24,94%
    Mean   99x99       1024x960   3086,1738       288,0406         9,33%
    
    Farbbild					
    
    Mean    3x3        1024x960    176,6281       208,3354       117,95%
    Mean    5x5        1024x960    253,9408       205,2999        80,85%
    Mean    7x7        1024x960    333,9920       210,3773        62,99%
    


  • Hast du mal die Filterimplentierungen da? Mich würde die Testumgebung interessieren 🙂



  • Testumgebung war ein Computer.



  • Korbinian schrieb:

    Hast du mal die Filterimplentierungen da? Mich würde die Testumgebung interessieren 🙂

    ich glaub da wäre meine chefin nicht einverstanden.

    zuerst werden die ränder erweitert (zero-padding, spiegeln, was auch immer). ein LUT wird angelegt um die zielgrauwerte zu berechnen. dann wird zuerste vertikal und dann horizontal gefiltert. beim filtern selbst, spare ich mir einige unnötige berechnungen. statt immer wieder neu die werte unter der filtermaske zu berechnen, aktualisiere ich lediglich die summe der grauwerte die aktuell unter der maske liegen, d.h. wenn die maske um einen pixel verschoben wird, kommt effektiv auch nur ein "neuer" pixel dazu und ein "alter" pixel verschwindet (1 addition und 1 subtraktion pro bildpunkt). den endgrauwert frage ich dann mit hilfe dieser summe und des LUT ab.



  • Sunday schrieb:

    beim filtern selbst, spare ich mir einige unnötige berechnungen. statt immer wieder neu die werte unter der filtermaske zu berechnen, aktualisiere ich lediglich die summe der grauwerte die aktuell unter der maske liegen, d.h. wenn die maske um einen pixel verschoben wird, kommt effektiv auch nur ein "neuer" pixel dazu und ein "alter" pixel verschwindet (1 addition und 1 subtraktion pro bildpunkt). den endgrauwert frage ich dann mit hilfe dieser summe und des LUT ab.

    Ah, deshalb ist das so schnell. 🙂 Ich hatte mich schon geärgert, weil mein Gaussfilter hier ein ganzes Stück langsamer ist. Weißt du, ob so ein Trick auch mit nem Gaussfilter geht?



  • Wieso ist das bei nem Farbbild langsamer? Es müsste doch alles nur drei mal so lange dauern wie bei den Graubildern. 😕



  • 😕 schrieb:

    Wieso ist das bei nem Farbbild langsamer? Es müsste doch alles nur drei mal so lange dauern wie bei den Graubildern. 😕

    Naja, sein Bild ist so in etwa 1MB als Grauwertbild groß. Das passt vielleicht sogar in den Cache seiner CPU. Das Farbbild ist aber dreimal größer und das heißt, dass er häufiger auf den normalen Arbeitsspeicher zurücgreifen muss. Er wird vermutlich deutlich mehr als dreimal so viele Cache misses haben. Das könnte dazu führen, dass das mehr als dreimal so lange dauert. ...nur so ne Vermutung.



  • stimmt, das mit dem 1 sub und add ist ein guter trick. hast du bei den gaussfiltern mal die 2x 1d gegen meine 2d gebencht? weil das ist das eigentliche was mich interessiert 😉



  • bin bisher leider noch nicht dazu gekommen das auch mit anderen filtern zu testen. aber den medianfilter kann man extrem verbessern. 😉 dort kann man ebenfalls eine aktualisierung der werte vornehmen (das gilt übrigens für alle rangordnungsfilter).



  • bei grössen daten ist es besser den median in dieser Art zu rechnen
    damit commt man in logN zum Ziel

    template <typename T>
    struct divider
    {
      divider(const T&o):val(o){}
      bool operator()(const T&o) {return o<val;}
      T val;
    };
    
    template <typename T,typename RandItr>
    RandItr median(RandItr begin, RandItr end)[cpp]
    {
      while(begin!=end)
      {
        divider<T> Pred((*(begin) + *(end-1))/2 );
        RandItr pos=std::partition(begin,end,Pred);
        size_t distB=std::distance(begin,pos);
        size_t distE=std::distance(pos,end);
        if(distB==0)            return begin;
        else if(distB<distE)    begin=pos;
        else                    end=pos;
    
      }
      return begin;
    }
    

    das hat sicher noch paar macken aber dafür is mir grad zu früh



  • Wie führt man das unter linux aus?

    g++ dateiname.cpp -o dateiname
    ./dateiname

    funktioniert nicht,

    Ausserdem würde es mich interessieren, was für ein datei ich jetzt als erstes aus deinem projekt compilern soll ... da sind nämlich mehr als eine .cpp datei 😉



  • @b7f7: keine schlechte idee beim median gleich beim einfügen zu sortieren, das spart sicher zeit!

    @kenner: nuja was hast du denn alles runtergeladen? das von dir genannte prinzip sollte es eigentlich schon tun. bei dem beispielprojekt von mir war allerdings auch ein makefile dabei 🙂



  • das : http://www.korbinian-riedhammer.de/misc/ip-suite.tar.bz2

    was kann man den mit dem makefile machen?
    wie funktioniert das ... ich habe mir sowas nochnie gearbeitet



  • wenn du mehr über make wissen möchtest, empfehle ich dir ein make tutorial, leicht über google erhältlich (im linux forum hier gibts auch eins, glaub ich). generell kannst du mit einem schlichten 'make' alles bauen, die binaries findest du dann unter bin/ oder lib/ steht glaub ich auch in der readme drin.



  • make -f Makefile

    = make das Makefile

    bin/test-rotation sample.pgm out.pgm

    = out.pgm is das bild was "raus kommt"

    PS: natürlich musst du alles in die Konsole eingeben 😉



  • @Korbinian: kannst du mal bitte ein vernünftiges makefile erstellen?



  • was passt dir an diesem nich?



  • der konventionen ignorierte passte einem nicht
    konventionon = benennung das targets, allgemein zuviel text, kein "start"-target, ignore von CPPFLAGS

    Kannst das auch alles vergessen 😉



  • deine konventionen sind mir neu, ein start oder main mach ich nur, wenn es sich um ein programm handelt. das ist nur eine sammlung von klassen und funktionen, jemand der das benutzt sucht gezielt einzelne sachen. genauso die cppflags, drauf geschissen, ich will _meine_ compilierregeln für das projekt, nicht die standardmaessig eingestellten (auch hier wieder: es handelt sich nicht um ein auslieferbares programm/lib, sondern um ein spielzeug zum basteln).

    aber es hindert dich niemand daran hier ein makefile reinzustellen. aber vielleicht schreibst du erst den datenbankartikel fertig...


Anmelden zum Antworten