Was kann ich an den Raytracing-Bild noch verbessern?



  • @XMAMan sagte in Was kann ich an den Raytracing-Bild noch verbessern?:

    @hustbaer Welche Bereiche des Bildes sind für dich zu hell oder zu verrauscht?

    Speziell der Boden sieht so aus wie man es von überbelichteten Bildern kennt. Aus Braun wird Gelb und dann letztlich Weiss in den ganz hellen Bereichen.

    Ich muss sagen die Säule ganz vorne sieht in der Tat etwas verrauscht aus. Oder der Schatten.

    Ja, das. Beim vordersten Lampenkasten und beim Ventilator sieht man es auch.

    Ich verwende momentan 1000 Samples und ja, es würde das Rauschen definitiv verringern wenn ich halt noch mehr Samples nehme. Müsste ich mal probieren, bis wohin ich das machen müsste.

    Gibt's da nicht irgendwelche Tricks die man verwenden kann um das zu glätten? Welches global illumination Verfahren verwendest du genau? Ist jetzt aber mehr Interese halber. Ich kenne mich damit nicht wirklich aus, aber ich würd mir gern mal die Beschreibung durchlesen wenn das irgendwo beschrieben ist.



  • Der Ventilator hat ein Motion-Blur-Effekt. Das ist absicht das der verwackelt aussieht. Man kann mit Quasi-Zufallszahlen (Sobolsequenz) das Rauschen verringern aber da ich bei mein letzten Raytracer sehr auf die Nase gefallen bin, als ich Fireflys im Nachhinein entfernt hatte, nehme ich momentan von allen Tricks Abstand, welche Einfulß in den Zufallsgeneratorprozess nehmen.

    Ich verwende UPBP aber ohne Point2Point-Merging.

    https://cs.dartmouth.edu/~wjarosz/publications/krivanek14upbp.html



  • OK, danke. Jetzt weiss ich wenigstens dass das meine Kenntnisse so weit übersteigt dass ich quasi nichts sinnvoll dazu beitragen kann 🙂



  • Was ist denn Dein Ziel? Soll das Alienvieh mehr wie ein Erdenlebewesen ausschauen?

    Ich könnte ja meine Tochter auch fragen, die studiert sowas in Babelsberg an der Filmhochschule.



  • Hauptziel wäre das es physikalisch korrekt aussieht. Nebenziele wären dann Effekte wie Subsurface-Scattering/Spektrales Raytracing/Microfacet-Materialien. Also Dinge, die man noch einbauen könnnte, die interessant aussehen und über das bereits im Bild vorhandene hinausgehen. Mir gehts also darum das Bild als Anlaß zu nehmen mein Raytracer weiter zu entwickeln.



  • @XMAMan Was für eine Aussage? Soll die Form physikallisch korrekt sein oder die Darstellung. Das Rauschen auf der ersten Säule ist physikalisch nicht korrekt, das sieht aber ein Blinder. Ob das Alienvieh physikalisch überlebensfähig wäre, kann ich ned beurteilen, bin kein Biologe.



  • Es soll die Ausbreitung/Interaktion des Lichtes mit den Objekten physikalisch korrekt sein. Die Form der Objekte ist nicht so wichtig oder wenn es Bildrauschen aufgrund der Monte-Carlo-Integration gibt. Die Umsetzung der globalen Beleuchtungsformel und der verwendeten Brdfs soll sich an geltenden Physik-Regeln orientieren.



  • @XMAMan Das Licht erscheint mir nicht difus genug zu sein. Das Bild sieht eher aus wie wenn es von hartem, künstlichem Licht beleutet wird. Ich kenne jetzt den Fachausdruck nicht, wie das ein Raytracer bennen würde. ich kann aber mal meine Tochter fragen, ob sie das weiß. Sie betrachtet das aber eher aus dem Blickwinkel einer Filmschaffenden.



  • Entsteht dieser Eindruck weil die Wände im Hintergrund zu dunkel sind obwohl doch so viel in den Raum reingeht oder wie meinst du das?



  • @XMAMan Ich vermute, daß es am Kontrast liegt.



  • Das heißt wenn ich den Kontrast jetzt mal geringer mache so wie hier dann findest du es besser?



  • @XMAMan Es ist natürlicher.



  • Vielleicht haben sie die Wahrnehmungseffekte für die Verbesserung von tonegemappten Bildern?



  • @Estra: Ich weiß jetzt nicht was du mit diesen Wahrnehmungeffekten meinst. Mein Photoshop hat so ein Modus der nennt sich Fotorealistisch. Das sieht dann so aus https://ibb.co/c3Cb7Nc aber ich finde das sieht erst recht komisch aus.

    Ich habe außerdem die Godrays etwas verändert so dass es jetzt so aussieht: https://ibb.co/HnC7kNS
    Man sieht zwar immer noch leicht dass da Staubpartikel in der Luft sind aber es fällt jetzt weniger stark auf.



  • Ich habe das ganze jetzt mal ohne die Staubwolken erzeugt. Damit ist die Sicht klarer.

    https://ibb.co/s22LhG4



  • Jetzt noch bei Nacht.

    Jetzt können wir ja drüber abstimmen welche der 4 Varianten am Besten aussieht:

    https://ibb.co/3RfXWQb


  • Mod

    @XMAMan sagte in Was kann ich an den Raytracing-Bild noch verbessern?:

    Hauptziel wäre das es physikalisch korrekt aussieht. Nebenziele wären dann Effekte wie Subsurface-Scattering/Spektrales Raytracing/Microfacet-Materialien. Also Dinge, die man noch einbauen könnnte, die interessant aussehen und über das bereits im Bild vorhandene hinausgehen. Mir gehts also darum das Bild als Anlaß zu nehmen mein Raytracer weiter zu entwickeln.

    Das problem ist das es in so kuenstlichen szenen garnicht ersichtlich ist wie es aussehen soll, und mehr effekte koennen es am ende sogar in die falsche richtung schieben.

    Aber dass du hdr output hast ist schonmal ein fundamentaler schritt.

    Ich wuerde vorschlagen dass du "im grossen" nun darauf hinarbeitest dass dein raytracer kuenstliche objekte in bilder rein rendern kann, sodass jeder sehen kann wenn es nicht passt und es nicht 100 moegliche stellschrauben (und entsprechend viele meinungen) gibt.

    Von daher schlage ich als naechsten task vor dass du hdr cubemaps laden und anzeigen kannst.



  • Gibt es eigentlich irgendwelche standardisierten Test-Szenen für Renderer?
    Wäre auf jeden Fall praktisch wenn man da was hätte wo Bilder die mit anderen Renderern berechnet wurden als Vergleich zur Verfügung stehen.



  • Hallo Rapso. Schön das du dich jetzt auch hier meldest. Ich hab auf dich gewartet^^

    Wenn du sagst ich soll in Bilder reinrendern, dann meinst du damit Augmented Reality?

    Die Darstellung von Hdr-Cubemaps (Environmentmaps) habe ich hier verwendet, um die Reflexion zu erzeugen. D.h. komplett neu ist das Thema jetzt nicht für mich sondern ich müsste jetzt einfach hingehen und nur noch ein einzelnes Objekt erzeugen, wo das der Rest über das Umgebungslicht(Hdr-Cubemap) kommt.


  • Mod

    @hustbaer
    Es gibt szenen, aber meistens keine Vorgaben wie sie aussehen sollten, eine seltenheit:
    https://www.graphics.cornell.edu/online/box/compare.html

    Ansonsten gibt es synthetische "szenen", z.b. "Furnace tests", wo die umgebung einfarbig ist (ja, du gibst einfach nur 0.5 oder 1.0 zurueck), so kannst du z.B. verifizieren, dass

    sowas ist natuerlich langweilig anzuschauen, aber sehr nett fuer automatische regression test (Du kannst einzelne pixel oder rays schicken und musst im sehr kleinen tolleranzbereich enden)

    @XMAMan sagte in Was kann ich an den Raytracing-Bild noch verbessern?:

    Wenn du sagst ich soll in Bilder reinrendern, dann meinst du damit Augmented Reality?

    Das ist spaeter sicherlich moeglich, aber als erstes reicht es wenn du einfach objekte in cubemaps renderst (also wirklicht kugel, schwebend im raum). Du findest im netz viele HDR cubemaps, klassisch:
    z.b. http://www.hdrlabs.com/gallery/flashpanos_western-usa/index.html
    oder https://hdrihaven.com/hdris/

    Ich glaube (wie bei wohl fast allem) hat Debevec damit angefangen: https://www.pauldebevec.com/Research/IBL/debevec-siggraph98.pdf
    aber du findest sicherlich viele beispiele fuer IBL

    Die Darstellung von Hdr-Cubemaps (Environmentmaps) habe ich hier verwendet, um die Reflexion zu erzeugen. D.h. komplett neu ist das Thema jetzt nicht für mich sondern ich müsste jetzt einfach hingehen und nur noch ein einzelnes Objekt erzeugen, wo das der Rest über das Umgebungslicht(Hdr-Cubemap) kommt.

    Das ist gut, dann ist der Einstieg schneller. Der "Sinn" ist aber leicht anders. zZ hast du zig effekte und komplexe, gebastelte szenen wo nicht ersichtlich ist, wo an den 100 stellschrauben es scheitert (tweaking von post effects oder tone mapping? bug in the implementierung? sind die eingangsdaten schlecht? ist dein monitor komisch eingestellt? usw.)
    Deswegen mach jetzt IBL, wo du 75% das "Foto" siehst und 25% dein objekt. Erst mit einer glass Kugel in der mitte, dann chrome kugel, dann immer komplexere materialien, spaeter mal mit simplen figuren (z.B. dragon). wenn das irgendwann 99% ueberzeugend wirkt, kannst du anfangen volle szenen zu rendern und weisst es liegt (vermutlich) nicht an deinem tracer wenn es unrealitisch ausschaut.


Anmelden zum Antworten