Software Renderer
-
groovemaster schrieb:
rapso schrieb:
und wird in Zukunft wahrscheinlich an Bedeutung gewinnen.

glaub nicht jedem marketing

Schau mal hier.
steht nichts neues.
groovemaster schrieb:
Ich glaube nicht, dass die das nur aufgrund von Marketing machen.
ich glaube schon.
groovemaster schrieb:
Komplettes Echtzeit Raytracing steckt sicherlich noch in den Kinderschuhen, aber das kann sich durchaus ändern.
jo, wenn es mal besser laufen wuerde als bisherige algorithmen, doch das ist nicht in aussicht.
groovemaster schrieb:
Ich denke nicht, dass Rastergrafik bereits das Ende der Fahnenstange sein soll.
eventuell solltest du momentane technologie besser verstehen um das beurteilen zu koennen. einfach nur nen ganzen absatz mit behauptungen zu schreiben ist kein wirkliches argument.
groovemaster schrieb:
Und dank Multicore und Streaming CPUs/GPUs stehen da auch hardwareseitig noch einige vielversprechende Möglichkeiten in Zukunft zur Verfügung.
Diese technologie wird gemacht als anpassung an die bisherigen algorithmen z.b. rasterizen. streaming ist z.b. sehr kontraproduktiv zu ratracing.
-
Mit dem Cell-Prozessor kann man, wie schon gezeigt wurde, bereits recht gut Echtzeit-Raytracing betreiben.
Dabei kann man z.B. jede der 8 SPUs jeweils ein Bündel von Strahlen berechnen lassen, und zwar parallel. Raytracing lässt sich ja sehr gut parallelisieren, genau wie die Rasterisierung.
Ich denke auch, dass Echtzeit-Raytracing über kurz oder lang das Scanline-Rendering ablösen wird.
-
TomasRiker schrieb:
Mit dem Cell-Prozessor kann man, wie schon gezeigt wurde, bereits recht gut Echtzeit-Raytracing betreiben.
das wurde auf so ziemlich jeder hardware gezeigt. auf GPUs, PowerPCs, FPGAs und natuerlich x86/x64 systemen. nur ist die leistungssteigerung bei GPUs immer weiter ueberlegen wird, besonders in richtung der mitlerweile fast voll dynamischen welten ist raytracing nichts praktibables.
Dabei kann man z.B. jede der 8 SPUs jeweils ein Bündel von Strahlen berechnen lassen, und zwar parallel. Raytracing lässt sich ja sehr gut parallelisieren, genau wie die Rasterisierung.
und wieso denkst du dann das:
Ich denke auch, dass Echtzeit-Raytracing über kurz oder lang das Scanline-Rendering ablösen wird.
-
@rapso
Ganz ruhig. Hast du einen schlechten Tag gehabt? Oder warum gehst du gleich so ab? Erstens habe ich nur das geschrieben, was ich über die zukünftige Raytracing Entwicklung _denke_. Du liegst daher vollkommen schief, mir irgendwelche Behauptungen zu unterstellen. Und ich habe auch nie behauptet, dass Raytracing bisherige Verfahren vollkommen ablösen wird. Ich denke nur, dass Raytracing an Bedeutung gewinnen wird. Und vllt. wird es irgendwann auch kommerzielle Spiele damit geben.
-
Warum ich denke, dass Raytracing die Zukunft ist?
Weil man damit ohne "fiese Tricks" (die immer nur unter ganz bestimmten Voraussetzungen funktionieren) sozusagen ganz natürlich schöne Dinge hinkriegt wie Reflexionen an beliebig geformten Oberflächen, Lichtbrechung, Area-Lights und weiche Schatten, atmosphärische Effekte, globale Beleuchtung, ...
Außerdem wächst beim Raytracing der Aufwand nur logarithmisch mit der Anzahl der Dreiecke in der Szene und nicht linear.
Sobald es Hardwarelösungen dafür gibt, die etwas weiter fortgeschritten sind als dieser FPGA-Prototyp, der ja auch schon eine beachtliche Leistung für seine sehr niedrige Taktfrequenz gezeigt hat, wird Raytracing sicher zu einer sehr interessanten Alternative und sich früher oder später auch durchsetzen. Soweit ich weiß, arbeiten die Grafikchiphersteller schon an Raytracing-Lösungen (zusammen mit der Uni Saarbrücken).
Woran man noch arbeiten muss, ist die Umsetzung dynamischer Szenen, aber da ist mit den Bounding Interval Hierarchies ja auch schon ein vielversprechender Ansatz gefunden worden.
-
groovemaster schrieb:
@rapso
Ganz ruhig. Hast du einen schlechten Tag gehabt? Oder warum gehst du gleich so ab?hoe? ist dein philosophiekurs ausgefallen? oder wieso suchst du nach nicht vorhandenen problemen wenn ich hinterfrage?
TomasRiker schrieb:
Warum ich denke, dass Raytracing die Zukunft ist?
Weil man damit ohne "fiese Tricks" (die immer nur unter ganz bestimmten Voraussetzungen funktionieren) sozusagen ganz natürlich schöne Dinge hinkriegt wie Reflexionen an beliebig geformten Oberflächen, Lichtbrechung, Area-Lights und weiche Schatten, atmosphärische Effekte, globale Beleuchtung, ...ohne fiese tricks bekommst du das auch beim raytracing nicht hin z.b. pur statische scenen.
bei diffuse reflection von lichtquellen wie sie z.b. bei jaulousinen dann an der decke entstehen und ausleuchtung von aussen arealen sind mit raytracing in guterja qualitaet auch nicht machbar, weil du daran ewig rechnest (oder du nutzt halt dirty tricks).TomasRiker schrieb:
Außerdem wächst beim Raytracing der Aufwand nur logarithmisch mit der Anzahl der Dreiecke in der Szene und nicht linear.
schoen das es bei den meisten 3d anwendungen mit rasterizern ebenfalls nur logarithmisch steigt, weil wohl niemand bruteforce scenen in die graka scheibt. ansonsten glaube ich verwechselst du aufwand mit komplexitaet. aufgrund der vorhandenen hardware die z.b. mit steigender tiefe der BV nichts mehr bringt z.b. aufgrund von cache-misses, ist die geschwindigkeit von raytracern sehr schlecht darauf.
desweiteren leiden raytracer sehr stark mit der aufloesung, was bei rasterizern viel besser skaliert.
TomasRiker schrieb:
Sobald es Hardwarelösungen dafür gibt, die etwas weiter fortgeschritten sind als dieser FPGA-Prototyp, der ja auch schon eine beachtliche Leistung für seine sehr niedrige Taktfrequenz gezeigt hat, wird Raytracing sicher zu einer sehr interessanten Alternative und sich früher oder später auch durchsetzen. Soweit ich weiß, arbeiten die Grafikchiphersteller schon an Raytracing-Lösungen (zusammen mit der Uni Saarbrücken).
irgendwelche quellenangaben? ich weiss nur das NVidia und ATI nicht daran arbeiten.
und man muss bedenken dass nichts auf raytracing ausgelegt ist, da helfen auch nicht die theoretischen FPGA benchmarks. z.b. sind eben random read in ram totaller pain, moderner speicher wie z.b. GDDR4 haben immer groessere latenzen um zum ausgleich mehr daten auf einmal zu streamen weil z.b. GPUs diese latenz gut verstecken koennen. das ist bei raytracern genau andersrum, man braucht viel random reads, nicht viel bandbreite und sehr kurze latenz (so in der art hat das der kyro mit seinem raycasting realisiert).
-
rapso schrieb:
groovemaster schrieb:
Ganz ruhig. Hast du einen schlechten Tag gehabt? Oder warum gehst du gleich so ab?
hoe? ist dein philosophiekurs ausgefallen? oder wieso suchst du nach nicht vorhandenen problemen wenn ich hinterfrage?
Tja, da muss wohl noch mehr bei mir ausgefallen sein. Ich sehe keine Fragen, nur einen aggressiven Tonfall deinerseits. Aber lassen wir das, bevor dein Blutdruck noch in kritische Bereiche kommt.
-
groovemaster schrieb:
rapso schrieb:
groovemaster schrieb:
Ganz ruhig. Hast du einen schlechten Tag gehabt? Oder warum gehst du gleich so ab?
hoe? ist dein philosophiekurs ausgefallen? oder wieso suchst du nach nicht vorhandenen problemen wenn ich hinterfrage?
Tja, da muss wohl noch mehr bei mir ausgefallen sein. Ich sehe keine Fragen, nur einen aggressiven Tonfall deinerseits. Aber lassen wir das, bevor dein Blutdruck noch in kritische Bereiche kommt.
sehr suess die aussage. du musst in einer sehr aggressive umwelt leben um in meine normalen aussagen sowas reininterpretieren zu muessen, du tust mir leid, und nein, dein plumper provokationsversuch hier bringt meinen blutdruck nur vor belustigung etwas ins wanken. aber ich akzeptiere es wenn du aus unserer sachlichen diskusion scheidest.
-
Is zwar offtopic... aber dein Ton is wirklich ziemlich aggressiv und unfreundlich rapso. Willst du ein 2. TGGC werden?

-
da ich im urlaub war, war mein ton eher entspannt, ich wunder mich echt wie ihr sowas herauslesen koennt aus ganz normalen saetzen ohne kraftausdruecken usw. wie mein ton gewesen ist.
-
Hey,
nach der Viewport Transformation habe ich x', y' und z' Koordinaten. Diese brauche ich zum Clipping mittels Cohen-Sutherland oder Sutherland-Hodgeman. Clipping im zwei-dimensionalen ist kein großes Problem, aber wie clippe ich an der Near/Far Ebene? Ein Stichwort zum Suchen reicht mir

Vielen Dank
-
Führt man Clipping nicht üblicherweise vor der homogenen Division durch, in dem einfach auf w<=x,y,z<=w bzw. w<=x,y<=w und 0<=z<=w prüft?
-
Eh, Mist
Ich habs doch noch nicht wirklich verstanden.Ich muss meine Dreiecke erstmal gegen die Frustum-Ebenen clippen, bevor ich durch w teile, (also nachdem ich die Augenkoordinaten mit der Projektionsmatrix multipliziert hab,) oder?
Dort fliegen Dreiecke 1. entweder ganz raus, 2. sind komplett sichtbar oder 3. müssen geschnitten werden. Gibt's da einen bestimmten populären Algorithmus für?
1. komplett außerhalb: nichts tun

2. komplett innerhalb: einfach rastern
3. teilweise sichtbar: Hier muss ich jetzt den Cohen-Sutherland Algorithmus anwenden und das schließlich endstandene Polygon rastern
Stimmt das soweit?
Danke
-
Hier gibts ein paar Videomitschnitte von einer Computergrafik Vorlesung. Sind ziemlich gut gemacht.
Kannst dir ja mal 15 und 15+16 anschauen, da müsste das ganze erklärt sein.Das Skript findest du hier.
-
Sorry, dass ich diesen alten Thread nochmal ausgrabe, aber hier gibt es einen interessanten Artikel:
Intel entwickelt Raytracing-Engine für Computerspiele:
http://www.heise.de/newsticker/meldung/94619Bislang läuft die Engine mit zwei QuadCore-Prozessoren bei 127 Frames pro Sekunde (der Artikel sagt allerdings nicht klar, um welche Szenen es sich dabei handelt, ich vermute Quake 3/4, weil das in einem Satz davor erwähnt wird). Die ersten OctalCores sind ja nun auch schon in Aussicht.
Mit steigender Anzahl an Polygonen steigt auch der Rechenaufwand für die Rastermethode linear an. Die Raytracing-Methode würde hingegen logarithmisch anwachsen. Ab einem bestimmten Detailgrad sei daher die Raytracing-Methode weniger Rechenintesiv als die Rastermethode.
Nach seiner Einschätzung könnte 2009 die Entwicklung der ersten Raytracing-Spiele beginnen.


Hier noch ein anderer Artikel dazu:
http://www.hartware.de/column_23.htmlDie Hersteller von Grafikkarten arbeiten zwar auch schon an speziellen Chips für Raytracing. Bis diese allerdings marktreif sind dürfte Intel mit den Mehrkern-Prozessoren die Nase vorne haben.
Woher diese Informationen stammen, weiß ich leider nicht.
-
Hört sich gut an!
Würd gerne mal wissen, was die GPU-Hersteller (nVidia und ATI/AMD) schon an Dingen in der Hinterhand haben, um da mitzuspielen. Das Realtime-Raytracing irgendwann kommt, war abzusehen. Und die werden bestimmt nicht ihre Führung auf dem Grafiksektor an Intel abtreten, sondern neue Konzepte des RTRT in ihre GPUs einbauen.
Wir dürfen wohl gespannt sein!
gruß
Martin
-
"And there will also be colonies on Mars, underwater cities, and personal jet packs." - lol
-
mad_martin schrieb:
Und die werden bestimmt nicht ihre Führung auf dem Grafiksektor an Intel abtreten, sondern neue Konzepte des RTRT in ihre GPUs einbauen.
Welche Führung? Intel ist doch bereits der No1 Grafikchip-Hersteller.
-

Ich denke einfach mal, das war Ironie...
-
Optimizer schrieb:
Welche Führung? Intel ist doch bereits der No1 Grafikchip-Hersteller.
Was den Marktanteil betrifft ja, was die Technologie betrifft nein.