Software Renderer
-
Führt man Clipping nicht üblicherweise vor der homogenen Division durch, in dem einfach auf w<=x,y,z<=w bzw. w<=x,y<=w und 0<=z<=w prüft?
-
Eh, Mist
Ich habs doch noch nicht wirklich verstanden.Ich muss meine Dreiecke erstmal gegen die Frustum-Ebenen clippen, bevor ich durch w teile, (also nachdem ich die Augenkoordinaten mit der Projektionsmatrix multipliziert hab,) oder?
Dort fliegen Dreiecke 1. entweder ganz raus, 2. sind komplett sichtbar oder 3. müssen geschnitten werden. Gibt's da einen bestimmten populären Algorithmus für?
1. komplett außerhalb: nichts tun

2. komplett innerhalb: einfach rastern
3. teilweise sichtbar: Hier muss ich jetzt den Cohen-Sutherland Algorithmus anwenden und das schließlich endstandene Polygon rastern
Stimmt das soweit?
Danke
-
Hier gibts ein paar Videomitschnitte von einer Computergrafik Vorlesung. Sind ziemlich gut gemacht.
Kannst dir ja mal 15 und 15+16 anschauen, da müsste das ganze erklärt sein.Das Skript findest du hier.
-
Sorry, dass ich diesen alten Thread nochmal ausgrabe, aber hier gibt es einen interessanten Artikel:
Intel entwickelt Raytracing-Engine für Computerspiele:
http://www.heise.de/newsticker/meldung/94619Bislang läuft die Engine mit zwei QuadCore-Prozessoren bei 127 Frames pro Sekunde (der Artikel sagt allerdings nicht klar, um welche Szenen es sich dabei handelt, ich vermute Quake 3/4, weil das in einem Satz davor erwähnt wird). Die ersten OctalCores sind ja nun auch schon in Aussicht.
Mit steigender Anzahl an Polygonen steigt auch der Rechenaufwand für die Rastermethode linear an. Die Raytracing-Methode würde hingegen logarithmisch anwachsen. Ab einem bestimmten Detailgrad sei daher die Raytracing-Methode weniger Rechenintesiv als die Rastermethode.
Nach seiner Einschätzung könnte 2009 die Entwicklung der ersten Raytracing-Spiele beginnen.


Hier noch ein anderer Artikel dazu:
http://www.hartware.de/column_23.htmlDie Hersteller von Grafikkarten arbeiten zwar auch schon an speziellen Chips für Raytracing. Bis diese allerdings marktreif sind dürfte Intel mit den Mehrkern-Prozessoren die Nase vorne haben.
Woher diese Informationen stammen, weiß ich leider nicht.
-
Hört sich gut an!
Würd gerne mal wissen, was die GPU-Hersteller (nVidia und ATI/AMD) schon an Dingen in der Hinterhand haben, um da mitzuspielen. Das Realtime-Raytracing irgendwann kommt, war abzusehen. Und die werden bestimmt nicht ihre Führung auf dem Grafiksektor an Intel abtreten, sondern neue Konzepte des RTRT in ihre GPUs einbauen.
Wir dürfen wohl gespannt sein!
gruß
Martin
-
"And there will also be colonies on Mars, underwater cities, and personal jet packs." - lol
-
mad_martin schrieb:
Und die werden bestimmt nicht ihre Führung auf dem Grafiksektor an Intel abtreten, sondern neue Konzepte des RTRT in ihre GPUs einbauen.
Welche Führung? Intel ist doch bereits der No1 Grafikchip-Hersteller.
-

Ich denke einfach mal, das war Ironie...
-
Optimizer schrieb:
Welche Führung? Intel ist doch bereits der No1 Grafikchip-Hersteller.
Was den Marktanteil betrifft ja, was die Technologie betrifft nein.
-
Die "Technologie", mhm. Danke für die Nachricht.
Welche Technologie(n) sollen das denn sein? An der Chipherstellung selber scheitert es wahrscheinlich wohl nicht, am Stromverbrauch der Chips auch nicht (ist ja schließlich der Grund, warum Intel der Marktführer ist), an der Implementierung von aktuellen Standards (Direct3D 10) scheitert es auch nicht. Wo genau soll Intel hinterher sein?
-
Was die Performance betrifft, hat Intel soweit ich weiß keine Grafikchips anzubieten, die mit denen von AMD/ATI oder NVIDIA auch nur annähernd mithalten können.
-
Optimizer schrieb:
Die "Technologie", mhm. Danke für die Nachricht.
Welche Technologie(n) sollen das denn sein? An der Chipherstellung selber scheitert es wahrscheinlich wohl nicht, am Stromverbrauch der Chips auch nicht (ist ja schließlich der Grund, warum Intel der Marktführer ist), an der Implementierung von aktuellen Standards (Direct3D 10) scheitert es auch nicht. Wo genau soll Intel hinterher sein?Nunja, es liegt wohl nicht am Stromverbrauch, dass Intel Marktführer ist, sondern an der Tatsache, dass ihre Grafikchips in tausenden Bürorechnern und Laptops eingebaut sind.
Allerdings sind diese Grafikchips doch stark limitiert, was ihre Leistung im 3D-Bereich angeht. Und da sind AMD/ATI und nVidia dann doch deutlich führend. Oder kennst du einen Intel Grafikchip, der mit der Leistung aktueller GeForce bzw. Radeons mithalten kann? Ich nicht.
Und eben dieses Thema hier zielt doch stark auf AMD/ATIs bzw. nVidias Zielgruppe ab, nämlich Gamer. Für Gamer sind Intelchips ziemlich uninteressant. Die Hauptarbeit beim Raytracing liegt bisher bei der CPU. Sollten da keine neuen Grafikkarten kommen, die genau hier ansetzen und die Arbeit wieder auf die GPU verlagern, werden nVidia und ATI Probleme bekommen. Zwar wird das noch einige Jahre dauern, aber schlafen werden die beiden bestimmt nicht!
gruß
Martin
-
mad_martin schrieb:
Und eben dieses Thema hier zielt doch stark auf AMD/ATIs bzw. nVidias Zielgruppe ab, nämlich Gamer. Für Gamer sind Intelchips ziemlich uninteressant. Die Hauptarbeit beim Raytracing liegt bisher bei der CPU. Sollten da keine neuen Grafikkarten kommen, die genau hier ansetzen und die Arbeit wieder auf die GPU verlagern, werden nVidia und ATI Probleme bekommen. Zwar wird das noch einige Jahre dauern, aber schlafen werden die beiden bestimmt nicht!
das behauptet man aber schon seit nem jahrzehnt und es ist immer noch nicht soweit. Raytracing zZ ist sehr sehr limitiert und nur in einer klinischen umgebung gerade so in echtzeit, spiele entwickeln sich aber weiter und stellen anforderungen die raytracing (noch) nicht abdecken kann. es loest probleme die mit normalem rasterizieren vor 10jahren geloest waren und heute trivial sind wie z.b. statische scenes mit viel overdraw.
-
Man darf aber nicht vergessen, dass Raytracing einige der Probleme löst, die mit Rasterizern grundsätzlich nicht lösbar sind. Irgendwann wird man mit Rasterizern einfach nichts Neues mehr machen können, und dann eröffnet Raytracing einen ganzen Haufen neuer Möglichkeiten.
-
mad_martin schrieb:
Nunja, es liegt wohl nicht am Stromverbrauch, dass Intel Marktführer ist, sondern an der Tatsache, dass ihre Grafikchips in tausenden Bürorechnern und Laptops eingebaut sind.
Siehst du den Zusammenhang?
Allerdings sind diese Grafikchips doch stark limitiert, was ihre Leistung im 3D-Bereich angeht. Und da sind AMD/ATI und nVidia dann doch deutlich führend. Oder kennst du einen Intel Grafikchip, der mit der Leistung aktueller GeForce bzw. Radeons mithalten kann? Ich nicht.
Das ist keine Frage der Technik, sondern ob ich 40 Shader auf einen Chip packe oder 4. Bei dem Punkt mit der Zielgruppe hast du Recht, deshalb sind die Chips eben kleiner gehalten. Aber davon kannst du nicht auf einen technologischen Rückstand schließen. Und das wollte ich sagen.
-
TomasRiker schrieb:
Man darf aber nicht vergessen, dass Raytracing einige der Probleme löst, die mit Rasterizern grundsätzlich nicht lösbar sind. Irgendwann wird man mit Rasterizern einfach nichts Neues mehr machen können, und dann eröffnet Raytracing einen ganzen Haufen neuer Möglichkeiten.
Raytracing löst ja auch nicht gerade alle Probleme, die die Menschheit bei der Computergrafik hat (von dem Performance-Problem mal abgesehen). Und was ich übrigens bei dem Link sehr komisch fand, war der Teil mit dem "durch eine Gittertextur durchschießen". Sind das die neuen Möglichkeiten? Was ist denn das für ein Quatsch? Soll ich jetzt den Renderer fragen, ob der Schuss durchgeht? Und wie schaut es dann bei einer anderen Auflösung aus?

-
Optimizer schrieb:
Allerdings sind diese Grafikchips doch stark limitiert, was ihre Leistung im 3D-Bereich angeht. Und da sind AMD/ATI und nVidia dann doch deutlich führend. Oder kennst du einen Intel Grafikchip, der mit der Leistung aktueller GeForce bzw. Radeons mithalten kann? Ich nicht.
Das ist keine Frage der Technik, sondern ob ich 40 Shader auf einen Chip packe oder 4. Bei dem Punkt mit der Zielgruppe hast du Recht, deshalb sind die Chips eben kleiner gehalten. Aber davon kannst du nicht auf einen technologischen Rückstand schließen. Und das wollte ich sagen.
Wenn es für Intel technisch kein Problem wäre, vergleichbare High-End-Grafikchips zu entwickeln und verkaufen, warum tun sie es nicht? Sag jetzt nicht, dass ihnen ihr bisheriger Markt reicht. So läuft das nicht bei diesen großen Konzernen. Wenn die eine Chance sehen, noch mehr aus einem Sektor rauszuholen, dann machen die das.
Wenn man mehr als 80% des Marktes an CPUs hat, sollte man genug Geld haben, um nebenher noch in die High-End-Grafik einzusteigen. Wenn sie es nicht tuen, liegt das bestimmt nicht daran, dass sie keine Lust haben, sondern sich bewusst sind, dass sie mit den dortigen Marktführern nicht mithalten können, ohne zuvor deren Entwicklungsabteilung abwerben zu müssen.
Meine Meinung der Dinge.
-
mad_martin schrieb:
Wenn sie es nicht tuen, liegt das bestimmt nicht daran, dass sie keine Lust haben, sondern sich bewusst sind, dass sie mit den dortigen Marktführern nicht mithalten können, ohne zuvor deren Entwicklungsabteilung abwerben zu müssen.
Ich sag's noch einmal: Intel ist mit großem Abstand Marktführer. Von "keine Lust" kann überhaupt keine Rede sein.
Was können Sie denn erreichen, wenn so nochmal doppelt so dicke Chips für High-end Gamer bauen? Sie investieren viel Geld in etwas, was sich zwei Firmen schon aufgeteilt haben, wo sie sich dann auch noch ein Drittel rausziehen können. Das lohnt sich doch gar nicht, jede andere Personengruppe wird bereits von Intel bedient.
-
der highend markt ist sehr klein und nur dafuer da ein image zu haben, wenn man die schnellste, geilste etc. karte am markt hat, verkauft man auch massige mainstream karten, mit denen wird verdient. so in der art ist das bei den intel extrem cpus. nur image.
intel muss sich das nicht geben, weil sie beim verkaufen ihrer cpus einfach "ihr koennt auch unseren chipsatz fuer $30 ohne und $35 mit graka haben." und so haben sie leicht verdientes geld.
aber intel arbeitet auch an "richtigen" gpus seit amd ati gekauft hat, duerfte nicht mehr lang hin sein bis man intel mainstream karten kaufen kann (ca $300).
Man darf aber nicht vergessen, dass Raytracing einige der Probleme löst, die mit Rasterizern grundsätzlich nicht lösbar sind. Irgendwann wird man mit Rasterizern einfach nichts Neues mehr machen können, und dann eröffnet Raytracing einen ganzen Haufen neuer Möglichkeiten.
wenn grundlegende dinge nicht geloest sind, dann haben die wenigen vorteile kaum ausschlag dafuer raytracing zu nutzen. sogar moviestudios wie pixar fangen erst jetzt an raytracing in ihre rasterizer einzubauen, dann auch nur selektiv fuer wenige effekte.
-
rapso schrieb:
sogar moviestudios wie pixar fangen erst jetzt an raytracing in ihre rasterizer einzubauen, dann auch nur selektiv fuer wenige effekte.
ich dachte die verwenden nur raytracing....