Software Renderer



  • rapso schrieb:

    groovemaster schrieb:

    Ganz ruhig. Hast du einen schlechten Tag gehabt? Oder warum gehst du gleich so ab?

    hoe? ist dein philosophiekurs ausgefallen? oder wieso suchst du nach nicht vorhandenen problemen wenn ich hinterfrage?

    Tja, da muss wohl noch mehr bei mir ausgefallen sein. Ich sehe keine Fragen, nur einen aggressiven Tonfall deinerseits. Aber lassen wir das, bevor dein Blutdruck noch in kritische Bereiche kommt.


  • Mod

    groovemaster schrieb:

    rapso schrieb:

    groovemaster schrieb:

    Ganz ruhig. Hast du einen schlechten Tag gehabt? Oder warum gehst du gleich so ab?

    hoe? ist dein philosophiekurs ausgefallen? oder wieso suchst du nach nicht vorhandenen problemen wenn ich hinterfrage?

    Tja, da muss wohl noch mehr bei mir ausgefallen sein. Ich sehe keine Fragen, nur einen aggressiven Tonfall deinerseits. Aber lassen wir das, bevor dein Blutdruck noch in kritische Bereiche kommt.

    sehr suess die aussage. du musst in einer sehr aggressive umwelt leben um in meine normalen aussagen sowas reininterpretieren zu muessen, du tust mir leid, und nein, dein plumper provokationsversuch hier bringt meinen blutdruck nur vor belustigung etwas ins wanken. aber ich akzeptiere es wenn du aus unserer sachlichen diskusion scheidest.



  • Is zwar offtopic... aber dein Ton is wirklich ziemlich aggressiv und unfreundlich rapso. Willst du ein 2. TGGC werden? 😮


  • Mod

    da ich im urlaub war, war mein ton eher entspannt, ich wunder mich echt wie ihr sowas herauslesen koennt aus ganz normalen saetzen ohne kraftausdruecken usw. wie mein ton gewesen ist.



  • Hey,

    nach der Viewport Transformation habe ich x', y' und z' Koordinaten. Diese brauche ich zum Clipping mittels Cohen-Sutherland oder Sutherland-Hodgeman. Clipping im zwei-dimensionalen ist kein großes Problem, aber wie clippe ich an der Near/Far Ebene? Ein Stichwort zum Suchen reicht mir 😉

    Vielen Dank



  • Führt man Clipping nicht üblicherweise vor der homogenen Division durch, in dem einfach auf w<=x,y,z<=w bzw. w<=x,y<=w und 0<=z<=w prüft?



  • Eh, Mist 🙂 Ich habs doch noch nicht wirklich verstanden.

    Ich muss meine Dreiecke erstmal gegen die Frustum-Ebenen clippen, bevor ich durch w teile, (also nachdem ich die Augenkoordinaten mit der Projektionsmatrix multipliziert hab,) oder?

    Dort fliegen Dreiecke 1. entweder ganz raus, 2. sind komplett sichtbar oder 3. müssen geschnitten werden. Gibt's da einen bestimmten populären Algorithmus für?

    1. komplett außerhalb: nichts tun 🙂

    2. komplett innerhalb: einfach rastern

    3. teilweise sichtbar: Hier muss ich jetzt den Cohen-Sutherland Algorithmus anwenden und das schließlich endstandene Polygon rastern

    Stimmt das soweit?
    Danke



  • Hier gibts ein paar Videomitschnitte von einer Computergrafik Vorlesung. Sind ziemlich gut gemacht.
    Kannst dir ja mal 15 und 15+16 anschauen, da müsste das ganze erklärt sein.

    Das Skript findest du hier.



  • Sorry, dass ich diesen alten Thread nochmal ausgrabe, aber hier gibt es einen interessanten Artikel:

    Intel entwickelt Raytracing-Engine für Computerspiele:
    http://www.heise.de/newsticker/meldung/94619

    Bislang läuft die Engine mit zwei QuadCore-Prozessoren bei 127 Frames pro Sekunde (der Artikel sagt allerdings nicht klar, um welche Szenen es sich dabei handelt, ich vermute Quake 3/4, weil das in einem Satz davor erwähnt wird). Die ersten OctalCores sind ja nun auch schon in Aussicht.

    Mit steigender Anzahl an Polygonen steigt auch der Rechenaufwand für die Rastermethode linear an. Die Raytracing-Methode würde hingegen logarithmisch anwachsen. Ab einem bestimmten Detailgrad sei daher die Raytracing-Methode weniger Rechenintesiv als die Rastermethode.

    Nach seiner Einschätzung könnte 2009 die Entwicklung der ersten Raytracing-Spiele beginnen.

    😋👍

    Hier noch ein anderer Artikel dazu:
    http://www.hartware.de/column_23.html

    Die Hersteller von Grafikkarten arbeiten zwar auch schon an speziellen Chips für Raytracing. Bis diese allerdings marktreif sind dürfte Intel mit den Mehrkern-Prozessoren die Nase vorne haben.

    Woher diese Informationen stammen, weiß ich leider nicht.



  • Hört sich gut an!

    Würd gerne mal wissen, was die GPU-Hersteller (nVidia und ATI/AMD) schon an Dingen in der Hinterhand haben, um da mitzuspielen. Das Realtime-Raytracing irgendwann kommt, war abzusehen. Und die werden bestimmt nicht ihre Führung auf dem Grafiksektor an Intel abtreten, sondern neue Konzepte des RTRT in ihre GPUs einbauen.

    Wir dürfen wohl gespannt sein!

    gruß
    Martin



  • "And there will also be colonies on Mars, underwater cities, and personal jet packs." - lol



  • mad_martin schrieb:

    Und die werden bestimmt nicht ihre Führung auf dem Grafiksektor an Intel abtreten, sondern neue Konzepte des RTRT in ihre GPUs einbauen.

    Welche Führung? Intel ist doch bereits der No1 Grafikchip-Hersteller.



  • 😮

    Ich denke einfach mal, das war Ironie...



  • Optimizer schrieb:

    Welche Führung? Intel ist doch bereits der No1 Grafikchip-Hersteller.

    Was den Marktanteil betrifft ja, was die Technologie betrifft nein.



  • Die "Technologie", mhm. Danke für die Nachricht. 😉 Welche Technologie(n) sollen das denn sein? An der Chipherstellung selber scheitert es wahrscheinlich wohl nicht, am Stromverbrauch der Chips auch nicht (ist ja schließlich der Grund, warum Intel der Marktführer ist), an der Implementierung von aktuellen Standards (Direct3D 10) scheitert es auch nicht. Wo genau soll Intel hinterher sein?



  • Was die Performance betrifft, hat Intel soweit ich weiß keine Grafikchips anzubieten, die mit denen von AMD/ATI oder NVIDIA auch nur annähernd mithalten können.



  • Optimizer schrieb:

    Die "Technologie", mhm. Danke für die Nachricht. 😉 Welche Technologie(n) sollen das denn sein? An der Chipherstellung selber scheitert es wahrscheinlich wohl nicht, am Stromverbrauch der Chips auch nicht (ist ja schließlich der Grund, warum Intel der Marktführer ist), an der Implementierung von aktuellen Standards (Direct3D 10) scheitert es auch nicht. Wo genau soll Intel hinterher sein?

    Nunja, es liegt wohl nicht am Stromverbrauch, dass Intel Marktführer ist, sondern an der Tatsache, dass ihre Grafikchips in tausenden Bürorechnern und Laptops eingebaut sind.

    Allerdings sind diese Grafikchips doch stark limitiert, was ihre Leistung im 3D-Bereich angeht. Und da sind AMD/ATI und nVidia dann doch deutlich führend. Oder kennst du einen Intel Grafikchip, der mit der Leistung aktueller GeForce bzw. Radeons mithalten kann? Ich nicht.

    Und eben dieses Thema hier zielt doch stark auf AMD/ATIs bzw. nVidias Zielgruppe ab, nämlich Gamer. Für Gamer sind Intelchips ziemlich uninteressant. Die Hauptarbeit beim Raytracing liegt bisher bei der CPU. Sollten da keine neuen Grafikkarten kommen, die genau hier ansetzen und die Arbeit wieder auf die GPU verlagern, werden nVidia und ATI Probleme bekommen. Zwar wird das noch einige Jahre dauern, aber schlafen werden die beiden bestimmt nicht!

    gruß
    Martin


  • Mod

    mad_martin schrieb:

    Und eben dieses Thema hier zielt doch stark auf AMD/ATIs bzw. nVidias Zielgruppe ab, nämlich Gamer. Für Gamer sind Intelchips ziemlich uninteressant. Die Hauptarbeit beim Raytracing liegt bisher bei der CPU. Sollten da keine neuen Grafikkarten kommen, die genau hier ansetzen und die Arbeit wieder auf die GPU verlagern, werden nVidia und ATI Probleme bekommen. Zwar wird das noch einige Jahre dauern, aber schlafen werden die beiden bestimmt nicht!

    das behauptet man aber schon seit nem jahrzehnt und es ist immer noch nicht soweit. Raytracing zZ ist sehr sehr limitiert und nur in einer klinischen umgebung gerade so in echtzeit, spiele entwickeln sich aber weiter und stellen anforderungen die raytracing (noch) nicht abdecken kann. es loest probleme die mit normalem rasterizieren vor 10jahren geloest waren und heute trivial sind wie z.b. statische scenes mit viel overdraw.



  • Man darf aber nicht vergessen, dass Raytracing einige der Probleme löst, die mit Rasterizern grundsätzlich nicht lösbar sind. Irgendwann wird man mit Rasterizern einfach nichts Neues mehr machen können, und dann eröffnet Raytracing einen ganzen Haufen neuer Möglichkeiten.



  • mad_martin schrieb:

    Nunja, es liegt wohl nicht am Stromverbrauch, dass Intel Marktführer ist, sondern an der Tatsache, dass ihre Grafikchips in tausenden Bürorechnern und Laptops eingebaut sind.

    Siehst du den Zusammenhang?

    Allerdings sind diese Grafikchips doch stark limitiert, was ihre Leistung im 3D-Bereich angeht. Und da sind AMD/ATI und nVidia dann doch deutlich führend. Oder kennst du einen Intel Grafikchip, der mit der Leistung aktueller GeForce bzw. Radeons mithalten kann? Ich nicht.

    Das ist keine Frage der Technik, sondern ob ich 40 Shader auf einen Chip packe oder 4. Bei dem Punkt mit der Zielgruppe hast du Recht, deshalb sind die Chips eben kleiner gehalten. Aber davon kannst du nicht auf einen technologischen Rückstand schließen. Und das wollte ich sagen.


Anmelden zum Antworten