Quake3: Raytraced
-
Hi,
Ja, so schnell wird keine großartigen CPUs geben, das ist schon richtig. Für nah bis mittelfristig kann man Raytracing komplett vergessen, IMHO.
Aber Megahertz sind nicht der einzige Maßstab. 64 Bit, zum Beispiel, ist auch von Bedeutung. Auch die anderen CPU Erweiterungen (KA, gibts ne Menge) zählen noch. Deshalb kann auch ein niedriger getakteter AMD einen höheren Intel schlagen.
-
weisst du überhaupt wovon du sprichst? Raytracing ist doch kein fertiges Game
sondern ist ein Teil eines Gesamtkonzeptes. Was bringt einem das
schönste Raytracing, wenn die Level schlecht designt sind?Hallo, es geht hier um Grafikeffekte. Niemand spricht hier von irgend etwas anderem. Das Grafik alleine kein gutes Spiel macht, mag ja sein hat aber nichts mit der Sache zu tun.
Wenn du mir erzählen willst, dass Unreal XY eine bessere Grafik hat als ein Spiel was theoretisch einen RayTracer implementiert, dann stimmt das einfach nicht. Egal wie langweilig die beiden Spiele seien mögen.
Es geht hier nicht darum, dass Quake3 auf RayTracing Basis mit Unreal XY verglichen werden soll, du hast den Thread volkommen falsch verstanden.
Außerdem habe ich bereits schon gesagt, dass ich mich hauptsächlich auf den RayTracing Beschleuniger beziehe, RayTracing an und für sich ist nicht neu und das man es theoretisch in Spielen benutzen könnte auch nicht.
Und bitte, informier dich erstmal ein wenig, bevor du einen Blödsinn wie "Raytracing ist die Brute Force Lösung" schreibst. Und das die herkömlichen Verfahren ihre Grenzen haben sollte dir auch klar sein. Vorallem versteh ich nicht, warum du hier gegen RayTracing flamst und dann in den Postings eingestehen musst, dass du keine Ahnung von dem Thema hast. Machst du das immer so, drauf los zu tippen?
Und ich kann nur noch einmal sagen, dass die RayTracing-Karte hier der entsprechende Punkt ist. (Nun, um es nochmal zu erklären, bevor du einfach drauf lostippst: Eine Ding, das machen RayTracing ganz ganz schnell)
So ich zieh mich hier aus dem Thread zurück.
-
randa schrieb:
Toll und wozu dann noch Raytracing, wenn ich die Strahlen bis Tiefe 1 verfolge und nur lokale Reflexionsmodelle wie ein Standard-Renderer habe? Das ist nicht der Sinn.
deswegen stand da auch "besonders schwache kisten", die letztlich keine oder nur die 5euro variante von rt hardware haben. wozu überhaupt doom 3, wenn es ohne fette 3d-karte gar nicht spielbar ist?
Und ich finde es nicht so schlimm, Hacks und Tricks anzuwenden um am ende eine performante und gutaussehende Ausgabe zu erhalten.
performant? ich wage zu behaupten, daß bei typischen spielen ein normaler rechner nichtmal in echtzeit die shadowmaps für eine komplexe szene in brauchbarer geschwindigkeit schafft. was also performant daran sein soll, wenn man die szene letztlich ein halbes dutzend mal pro frame rendern muß entgeht mir grade irgendwie.
Das war doch schon immer so, dass, wenn man trickreich war und wusste, wo man mit welchem Trick was rausholen kann, man eben besser dran war.
es geht aber nicht um tricks und hacks, um etwas _schneller_ zu machen, sondern als krücke um einer dafür vollkommen ungeeigneten methode irgendwelche effekte zu entlocken. wenn du eine flasche öffnen willst, dann nimmst du schließlich auch einen öffner und baust keine wilde konstruktion aus armbrust, sekundenkleber und flaschenzug.
aber die vielen Polygone müssen bewegt werden, will man sowas prakatisch umsetzen.
und was hat das damit zu tun, wie man die szene darstellt? es geht um den vergleich raytracing und rasterisieren, genauso könntest du sagen "aber rt ist es nicht egal, denn die physik muß ja auch berechnet werden". rechne dann dazu, daß der größte teil eines levels statisch ist und sich dabei rein gar nichts bewegt.
Apropos Kugel: Wenn man die mathematisch definieren würde, bräuchte man doch gar keine Polygone mehr, oder?
beim rt würde wahrscheinlich auch nur ein verrückter überhaupt auf die idee kommen eine kugel (die wohl mit abstand einfachste form beim rt) durch tausende polygone anzunähern ,-) deswegen fliegen einem beim rt auch vor allem am anfang überall kugeln um die ohren ,-)
man könnte auch "direkt" mit oberflächen arbeiten, ohne sie künstlich in dreiecke zu zerlegen (aber den schnittpunkt mit einer halbwegs komplexen oberfläche berechnen ist auch nicht der bringer).
-
EnERgYzEr schrieb:
@Sgt. Nukem: Wann glaubst du werden wir zu Hause die Leistung von 36 GHz
stehen haben? Wie wir in den letzten drei Jahren gesehen haben, hat sich fast
nichts mehr getan. ..du hast glaube noch nicht ganzt verstanden das die studenten im saarland eine art graka entwickelt haben, die bei einer taktung von 90 MHz die leistung eines 12 Ghz intel P4 bringt, und das die leute damit diese Demos laufen lassen.
das ist das eigentliche neue. Software raytracer wurden hier ja schon mehrere gepostet..
Thus the prototype with on 90 MHz already achieves the performance of the highly optimized OpenRT software ray tracer on a (virtual) Pentium-4 with 8 to 12 GHz!
-
Trienco schrieb:
deswegen stand da auch "besonders schwache kisten", die letztlich keine oder nur die 5euro variante von rt hardware haben. wozu überhaupt doom 3, wenn es ohne fette 3d-karte gar nicht spielbar ist?
Das habe ich verstanden, aber es ist ja nicht gerade ein Argument für die Benutzung von Raytracing, da ich einen Standard-Renderer genauso defür nehmen kann. Gewschärmt wurde hier von Spiegelungen und Schatten, und dafür brauche ich höhere Rekursionstiefen (min 2, noch besser mehrere).
performant? ich wage zu behaupten, daß bei typischen spielen ein normaler rechner nichtmal in echtzeit die shadowmaps für eine komplexe szene in brauchbarer geschwindigkeit schafft. was also performant daran sein soll, wenn man die szene letztlich ein halbes dutzend mal pro frame rendern muß entgeht mir grade irgendwie.
Es kommt auf das Ergebnis an, und das kann zumindest erreicht werden. Wie gesagt, die Tricks dienen auch dazu, den Eindruck von Realität zu simluieren, nicht die Realität selber. Das kann man, wenn sich evtl. noch was bei den normalen Renderern tut, auch in Zukunft auch noch besser erreichen. Und wenn die Hardware leistungsfähiger wird (sogar soweit, bis man Raytracer flüssig bekommt) kann man mit heutiger Technik auch noch mehr machen, sprich die Realität noch besser simulieren.
es geht aber nicht um tricks und hacks, um etwas _schneller_ zu machen, sondern als krücke um einer dafür vollkommen ungeeigneten methode irgendwelche effekte zu entlocken.
Kommt auf die Alternative an.
wenn du eine flasche öffnen willst, dann nimmst du schließlich auch einen öffner und baust keine wilde konstruktion aus armbrust, sekundenkleber und flaschenzug.
Kommt, drauf an, wie lange ich mit dem Flaschenöffner brauche

Erfinsungsreichtum ist nie verkehrt.und was hat das damit zu tun, wie man die szene darstellt? es geht um den vergleich raytracing und rasterisieren,
Wie du meinst. Ich sprach an, was in Realität dann umsetzbar ist, und da zählt schlussendlich nicht, ob es einem Raytracer egal ist, wieviele Vertices vorhanden sind. Faktisch würde man diesen Vorteil nicht ausnzutzen können, vor allem da das Raytracing selber wieder viel Rechenzeit schluckt und somit wohl sogar noch weniger Vertices drin sind.
daß der größte teil eines levels statisch ist und sich dabei rein gar nichts bewegt.
Wenn der Spieler sich bewegt schon.
-
@xroads42: Les mal den letzten Satz meines Posts

@kingruedi: Nicht jeder kann ja Vollprofi in jedem Gebiet sein, oder? Ich habe
mit meinem allgemeinen Wissen das ich über das Verfahren habe, meine Bedenken
angemeldet, ob das Verfahren überhaupt NÖTIG ist oder ob wir nicht auch auf
einen ähnlichen Realismus kommen, wenn wir konventionelle Verfahren nutzen.
Kein Grund gleich so aufzufahren. Aber ich entschuldige mich auch, wenn du
meine Posts als Flames aufgefasst hast. Denn das sollten sie nicht sein.
-
-
Wie du meinst. Ich sprach an, was in Realität dann umsetzbar ist, und da zählt schlussendlich nicht, ob es einem Raytracer egal ist, wieviele Vertices vorhanden sind. Faktisch würde man diesen Vorteil nicht ausnzutzen können, vor allem da das Raytracing selber wieder viel Rechenzeit schluckt und somit wohl sogar noch weniger Vertices drin sind.
vergleichen wir mal die unrealX Grafik-engine im software rasterizer mode mit einem software raytracing algorithmus, wie hoch werden die zeit unterschiede sein?
worauf ich damit hinaus will: ohne optimierte hardware, wie sie jeder von uns in seinem rechner in form einer 3d-Graka hat, ist jede der gängigen Techniken unglaublich langsam und in der Realität nicht umsetzbar. wieviele GHz reine Cpu power bräuchte man, um ein flüssiges Bild im software rasterizer zu bekommen? wieviele GHz werden einem nur von der Graka abgenommen? Wieviele Vertices könnte man ohne 3D-Graka heutzutage mit akzeptabler geschwindigkeit rendern?
-
wieviele GHz reine Cpu power bräuchte man, um ein flüssiges Bild im software rasterizer zu bekommen?
Ich behaupte mal frech (
): weniger als bei der genau gleichen Szene mit einem Raytracer bei zweifacher Rekursionstiefe (schließlich wollen wir Schatten). Ich bezieh das mal auf eine fiktive Szene, in der Schatten gerechnet werden und Spiegelungen/Reflexionen simuliert werden.wieviele GHz werden einem nur von der Graka abgenommen?
Dazu hab ich mir mal gedanken gemacht, als ich mal komplexe Szenen mit meinem Software Renderer darstellen wollte. Ich würde Pi mal Daumen sagen, das das auf jeden Fall mehrere GHz sind, ab 2 aufwärts, wohl noch mehr.
Sicher ändert sich die Sache mit einer "Raytracing-Karte". Aber das dauert noch seine Weile.

-
die unterschiede werden sich wahrscheinlich bei 1-2 sekunden einpendeln(der software rasterizer _ist_ langsam), grund: overdraw tut verdammt weh.
-
Ich vermute sogar, dass es noch viel, viel mehr als 2 GHz sind, wenn man z.B.
mal an die Demos aus dem DX SDK denkt. Da laufen einige PS und VS intensive
Demos nur mit 2,3 Frames, wenn der Software-Render an ist. Beim Hardware
Rendern schafft man dort dann einige 100 Frames.Die Spezialisierung der Hardare kann schon einiges reißen, wie man ja auch an
der Raytracing-Karte sieht.
-
Eigentlich ist meine Schätzung auch viel zu niedrig. Ich bekomme ein paar simple Szenen meist nur mit knappen 25 Frames, bei einer D3 Szene bräuchte ich (Vorsicht, neue Schätzung
) wohl etwa 12 Ghz bei gleichbleibender CPU-Architektur 
Meine CPU hat 2 Ghz, A64. Stellt mich aber bei weitem nicht zufrieden beim Software Rendern.Eigentlich blöd, diese Schätzungen. Im Dos Mode würde ich ja wohl auch viel mehr Rechenposwer bekommen, aber das kann ich nicht austesten. Es hängt vom OS ab, schließlich bekommt man da nie die ganze Rechenkraft.
Was auch immer

-
LOL! Ich glaube, die Ungenauigkeit deiner Schätzung ist größer als dass was
dein OS braucht

-
randa schrieb:
Wenn der Spieler sich bewegt schon.
*hust* du fängst also bei JEDER bewegung des spielers an ALLE benutzten vertexbuffer anzufassen und JEDEN einzelnen vertex zu aktualisieren?
-
Wie schon gesagt werden Raytracer wohl erst interessant, wenn es die passende Hardware gibt.
Ich frage mich aber, wie das passieren soll.
Die großen Hersteller (oder wer auch immer) müssten ja aus dem Nichts heraus einen Chip entwickeln, der genausogute Grafiken erzeugt wie aktuelle 3D Karten. Deßweiteren sollten die Karten am Anfang noch abwärtskompatibel sein, sonst müsste man entweder auf ältere Spiele verzichten oder zwei Grafikkarten einbauen.
Bin ja mal gespannt wie das von statten gehen wird.PS: Ich habe nicht so den Plan von RT. Wie kann es sein, dass das Verfahren unabhängig von der Szenenkomplexität ist (wie hier behauptet wurde)?
Man muss doch Strahlen mit der Szene schneiden, und je komplexer die Szene desto höher der Aufwand!?
-
Trienco schrieb:
*hust* du fängst also bei JEDER bewegung des spielers an ALLE benutzten vertexbuffer anzufassen und JEDEN einzelnen vertex zu aktualisieren?
*hust* Wenn die Szene gleichmäßig Komplex ist sinds trotzdem sehr viele. *hust*
Was glaubst du wohl?[quote=EnERgYzEr]LOL![/quote]
Ich weiß
-
randa schrieb:
*hust* Wenn die Szene gleichmäßig Komplex ist sinds trotzdem sehr viele. *hust*
Was glaubst du wohl?daß statische geometrie überhaupt nicht angefaßt wird? wozu auch?
-
xroads42 schrieb:
du hast glaube noch nicht ganzt verstanden das die studenten im saarland eine art graka entwickelt haben, die bei einer taktung von 90 MHz die leistung eines 12 Ghz intel P4 bringt
Bitte dabei sagen: Bezogen _NUR_ auf das RayTracing!

EnERgYzEr schrieb:
DAS wiederum glaube ich nicht. 10 Jahre ist weit übertrieben...
@Sgt. Nukem: Wann glaubst du werden wir zu Hause die Leistung von 36 GHz
stehen haben? Wie wir in den letzten drei Jahren gesehen haben, hat sich fast
nichts mehr getan. Man versucht die Leistung/Hz zu erhöhen aber einen richtigen
Durchbruch gab es hier auch noch nicht. Gleichzeitig werden die Hz der CPUs
eher niedriger. Seit bestimmt einem Jahr hängen wir ca. bei der Leistung eines
P4 3.5 GHz fest (von wem auch immer die CPUs sind. AMD, Intel,...).
Intels Top-Desktop-CPU gibts für 300 EUR im Laden. Das sagt doch eigentlich
schon alles, oder?Sicher, das größte Problem mittlerweile sind die _immense_ Hitzeentwicklung, und vor allem: Leckströme!
Mit konventionellem Silizium wird's nicht mehr allzu weit weitergehen...
Vielleicht stehen wir langsam am Umbruch zu einer neuen Architekturgrundlage (Plastic-Prints, Bio-Comps, whatever), aber wenn das geschafft ist geht's mordsschnell weiter...
Hoffentlich steht der Thread in 10 Jahren noch...
Naja, erstmal sollen die Nachrücker im Consumer.Bereich mit 64Bit daherkommen...

0x00000001 schrieb:
Wie schon gesagt werden Raytracer wohl erst interessant, wenn es die passende Hardware gibt.
Ich frage mich aber, wie das passieren soll.
Die großen Hersteller (oder wer auch immer) müssten ja aus dem Nichts heraus einen Chip entwickeln, der genausogute Grafiken erzeugt wie aktuelle 3D Karten. Deßweiteren sollten die Karten am Anfang noch abwärtskompatibel sein, sonst müsste man entweder auf ältere Spiele verzichten oder zwei Grafikkarten einbauen.
Bin ja mal gespannt wie das von statten gehen wird.Sicher muß ein paar Vorreiter geben, die allein wegen Innovations-Geilheit produzieren, und nicht darauf bedacht sind, die schnelle Mark zu machen.
Das war schon immer so.Mit dem 1.000 Clon in Computerspielen, aber auch bei Hardware:
Der erste 3D-Chip (Voodoo von 3DFX) war auch mit keiner Hand voll Anwendungen kompatibel.
Später gab's mal den Kyro - der mit einer einzigartigen Architektur allemann verblüffte und bei einigen Games für Leistung pur sorgte - obwohl er ein Lowcost-Chip war! Auch er war mit vielen anderen Games inkompatibel.Naja, man wird sehen...

-
0x00000001 schrieb:
PS: Ich habe nicht so den Plan von RT. Wie kann es sein, dass das Verfahren unabhängig von der Szenenkomplexität ist (wie hier behauptet wurde)?
Man muss doch Strahlen mit der Szene schneiden, und je komplexer die Szene desto höher der Aufwand!?nicht unabhängig, aber wenn man sich nicht ganz ungeschickt anstellt, dann ist der unterschied zwischen 100 und 10000 objekten minimal bis nicht vorhanden.
ein 3d raster ist zwar insgesamt nicht besonders toll, aber einfach zu erklären:
-du schießt einen strahl
-du überprüfst die objekte in der ersten zelle, durch die der strahl geht
-du überprüfst die zweite zelle
-etc.dabei kann es dir dann vollkommen egal sein, ob in den nicht angefaßten zellen insgesamt 10 oder 1000000 objekte rumliegen.
-
das gleiche gilt für bruteforce rasterizer doch auch sobald die engine frustumculling bei einer statischen geometrie durchführt.
rapso->greets();