Crysis: Fotorealistisches Spiel? Hammer!
-
kingruedi schrieb:
energyzer schrieb:
Also ich kann bei dem oberen Foto nicht mehr auf den ersten Blick entscheiden, ob es echt ist oder nur gerendert.
Ich finde das erkennt man noch ziemlich gut.
Yo, aber falls Du noch die letzte PCG da hast, mal die Gesichts-Nahaufnahme angucken!!
.-°oO0=3l33tg4m0r=0Oo°- schrieb:
und einige sachen hat man schon in wolfenstein 3d besser gesehen
Yo, also der Flammenwerfer in RtCW oder - NOCH besser - in Kingpin ist IMHO immer noch ungeschlagen...
-
sehr sehr schöne grafik(bin auch begeisterter shooter zocker)aber fotorealistisch.......
-
Schaut klasse aus!!!
-
-
Krass sieht das fett aus
Am witzigsten find ich es, wenn Kinder mit 1337 Nicks und die im ganzen Leben noch wie was mit DX/OGL geschrieben haben über die Grafik von solchen Hammerspielen meckern
-
Ich finde es bedenklich, dass irgendein Augenschmauß, der ein halbes Jahr später sowieso Standard wird, scheinbar wichtiger ist als langfristige Stabilitätsprobleme, die sich daraus ergeben, dass man alles treibernah zusammenhackt um ein halbes Jahr voraus zu sein.
Ich habe mit keinem Spiel so viele Probleme gehabt wie mit FarCry. Ohne nForce und g-Force Treiber update ging erstmal gar nichts, das Spiel stürzte mit meiner neuen Grafikkarte ständig ab. Es unterstützt ganz offiziell das Minimieren des Programms nicht -> WTF ?!?!?!!!! Natürlich geht es trotzdem, aber nur wenn im Hintergrund ein Fenster offen ist oder man den Task Manager bemüht. Wenn aber gerade Vollmond ist und in China ein Sack Reis umfällt, dann geht es nur 3mal gut, danach sieht man nur noch bunte Kästchen. Kollegen von mir geht es ähnlich, sie berichten über manchmal schwarz bleibende Bilder oder dass sich das Spiel einfach zum Desktop verabschiedet.
Dann das ewige rumgepatche an dem Spiel und der zweite Patch erstmal wegen unerwarteten Problemen zurückgezogen.
Ich mag FarCry aber irgendwelche Hackereien, die auf Kosten der Stabilität gehen, sind es echt nicht wert. Entweder FarCry ist voll davon, oder die Leute haben es einfach generell nicht hingekriegt, eine wirklich sauber laufende Game Engine auf die Beine zu stellen. Da beeindrucken mich mehr die Unreal-Leute, die nach eigener Aussage nie hardwarenahe low-level Hackereien tätigen oder Assemblersprachen benutzen. Hört man von irgendwelchen Problemen mit den Unreal-Engines? Ich nicht und ich finde es auch trotzdem sehr beeindruckend, was man da immer wieder zu sehen kriegt.
Es gibt einfach Dinge an Game-Engines, die genauso wichtig sind wie tolle Grafik.
-
Optimizer schrieb:
Ich finde es bedenklich, dass irgendein Augenschmauß, der ein halbes Jahr später sowieso Standard wird, scheinbar wichtiger ist als langfristige Stabilitätsprobleme, die sich daraus ergeben, dass man alles treibernah zusammenhackt um ein halbes Jahr voraus zu sein.
Ich habe mit keinem Spiel so viele Probleme gehabt wie mit FarCry. Ohne nForce und g-Force Treiber update ging erstmal gar nichts, das Spiel stürzte mit meiner neuen Grafikkarte ständig ab. Es unterstützt ganz offiziell das Minimieren des Programms nicht -> WTF ?!?!?!!!! Natürlich geht es trotzdem, aber nur wenn im Hintergrund ein Fenster offen ist oder man den Task Manager bemüht. Wenn aber gerade Vollmond ist und in China ein Sack Reis umfällt, dann geht es nur 3mal gut, danach sieht man nur noch bunte Kästchen. Kollegen von mir geht es ähnlich, sie berichten über manchmal schwarz bleibende Bilder oder dass sich das Spiel einfach zum Desktop verabschiedet.
Dann das ewige rumgepatche an dem Spiel und der zweite Patch erstmal wegen unerwarteten Problemen zurückgezogen.
Ich mag FarCry aber irgendwelche Hackereien, die auf Kosten der Stabilität gehen, sind es echt nicht wert. Entweder FarCry ist voll davon, oder die Leute haben es einfach generell nicht hingekriegt, eine wirklich sauber laufende Game Engine auf die Beine zu stellen. Da beeindrucken mich mehr die Unreal-Leute, die nach eigener Aussage nie hardwarenahe low-level Hackereien tätigen oder Assemblersprachen benutzen. Hört man von irgendwelchen Problemen mit den Unreal-Engines? Ich nicht und ich finde es auch trotzdem sehr beeindruckend, was man da immer wieder zu sehen kriegt.
Es gibt einfach Dinge an Game-Engines, die genauso wichtig sind wie tolle Grafik.
es geht hier nur um die grafik und nicht um irgendwelche unwichtigen detailprobleme oder deine unfähigkeit nen spiel zum laufen zu bringen
-
Optimizer schrieb:
Es gibt einfach Dinge an Game-Engines, die genauso wichtig sind wie tolle Grafik.
-
Also ich hatte mit FarCry ganz allgemein keine groesseren Probleme (dh. nicht mehr Grafikprobleme als mit so einigen anderen Spielen), aber Unreal-Games laufen bei mir nicht richtig -> DualCore-System - ob nun Windows, oder Unreal-Engine schuld hat, ist nebensaechlich, da andere Spiele (zB. FarCry) problemlos laufen.
:p
BTW: Das Abkacken beim Minimieren hat auch nicht CryTek erfunden.
-
Leute! Erst mal warten bis es fertig ist. Dauert immerhin noch gut ein Jahr bis zur Verfoeffentlichung - und bis dahin wird mit Sicherheit noch einiges optimiert werden. Erstmal gibt's halt nur die (imho verdammt guten) Screens zB hier:
http://www.computerbase.de/news/software/spiele/2006/april/far_cry-nachfolger_neue_bilder_crysis/Das wogende Gras und Laub in einem Trailer gehoert mit zum besten was ich je gesehen habe.
btw:
auch das neue C&C sieht sehr schick aus:
http://www.gamestar.de/aktuell/screenshots/PlayerPicList.jsp?galleryId=1416
-
Also ich war jetzt mal zum Vergleich drausen in der echten Welt
und das hat doch etwas anderst ausgeschaut.
-
abbes schrieb:
http://www.computerbase.de/news/software/spiele/2006/april/far_cry-nachfolger_neue_bilder_crysis/
Mal ne Frage: Und wer soll das ganze Berechnen? Ich meine:
Die Systemanforderungen dürften nicht gerade auf denen von Doom 1 liegen.Wie hoch sind die Systemanforderungen?
-
SuperMann schrieb:
Also ich war jetzt mal zum Vergleich drausen in der echten Welt
und das hat doch etwas anderst ausgeschaut.
Ich war auch draussen!
Bin so am Rhein entlang gelaufen und dachte bei mir:
"Wow! Echt klasse! Das Wasser sieht ja fast aus wie in einem Computerspiel!"TGGC|_work schrieb:
Mal ne Frage: Und wer soll das ganze Berechnen? Ich meine:
Die Systemanforderungen dürften nicht gerade auf denen von Doom 1 liegen.
Wie hoch sind die Systemanforderungen?K.A. Ist auf jeden Fall ein DirectX 10 Spiel. Und wenn ich mal daran zurueck denke, wie die ersten DX9 Games auf den ersten DX9 Karten liefen...
Wir wohl noch 1-2 Generationen dauern, bis man das in voller Pracht spielen kann.
Andererseits laeuft Oblivion mit einer recht guten Quali auf meinem System mit einer sehr langsamen GeForce 6600 (Non-GT).Mal abwarten bis die ersten DX10 Karten erscheinen. Dann kann man die Leistungs bzw. die Anforderung wohl erst richtig einschaetzen.
-
SuperMann schrieb:
Also ich war jetzt mal zum Vergleich drausen in der echten Welt
und das hat doch etwas anderst ausgeschaut.
Also das letze Bild auf computerbase, das mit dem Gesicht,
das ist schon verd**** gut modelliert. Man erkennt es zwar noch, aber von weitem sieht es echt echt aus.
-
abbes schrieb:
Andererseits laeuft Oblivion mit einer recht guten Quali auf meinem System mit einer sehr langsamen GeForce 6600 (Non-GT).
Mein Güte. Man kanns auch übertreiben mit "die Hardware, die ich letztes Jahr hatte, ist dieses Jahr schon antik".
Ich wäre froh, wenn ich ne Geforce 2 Graka hätte.
-
Fachmann für Grafik schrieb:
Falsch Artchi. Sowas wird es NIE geben. NIE!!
Falsch Fachmann für Grafik. Sowas wird es vielleicht geben. vielleicht.
Denn : weisst du genug über die zukunft um das wort "nie" zu gebrauchen? Ich denke nicht.....was ist in 100, 1000, 10.000 jahren?
-
Erkenner_der_Wahrheit schrieb:
Fachmann für Grafik schrieb:
Falsch Artchi. Sowas wird es NIE geben. NIE!!
Falsch Fachmann für Grafik. Sowas wird es vielleicht geben. vielleicht.
Denn : weisst du genug über die zukunft um das wort "nie" zu gebrauchen? Ich denke nicht.....was ist in 100, 1000, 10.000 jahren?
Die enorme Verbesserung der Computergrafik in den letzten Jahren ist auf das Moore'sche Gesetz zurückzuführen. Diesbezüglich ist es zwar immer ein Streitthema, wie lange dieses Gesetz noch Gültig bleibt, aber 100 Jahre sind weit jenseits der Möglichkeiten. Wenn man bei 100 Jahren von 50 Miniaturisierungsschritten ausgeht und man heutzutage 65nm Prozessoren hat, dann beträgt die charakteristische Strukturbreite in 100 Jahren etwa 0,000002 nm. Wenn man bedenkt, dass Atome eine Größe von einigen 0,1nm besitzen, dann erkennt man schnell, dass dieses Gesetz bei weitem nicht 100 Jahre in die Zukunft fortsetzbar ist. Man hat einfach keine subatomaren Bauteile, mit denen man auf makroskopischer Ebene stabile Strukturen aufbauen kann.
Ich meine, vor einiger Zeit gelesen zu haben, dass Intel davon ausgeht, dass das Moore'sche Gesetz bis etwa 8nm fortgesetzt werden kann. Das entspricht also nur noch etwa 12 Jahren. (Ich gehe momentan einfach mal von einem Miniaturisierungsschritt in 2 Jahren aus. Von den 18 Monaten ist Intel ja irgendwie auch schon länger weg.)
Von diesem Standpunkt aus gesehen wird die Leistung von Computern (und natürlich auch Grafikkarten) in absehbarer Zeit an eine Grenze stoßen, nach der eine enorme Verlangsamung der Leistungssteigerung eintreten wird. Sicherlich gibt es Ansätze, auch nach dem Ende der Miniaturisierung die Leistung noch weiter zu steigern, aus meiner Sicht wären zum Beispiel Prozessoren denkbar, die von den Abmessungen her viel weiter in die 3. Dimension gehen. Aber bei solchen Überlegungen sollte man auch die Wirtschaftlichkeit solcher Lösungen bedenken. Bei Ausnutzung des Moore'schen Gesetzes ist der Preis von integrierten Schaltkreisen nur schwach von der zeitlich exponentiell anwachsenden Leistung betroffen.
Naja, alles in allem gesehen halte ich es für eine realistische Sichtweise, wenn man sagt, dass nicht mehr allzuviel Zeit bleibt, um fotorealistische Computergrafik in Spielen zu erreichen. Man kann dann sicherlich auch zu einer Abschätzung der Realisierbarkeit solch einer Computergrafik kommen. Inwiefern die Einschätzung, die hier im Thread getroffen wurde, nun für den durchschnittlichen Computernutzer zutreffend sein wird, weiß ich allerdings nicht.
-
Bei 3D-Computergrafik muss man allerdings auch den Vorteil sehen, dass es sich um ein nahezu beliebig parallelisierbares Problem handelt. In moderner Grafik macht das Shading den Löwenanteil der Grafikqualität aus, aber genau da spricht theoretisch nichts dagegen, auf eine Grafikkarte 1280x1024 Fragment-Shader zu packen. Halte ich jedenfalls für wesentlich realistischer als 8nm Strukturgröße...
-
Optimizer schrieb:
Bei 3D-Computergrafik muss man allerdings auch den Vorteil sehen, dass es sich um ein nahezu beliebig parallelisierbares Problem handelt. In moderner Grafik macht das Shading den Löwenanteil der Grafikqualität aus, aber genau da spricht theoretisch nichts dagegen, auf eine Grafikkarte 1280x1024 Fragment-Shader zu packen. Halte ich jedenfalls für wesentlich realistischer als 8nm Strukturgröße...
full ack.
Diese entwicklung ist ja schon seit einiger zeit zu beobachten...
-
Optimizer schrieb:
Bei 3D-Computergrafik muss man allerdings auch den Vorteil sehen, dass es sich um ein nahezu beliebig parallelisierbares Problem handelt. In moderner Grafik macht das Shading den Löwenanteil der Grafikqualität aus, aber genau da spricht theoretisch nichts dagegen, auf eine Grafikkarte 1280x1024 Fragment-Shader zu packen. Halte ich jedenfalls für wesentlich realistischer als 8nm Strukturgröße...
Ich weiß jetzt nicht genau, wie Du das meinst. Sicherlich kann man in der Computergrafik ne Menge parallelisieren. Aber da braucht man trotzdem entsprechend viele Transistoren. Wenn Du die Anzahl deiner Shader verdoppeln möchtest, dann brauchst Du auch die doppelte Anzahl an Transistoren. ...und wenn Du da so eine Millionen Shader vorschlägst, dann brauchst Du ne ganze Menge Transistoren. Wie willst Du die unterbringen? Auf viele Chips verteilt? Kann man sicherlich machen, aber da kosten dann halt auch 2 Chips das Doppelte von einem Chip. So sehr viele werden sich davon nicht in Computern für den Massenmarkt rechtfertigen lassen. Abgesehen davon brauchen die auch ne Menge Platz.
Bezüglich der 8nm bin ich ganz optimistisch. Die werden schon erreicht werden und vielleicht kommt man ja auch noch ein bischen weiter, wer weiß.
...und BTW: Bei aller Parallelisierung darf man nicht vergessen, dass das auch Konsequenzen hat. Wenn Du viele Recheneinheiten hast, dann wollen die auch mit Daten versorgt werden, mit denen sie arbeiten können. Jetzt ist es aber leider so, dass die Geschwindigkeit des Arbeitsspeichers bei weitem nicht so schnell ansteigt wie die Rechenleistung von Prozessoren usw.. Das heißt, dass man bei vielen Recheneinheiten am Besten auch einen sehr sehr großen Cache benötigt. Und der braucht dann auch wieder massenweise Transistoren. ...hier könnte sich aus meiner Sicht aber einiges tun, wenn bestimmte Technologierichtungen ordentlich in Schwung kommen: Die Spintronik zum Beispiel.