Crysis: Fotorealistisches Spiel? Hammer!



  • Ich finde es bedenklich, dass irgendein Augenschmauß, der ein halbes Jahr später sowieso Standard wird, scheinbar wichtiger ist als langfristige Stabilitätsprobleme, die sich daraus ergeben, dass man alles treibernah zusammenhackt um ein halbes Jahr voraus zu sein.

    Ich habe mit keinem Spiel so viele Probleme gehabt wie mit FarCry. Ohne nForce und g-Force Treiber update ging erstmal gar nichts, das Spiel stürzte mit meiner neuen Grafikkarte ständig ab. Es unterstützt ganz offiziell das Minimieren des Programms nicht -> WTF ?!?!?!!!! Natürlich geht es trotzdem, aber nur wenn im Hintergrund ein Fenster offen ist oder man den Task Manager bemüht. Wenn aber gerade Vollmond ist und in China ein Sack Reis umfällt, dann geht es nur 3mal gut, danach sieht man nur noch bunte Kästchen. Kollegen von mir geht es ähnlich, sie berichten über manchmal schwarz bleibende Bilder oder dass sich das Spiel einfach zum Desktop verabschiedet.

    Dann das ewige rumgepatche an dem Spiel und der zweite Patch erstmal wegen unerwarteten Problemen zurückgezogen.

    Ich mag FarCry aber irgendwelche Hackereien, die auf Kosten der Stabilität gehen, sind es echt nicht wert. Entweder FarCry ist voll davon, oder die Leute haben es einfach generell nicht hingekriegt, eine wirklich sauber laufende Game Engine auf die Beine zu stellen. Da beeindrucken mich mehr die Unreal-Leute, die nach eigener Aussage nie hardwarenahe low-level Hackereien tätigen oder Assemblersprachen benutzen. Hört man von irgendwelchen Problemen mit den Unreal-Engines? Ich nicht und ich finde es auch trotzdem sehr beeindruckend, was man da immer wieder zu sehen kriegt.

    Es gibt einfach Dinge an Game-Engines, die genauso wichtig sind wie tolle Grafik.



  • Optimizer schrieb:

    Ich finde es bedenklich, dass irgendein Augenschmauß, der ein halbes Jahr später sowieso Standard wird, scheinbar wichtiger ist als langfristige Stabilitätsprobleme, die sich daraus ergeben, dass man alles treibernah zusammenhackt um ein halbes Jahr voraus zu sein.

    Ich habe mit keinem Spiel so viele Probleme gehabt wie mit FarCry. Ohne nForce und g-Force Treiber update ging erstmal gar nichts, das Spiel stürzte mit meiner neuen Grafikkarte ständig ab. Es unterstützt ganz offiziell das Minimieren des Programms nicht -> WTF ?!?!?!!!! Natürlich geht es trotzdem, aber nur wenn im Hintergrund ein Fenster offen ist oder man den Task Manager bemüht. Wenn aber gerade Vollmond ist und in China ein Sack Reis umfällt, dann geht es nur 3mal gut, danach sieht man nur noch bunte Kästchen. Kollegen von mir geht es ähnlich, sie berichten über manchmal schwarz bleibende Bilder oder dass sich das Spiel einfach zum Desktop verabschiedet.

    Dann das ewige rumgepatche an dem Spiel und der zweite Patch erstmal wegen unerwarteten Problemen zurückgezogen.

    Ich mag FarCry aber irgendwelche Hackereien, die auf Kosten der Stabilität gehen, sind es echt nicht wert. Entweder FarCry ist voll davon, oder die Leute haben es einfach generell nicht hingekriegt, eine wirklich sauber laufende Game Engine auf die Beine zu stellen. Da beeindrucken mich mehr die Unreal-Leute, die nach eigener Aussage nie hardwarenahe low-level Hackereien tätigen oder Assemblersprachen benutzen. Hört man von irgendwelchen Problemen mit den Unreal-Engines? Ich nicht und ich finde es auch trotzdem sehr beeindruckend, was man da immer wieder zu sehen kriegt.

    Es gibt einfach Dinge an Game-Engines, die genauso wichtig sind wie tolle Grafik.

    es geht hier nur um die grafik und nicht um irgendwelche unwichtigen detailprobleme oder deine unfähigkeit nen spiel zum laufen zu bringen 🙄



  • Optimizer schrieb:

    Es gibt einfach Dinge an Game-Engines, die genauso wichtig sind wie tolle Grafik.

    👍



  • Also ich hatte mit FarCry ganz allgemein keine groesseren Probleme (dh. nicht mehr Grafikprobleme als mit so einigen anderen Spielen), aber Unreal-Games laufen bei mir nicht richtig -> DualCore-System - ob nun Windows, oder Unreal-Engine schuld hat, ist nebensaechlich, da andere Spiele (zB. FarCry) problemlos laufen. 😃 :p

    BTW: Das Abkacken beim Minimieren hat auch nicht CryTek erfunden. 😉



  • Leute! Erst mal warten bis es fertig ist. Dauert immerhin noch gut ein Jahr bis zur Verfoeffentlichung - und bis dahin wird mit Sicherheit noch einiges optimiert werden. Erstmal gibt's halt nur die (imho verdammt guten) Screens zB hier:
    http://www.computerbase.de/news/software/spiele/2006/april/far_cry-nachfolger_neue_bilder_crysis/

    Das wogende Gras und Laub in einem Trailer gehoert mit zum besten was ich je gesehen habe.

    btw:
    auch das neue C&C sieht sehr schick aus:
    http://www.gamestar.de/aktuell/screenshots/PlayerPicList.jsp?galleryId=1416



  • Also ich war jetzt mal zum Vergleich drausen in der echten Welt 😮 und das hat doch etwas anderst ausgeschaut. 😉



  • abbes schrieb:

    http://www.computerbase.de/news/software/spiele/2006/april/far_cry-nachfolger_neue_bilder_crysis/

    Mal ne Frage: Und wer soll das ganze Berechnen? Ich meine:
    Die Systemanforderungen dürften nicht gerade auf denen von Doom 1 liegen. 🙂

    Wie hoch sind die Systemanforderungen?



  • SuperMann schrieb:

    Also ich war jetzt mal zum Vergleich drausen in der echten Welt 😮 und das hat doch etwas anderst ausgeschaut. 😉

    Ich war auch draussen!
    Bin so am Rhein entlang gelaufen und dachte bei mir:
    "Wow! Echt klasse! Das Wasser sieht ja fast aus wie in einem Computerspiel!" 😉

    TGGC|_work schrieb:

    Mal ne Frage: Und wer soll das ganze Berechnen? Ich meine:
    Die Systemanforderungen dürften nicht gerade auf denen von Doom 1 liegen. 🙂
    Wie hoch sind die Systemanforderungen?

    K.A. Ist auf jeden Fall ein DirectX 10 Spiel. Und wenn ich mal daran zurueck denke, wie die ersten DX9 Games auf den ersten DX9 Karten liefen... 😞
    Wir wohl noch 1-2 Generationen dauern, bis man das in voller Pracht spielen kann.
    Andererseits laeuft Oblivion mit einer recht guten Quali auf meinem System mit einer sehr langsamen GeForce 6600 (Non-GT).

    Mal abwarten bis die ersten DX10 Karten erscheinen. Dann kann man die Leistungs bzw. die Anforderung wohl erst richtig einschaetzen.



  • SuperMann schrieb:

    Also ich war jetzt mal zum Vergleich drausen in der echten Welt 😮 und das hat doch etwas anderst ausgeschaut. 😉

    😃 👍

    Also das letze Bild auf computerbase, das mit dem Gesicht,
    das ist schon verd**** gut modelliert. Man erkennt es zwar noch, aber von weitem sieht es echt echt aus.



  • abbes schrieb:

    Andererseits laeuft Oblivion mit einer recht guten Quali auf meinem System mit einer sehr langsamen GeForce 6600 (Non-GT).

    Mein Güte. Man kanns auch übertreiben mit "die Hardware, die ich letztes Jahr hatte, ist dieses Jahr schon antik".

    Ich wäre froh, wenn ich ne Geforce 2 Graka hätte. 🙂



  • Fachmann für Grafik schrieb:

    Falsch Artchi. Sowas wird es NIE geben. NIE!!

    Falsch Fachmann für Grafik. Sowas wird es vielleicht geben. vielleicht.

    Denn : weisst du genug über die zukunft um das wort "nie" zu gebrauchen? Ich denke nicht.....was ist in 100, 1000, 10.000 jahren?



  • Erkenner_der_Wahrheit schrieb:

    Fachmann für Grafik schrieb:

    Falsch Artchi. Sowas wird es NIE geben. NIE!!

    Falsch Fachmann für Grafik. Sowas wird es vielleicht geben. vielleicht.

    Denn : weisst du genug über die zukunft um das wort "nie" zu gebrauchen? Ich denke nicht.....was ist in 100, 1000, 10.000 jahren?

    Die enorme Verbesserung der Computergrafik in den letzten Jahren ist auf das Moore'sche Gesetz zurückzuführen. Diesbezüglich ist es zwar immer ein Streitthema, wie lange dieses Gesetz noch Gültig bleibt, aber 100 Jahre sind weit jenseits der Möglichkeiten. Wenn man bei 100 Jahren von 50 Miniaturisierungsschritten ausgeht und man heutzutage 65nm Prozessoren hat, dann beträgt die charakteristische Strukturbreite in 100 Jahren etwa 0,000002 nm. Wenn man bedenkt, dass Atome eine Größe von einigen 0,1nm besitzen, dann erkennt man schnell, dass dieses Gesetz bei weitem nicht 100 Jahre in die Zukunft fortsetzbar ist. Man hat einfach keine subatomaren Bauteile, mit denen man auf makroskopischer Ebene stabile Strukturen aufbauen kann.

    Ich meine, vor einiger Zeit gelesen zu haben, dass Intel davon ausgeht, dass das Moore'sche Gesetz bis etwa 8nm fortgesetzt werden kann. Das entspricht also nur noch etwa 12 Jahren. (Ich gehe momentan einfach mal von einem Miniaturisierungsschritt in 2 Jahren aus. Von den 18 Monaten ist Intel ja irgendwie auch schon länger weg.)

    Von diesem Standpunkt aus gesehen wird die Leistung von Computern (und natürlich auch Grafikkarten) in absehbarer Zeit an eine Grenze stoßen, nach der eine enorme Verlangsamung der Leistungssteigerung eintreten wird. Sicherlich gibt es Ansätze, auch nach dem Ende der Miniaturisierung die Leistung noch weiter zu steigern, aus meiner Sicht wären zum Beispiel Prozessoren denkbar, die von den Abmessungen her viel weiter in die 3. Dimension gehen. Aber bei solchen Überlegungen sollte man auch die Wirtschaftlichkeit solcher Lösungen bedenken. Bei Ausnutzung des Moore'schen Gesetzes ist der Preis von integrierten Schaltkreisen nur schwach von der zeitlich exponentiell anwachsenden Leistung betroffen.

    Naja, alles in allem gesehen halte ich es für eine realistische Sichtweise, wenn man sagt, dass nicht mehr allzuviel Zeit bleibt, um fotorealistische Computergrafik in Spielen zu erreichen. Man kann dann sicherlich auch zu einer Abschätzung der Realisierbarkeit solch einer Computergrafik kommen. Inwiefern die Einschätzung, die hier im Thread getroffen wurde, nun für den durchschnittlichen Computernutzer zutreffend sein wird, weiß ich allerdings nicht.



  • Bei 3D-Computergrafik muss man allerdings auch den Vorteil sehen, dass es sich um ein nahezu beliebig parallelisierbares Problem handelt. In moderner Grafik macht das Shading den Löwenanteil der Grafikqualität aus, aber genau da spricht theoretisch nichts dagegen, auf eine Grafikkarte 1280x1024 Fragment-Shader zu packen. Halte ich jedenfalls für wesentlich realistischer als 8nm Strukturgröße...



  • Optimizer schrieb:

    Bei 3D-Computergrafik muss man allerdings auch den Vorteil sehen, dass es sich um ein nahezu beliebig parallelisierbares Problem handelt. In moderner Grafik macht das Shading den Löwenanteil der Grafikqualität aus, aber genau da spricht theoretisch nichts dagegen, auf eine Grafikkarte 1280x1024 Fragment-Shader zu packen. Halte ich jedenfalls für wesentlich realistischer als 8nm Strukturgröße...

    full ack.
    Diese entwicklung ist ja schon seit einiger zeit zu beobachten...



  • Optimizer schrieb:

    Bei 3D-Computergrafik muss man allerdings auch den Vorteil sehen, dass es sich um ein nahezu beliebig parallelisierbares Problem handelt. In moderner Grafik macht das Shading den Löwenanteil der Grafikqualität aus, aber genau da spricht theoretisch nichts dagegen, auf eine Grafikkarte 1280x1024 Fragment-Shader zu packen. Halte ich jedenfalls für wesentlich realistischer als 8nm Strukturgröße...

    Ich weiß jetzt nicht genau, wie Du das meinst. Sicherlich kann man in der Computergrafik ne Menge parallelisieren. Aber da braucht man trotzdem entsprechend viele Transistoren. Wenn Du die Anzahl deiner Shader verdoppeln möchtest, dann brauchst Du auch die doppelte Anzahl an Transistoren. ...und wenn Du da so eine Millionen Shader vorschlägst, dann brauchst Du ne ganze Menge Transistoren. Wie willst Du die unterbringen? Auf viele Chips verteilt? Kann man sicherlich machen, aber da kosten dann halt auch 2 Chips das Doppelte von einem Chip. So sehr viele werden sich davon nicht in Computern für den Massenmarkt rechtfertigen lassen. Abgesehen davon brauchen die auch ne Menge Platz.

    Bezüglich der 8nm bin ich ganz optimistisch. Die werden schon erreicht werden und vielleicht kommt man ja auch noch ein bischen weiter, wer weiß.

    ...und BTW: Bei aller Parallelisierung darf man nicht vergessen, dass das auch Konsequenzen hat. Wenn Du viele Recheneinheiten hast, dann wollen die auch mit Daten versorgt werden, mit denen sie arbeiten können. Jetzt ist es aber leider so, dass die Geschwindigkeit des Arbeitsspeichers bei weitem nicht so schnell ansteigt wie die Rechenleistung von Prozessoren usw.. Das heißt, dass man bei vielen Recheneinheiten am Besten auch einen sehr sehr großen Cache benötigt. Und der braucht dann auch wieder massenweise Transistoren. ...hier könnte sich aus meiner Sicht aber einiges tun, wenn bestimmte Technologierichtungen ordentlich in Schwung kommen: Die Spintronik zum Beispiel.



  • Hi,

    ihr mögt alle irgendwo recht haben, aber bedenkt, dass unsere sonne noch so 3-5 milliarden jahre existieren wird, genug zeit also um unsere physikalischen grenzen zu sprengen (wenn nicht von uns, dann vielleicht durch unsere evolutionären nachfolger)

    es ging mir nur um das wort "nie" ....und was wissen wir schon von der ewigkeit ....lol....nicht viel 😉

    selbst 5 milliarden jahre sind soooo verschwindend gering gegenüber "ewig" ...naja...wenn die ganzen sterne echt nur noch solange leuchten können wird es im universum bald sehr sehr finster 😛

    aber naja, vielleicht kommen ja dann die oberfreaks von ebene 42 und zünden die fackeln neu an 🤡



  • Ich denke mit der Parallelisierung ist noch längst nicht das Ende der Fahnenstange erreicht. Die kurze Geschichte der 3D-Karten ist ja atemberaubend. Wenn ich an meinen C64 denke, bei dem es damals super war, daß er 8 "Sprites" über eine Grafik legen konnte, Kollisionserkennung hatte und die 8 Sprites unabhängig voneinander bewegen konnte und das nur 26 Jahre her ist, dann wird es spanned zu sehen, wo die 3D-Karten in nur 13 Jahren stehen werden!

    Der aktuelle Trend zum 2fachen oder gar 4fachen 3D-Karten-Betrieb zeigt ja, wohin weitere Miniaturisierungen führen können (und wohl müssen): Super-GPUs mit ihrem eigenen Speicher, der sie von anderen GPUs und einem Cache unabhängig macht. Wenn man sich Super-GPUs auf einem Chip vorstellt, kann man die auch in der Höhe übereinanderlegen und spart so schon einiges an Platz und Zugriffszeit. Als Bus kann man sich eine Art "High-Speed-LAN" vorstellen, mit dem alle GPUs zur Datenausgabe an den Videospeicher herankommen.

    Dann darf man nicht vergessen, daß auch Spezialisierungen möglich sind. Im aktuellen C't ist ein Bericht über Prozessoren, welche physikalische Berechnungen hochoptimiert vornehmen. Sowas kann man sich auch bei den GPUs vorstellen: Effekte, die aktuell per Shader bewirkt werden, könnten auch teilweise hart verdrahtet werden, was eine weitere Leistungssteigerung bewirkt.
    Nicht einzelne Bildabschnitte werden zukünftig von GPUs gerendert, sondern einzelne Objekte, die dann wie ein Mosaik als Gemeinschaftswerk in's VideoRAM geschrieben werden (Videokodierung zeigt ja, wie man dadurch auch Daten [und damit Rechenpower] sparen kann; indem man sie wiederverwendet). Und je mehr "Super-GPUs", desto mehr bzw. detailreichere Objekte...

    Ob man für die Stromversorgung dann zusätzlich noch wahlweise einen Biodiesel-Generator, ein Windrad oder Sonnekollektor im Garten zum PC dazukaufen muß, ist aber die Frage... 🤡

    Insofern denke ich, daß "realitätsnahe Spiele" möglich sein werden. Aber unter 10-15 Jahren sicherlich nicht und fotorealistisch wird es auf absehbare Zeit nicht geben (höchstens bei Weltraum-/Unterwasser-Spielen, weil das viel simpler ist und keiner weiß, das die SciFi Filme kein reales Bild vom Blick im All vermitteln...). Ansonsten ist unsere Welt zu komplex... Beispiel: lange Haare wehen im böigen Wind bei wechselnden Lichtverhältnissen und das bei Nahaufnahme...



  • Das Moore'sche Gesetz gilt nur, weil sich die Chiphersteller daran gehalten haben, was ich aber eher auf den Konkurrenzdruck zurückführen würde. Ich halte so Aussagen wie "Die Komplexität wird sich alle 24 Monate verdoppel" eher für Bla Bla und nicht für ein Gesetz.



  • Man sollte auch nicht vergessen, dass nicht alles von der Grafik(karte) abhaengt. Um mal die wehenden Haare und Lichtverhaeltnisse aufzugreifen: Diese lassen sich durchaus von einer Physikkarte berechnen. Die GraKa selbst muss die Daten dann "nur" noch darstellen. Und wenn man sich mal das modellierte Gesicht mit der CryEngine2 anschaut (url oben), dann sieht man, dass das durchaus schon moeglich ist.
    Ausserdem fehlt mir hier der Bezug zu neuen Technologien. Als zB damals die Texturkomprimierung eingefuehrt wurde, war das ein riessen Schritt vorwaerts was die Qualitaet betrifft - bei sehr geringen Leistungseinbussen.
    Morgen bietet DX10 zB frei programmierbare Shader (ich meine hiermit die Unified Shader), die nochmal einen Schub nach vorn bringen duerften.
    Ich wage deshalb zu bezweifeln, dass die Qualitaets und Leistungssteigerungen alleine auf das Moorsche Gesetz zurueckzufuehren sind.



  • Gregor schrieb:

    Ich weiß jetzt nicht genau, wie Du das meinst. Sicherlich kann man in der Computergrafik ne Menge parallelisieren. Aber da braucht man trotzdem entsprechend viele Transistoren. Wenn Du die Anzahl deiner Shader verdoppeln möchtest, dann brauchst Du auch die doppelte Anzahl an Transistoren. ...und wenn Du da so eine Millionen Shader vorschlägst, dann brauchst Du ne ganze Menge Transistoren. Wie willst Du die unterbringen? Auf viele Chips verteilt?

    Jo. Auf der Grafikkarte ist noch genug Platz. 😉 Klar wird es teuerer, aber der allgemeine Trend, dass man mehr Rechenleistung für weniger Geld bekommen wird, wird dadurch sicherlich nicht ausgehebelt.

    Bezüglich der 8nm bin ich ganz optimistisch. Die werden schon erreicht werden und vielleicht kommt man ja auch noch ein bischen weiter, wer weiß.

    Ich nicht. Wenn du die Strukturen weiter verkleinerst und die selbe Schaltung auf entsprechend kleineren Raum packst, verbrauchst du quadratisch weniger Platz bei exponentiell ansteigender Hitzeentwicklung pro Flächeneinheit. Kleinere Strukturgrößen sind immer gut, aber wenn du dafür dichter packst, wird es erstmal schlimmer. Die Grenzen der heutigen Elektronik sind wohl schon sehr bald erreicht, ich erkenne keine Anzeichen dafür, dass wir das Hitzeproblem in den Griff kriegen werden. Das Taktrennen ist schon abgebrochen worden (Intel wollte erst noch auf 8 GHz), weil nicht mehr schaffbar. Jetzt lautet das nächste Ziel 20+ Kerne mit 80+ Hardware Threads.

    Ich bezweifle zwar nicht, dass man 8nm Strukturen fertigen wird können, ich bezweifle aber sehr, dass die riesige Parallelisierung die zukünftig stattfinden wird, auf einem einzigen Chip, vergleichbar mit den heutigen, möglich sein wird. Wollen wir eine Wette abschließen? Wie lange wird es wohl dauern, bis mehr als ein physikalischer Prozessor für den Normalanwender Standard sind?

    ..und BTW: Bei aller Parallelisierung darf man nicht vergessen, dass das auch Konsequenzen hat. Wenn Du viele Recheneinheiten hast, dann wollen die auch mit Daten versorgt werden, mit denen sie arbeiten können. Jetzt ist es aber leider so, dass die Geschwindigkeit des Arbeitsspeichers bei weitem nicht so schnell ansteigt wie die Rechenleistung von Prozessoren usw.. Das heißt, dass man bei vielen Recheneinheiten am Besten auch einen sehr sehr großen Cache benötigt. Und der braucht dann auch wieder massenweise Transistoren.

    Wofür genau meinst du braucht man einen riesigen Cache? Die Fragmentshader teilen sich doch jetzt schon alle Daten wie Texturen, Vertexdaten, ... muss da irgendwas mehr werden, wenn ich die Anzahl der Shader erhöhe? Vielleicht übersehe ich jetzt aber auch was.

    ...hier könnte sich aus meiner Sicht aber einiges tun, wenn bestimmte Technologierichtungen ordentlich in Schwung kommen: Die Spintronik zum Beispiel.

    Ja, hoffen wir es, das wäre wirklich parallelisierung pur. Gibt es schon Shading-Verfahren, die die Eigenschaften solcher Rechenmaschinen ausnutzen könnten?


Anmelden zum Antworten