Crysis: Fotorealistisches Spiel? Hammer!
-
Fachmann für Grafik schrieb:
Falsch Artchi. Sowas wird es NIE geben. NIE!!
Falsch Fachmann für Grafik. Sowas wird es vielleicht geben. vielleicht.
Denn : weisst du genug über die zukunft um das wort "nie" zu gebrauchen? Ich denke nicht.....was ist in 100, 1000, 10.000 jahren?
-
Erkenner_der_Wahrheit schrieb:
Fachmann für Grafik schrieb:
Falsch Artchi. Sowas wird es NIE geben. NIE!!
Falsch Fachmann für Grafik. Sowas wird es vielleicht geben. vielleicht.
Denn : weisst du genug über die zukunft um das wort "nie" zu gebrauchen? Ich denke nicht.....was ist in 100, 1000, 10.000 jahren?
Die enorme Verbesserung der Computergrafik in den letzten Jahren ist auf das Moore'sche Gesetz zurückzuführen. Diesbezüglich ist es zwar immer ein Streitthema, wie lange dieses Gesetz noch Gültig bleibt, aber 100 Jahre sind weit jenseits der Möglichkeiten. Wenn man bei 100 Jahren von 50 Miniaturisierungsschritten ausgeht und man heutzutage 65nm Prozessoren hat, dann beträgt die charakteristische Strukturbreite in 100 Jahren etwa 0,000002 nm. Wenn man bedenkt, dass Atome eine Größe von einigen 0,1nm besitzen, dann erkennt man schnell, dass dieses Gesetz bei weitem nicht 100 Jahre in die Zukunft fortsetzbar ist. Man hat einfach keine subatomaren Bauteile, mit denen man auf makroskopischer Ebene stabile Strukturen aufbauen kann.
Ich meine, vor einiger Zeit gelesen zu haben, dass Intel davon ausgeht, dass das Moore'sche Gesetz bis etwa 8nm fortgesetzt werden kann. Das entspricht also nur noch etwa 12 Jahren. (Ich gehe momentan einfach mal von einem Miniaturisierungsschritt in 2 Jahren aus. Von den 18 Monaten ist Intel ja irgendwie auch schon länger weg.)
Von diesem Standpunkt aus gesehen wird die Leistung von Computern (und natürlich auch Grafikkarten) in absehbarer Zeit an eine Grenze stoßen, nach der eine enorme Verlangsamung der Leistungssteigerung eintreten wird. Sicherlich gibt es Ansätze, auch nach dem Ende der Miniaturisierung die Leistung noch weiter zu steigern, aus meiner Sicht wären zum Beispiel Prozessoren denkbar, die von den Abmessungen her viel weiter in die 3. Dimension gehen. Aber bei solchen Überlegungen sollte man auch die Wirtschaftlichkeit solcher Lösungen bedenken. Bei Ausnutzung des Moore'schen Gesetzes ist der Preis von integrierten Schaltkreisen nur schwach von der zeitlich exponentiell anwachsenden Leistung betroffen.
Naja, alles in allem gesehen halte ich es für eine realistische Sichtweise, wenn man sagt, dass nicht mehr allzuviel Zeit bleibt, um fotorealistische Computergrafik in Spielen zu erreichen. Man kann dann sicherlich auch zu einer Abschätzung der Realisierbarkeit solch einer Computergrafik kommen. Inwiefern die Einschätzung, die hier im Thread getroffen wurde, nun für den durchschnittlichen Computernutzer zutreffend sein wird, weiß ich allerdings nicht.
-
Bei 3D-Computergrafik muss man allerdings auch den Vorteil sehen, dass es sich um ein nahezu beliebig parallelisierbares Problem handelt. In moderner Grafik macht das Shading den Löwenanteil der Grafikqualität aus, aber genau da spricht theoretisch nichts dagegen, auf eine Grafikkarte 1280x1024 Fragment-Shader zu packen. Halte ich jedenfalls für wesentlich realistischer als 8nm Strukturgröße...
-
Optimizer schrieb:
Bei 3D-Computergrafik muss man allerdings auch den Vorteil sehen, dass es sich um ein nahezu beliebig parallelisierbares Problem handelt. In moderner Grafik macht das Shading den Löwenanteil der Grafikqualität aus, aber genau da spricht theoretisch nichts dagegen, auf eine Grafikkarte 1280x1024 Fragment-Shader zu packen. Halte ich jedenfalls für wesentlich realistischer als 8nm Strukturgröße...
full ack.
Diese entwicklung ist ja schon seit einiger zeit zu beobachten...
-
Optimizer schrieb:
Bei 3D-Computergrafik muss man allerdings auch den Vorteil sehen, dass es sich um ein nahezu beliebig parallelisierbares Problem handelt. In moderner Grafik macht das Shading den Löwenanteil der Grafikqualität aus, aber genau da spricht theoretisch nichts dagegen, auf eine Grafikkarte 1280x1024 Fragment-Shader zu packen. Halte ich jedenfalls für wesentlich realistischer als 8nm Strukturgröße...
Ich weiß jetzt nicht genau, wie Du das meinst. Sicherlich kann man in der Computergrafik ne Menge parallelisieren. Aber da braucht man trotzdem entsprechend viele Transistoren. Wenn Du die Anzahl deiner Shader verdoppeln möchtest, dann brauchst Du auch die doppelte Anzahl an Transistoren. ...und wenn Du da so eine Millionen Shader vorschlägst, dann brauchst Du ne ganze Menge Transistoren. Wie willst Du die unterbringen? Auf viele Chips verteilt? Kann man sicherlich machen, aber da kosten dann halt auch 2 Chips das Doppelte von einem Chip. So sehr viele werden sich davon nicht in Computern für den Massenmarkt rechtfertigen lassen. Abgesehen davon brauchen die auch ne Menge Platz.
Bezüglich der 8nm bin ich ganz optimistisch. Die werden schon erreicht werden und vielleicht kommt man ja auch noch ein bischen weiter, wer weiß.
...und BTW: Bei aller Parallelisierung darf man nicht vergessen, dass das auch Konsequenzen hat. Wenn Du viele Recheneinheiten hast, dann wollen die auch mit Daten versorgt werden, mit denen sie arbeiten können. Jetzt ist es aber leider so, dass die Geschwindigkeit des Arbeitsspeichers bei weitem nicht so schnell ansteigt wie die Rechenleistung von Prozessoren usw.. Das heißt, dass man bei vielen Recheneinheiten am Besten auch einen sehr sehr großen Cache benötigt. Und der braucht dann auch wieder massenweise Transistoren. ...hier könnte sich aus meiner Sicht aber einiges tun, wenn bestimmte Technologierichtungen ordentlich in Schwung kommen: Die Spintronik zum Beispiel.
-
Hi,
ihr mögt alle irgendwo recht haben, aber bedenkt, dass unsere sonne noch so 3-5 milliarden jahre existieren wird, genug zeit also um unsere physikalischen grenzen zu sprengen (wenn nicht von uns, dann vielleicht durch unsere evolutionären nachfolger)
es ging mir nur um das wort "nie" ....und was wissen wir schon von der ewigkeit ....lol....nicht viel
selbst 5 milliarden jahre sind soooo verschwindend gering gegenüber "ewig" ...naja...wenn die ganzen sterne echt nur noch solange leuchten können wird es im universum bald sehr sehr finster
aber naja, vielleicht kommen ja dann die oberfreaks von ebene 42 und zünden die fackeln neu an
-
Ich denke mit der Parallelisierung ist noch längst nicht das Ende der Fahnenstange erreicht. Die kurze Geschichte der 3D-Karten ist ja atemberaubend. Wenn ich an meinen C64 denke, bei dem es damals super war, daß er 8 "Sprites" über eine Grafik legen konnte, Kollisionserkennung hatte und die 8 Sprites unabhängig voneinander bewegen konnte und das nur 26 Jahre her ist, dann wird es spanned zu sehen, wo die 3D-Karten in nur 13 Jahren stehen werden!
Der aktuelle Trend zum 2fachen oder gar 4fachen 3D-Karten-Betrieb zeigt ja, wohin weitere Miniaturisierungen führen können (und wohl müssen): Super-GPUs mit ihrem eigenen Speicher, der sie von anderen GPUs und einem Cache unabhängig macht. Wenn man sich Super-GPUs auf einem Chip vorstellt, kann man die auch in der Höhe übereinanderlegen und spart so schon einiges an Platz und Zugriffszeit. Als Bus kann man sich eine Art "High-Speed-LAN" vorstellen, mit dem alle GPUs zur Datenausgabe an den Videospeicher herankommen.
Dann darf man nicht vergessen, daß auch Spezialisierungen möglich sind. Im aktuellen C't ist ein Bericht über Prozessoren, welche physikalische Berechnungen hochoptimiert vornehmen. Sowas kann man sich auch bei den GPUs vorstellen: Effekte, die aktuell per Shader bewirkt werden, könnten auch teilweise hart verdrahtet werden, was eine weitere Leistungssteigerung bewirkt.
Nicht einzelne Bildabschnitte werden zukünftig von GPUs gerendert, sondern einzelne Objekte, die dann wie ein Mosaik als Gemeinschaftswerk in's VideoRAM geschrieben werden (Videokodierung zeigt ja, wie man dadurch auch Daten [und damit Rechenpower] sparen kann; indem man sie wiederverwendet). Und je mehr "Super-GPUs", desto mehr bzw. detailreichere Objekte...Ob man für die Stromversorgung dann zusätzlich noch wahlweise einen Biodiesel-Generator, ein Windrad oder Sonnekollektor im Garten zum PC dazukaufen muß, ist aber die Frage...
Insofern denke ich, daß "realitätsnahe Spiele" möglich sein werden. Aber unter 10-15 Jahren sicherlich nicht und fotorealistisch wird es auf absehbare Zeit nicht geben (höchstens bei Weltraum-/Unterwasser-Spielen, weil das viel simpler ist und keiner weiß, das die SciFi Filme kein reales Bild vom Blick im All vermitteln...). Ansonsten ist unsere Welt zu komplex... Beispiel: lange Haare wehen im böigen Wind bei wechselnden Lichtverhältnissen und das bei Nahaufnahme...
-
Das Moore'sche Gesetz gilt nur, weil sich die Chiphersteller daran gehalten haben, was ich aber eher auf den Konkurrenzdruck zurückführen würde. Ich halte so Aussagen wie "Die Komplexität wird sich alle 24 Monate verdoppel" eher für Bla Bla und nicht für ein Gesetz.
-
Man sollte auch nicht vergessen, dass nicht alles von der Grafik(karte) abhaengt. Um mal die wehenden Haare und Lichtverhaeltnisse aufzugreifen: Diese lassen sich durchaus von einer Physikkarte berechnen. Die GraKa selbst muss die Daten dann "nur" noch darstellen. Und wenn man sich mal das modellierte Gesicht mit der CryEngine2 anschaut (url oben), dann sieht man, dass das durchaus schon moeglich ist.
Ausserdem fehlt mir hier der Bezug zu neuen Technologien. Als zB damals die Texturkomprimierung eingefuehrt wurde, war das ein riessen Schritt vorwaerts was die Qualitaet betrifft - bei sehr geringen Leistungseinbussen.
Morgen bietet DX10 zB frei programmierbare Shader (ich meine hiermit die Unified Shader), die nochmal einen Schub nach vorn bringen duerften.
Ich wage deshalb zu bezweifeln, dass die Qualitaets und Leistungssteigerungen alleine auf das Moorsche Gesetz zurueckzufuehren sind.
-
Gregor schrieb:
Ich weiß jetzt nicht genau, wie Du das meinst. Sicherlich kann man in der Computergrafik ne Menge parallelisieren. Aber da braucht man trotzdem entsprechend viele Transistoren. Wenn Du die Anzahl deiner Shader verdoppeln möchtest, dann brauchst Du auch die doppelte Anzahl an Transistoren. ...und wenn Du da so eine Millionen Shader vorschlägst, dann brauchst Du ne ganze Menge Transistoren. Wie willst Du die unterbringen? Auf viele Chips verteilt?
Jo. Auf der Grafikkarte ist noch genug Platz.
Klar wird es teuerer, aber der allgemeine Trend, dass man mehr Rechenleistung für weniger Geld bekommen wird, wird dadurch sicherlich nicht ausgehebelt.
Bezüglich der 8nm bin ich ganz optimistisch. Die werden schon erreicht werden und vielleicht kommt man ja auch noch ein bischen weiter, wer weiß.
Ich nicht. Wenn du die Strukturen weiter verkleinerst und die selbe Schaltung auf entsprechend kleineren Raum packst, verbrauchst du quadratisch weniger Platz bei exponentiell ansteigender Hitzeentwicklung pro Flächeneinheit. Kleinere Strukturgrößen sind immer gut, aber wenn du dafür dichter packst, wird es erstmal schlimmer. Die Grenzen der heutigen Elektronik sind wohl schon sehr bald erreicht, ich erkenne keine Anzeichen dafür, dass wir das Hitzeproblem in den Griff kriegen werden. Das Taktrennen ist schon abgebrochen worden (Intel wollte erst noch auf 8 GHz), weil nicht mehr schaffbar. Jetzt lautet das nächste Ziel 20+ Kerne mit 80+ Hardware Threads.
Ich bezweifle zwar nicht, dass man 8nm Strukturen fertigen wird können, ich bezweifle aber sehr, dass die riesige Parallelisierung die zukünftig stattfinden wird, auf einem einzigen Chip, vergleichbar mit den heutigen, möglich sein wird. Wollen wir eine Wette abschließen? Wie lange wird es wohl dauern, bis mehr als ein physikalischer Prozessor für den Normalanwender Standard sind?
..und BTW: Bei aller Parallelisierung darf man nicht vergessen, dass das auch Konsequenzen hat. Wenn Du viele Recheneinheiten hast, dann wollen die auch mit Daten versorgt werden, mit denen sie arbeiten können. Jetzt ist es aber leider so, dass die Geschwindigkeit des Arbeitsspeichers bei weitem nicht so schnell ansteigt wie die Rechenleistung von Prozessoren usw.. Das heißt, dass man bei vielen Recheneinheiten am Besten auch einen sehr sehr großen Cache benötigt. Und der braucht dann auch wieder massenweise Transistoren.
Wofür genau meinst du braucht man einen riesigen Cache? Die Fragmentshader teilen sich doch jetzt schon alle Daten wie Texturen, Vertexdaten, ... muss da irgendwas mehr werden, wenn ich die Anzahl der Shader erhöhe? Vielleicht übersehe ich jetzt aber auch was.
...hier könnte sich aus meiner Sicht aber einiges tun, wenn bestimmte Technologierichtungen ordentlich in Schwung kommen: Die Spintronik zum Beispiel.
Ja, hoffen wir es, das wäre wirklich parallelisierung pur. Gibt es schon Shading-Verfahren, die die Eigenschaften solcher Rechenmaschinen ausnutzen könnten?
-
Also wer o.g. Szenen nicht mehr von der Realität unterscheiden kann, der hat imho ein Wahrnehmungsproblem und sollte sich mal wieder ein bisschen mehr in der Realität aufhalten.
Gerade durch das HDRI-Rendering entsteht oft ein Seheindruck, der absolut künstlich wirkt.Umgekehrt gehts übrigens auch. Mit Tools wie Photomatix kann man nur durch Änderung der Tonwerte erreichen, dass ein Foto wie gerendert oder gezeichnet ausschaut.
-
@Optimizer: Es gab schon immer Vorstöße, mehrere Grafikkarten oder mehrere Prozessoren in Normalnutzer-PCs zu etablieren. Vor einigen Jahren zum Beispiel mit den Voodoo-Karten. Hat sich das durchgesetzt? Nein. Genauso wird es jetzt mit 4 NVidia-Karten im SLI-Verbund sein. Einige Hardcore-Gamer werden sich soetwas kaufen, aber für den Normalnutzer ist das nichts. Warum? Weil 4 Grafikkarten den 4-fachen Preis bedeuten. Und genauso ist es mit "vielen Chips" auf einer Karte. Das, was kostet, ist die Chipfläche. Wenn Du die doppelte Chipfläche brauchst, wird auch der Preis entsprechend ansteigen. ...von kleineren Effekten abgesehen.
Und wenn Du sagst:
Klar wird es teuerer, aber der allgemeine Trend, dass man mehr Rechenleistung für weniger Geld bekommen wird, wird dadurch sicherlich nicht ausgehebelt.
Dann IST das das Moore'sche Gesetz. Du kriegst nur deshalb immer mehr Rechenleistung für das gleiche Geld, weil immer mehr Bauteile auf der gleichen Chipfläche intergiert werden. Wenn das Moore'sche Gesetz als Markttrend seine Gültigkeit verliert, wird es auch nicht mehr "immer mehr Leistung für das gleiche Geld" geben. ...und dann wird man sich auch sehr genau überlegen, ob der Normalnutzer eigentlich immer mehr Leistung braucht und inwiefern das die stark steigenden Kosten für die entsprechende Vervielfältigung bestimmter Komponenten in einem Rechner rechtfertigt. Oder hast Du zu Hause nen Server mit 64 CPUs stehen? Das wäre ja in etwa das, was einer Verfielfätigung der CPUs in PCs entsprechen würde. Ich vermute mal, Du hast das nicht, weil es Dir zu teuer sein wird. Warum glaubst Du, dass ein Normalnutzer in Zukunft soviel Geld für einen Rechner ausgeben möchte?
Das mit dem Cache war so gemeint, dass man die Daten aus normalem Arbeitsspeicher in Form von DRAMs bei weitem nicht mit der Geschwindigkeit rausholen kann, wie aus SRAMs, die normalerweise für Caches genutzt werden. Hinzu kommt, dass die Geschwindigkeit, mit der Du Daten aus einem Speicher holen kannst von der Entfernung dieses Speichers von der Recheneinheit abhängt. Wenn Du aber sehr viele Recheneinheiten hast, dann müssen die auch alle mit Daten versorgt werden. Du brauchst dann eine enorme Erhöhung der Bandbreite vom Speicher zu den Recheneinheiten. ...oder diese Bandbreite wird zum limitierenden Faktor. ...man Bedenke, dass die Datenmenge für fotorealistische Daten wahrscheinlich enorm ansteigen muss. So: Wenn Du deine Recheneinheiten jetzt über eine große Fläche verteilst, dann steigt damit automatisch die Entfernung zwischen Speicher und Recheneinheiten an. Das ist somit sogar kontraproduktiv.
-
Die Frage ist halt, wie realistisch ein Digitalphoto überhaupt noch ist?
Das wird ja auch "errechnet"...ach wie schön war die gute "alte" Silberkörnung, das Spiel mit der Enwicklungszeit und das Abwedeln
-
1310-Logik schrieb:
Die Frage ist halt, wie realistisch ein Digitalphoto überhaupt noch ist?
Das wird ja auch "errechnet"...ach wie schön war die gute "alte" Silberkörnung, das Spiel mit der Enwicklungszeit und das Abwedeln
Zumindest geht ein Digitalfoto nicht erst durch den Kopf eines Menschen, bevor es auf der Speicherkarte landet. Außerdem liegt der fotografierten Szene kein mathematisches Modell zugrunde, welches beim Rendern meist "zu perfekt" ist, um realistisch zu sein. Aber immerhin haben die Designer inzwischen erkannt, dass ein Gesicht Poren, Unreinheiten, Härchen, Falten, Asymmetrien usw. besitzen muss, um als realistisch empfunden zu werden.
-
Optimizer schrieb:
Bezüglich der 8nm bin ich ganz optimistisch. Die werden schon erreicht werden und vielleicht kommt man ja auch noch ein bischen weiter, wer weiß.
Ich nicht. Wenn du die Strukturen weiter verkleinerst und die selbe Schaltung auf entsprechend kleineren Raum packst, verbrauchst du quadratisch weniger Platz bei exponentiell ansteigender Hitzeentwicklung pro Flächeneinheit. Kleinere Strukturgrößen sind immer gut, aber wenn du dafür dichter packst, wird es erstmal schlimmer. Die Grenzen der heutigen Elektronik sind wohl schon sehr bald erreicht, ich erkenne keine Anzeichen dafür, dass wir das Hitzeproblem in den Griff kriegen werden. Das Taktrennen ist schon abgebrochen worden (Intel wollte erst noch auf 8 GHz), weil nicht mehr schaffbar. Jetzt lautet das nächste Ziel 20+ Kerne mit 80+ Hardware Threads.
Ich denke, dass uns die Nanotechnologie gerade in diesem Bereich noch einige Ueberaschungen bietet (Stichwort: Nanotubes).
-
Ein Digitalfoto wird nicht errechnet. Es wird lediglich eintreffendes Licht auf einer entsprechenden Fläche gemessen und in digitale Signal umgewandelt. Da wird nichts "gerechnet". Höchstens bei der Weiterverarbeitung. Die Rohdaten stammen aber aus der realen Welt und nicht aus einer 3d Engine, die nicht fotorealistisch arbeiten kann. Schon deshalb nicht, weil allein die softwareseitige Umsetzung (von der Hardware mal abgesehen) aller Gesetzmäßigkeiten, Interaktionen, Bewegungsmöglichkeiten etc. so komplex sind, daß es auf eine Simulation der realen Welt hinauslaufen müßte. Hinzu käme der "Einrichtungsaufwand", mit der solche "Weltausschnitte" erstellt werden müßten.
Mein Beispiel mit den wehenden Haaren, im Hintergrund rauschen die Blätter in den Windböen mit, ein Vogel fliegt vorbei und setzt sich auf einen dünnen Ast, der entsprechend nachfedert... Natürlich kann man sowas nachbilden. Aber nicht so, daß es auch nur entfernt realistisch wirkt. Blätterrascheln in aktuellen 3D Welten ist nicht gerade sehr realistisch. Man sieht nur, daß sich was immer gleich bewegt. Wehende Haare auf Menschen habe ich in Egoshootern noch gar nicht gesehen... Da helfen auch Texturen nicht weiter, weil die immer statisch sind, egal, wie ich sie auf einer Fläche ziehe, stauche oder verdrehe.
Zur Hardwarediskussion: man muß auch das Thema Massenproduktion berücksichtigen. Die Verkleinerung der Die's ist nur die eine Sache (für Ausbeute und Taktfrequenz). Würden heutige Prozessoren (in Verbindung mit einem Monopol) nur in kleiner Auflage produziert werden, wären auch diese sehr viel teurer. Aktuelle Prozessoren & vor allem GPUs kosten auch wegen der Entwicklung und der relativ kleinen Menge viel, weil ja ständig die Herstellung aufgrund der Entwicklung / Nachfrage angepaßt werden muß. Das natürlich in Verbindung mit immer verbesserten Herstellungstechniken, was ja alles vom Käufer mitbezahlt werden muß. Spuckt man aber über längere Zeiträume massenhaft Stückzahlen aus, verteilen sich die Entwicklungs- und Herstellungskosten auf eine viel breitere Basis, die man als Spielraum hat, um statt 4 GPUs dann eben 16 bei ähnlichen Preisen zu erhalten. Hinzu kommt dann die Möglichkeit, daß mehr Anbieter auftreten, was ebenfalls die Kosten drückt und auch Innovationen fördert.
Und mit dem angedeuteten Prinzip der "Super-GPUs" und der Objektorientierung (also neuen Ansätzen, eine 3D Welt zu beschreiben & zu erzeugen), läßt sich sicherlich auch noch ettliches Potenzial gewinnen.
-
Thomas++ schrieb:
Also wer o.g. Szenen nicht mehr von der Realität unterscheiden kann, der hat imho ein Wahrnehmungsproblem und sollte sich mal wieder ein bisschen mehr in der Realität aufhalten.
Gerade durch das HDRI-Rendering entsteht oft ein Seheindruck, der absolut künstlich wirkt.Umgekehrt gehts übrigens auch. Mit Tools wie Photomatix kann man nur durch Änderung der Tonwerte erreichen, dass ein Foto wie gerendert oder gezeichnet ausschaut.
#2
die grafik ist zwar echt hammer und man kann auch ziemlich stolz sein, dass die aus deutschland kommt (
), aber mit fotorealistik hat das nun wirklich nichts zu tun. alles sieht mehr oder weniger noch wie plastikspielzeug aus und die effekte sind viel zu übertrieben eingesetzt (ne stoffjacke leuchtet wie ne neon röhre wenn sie von licht angestrahlt wird)
-
Ich denke das größte problem kommt nicht bei der hardware sondern bei der software auf uns zu, wer soll den sowas überhaupt programmieren? Sciher mit der entsprechenden engine kann man seh viel ereichen und viele vorgänge lassen sich automatisieren aber auch das will erstmal programmiert sein.
Denkt mal darüber nach was eine reale Welt alles so hat! Alleine einen Wind zu programmieren der die haare und die kleidung when lässt, natürlich abhänig aus welcher richtung dieser komtm und wie schnell man sich bewegt. Zu einer realen welt würden auch menschen gebraucht die ihre mimik verändern, lachen,reden...
Was ich bisher in keinem spiel gesehen habe ist z.B. die zerstörung von der umgebung,d.h. löcher in wände zu spregen oder schränke vollständig zu zerschießen.
Natürlich gibt es in neueren spiele das ganze schon als pseudoeffekt nur wird das loch in der wand dort immer gleich und einen schranke kann man auch nur in seine einzelnen bretter zerschießen.Zu einer realen welt gehört also noch viel viel viel mehr!
Ich bezweifle nciht das es möglich wäre solche effekte zu programmieren, jedoch bräuchte man dazu jahre und man hätte immernoch nciht alle aspekte der realen welt untergebracht.
Oder habt ihr z.B. schonmal einen bot gesehen der scih seinen fuß verstaucht hat weil er ungeschickt aufgekommen ist? Nein? In der realität passiert sowas andauernd.Das Problem bei der ganzen sache ist also das man zwar so ziemlich alles programmieren kann, baer man kann nciht an alles denken was passiert wenn man dies oder das macht. In einer realen welt passiert es einfach, in einem computerspiel muss das erstmal vorgesehen werden.
-
Storm.Xapek.de schrieb:
Denkt mal darüber nach was eine reale Welt alles so hat! Alleine einen Wind zu programmieren der die haare und die kleidung when lässt, natürlich abhänig aus welcher richtung dieser komtm und wie schnell man sich bewegt. Zu einer realen welt würden auch menschen gebraucht die ihre mimik verändern, lachen,reden...
Das sind aber vom Thema Fotorealismus völlig unabhängige Dinge. Wobei es schon einige gute Implementierungen für Kleidung im Wind gibt.
-
Storm.Xapek.de schrieb:
Zu einer realen welt gehört also noch viel viel viel mehr!
Ich bezweifle nciht das es möglich wäre solche effekte zu programmieren, jedoch bräuchte man dazu jahre und man hätte immernoch nciht alle aspekte der realen welt untergebracht.
Oder habt ihr z.B. schonmal einen bot gesehen der scih seinen fuß verstaucht hat weil er ungeschickt aufgekommen ist? Nein? In der realität passiert sowas andauernd.naja... übertreib es mal nicht zu sehr... das sind alles dinge die das spieldesign übernimmt und hat rein gar nichts mit fotorealistik zu tun. es geht in diesem thread ja nicht darum die welt perfekt zu simulieren, sondern die grafik möglichst echt aussehen zu lassen. ausserdem bin ich mir nicht wirklich sicher ob einer nen bot will, der sich ab und an den fuß verstaucht oder sich das bein bricht..