Software Renderer
-
mad_martin schrieb:
Nunja, es liegt wohl nicht am Stromverbrauch, dass Intel Marktführer ist, sondern an der Tatsache, dass ihre Grafikchips in tausenden Bürorechnern und Laptops eingebaut sind.
Siehst du den Zusammenhang?
Allerdings sind diese Grafikchips doch stark limitiert, was ihre Leistung im 3D-Bereich angeht. Und da sind AMD/ATI und nVidia dann doch deutlich führend. Oder kennst du einen Intel Grafikchip, der mit der Leistung aktueller GeForce bzw. Radeons mithalten kann? Ich nicht.
Das ist keine Frage der Technik, sondern ob ich 40 Shader auf einen Chip packe oder 4. Bei dem Punkt mit der Zielgruppe hast du Recht, deshalb sind die Chips eben kleiner gehalten. Aber davon kannst du nicht auf einen technologischen Rückstand schließen. Und das wollte ich sagen.
-
TomasRiker schrieb:
Man darf aber nicht vergessen, dass Raytracing einige der Probleme löst, die mit Rasterizern grundsätzlich nicht lösbar sind. Irgendwann wird man mit Rasterizern einfach nichts Neues mehr machen können, und dann eröffnet Raytracing einen ganzen Haufen neuer Möglichkeiten.
Raytracing löst ja auch nicht gerade alle Probleme, die die Menschheit bei der Computergrafik hat (von dem Performance-Problem mal abgesehen). Und was ich übrigens bei dem Link sehr komisch fand, war der Teil mit dem "durch eine Gittertextur durchschießen". Sind das die neuen Möglichkeiten? Was ist denn das für ein Quatsch? Soll ich jetzt den Renderer fragen, ob der Schuss durchgeht? Und wie schaut es dann bei einer anderen Auflösung aus?

-
Optimizer schrieb:
Allerdings sind diese Grafikchips doch stark limitiert, was ihre Leistung im 3D-Bereich angeht. Und da sind AMD/ATI und nVidia dann doch deutlich führend. Oder kennst du einen Intel Grafikchip, der mit der Leistung aktueller GeForce bzw. Radeons mithalten kann? Ich nicht.
Das ist keine Frage der Technik, sondern ob ich 40 Shader auf einen Chip packe oder 4. Bei dem Punkt mit der Zielgruppe hast du Recht, deshalb sind die Chips eben kleiner gehalten. Aber davon kannst du nicht auf einen technologischen Rückstand schließen. Und das wollte ich sagen.
Wenn es für Intel technisch kein Problem wäre, vergleichbare High-End-Grafikchips zu entwickeln und verkaufen, warum tun sie es nicht? Sag jetzt nicht, dass ihnen ihr bisheriger Markt reicht. So läuft das nicht bei diesen großen Konzernen. Wenn die eine Chance sehen, noch mehr aus einem Sektor rauszuholen, dann machen die das.
Wenn man mehr als 80% des Marktes an CPUs hat, sollte man genug Geld haben, um nebenher noch in die High-End-Grafik einzusteigen. Wenn sie es nicht tuen, liegt das bestimmt nicht daran, dass sie keine Lust haben, sondern sich bewusst sind, dass sie mit den dortigen Marktführern nicht mithalten können, ohne zuvor deren Entwicklungsabteilung abwerben zu müssen.
Meine Meinung der Dinge.
-
mad_martin schrieb:
Wenn sie es nicht tuen, liegt das bestimmt nicht daran, dass sie keine Lust haben, sondern sich bewusst sind, dass sie mit den dortigen Marktführern nicht mithalten können, ohne zuvor deren Entwicklungsabteilung abwerben zu müssen.
Ich sag's noch einmal: Intel ist mit großem Abstand Marktführer. Von "keine Lust" kann überhaupt keine Rede sein.
Was können Sie denn erreichen, wenn so nochmal doppelt so dicke Chips für High-end Gamer bauen? Sie investieren viel Geld in etwas, was sich zwei Firmen schon aufgeteilt haben, wo sie sich dann auch noch ein Drittel rausziehen können. Das lohnt sich doch gar nicht, jede andere Personengruppe wird bereits von Intel bedient.
-
der highend markt ist sehr klein und nur dafuer da ein image zu haben, wenn man die schnellste, geilste etc. karte am markt hat, verkauft man auch massige mainstream karten, mit denen wird verdient. so in der art ist das bei den intel extrem cpus. nur image.
intel muss sich das nicht geben, weil sie beim verkaufen ihrer cpus einfach "ihr koennt auch unseren chipsatz fuer $30 ohne und $35 mit graka haben." und so haben sie leicht verdientes geld.
aber intel arbeitet auch an "richtigen" gpus seit amd ati gekauft hat, duerfte nicht mehr lang hin sein bis man intel mainstream karten kaufen kann (ca $300).
Man darf aber nicht vergessen, dass Raytracing einige der Probleme löst, die mit Rasterizern grundsätzlich nicht lösbar sind. Irgendwann wird man mit Rasterizern einfach nichts Neues mehr machen können, und dann eröffnet Raytracing einen ganzen Haufen neuer Möglichkeiten.
wenn grundlegende dinge nicht geloest sind, dann haben die wenigen vorteile kaum ausschlag dafuer raytracing zu nutzen. sogar moviestudios wie pixar fangen erst jetzt an raytracing in ihre rasterizer einzubauen, dann auch nur selektiv fuer wenige effekte.
-
rapso schrieb:
sogar moviestudios wie pixar fangen erst jetzt an raytracing in ihre rasterizer einzubauen, dann auch nur selektiv fuer wenige effekte.
ich dachte die verwenden nur raytracing....
-
Vertexwahn schrieb:
rapso schrieb:
sogar moviestudios wie pixar fangen erst jetzt an raytracing in ihre rasterizer einzubauen, dann auch nur selektiv fuer wenige effekte.
ich dachte die verwenden nur raytracing....
ja, den irrglauben haben viele. ist bei radiosity wohl auch so, aber bis vor kurzem wurde auch radiosity garnicht benutzt und zZ auch nur in wenigen filmen.
das meisste beim movie-rendern wird mit normalen forward renderern gemacht, dazu werden aber massig daten abgespeichert die dann fuer postprozessing (z.b. tonemapping,dof,motionblur,etc.) benutzt werden koennen.
-
Optimizer schrieb:
Die "Technologie", mhm. Danke für die Nachricht.
Welche Technologie(n) sollen das denn sein? An der Chipherstellung selber scheitert es wahrscheinlich wohl nicht, am Stromverbrauch der Chips auch nicht (ist ja schließlich der Grund, warum Intel der Marktführer ist), an der Implementierung von aktuellen Standards (Direct3D 10) scheitert es auch nicht. Wo genau soll Intel hinterher sein?Ich dachte eigentlich, dass du soweit denken kannst, dass mit "Technologie" hier das technologisch machbare gemeint ist, also speziell Leistungsfähigkeit. Und nicht nur onboard Chips. Da habe ich mich wohl getäuscht. Und dabei geht es nicht nur um Hardware, sondern auch um Software. Ich sehe zumindest nichts von Intel, was auch nur ansatzweise an FireGL oder Quadro ran kommt. Nicht mal die grossen Desktop Modelle sind in Reichweite. Vielleicht kann Larrabee daran ja etwas ändern.
Optimizer schrieb:
Was können Sie denn erreichen, wenn so nochmal doppelt so dicke Chips für High-end Gamer bauen? Sie investieren viel Geld in etwas, was sich zwei Firmen schon aufgeteilt haben, wo sie sich dann auch noch ein Drittel rausziehen können. Das lohnt sich doch gar nicht, jede andere Personengruppe wird bereits von Intel bedient.
Zwischen "High-end lohnt sich nicht" und "nur Low-end anbieten" besteht kein Widerspruch. Frag mal nVidia, wie viel die mit der 8000er Serie mittlerweile verdient haben.
Das würde sich auch für Intel lohnen. Mit potenten Grafikkarten sind halt deutlich höhere Margen möglich als mit onboard Chips. Da kann Intel noch so viele verkaufen. Fakt ist, Intel kann bzgl. Leistungsfähigkeit momentan nicht mit AMD/ATI und nVidia mithalten. Deswegen wurde ja Larrabee ins Leben gerufen.
-
groovemaster schrieb:
Optimizer schrieb:
Die "Technologie", mhm. Danke für die Nachricht.
Welche Technologie(n) sollen das denn sein? An der Chipherstellung selber scheitert es wahrscheinlich wohl nicht, am Stromverbrauch der Chips auch nicht (ist ja schließlich der Grund, warum Intel der Marktführer ist), an der Implementierung von aktuellen Standards (Direct3D 10) scheitert es auch nicht. Wo genau soll Intel hinterher sein?Ich dachte eigentlich, dass du soweit denken kannst, dass mit "Technologie" hier das technologisch machbare gemeint ist, also speziell Leistungsfähigkeit. Und nicht nur onboard Chips. Da habe ich mich wohl getäuscht. Und dabei geht es nicht nur um Hardware, sondern auch um Software. Ich sehe zumindest nichts von Intel, was auch nur ansatzweise an FireGL oder Quadro ran kommt. Nicht mal die grossen Desktop Modelle sind in Reichweite. Vielleicht kann Larrabee daran ja etwas ändern.
Es ist nicht das Ziel von Intel, im High-End Bereich mitzumischen. Das ist für die Marktführerschaft auch überhaupt gar nicht nötig und es kostet weit mehr Geld, als auf genauso fortschrittliche Weise weniger leistungsfähige Chips zu produzieren.
Optimizer schrieb:
Was können Sie denn erreichen, wenn so nochmal doppelt so dicke Chips für High-end Gamer bauen? Sie investieren viel Geld in etwas, was sich zwei Firmen schon aufgeteilt haben, wo sie sich dann auch noch ein Drittel rausziehen können. Das lohnt sich doch gar nicht, jede andere Personengruppe wird bereits von Intel bedient.
Zwischen "High-end lohnt sich nicht" und "nur Low-end anbieten" besteht kein Widerspruch. Frag mal nVidia, wie viel die mit der 8000er Serie mittlerweile verdient haben.
Das würde sich auch für Intel lohnen.[/quote]Ja, für Intel alleine. Aber der Kuchen geht durch 3.
-
Optimizer schrieb:
Es ist nicht das Ziel von Intel, im High-End Bereich mitzumischen. Das ist für die Marktführerschaft auch überhaupt gar nicht nötig und es kostet weit mehr Geld, als auf genauso fortschrittliche Weise weniger leistungsfähige Chips zu produzieren.
Glaube ich eher nicht. Wenn ich die Zahlen noch richtig in Erinnerung habe, hatte Intel zuletzt gerade mal 5% mehr Marktanteil als nVidia. Das ist praktisch nichts. Selbst die onboard Lösungen sind von AMD/ATI und nVidia besser. Und wenn Intel nicht aufpasst, schwimmen ihnen die Felle davon. Eigentlich verkaufen sie nur soviel, weil sie sehr viele Komplettlösungen über OEMs loswerden. Nicht, weil ihre Grafikchips so gut sind. Aber gerade hier werden sie zukünftig auch durch AMD mehr Konkurrenz bekommen, die auch mehr auf Komplettlösungen setzen wollen. Intel hat erkannt, dass sie was tun müssen. Deshalb haben sie in den letzten Monaten in diesem Bereich verstärkt Entwickler gesucht. Und deshalb wurde auch Larrabee ins Leben gerufen. Ob sie damit letztendlich im High-end Bereich mitmischen können, bleibt abzuwarten. Es wird aber definitiv mehr sein als die momentanen Billiglösungen.
Optimizer schrieb:
Ja, für Intel alleine. Aber der Kuchen geht durch 3.
Mal abgesehen davon, dass der Kuchen eher durch 4 geht (Intel, nVidia, AMD/ATI, Rest), gilt das auch für nVidia.