Cloud-based Rendering - eure Meinung?



  • In ein paar ausgewählten Großstädten gibt es vielleicht in manchen Wohngebieten 100Mbit Leitungen. Aber für den Rest Deutschlands sind eher 6Mbit Leitungen üblich.



  • 40MBit/s sind doch auch nur das Bluray-Maximum.

    HD-Filme mit 10GB sehen auch schon verflucht gut aus. Ueberschlagen wir mal grob. 10GB, 90min, 60s/min:

    10000/90/60*8
    14.8148
    

    Multiplizieren wir vorsichtshalber mit 10 statt 8 und wir waeren bei etwa 19MBit/s. 20MBit/s sollte fuer viele Leute machbar sein. Selbst wenn Shooter nicht perfekt sind: Fuer diverse weniger latenzkritische Spiele waere sowas durchaus brauchbar.



  • Das ist zwar von 2010 aber mal ein grober Einblick wie das Hardwaretechnisch im Server aussieht:

    http://www.develop-online.net/features/900/Gaikais-reality-check

    In terms of hardware constitution, what does a Gaikai server look like?
    Some of the specs I can’t tell you because they’re a trade secret in themselves. Getting a hi-def stream of a game that’s CPU-intensive is difficult, but certainly not impossible. Within months we got it working.

    That’s not been the real challenge. Cloud streaming is relatively easy to do, but it has been expensive. So we have been searching for ways to keep costs down whilst keeping the streaming technology optimized. That’s why our solution is a trade secret.

    We went through a huge amount of hardware combinations to find out what worked best. We’re using the very latest Intel six-core processors, and the most expensive graphics cards you can buy. For the current demo servers we’re setting up, we’re using GTX 470s. But we actually use less RAM than you would imagine, because of the way we virtualise the system, we don’t need more than one or two gigabytes of RAM per game.

    And the cooling system is crazy. The amount of air coming out of the rig could blow-dry someone’s hair very quickly.

    So how many players do you think can play a game from a single server?
    It depends on the game, but around a dozen per server. But like I say, it’s all about costs. It’s a spreadsheet exercise. If we can come up with a different server system, that’s a lot cheaper and can serve four people but the costs per player are less, we’d be interested.

    Though it’s fun to build insanely powerful servers, we have to be cost-effective.



  • na super! bei denen laufen 10 instanzen aktueller spiele flüssig, können davon auch noch einen stream erzeugen und bei mir ruckeln pronos im browser 😡


  • Mod

    Christoph schrieb:

    Gruum schrieb:

    Aber ich will ja eigentlich mindestens mit einer Full HD Auflösung spielen und die Reaktionszeit ist bei einem Ego-Shooter auch inakzeptabel.

    Blurays haben gerade mal 40MBit/s maximale Videobitrate für Full HD. Das ist schon mit heutigen Internet-Verbindungen im Downstream machbar, zumindest in Großstädten, in denen 100MBit-Anschlüsse verfügbar sind.

    Die 40 MBit/s müssen aber ständig ohne Unterbrechung und ohne kurze Aussetzer zur Verfügung stehen. Ich kenne mich mit diesen Anschlüssen nicht genau aus, aber das wird doch wohl nicht so sein, oder? Schließlich sind die darauf ausgelegt, im Durchschnitt viele Daten zum Kunden zu bringen, nicht auf Breitbandechtzeitkommunikation.



  • dafür kann man ja puffern, falls es doch mal fällt



  • Ich finde das Ziel hinter der Idee dumm. Games in der Cloud rendern? Wir haben jetzt schon die Hardware, alles komplexe auf einem kleinen Notebook zu rendern. Von daher würde ich für eine solche Technologie nicht die Hand ins Feuer legen.

    Wo ich hingegen sehr viel Potential sehe, was inzwischen auch schon ein wenig genutzt wird, ist offline Rendering, i.d.R. Raytracing in der Cloud. Einfach kurz einen hochkomplexen Task in die Cloud absetzen und Sekunden später hat man das Ergebnis, wofür ein PC vielleicht 30 Minuten gebraucht hätte 🙂


  • Mod

    zwutz schrieb:

    dafür kann man ja puffern, falls es doch mal fällt

    Und nochmal die Latenz verhundertfachen? Bei Fernsehstreams geht das technisch ja wunderbar, aber wer die Fußball-EM bei offenem Fenster am Computer verfolgt hat, der wusste immer schon 10 Sekunden im Voraus, wenn ein Tor fällt.



  • Sicher ist aufjedenfall das es welche gibt die sich auf diesen Bereich konzentrieren und der festen Meinung sind das es Zukunft hat, ich bin mal gespannt was die Monate, Jahre noch in diesem Bereich rauskommt. Bin ich auch bis jetzt der Meinung das die zugängliche Technik von heute noch nicht gut genug ist um zumindest alle möglichen Spielgenres damit abzudecken.

    Auch Firmen wie NVIDIA spezialisieren sich darauf: http://www.nvidia.de/object/geforce-grid-cloud-gaming-de.html

    Und die Idee mit Puffern ist glaube ich bei Spiele keine so gute Idee :p



  • Weiß jemand wie man das programmiertechnisch umsetzt? Gibt es Open-Source Projekte die sich mit diesem Thema auseinandersetzen?



  • Mir ist derzeit nur VirtualGL bekannt ( http://www.virtualgl.org/ )
    Wurde auch angeblich in der Anfangsphase von GaiKai verwendet. Einen Haken hat aber VirtualGL, du kannst es nur für OpenGL-Anwendungen unter Unix/Linux einsetzen.



  • http://www.hindawi.com/journals/ijcgt/2009/231863/

    nicht opnesource aber beschreibt das vorgehen unter dem abschnitt video streaming. bei 3d streaming werden die directx/opengl befehle abgefangen und an die clients weitergeleitet. für das videostreaming könnte man doch einen hook verwenden um einen frame zu capturen und in einen videostream umzuwandeln oder?



  • Vorteile:
    - Keine super Grafikkarte beim Kunden nötig
    - Kaum noch cheaten beim Spieler möglich

    Nachteile
    - Hohe Latenz
    - Garantierte monatliche Kosten

    Wenn ich bedenke dass ein Ping von mehr als 30 schon stört (Wobei die Grafik auf dem eigenen PC berechnet wird) beim Spielen (Shooter) kann ich mir nicht vorstellen, dass solche Spiele damit möglich sein werden.

    Man muss bedenken, dass der Ping dann stärker ins Gewicht fällt als vorher.
    Bisher: A schießt... Datenpaket mit der Schußaktion geht zum Server.... der berechnet ob B getroffen oder nicht. (Hier ist man daran gewohnt etwas vor den Gegner zu halten)

    Mit neuer Technik
    A schießt.... Datenpaket geht zum Server .... analog zum ursprünglichenn Konzept.
    ABER: A bewegt den Spieler z.B zur Seite... Paket zum Server... Bild Berechnen... Bild Komprimieren... Bild zum Client... Bild decodieren... Bild anzeigen.
    Das bedeutet, dass die Verzögerung die man beim schießen kennt auch bei jeder Bewegung der Spielfigur auftritt. Und ich denke dass ist bei einem Shooter ein absolutes NO GO.

    Für Strategiespiele aber durchaus machbar. Nur was nutzt hier die mega Grafik
    wenn dafür am Spielkonzept gespart wird. Bei solchen Spielen ist mir das Gamepelay wichtig und die Grafik zweitrangig.



  • http://www.heise.de/newsticker/meldung/GDC-AMDs-Grafikkarten-Serie-fuer-Cloud-Spiele-1830731.html

    Scheint wohl doch Unternehmen zu geben die sich an dieser "Technologie" ernsthaft beteiligen wollen. Als Anbieter kannte ich vorher nur OnLive und Gaikai, gibt wohl laut dem Artikel jetzt schon einige andere.

    @_craut_
    Danke! Ich bin auch auf der Suche nach Open-Source Projekten dieser Art



  • Frage mich wieso es wesentlich billiger sein sollte die Spiele in einer Cloud zu rendern als lokal. Kann das jemand beantworten? Klar, man kann die verfügbaren Resourcen besser verteilen, aber das wars dann schon. Außerdem reicht das Internet in D m.E. nicht aus. Die angesprochenen 100mb Downstream gelten übrigens für den Knoten und nicht direkt für den Kunden. Wenn mehrere Leute am gleichen Knoten Spiele live zocken wollen siehts schon wieder anders aus.


Anmelden zum Antworten