Spart man beim Anschauen eines Videos im Vollbildmodus Energie?



  • Das ist eine Frage auf die ich gerade gekommen bin.

    Der Hintergrund der Überlegung ist der, dass im Vollbildmodus die stromsparende Decodereinheit der GPU oder iGPU viel wahrscheinlicher verwendet wird, als wenn man sich das Video im Fenster oder eingebettet im Browser anschaut.
    Bei letzterem könnte es sein, dass das Video von der CPU dekodiert wird, so meine Vermutung.

    Dazu fallen dann noch die ganzen Compositingeffekte weg, wenn man das Video nicht im Fenstermodus anschaut.

    Theoretisch könnte da also etwas dran sein, aber wie sieht es in der Praxis aus, ist dem so auf einem normalen PC?

    Die Energieeinsparung, wenn es sie denn gibt, wird vermutlich nicht groß sein, aber das ist hier nicht die Frage.



  • computertrolls schrieb:

    Die Energieeinsparung, wenn es sie denn gibt, wird vermutlich nicht groß sein, aber das ist hier nicht die Frage.

    *grins*



  • Ob Vollbild oder nicht sollte egal sein. Wieso meinst du das würde die Wahrscheinlichkeit dass GPU-Decoding verwendet wird ändern? Entweder der Codec kann GPU-Decoding, dann verwendet er es, oder er kann es nicht, dann verwendet er es eben nicht.

    Bei DirectShow kann es einen Unterschied machen welche Art von "Connections" der Renderer-Filter kann. Weil es Codecs gibt die nur GPU-Decoding verwenden wenn sie das decodierte Bild dann auch im GPU-Speicher an den Renderer übergeben können. Gibt aber auch Codecs* die selbst bei der normalen IMemInputPin Connection GPU Decoding verwenden. Weil es billiger ist GPU Decoding zu verwenden und die daten dann vom GPU Speicher ins normale RAM zurückzukopieren als auf GPU Decoding zu verzichten.

    Und wenn der Renderer D3D-basierte Connections kann, dann gibt es auch keinen Grund dafür diese nur im Vollbildmodus zu verwenden, denn die funktionieren auch wunderbar im normalen Fenstermodus.

    Zu den Compositing-Effekten: Die meisten Player machen keinen D3D-Fullscreen Mode sondern einfach ein Bildschirmfüllendes Fenster. Dabei ist der DWM genau so aktiv wie im non-Fullscreen Mode. Ob der DWM schlau genug ist zu verstehen dass das top-level Fenster vollkommen undurchsichtig und bildschirmfüllend ist, und daher die dahinterliegenden Teile nicht mehr rendert, weiss ich nicht. Könnte sein. Das wäre der einzige Punkt wo ich mir vorstellen könnte dass der Fullscreen-Mode 'was bringt.

    Soviel zu Windows. Wie diese Dinge unter Linux funktionieren weiss ich nicht.

    ----

    Und was mMn. beim Umschalten in den Fullscreen-Mode wirklich passieren könnte: es könnte Player geben die dann automatisch einen Video-Stream mit einer höheren Auflösung und höheren Datenrate anfordern. Und mehr Bits dekodieren heisst definitiv höhere CPU und GPU Auslastung heisst mehr Stromverbrauch.

    *: Anno 2018 sollte das jeder Codec können. LAV und ffdshow können es jedenfalls.



  • hustbaer schrieb:

    Ob Vollbild oder nicht sollte egal sein. Wieso meinst du das würde die Wahrscheinlichkeit dass GPU-Decoding verwendet wird ändern? Entweder der Codec kann GPU-Decoding, dann verwendet er es, oder er kann es nicht, dann verwendet er es eben nicht.

    Bei meinem Raspberry Pi 3 ruckelt bpsw. alles @FullHD, wenn es im Browserfenster läuft. Im Vollbildmodus ist das nicht der Fall.
    Also gehe ich davon aus, dass im Fenstermodus die CPU und der Grafikkern noch zusätzliche Arbeit leisten muss, weshalb ich dann auch auf einen höheren Leistungsbedarf schließen würde.

    Compositing wäre eine Möglichkeit der das eventuell erklären kann, wenn das im Vollbild wegfällt.

    Zu den Compositing-Effekten: Die meisten Player machen keinen D3D-Fullscreen Mode sondern einfach ein Bildschirmfüllendes Fenster. Dabei ist der DWM genau so aktiv wie im non-Fullscreen Mode. Ob der DWM schlau genug ist zu verstehen dass das top-level Fenster vollkommen undurchsichtig und bildschirmfüllend ist, und daher die dahinterliegenden Teile nicht mehr rendert, weiss ich nicht. Könnte sein. Das wäre der einzige Punkt wo ich mir vorstellen könnte dass der Fullscreen-Mode 'was bringt.

    Soviel zu Windows.

    Danke für deine Antwort.

    @backtroller
    Warum grins?
    Es gibt einen Unterschied zwischen einer prinzipiellen Frage und der Frage nach wie viel.

    Ein moderner PC mit dedizierter GPU hat im Leerlauf einen Stromverbrauch von ungefähr 50 W. Wenn er dann bei der Softwaredekodierung 2 W mehr braucht und beim HW Dekoden 0,5 W mehr, dann ist das in Relation zur Grundlast nicht der Rede wert, aber dennoch messbar und somit ist prinzipiell ein Mehrverbrauch vorhanden.


Anmelden zum Antworten