Warum müssen PCs soviel Strom verbrauchen?
-
Weil die Hardwarehersteller genau das produzieren, was die Kunden haben wollen. Die interessiert die elektrische Leistung kein Stück. Nur die Rechenleistung ist für sie interessant.
Vor allem, da sich die meisten Leute komplett-PCs kaufen, bei denen sie nicht merken, dass sie ein immer stärkeres Netzteil brauchen. Rein in die Steckdose und es läuft.
Die Mini-PCs, die mehr und mehr ausgereift auf den Markt kommen, sind da ein wahrer Segen. Günstig, Energiesparend und von der Rechenleistung her immer konkurrenzfähiger. Ich warte mal auf den NVIDIA Ion.
Auch bei Batteriebetriebenen Geräten achtet man nur auf die Leistung. Ob der Akku nun länger hält, weil er mehr Energie speichern kann, oder das Gerät weniger verbraucht, ist dem Kunden egal.
-
GNU-Fan schrieb:
Laut Strommessstecker zieht mein PC und 19" LCD um die 22 Watt. Und da ist noch der Router mit dran. Das ist doch bei Laptops nicht viel weniger.
Absolut unrealistisch!
Es ist technisch zwar in der Tat möglich, mit Bildschirm und Rechner nur etwas über 10 Watt zu verbraten, das allerdings im Leerlauf und mit Notebook-Hardware, vom Akku gespeist. Die Angabe ist dann auch nicht ganz korrekt, da der Wirkungsgrad des Ladegeräts in der Angabe nicht mit berücksichtigt wird. Und wirklich gut arbeiten kann man damit sowieso nicht mehr, vorallem die Hintergrundbeleuchtung bei Flachbildschirmen ist idR teuer. Alleine dafür mindestens 20 Watt, wenn du nicht direkt im dunkeln arbeitest!
-
GNU-Fan schrieb:
mezzo mix schrieb:
Diamond schrieb:
PC UND 19" LCD und Router für 22 Watt? Niemals! Mein 19" braucht grad so 30 Watt, selbst wenn deiner noch so energiesparsam ist, mit Rechner dran kommst du nie auf 22 Watt mit den 3 Geräten.
du mußt nur darauf achten einen möglichst günstigen 'strommessstecker' zu kaufen. damit sind solche werte problemlos zu erreichen. (einfach mal verschiedene hersteller probieren, bis das gewünschte ergebnis erreicht ist).
grüße, mm
Hmm, grummel, überzeugt. Sehr teuer war der wirklich nicht.
Michael Moor hätte den teuersten gekauft um die Weltvernichtung vor...
-
minhen: In Sachen Leistungsaufnahme waren IIRC die G4-MacMinis sogar nochmal besser als die jetzigen Core2-Duo-Macs. Dass die iMacs da dermaßen gut abschneiden, überrascht mich aber dann doch, man müsste sich mal ansehen, inwieweit da auch die LCD-TFTs dazu beitragen.
Nagila Hawa schrieb:
Weil die Hardwarehersteller genau das produzieren, was die Kunden haben wollen. Die interessiert die elektrische Leistung kein Stück. Nur die Rechenleistung ist für sie interessant.
Die sparsameren Mini-PCs werden ja jetzt genau deswegen produziert, weil das Thema mittlerweile doch auch massentauglicher ist. Für ein Büro mit 50 Mitarbeitern macht es doch einen spürbaren Unterschied, ob die Standardgeräte eine Leistungsaufnahme von 20 Watt oder von 200 Watt haben (exkl. Monitor).
Auch bei Batteriebetriebenen Geräten achtet man nur auf die Leistung. Ob der Akku nun länger hält, weil er mehr Energie speichern kann, oder das Gerät weniger verbraucht, ist dem Kunden egal.
Naja, insofern nicht, als Geräte mit stärkeren Akkus typischerweise auch schwerer und/oder größer sind.
-
minhen schrieb:
iMacs mit eingebautem 20"-Monitor brauchen die 59 Watt, wenn das Display volle Helligkeit hat.
Wenn man bedenkt, dass so ein System gerade einmal so viel Strom wie eine herkömmliche Glühbirne verbraucht, finde ich das absolut wenig!
-
bzw. ziemlich viel für die glühbirne.
-
Badestrand schrieb:
minhen schrieb:
iMacs mit eingebautem 20"-Monitor brauchen die 59 Watt, wenn das Display volle Helligkeit hat.
Wenn man bedenkt, dass so ein System gerade einmal so viel Strom wie eine herkömmliche Glühbirne verbraucht, finde ich das absolut wenig!
...weil wir an schlechte wirkungsgrade bei technischen gerätschaften gewöhnt sind. eine glühlampe setzt ungefähr nur 5% der energie in licht um.
-
kommt auch immer drauf an was man damit macht. der stromverbrauch an sich sagt noch nicht wie effizient das system ist.
was ich super finde ist sind SSD platten, schnell und sehr sparsam. leider extrem teuer :(. bei einer normalen platte kann man von 10W ausgehen und wenn man bedenkt dass die die ganze zeit drehen und fast nichts machen ist das derbe. Frueher hatte ich immer ein mobo dass die platte nach einer zeit abschaltete, heute find ich so ein mobo garnicht mehr
Ich denke dass viele PCs die meiste zeit ueber im idle laufen, von daher finde ich optimierungen auf idlezeit auch gut. in dem zusammenhang ist die EPU/DES von asus/gigabyte nicht schlecht, und auch eine geforce GTX, die zwar irrsinnig viel unter last zieht (289W?) aber dafuer nur 28W im idle.ich finde es sehr schade dass nvidias hybridSLI wohl eingestampft wird weil niemand interesse daran hat. fand ich ne klasse loesung, sowas in der art bieten einige notebooks (z.B. von alienware), bei denen man aber leider immer neu booten muss um zwischen on-board und high-end gpu umzuschalten.
-
rapso schrieb:
und auch eine geforce GTX, die zwar irrsinnig viel unter last zieht (289W?) aber dafuer nur 28W im idle.
nur? wofür verbrät das ding 28W im leerlauf? das finde ich übelst viel.
-
rapso schrieb:
Frueher hatte ich immer ein mobo dass die platte nach einer zeit abschaltete, heute find ich so ein mobo garnicht mehr
nicht mehr nötig für gast alle kunden.
zum beispiel Start/Systemsteuerung/Energieoptionen/Energieschamata/Festplatten ausschalten/ oder spaßiger hdparm -S
-
Wenn ich nach Geforce GTX google, dann kommen da nicht unbedingt Stromsparer dabei raus. Ohne Last, im Leerlauf, 156 Watt für das Gesamtsystem:
http://www.golem.de/0901/64479-desktop.pngUnter Vollast sogar 358 Watt:
http://www.golem.de/0901/64479-volllast.png"Auch wenn diese Werte angesichts der Rechenleistung günstiger ausfallen als bei früheren Grafikkarten, so ist die Idle-Leistung immer noch viel zu hoch. Dasselbe System braucht mit der ohne Last bei 11 Watt von AMD angegebenen Radeon 4670 nur 120 Watt. Das bloße Vorhandensein einer Karte für moderne Spiele in hohen Auflösungen bezahlt man mit mindestens 30 Watt mehr Leistungsaufnahme, auch wenn der PC für Alltagsanwendungen benutzt wird."
http://www.golem.de/0901/64479-6.htmlMal ganz davon abgesehen, dass man für die 30 Watt zwei komplette Systeme dieselbe Aufgabe erledigen lassen kann, gibt's den Strom ja auch nicht geschenkt
-
+fricky schrieb:
rapso schrieb:
und auch eine geforce GTX, die zwar irrsinnig viel unter last zieht (289W?) aber dafuer nur 28W im idle.
nur? wofür verbrät das ding 28W im leerlauf? das finde ich übelst viel.
2D beschleunigung, fuer weniger sollte man eine gpu auch garnicht erst einbauen.
@volkard
tut mir leid, hab diese option auf keinem der rechner hier gefunden.
also start->control panel->power options->create power plan->
da hab ich nur
-turn of display
-put computer to sleep
-
rapso schrieb:
da hab ich nur
-turn of display
-put computer to sleepja, wenn windows einen treiber nicht findet, nimmt es irgendwelche generischen und verschweigt die fehlenden features in den dialogen einfach, statt sie nur auszugrauen. spart userrückfragen. gruß an alle msi-benutzer ohne standby-modus.
gehts mit http://www.chip.de/downloads/Harddisk-Sleeper-1.55_12997232.html ?
-
-
rapso schrieb:
2D beschleunigung, fuer weniger sollte man eine gpu auch garnicht erst einbauen.
Windows Vista bewertet die Grafikleistung für Windows Aero - also die 2D-Beschleunigung - beim iMac im Windows Leistungsindex mit 5,9. Das ist der maximale mögliche Wert. Dennoch braucht das Gesamtsystem mit CPU, RAM, Festplatte, Grafikkarte eben allem ohne Monitor nur 22 Watt. Das ist deutlich weniger als die 40 Watt, die die Geforce GTX-Grafikkarte alleine ohne andere Komponenten(!) in obigem Test verbraten hat und auch deutlich weniger als die 28 Watt, die du dafür angibst. Das nur mal so zum Vergleich.
-
rapso schrieb:
+fricky schrieb:
rapso schrieb:
und auch eine geforce GTX, die zwar irrsinnig viel unter last zieht (289W?) aber dafuer nur 28W im idle.
nur? wofür verbrät das ding 28W im leerlauf? das finde ich übelst viel.
2D beschleunigung, fuer weniger sollte man eine gpu auch garnicht erst einbauen.
trotzdem zu viel. ich persönlich würde mir nie 'ne grafikkarte holen, mit 'ner fetten kühlkörper/lüfter-kobination drauf. das ist immer ein ganz schlechtes zeichen.
-
+fricky schrieb:
trotzdem zu viel. ich persönlich würde mir nie 'ne grafikkarte holen, mit 'ner fetten kühlkörper/lüfter-kobination drauf. das ist immer ein ganz schlechtes zeichen.
nimm dies, du bursche!
http://de.slizone.com/object/slizone_quadsli_de.html
http://www.netzwelt.de/gallery/ati-radeon-x1800-xt-und-crossfire-im-test/p1000138.jpg.html
-
volkard schrieb:
http://de.slizone.com/object/slizone_quadsli_de.html
http://www.netzwelt.de/gallery/ati-radeon-x1800-xt-und-crossfire-im-test/p1000138.jpg.htmlabsolut gruselig. erinnert mich irgendwie an mein selbstgebautes 30 ampere netzteil aus alten zeiten, mit wasserkühlung für'n längstransistor. das hatte nur nicht so'ne schicke bemalung.
-
volkard schrieb:
rapso schrieb:
da hab ich nur
-turn of display
-put computer to sleepja, wenn windows einen treiber nicht findet, nimmt es irgendwelche generischen und verschweigt die fehlenden features in den dialogen einfach, statt sie nur auszugrauen. spart userrückfragen. gruß an alle msi-benutzer ohne standby-modus.
gehts mit http://www.chip.de/downloads/Harddisk-Sleeper-1.55_12997232.html ?danke, das werde ich zuhause mal ausprobieren, haette nicht gedacht dass es sowas gibt, yeeehaaa.
THX!@minhendas ist eben so bei aepfel mit birnen vergleichen.
gfx karte mit onboard zu vergleichen ist kein kunststueck, alleine die ramriegel ziehen auf der karte vermutlich schon 8W.einen mac auf idle mit einer highend karte auf idle zu vergleichen ist eben auch kein kunststueck, vor allem dann das 5.9 rating angeben wenn das system am leistungsende laeuft ist sehr verzerrend. um es mal zu vergleichen, die 9400 version im mac schafft ein 3dmark rating von ca 1800 selbst die stand alone kommt auf ca 4000, waehrend die GTX 295 (mit den 289Watt) auf 40000 kommt.
deswegen ist der vergleich voellig fuer die katz, und nicht nur weil die angaben von nem hersteller kommen die alles moegliche abschalten und auf minimalkonfiguration trimmen um diesen wert zu erreichen.
wenn du wirklich sparsam sein willst, dann gleich ein ION system, damit kannst du wohl alles machen was man auf dem mac machen kann (inklusive WOW zocken) und es verbraucht unter last dann 13W.
-
rapso schrieb:
@minhendas ist eben so bei aepfel mit birnen vergleichen.
gfx karte mit onboard zu vergleichen ist kein kunststueck, alleine die ramriegel ziehen auf der karte vermutlich schon 8W.Ich vergleiche nicht Äpfel und Birnen, sondern Leistung auf einem Gebiet mit Leistung auf demselben Gebiet. Es bestreitet keiner, dass die Stromschleudern auch zu mehr Leistung fähig sind. Aber du lobst ja gerade einen Bereich in dem sie nicht mehr Leistsung bringen. Denn auch der iMac langweilt sich unter Windows Vista mit voller Aero-"Pracht" ziemlich. Das ist der Punkt. Die Grafikleistung ist beim Idlen jeweils gleich. Dennoch verbrät die andere Grafikkarte Unmengen mehr Energie. Dass "deine" Grafikkarte potentiell mehr 3D-Leistung bringt, von mir aus auch theoretisch mehr 2D-Leistung, das bestreite ich dabei überhaupt nicht.
Und beim iMac kommen die Watt-Angaben zwar von Apple. Aber da die Apple-Angaben im Fall des Mac Mini zu den gemessenen Werten im vorher verlinkten Test passen, gibt es Grund zu der Annahme, dass die Angaben beim iMac eben auch zutreffend sind.
wenn du wirklich sparsam sein willst, dann gleich ein ION system, damit kannst du wohl alles machen was man auf dem mac machen kann (inklusive WOW zocken) und es verbraucht unter last dann 13W.
Ich spiele hin und wieder auf meinem iMac Call of Duty 4 und Enemy Territory: Quake Wars jeweils mit maximalen Grafikeinstellungen bei 1680x1050. Lediglich bei der Kantenglättung muss man etwas vorsichtig sein. Auch Crysis lief nebenbei ohne Weiteres mit sehr guter Grafik. Das sind zwar alles nicht die neuesten Spiele, aber mein iMac selbst ist ja auch von 2007 und damit nicht der neueste.
Aber das ist auch so ein Punkt. Ich bezweifel, dass die Stromverschwendung bei den Highend-Grafikkarten linear mit praktischem Nutzen einhergeht. Das zeigt ja auch der Vergleich bei Windows Aero und der 2D-Leistung beim Idlen. Dazu passt auch, dass mein trotz seines Alters Spiele begeisteter, Hardware-versessene Bruder Bauklötzchen gestaunt hat, als er sich einen 600 Euro-Laptop gekauft hat, und dort ohne nennenswerte Grafikeinbußen dieselben Spiele "zocken" kann, die er auch auf seinem übertakteten mit Wasser gekühlten Hauptrechner so spielt. Die Zeiten, dass man Highend kaufen muss, um super Grafik zu bekommen, die sind doch schon längst vorbei. Heute geht es doch wirklich nur noch um mehr, mehr, mehr nur um mehr zu haben. Nach dem tatsächlichen, praktischen Nutzen fragt doch keiner mehr. Genau so wenig wie nach der Stromverschwendung. Das alles ist jetzt zwar meine subjektive Meinung. Aber ich vermute mal, dass da auch objektiv ein ziemlich wahrer Kern sein wird.