Warum müssen PCs soviel Strom verbrauchen?
-
minhen: In Sachen Leistungsaufnahme waren IIRC die G4-MacMinis sogar nochmal besser als die jetzigen Core2-Duo-Macs. Dass die iMacs da dermaßen gut abschneiden, überrascht mich aber dann doch, man müsste sich mal ansehen, inwieweit da auch die LCD-TFTs dazu beitragen.
Nagila Hawa schrieb:
Weil die Hardwarehersteller genau das produzieren, was die Kunden haben wollen. Die interessiert die elektrische Leistung kein Stück. Nur die Rechenleistung ist für sie interessant.
Die sparsameren Mini-PCs werden ja jetzt genau deswegen produziert, weil das Thema mittlerweile doch auch massentauglicher ist. Für ein Büro mit 50 Mitarbeitern macht es doch einen spürbaren Unterschied, ob die Standardgeräte eine Leistungsaufnahme von 20 Watt oder von 200 Watt haben (exkl. Monitor).
Auch bei Batteriebetriebenen Geräten achtet man nur auf die Leistung. Ob der Akku nun länger hält, weil er mehr Energie speichern kann, oder das Gerät weniger verbraucht, ist dem Kunden egal.
Naja, insofern nicht, als Geräte mit stärkeren Akkus typischerweise auch schwerer und/oder größer sind.
-
minhen schrieb:
iMacs mit eingebautem 20"-Monitor brauchen die 59 Watt, wenn das Display volle Helligkeit hat.
Wenn man bedenkt, dass so ein System gerade einmal so viel Strom wie eine herkömmliche Glühbirne verbraucht, finde ich das absolut wenig!
-
bzw. ziemlich viel für die glühbirne.
-
Badestrand schrieb:
minhen schrieb:
iMacs mit eingebautem 20"-Monitor brauchen die 59 Watt, wenn das Display volle Helligkeit hat.
Wenn man bedenkt, dass so ein System gerade einmal so viel Strom wie eine herkömmliche Glühbirne verbraucht, finde ich das absolut wenig!
...weil wir an schlechte wirkungsgrade bei technischen gerätschaften gewöhnt sind. eine glühlampe setzt ungefähr nur 5% der energie in licht um.
-
kommt auch immer drauf an was man damit macht. der stromverbrauch an sich sagt noch nicht wie effizient das system ist.
was ich super finde ist sind SSD platten, schnell und sehr sparsam. leider extrem teuer :(. bei einer normalen platte kann man von 10W ausgehen und wenn man bedenkt dass die die ganze zeit drehen und fast nichts machen ist das derbe. Frueher hatte ich immer ein mobo dass die platte nach einer zeit abschaltete, heute find ich so ein mobo garnicht mehr
Ich denke dass viele PCs die meiste zeit ueber im idle laufen, von daher finde ich optimierungen auf idlezeit auch gut. in dem zusammenhang ist die EPU/DES von asus/gigabyte nicht schlecht, und auch eine geforce GTX, die zwar irrsinnig viel unter last zieht (289W?) aber dafuer nur 28W im idle.ich finde es sehr schade dass nvidias hybridSLI wohl eingestampft wird weil niemand interesse daran hat. fand ich ne klasse loesung, sowas in der art bieten einige notebooks (z.B. von alienware), bei denen man aber leider immer neu booten muss um zwischen on-board und high-end gpu umzuschalten.
-
rapso schrieb:
und auch eine geforce GTX, die zwar irrsinnig viel unter last zieht (289W?) aber dafuer nur 28W im idle.
nur? wofür verbrät das ding 28W im leerlauf? das finde ich übelst viel.
-
rapso schrieb:
Frueher hatte ich immer ein mobo dass die platte nach einer zeit abschaltete, heute find ich so ein mobo garnicht mehr
nicht mehr nötig für gast alle kunden.
zum beispiel Start/Systemsteuerung/Energieoptionen/Energieschamata/Festplatten ausschalten/ oder spaßiger hdparm -S
-
Wenn ich nach Geforce GTX google, dann kommen da nicht unbedingt Stromsparer dabei raus. Ohne Last, im Leerlauf, 156 Watt für das Gesamtsystem:
http://www.golem.de/0901/64479-desktop.pngUnter Vollast sogar 358 Watt:
http://www.golem.de/0901/64479-volllast.png"Auch wenn diese Werte angesichts der Rechenleistung günstiger ausfallen als bei früheren Grafikkarten, so ist die Idle-Leistung immer noch viel zu hoch. Dasselbe System braucht mit der ohne Last bei 11 Watt von AMD angegebenen Radeon 4670 nur 120 Watt. Das bloße Vorhandensein einer Karte für moderne Spiele in hohen Auflösungen bezahlt man mit mindestens 30 Watt mehr Leistungsaufnahme, auch wenn der PC für Alltagsanwendungen benutzt wird."
http://www.golem.de/0901/64479-6.htmlMal ganz davon abgesehen, dass man für die 30 Watt zwei komplette Systeme dieselbe Aufgabe erledigen lassen kann, gibt's den Strom ja auch nicht geschenkt
-
+fricky schrieb:
rapso schrieb:
und auch eine geforce GTX, die zwar irrsinnig viel unter last zieht (289W?) aber dafuer nur 28W im idle.
nur? wofür verbrät das ding 28W im leerlauf? das finde ich übelst viel.
2D beschleunigung, fuer weniger sollte man eine gpu auch garnicht erst einbauen.
@volkard
tut mir leid, hab diese option auf keinem der rechner hier gefunden.
also start->control panel->power options->create power plan->
da hab ich nur
-turn of display
-put computer to sleep
-
rapso schrieb:
da hab ich nur
-turn of display
-put computer to sleepja, wenn windows einen treiber nicht findet, nimmt es irgendwelche generischen und verschweigt die fehlenden features in den dialogen einfach, statt sie nur auszugrauen. spart userrückfragen. gruß an alle msi-benutzer ohne standby-modus.
gehts mit http://www.chip.de/downloads/Harddisk-Sleeper-1.55_12997232.html ?
-
-
rapso schrieb:
2D beschleunigung, fuer weniger sollte man eine gpu auch garnicht erst einbauen.
Windows Vista bewertet die Grafikleistung für Windows Aero - also die 2D-Beschleunigung - beim iMac im Windows Leistungsindex mit 5,9. Das ist der maximale mögliche Wert. Dennoch braucht das Gesamtsystem mit CPU, RAM, Festplatte, Grafikkarte eben allem ohne Monitor nur 22 Watt. Das ist deutlich weniger als die 40 Watt, die die Geforce GTX-Grafikkarte alleine ohne andere Komponenten(!) in obigem Test verbraten hat und auch deutlich weniger als die 28 Watt, die du dafür angibst. Das nur mal so zum Vergleich.
-
rapso schrieb:
+fricky schrieb:
rapso schrieb:
und auch eine geforce GTX, die zwar irrsinnig viel unter last zieht (289W?) aber dafuer nur 28W im idle.
nur? wofür verbrät das ding 28W im leerlauf? das finde ich übelst viel.
2D beschleunigung, fuer weniger sollte man eine gpu auch garnicht erst einbauen.
trotzdem zu viel. ich persönlich würde mir nie 'ne grafikkarte holen, mit 'ner fetten kühlkörper/lüfter-kobination drauf. das ist immer ein ganz schlechtes zeichen.
-
+fricky schrieb:
trotzdem zu viel. ich persönlich würde mir nie 'ne grafikkarte holen, mit 'ner fetten kühlkörper/lüfter-kobination drauf. das ist immer ein ganz schlechtes zeichen.
nimm dies, du bursche!
http://de.slizone.com/object/slizone_quadsli_de.html
http://www.netzwelt.de/gallery/ati-radeon-x1800-xt-und-crossfire-im-test/p1000138.jpg.html
-
volkard schrieb:
http://de.slizone.com/object/slizone_quadsli_de.html
http://www.netzwelt.de/gallery/ati-radeon-x1800-xt-und-crossfire-im-test/p1000138.jpg.htmlabsolut gruselig. erinnert mich irgendwie an mein selbstgebautes 30 ampere netzteil aus alten zeiten, mit wasserkühlung für'n längstransistor. das hatte nur nicht so'ne schicke bemalung.
-
volkard schrieb:
rapso schrieb:
da hab ich nur
-turn of display
-put computer to sleepja, wenn windows einen treiber nicht findet, nimmt es irgendwelche generischen und verschweigt die fehlenden features in den dialogen einfach, statt sie nur auszugrauen. spart userrückfragen. gruß an alle msi-benutzer ohne standby-modus.
gehts mit http://www.chip.de/downloads/Harddisk-Sleeper-1.55_12997232.html ?danke, das werde ich zuhause mal ausprobieren, haette nicht gedacht dass es sowas gibt, yeeehaaa.
THX!@minhendas ist eben so bei aepfel mit birnen vergleichen.
gfx karte mit onboard zu vergleichen ist kein kunststueck, alleine die ramriegel ziehen auf der karte vermutlich schon 8W.einen mac auf idle mit einer highend karte auf idle zu vergleichen ist eben auch kein kunststueck, vor allem dann das 5.9 rating angeben wenn das system am leistungsende laeuft ist sehr verzerrend. um es mal zu vergleichen, die 9400 version im mac schafft ein 3dmark rating von ca 1800 selbst die stand alone kommt auf ca 4000, waehrend die GTX 295 (mit den 289Watt) auf 40000 kommt.
deswegen ist der vergleich voellig fuer die katz, und nicht nur weil die angaben von nem hersteller kommen die alles moegliche abschalten und auf minimalkonfiguration trimmen um diesen wert zu erreichen.
wenn du wirklich sparsam sein willst, dann gleich ein ION system, damit kannst du wohl alles machen was man auf dem mac machen kann (inklusive WOW zocken) und es verbraucht unter last dann 13W.
-
rapso schrieb:
@minhendas ist eben so bei aepfel mit birnen vergleichen.
gfx karte mit onboard zu vergleichen ist kein kunststueck, alleine die ramriegel ziehen auf der karte vermutlich schon 8W.Ich vergleiche nicht Äpfel und Birnen, sondern Leistung auf einem Gebiet mit Leistung auf demselben Gebiet. Es bestreitet keiner, dass die Stromschleudern auch zu mehr Leistung fähig sind. Aber du lobst ja gerade einen Bereich in dem sie nicht mehr Leistsung bringen. Denn auch der iMac langweilt sich unter Windows Vista mit voller Aero-"Pracht" ziemlich. Das ist der Punkt. Die Grafikleistung ist beim Idlen jeweils gleich. Dennoch verbrät die andere Grafikkarte Unmengen mehr Energie. Dass "deine" Grafikkarte potentiell mehr 3D-Leistung bringt, von mir aus auch theoretisch mehr 2D-Leistung, das bestreite ich dabei überhaupt nicht.
Und beim iMac kommen die Watt-Angaben zwar von Apple. Aber da die Apple-Angaben im Fall des Mac Mini zu den gemessenen Werten im vorher verlinkten Test passen, gibt es Grund zu der Annahme, dass die Angaben beim iMac eben auch zutreffend sind.
wenn du wirklich sparsam sein willst, dann gleich ein ION system, damit kannst du wohl alles machen was man auf dem mac machen kann (inklusive WOW zocken) und es verbraucht unter last dann 13W.
Ich spiele hin und wieder auf meinem iMac Call of Duty 4 und Enemy Territory: Quake Wars jeweils mit maximalen Grafikeinstellungen bei 1680x1050. Lediglich bei der Kantenglättung muss man etwas vorsichtig sein. Auch Crysis lief nebenbei ohne Weiteres mit sehr guter Grafik. Das sind zwar alles nicht die neuesten Spiele, aber mein iMac selbst ist ja auch von 2007 und damit nicht der neueste.
Aber das ist auch so ein Punkt. Ich bezweifel, dass die Stromverschwendung bei den Highend-Grafikkarten linear mit praktischem Nutzen einhergeht. Das zeigt ja auch der Vergleich bei Windows Aero und der 2D-Leistung beim Idlen. Dazu passt auch, dass mein trotz seines Alters Spiele begeisteter, Hardware-versessene Bruder Bauklötzchen gestaunt hat, als er sich einen 600 Euro-Laptop gekauft hat, und dort ohne nennenswerte Grafikeinbußen dieselben Spiele "zocken" kann, die er auch auf seinem übertakteten mit Wasser gekühlten Hauptrechner so spielt. Die Zeiten, dass man Highend kaufen muss, um super Grafik zu bekommen, die sind doch schon längst vorbei. Heute geht es doch wirklich nur noch um mehr, mehr, mehr nur um mehr zu haben. Nach dem tatsächlichen, praktischen Nutzen fragt doch keiner mehr. Genau so wenig wie nach der Stromverschwendung. Das alles ist jetzt zwar meine subjektive Meinung. Aber ich vermute mal, dass da auch objektiv ein ziemlich wahrer Kern sein wird.
-
Brüder! An Mikroelektronik klebt das blut vieler tausend Menschen, und das Harz vieler Bäume und anderen struppigen Gewächsen. Seltene Metalle, für deren Erwerb Menschen und Natur ausgebeutet wurden und immer noch werden und das unersättliche Verlangen nach immer mehr und immer günstigerer Energie, haben doch erst zu dieser Misere geführt.
Wir haben die Zukunft unserer Kinder verkauft, für Mikrowellengerichte, Flugreisen auf überfüllte Ferieninseln und anderen niederen Unterhaltungsformen. Schon alleine die besagten Computersysteme haben viele Milliarden kWh Energie verbraten, für die unsere Kinder büßen müssen. Für den vorübergehenden Nervenkitzel von 3D Spielen haben wir mit 10.000en Jahren Atommüll, einem ökologischen Ungleichgewicht, der Klimaerwärmung und anderen Natursünden teuer bezahlt.
Die Industrialisierung ist der größe Unsegen, der der Menschheit je widerfahren ist. Ihr solltet aufhören über zu ineffiziente Grafikkarten zu streiten und euch stattdessen Fragen, wozu ihr überhaupt einen Computer benötigt. Fangt endlich an, mit der Natur in Einklang zu leben! Nutzt die unerschöpfliche Kraft von Mutter Sonne, die euch ganz selbstverständlich den Tag erhellt, anstatt mit Glühbirnen die Welt zu vernichten.
Leuchtstoffröhren sind da nur Augenwischerei, denn die verlangsamen die Zerstörung unserer diesen einen Erde nur. Verzichtet auf importierten Unfug aus China, den ihr in einem Jahr sowieso durch Neuen ersetzen würdet und erfreut euch stattdessen an den bis heute noch verbliebenen Wundern der Natur. Diese waren bislang beständig und sind weit mehr wert, als diese schäbige Unterhaltung in Form von Computerspielen o.ä. Vernichtet nicht diesen einzig wahren Segen mit euerer geballten Ignoranz!
Viele Grüße aus Bielefeld
Dieter Schumann,
Greenpeace-Aktivist
überzeugter Buddhist seit 1994
Kind des Waldes und Wertschätzer der Natur
-
Dieter, Du solltest einfach mal den Joint liegen lassen und ein Buch lesen...
edit: Smily vergessen
-
minhen schrieb:
rapso schrieb:
@minhendas ist eben so bei aepfel mit birnen vergleichen.
gfx karte mit onboard zu vergleichen ist kein kunststueck, alleine die ramriegel ziehen auf der karte vermutlich schon 8W.Ich vergleiche nicht Äpfel und Birnen, sondern Leistung auf einem Gebiet mit Leistung auf demselben Gebiet.
du vergleichst einen stromverbrauch vom mac bei dem er nichts macht mit dem von einer GTX bei der aero laeuft. die imac konfiguration zieht sicherlich keine 23 watt wenn aero laufen sollte.
entsprechend ist das aepfel und birnen vergleichen von meiner sicht aus.Es bestreitet keiner, dass die Stromschleudern auch zu mehr Leistung fähig sind. Aber du lobst ja gerade einen Bereich in dem sie nicht mehr Leistsung bringen. Denn auch der iMac langweilt sich unter Windows Vista mit voller Aero-"Pracht" ziemlich. Das ist der Punkt. Die Grafikleistung ist beim Idlen jeweils gleich.
soweit ich weiss rendert windows bei aero durchgaengig (jedenfalls hatte mir das mal ein MS typ erzaehlt, lange bevor vista raus war), deswegen gibt es ja die geforderte mindestleistung die eine gfx schaffen muss fuer aero (bzw das system), eine 9400 ist dann ziemlich gefordert, eine on board x3100 von intel schafft es wohl nichtmal das zu leisten (trotz offiziellem D3D10 support).
etwas was meiner meinung nach wenig gewinn aber viel anforderung mit sich bringt (also 2d gui die ganze zeit zu rendern als ob es ein spiel waere).Und beim iMac kommen die Watt-Angaben zwar von Apple. Aber da die Apple-Angaben im Fall des Mac Mini zu den gemessenen Werten im vorher verlinkten Test passen, gibt es Grund zu der Annahme, dass die Angaben beim iMac eben auch zutreffend sind.
wie gesagt, das muss ein test sein bei dem die beiden systeme das selbe machen, und zwar wirklich machen, einfach nur idle stehen und messen wieviel watt etwas zieht beim nichtstun ist eine parodie auf effiziens.
es gibt genuegend office, battery, multimedia, etc. benchmarks die daraufhin gemacht wurden effiziens zu testen, denn im idle zieht mein system 0Watt, weil es sich selbst schlafen legt (und ich liebe diese funktionalitaet :D).wenn du wirklich sparsam sein willst, dann gleich ein ION system, damit kannst du wohl alles machen was man auf dem mac machen kann (inklusive WOW zocken) und es verbraucht unter last dann 13W.
Ich spiele hin und wieder auf meinem iMac Call of Duty 4 und Enemy Territory: Quake Wars jeweils mit maximalen Grafikeinstellungen bei 1680x1050. Lediglich bei der Kantenglättung muss man etwas vorsichtig sein. Auch Crysis lief nebenbei ohne Weiteres mit sehr guter Grafik. Das sind zwar alles nicht die neuesten Spiele, aber mein iMac selbst ist ja auch von 2007 und damit nicht der neueste.
welche framerate, qualitaet und welche wattangabe? dann koennen wir das mit den 13W vom ION vergleichen.
Aber das ist auch so ein Punkt. Ich bezweifel, dass die Stromverschwendung bei den Highend-Grafikkarten linear mit praktischem Nutzen einhergeht. Das zeigt ja auch der Vergleich bei Windows Aero und der 2D-Leistung beim Idlen. Dazu passt auch, dass mein trotz seines Alters Spiele begeisteter, Hardware-versessene Bruder Bauklötzchen gestaunt hat, als er sich einen 600 Euro-Laptop gekauft hat, und dort ohne nennenswerte Grafikeinbußen dieselben Spiele "zocken" kann, die er auch auf seinem übertakteten mit Wasser gekühlten Hauptrechner so spielt. Die Zeiten, dass man Highend kaufen muss, um super Grafik zu bekommen, die sind doch schon längst vorbei. Heute geht es doch wirklich nur noch um mehr, mehr, mehr nur um mehr zu haben. Nach dem tatsächlichen, praktischen Nutzen fragt doch keiner mehr. Genau so wenig wie nach der Stromverschwendung. Das alles ist jetzt zwar meine subjektive Meinung. Aber ich vermute mal, dass da auch objektiv ein ziemlich wahrer Kern sein wird.
Der wahre kern ist auch dass man keinen mac braucht um qualitaet zu haben und kein ipod um musik zu hoeren;). aber rationalitaet ist nicht das einzige was uns treibt, sonst wuerden wir vermutlich 20jahre lang software optimieren, statt hardware leistungsstaerker zu machen mit hyper ultra highlevel sprachen die beim start simpelster anwendungen mehr speicher verbrauchen als damals grossrechner hatten ;).