Wieso wird im Rechenzentrum kein Undervolting benutzt?
-
Im ürbigen kann man das automatisierte Programm noch etwas intelligenter schreiben.
Z.b. könnte es, sobald die erste niedrigste Spannung gefunden wurde, von der der 1 h Test bestanden wurde und man annimmt, daß die CPU damit stabil läuft, man einen Test der länger dauert nachschalten.
Die Schritte sehen also so aus.
1. Suche die niedrigste Spannung die den ersten 1 h Test noch besteht.
2. Wenn gefunden, schalte 4 Stufen auf eine höhere Spannung als Puffer zurück.
3. Nun mache einen nachgeschaltenen Test, der anstatt 1 h nun z.b. 3 Tage dauert.
Besteht er ihn, dann ist das die gesuchte Spannung, besteht er ihn nicht, dann schalte nichmals 4 Stufen zurück und mache nochmal einen 3 Tage langen Testdurchlauf.
-
Wenn du glaubst dass sich das rentiert, dann mach mal. Gründe ne Firma, schreib so ein Programm für automatisierte Tests und vermarkte es.
-
hustbaer schrieb:
Wenn du glaubst dass sich das rentiert, dann mach mal. Gründe ne Firma, schreib so ein Programm für automatisierte Tests und vermarkte es.
Das liese sich sicher als kostenloses Open Source Projekt realisieren, bei dem kommerziellen Produkt steht man als Firma rechtlich gesehen für das Ding gerade.
Das Risiko sollte also besser beim Betreiber des Superrechners liegen, daher Open Source und kostenlos.
-
Server kosten einiges mehr als normale Desktoprechner, weil sie stabil laufen sollen. Wenn eine Firma stromsparende Server will, dann kauft sie welche, die sicher funktionieren, z.B. von dieser Greenlist. Die kaufen sich sicher nicht erst nen Stromfresser und lassen dann irgendjemand die Spannung "ausloten". Außerdem würde sowas auch nicht in 3 Tagen gehen. Da müssten erst mal Verträge über Garantien usw. aufgesetzt werden, sowas braucht schon länger als 3 Tage. Dann fallen auch noch die Server für ne ganze Weile aus, bis alle umgestellt wären, das kostet wahrscheinlich einiges mehr als 50000. Wieso nicht gleich stromsparende Rechner kaufen?
-
Ökofreak schrieb:
Das Risiko sollte also besser beim Betreiber des Superrechners liegen, daher Open Source und kostenlos.
Dann macht es keiner.
-
nachtfeuer schrieb:
Es lohnt sich auf jeden Fall, sich über sowas Gedanken zu machen, die HPC-Szene ist doch ein gutes Beispiel dafür. Vor nicht allzulanger Zeit lag der bessere Effizienzwert bei etwa 400 Mflops/Watt, neulich waren es schon über 700 (Roadrunnersystem, mit Sicherheit auch Spannungsmanipulation dabei) dann wieder etwas besser und jetzt sogar 1664 Mflops/Watt, und das ist net schlecht.
Die großen Sprünge in der Energieeffizienz kommen allerdings sehr wahrscheinlich durch Miniaturisierungsschritte bei der Herstellung von Prozessoren. Neuere Computer sind in der Regel deutlich energieeffizienter als Rechner, die ein paar Jahre alt sind. Um diesen Effekt zu kriegen, muss man sich noch keine Gedanken um die Energieeffizienz machen.
Aber es gibt auch Gründe im Design bestimmter Supercomputer, die zu hoher Energieeffizienz führen. Zum Beispiel sind diese BLUEGENE-Architekturen von IBM sehr sparsam. Die zeichnen sich aber unter anderem dadurch aus, dass sie unglaubliche Mengen von Prozessoren nutzen, die alle recht stromsparend sind. Andere Supercomputer kommen mit weniger Prozessoren auf die gleiche Rechenleistung, verbrauchen aber mehr Strom. Diese BLUEGENE-Architekturen sind aber auch nicht unbedingt der Königsweg. Es macht einen Unterschied, ob man sein Programm auf einige zehntausend Prozessoren parallelisieren will oder nur auf einige tausend. Die extreme Parallelisierung, die die BLUEGENE-Systeme erfordern, ist nicht für jede Anwendung realisierbar. Es gibt zumindest eine Menge Anwendungen, die man zwar sinnvoll auf 1000 Prozessoren parallelisieren kann, aber nicht auf 10000.
-

Ökofreak schrieb:
enn dieser also in x Milliarden Fällen zuverlässig schaltet, warum sollte er es dann einmal nicht tun?
*lol*
Weil dieses Verhalten ganz typisch für Fehlerwahrscheinlichkeiten ist. Das Atomkraftwerk lief 10 Jahre ohne Störung zuverlässig, warum sollte es im 11. Jahr einen Fehler haben?
-
Ökofreak schrieb:
hustbaer schrieb:
Wenn du glaubst dass sich das rentiert, dann mach mal. Gründe ne Firma, schreib so ein Programm für automatisierte Tests und vermarkte es.
Das liese sich sicher als kostenloses Open Source Projekt realisieren, bei dem kommerziellen Produkt steht man als Firma rechtlich gesehen für das Ding gerade.
Das Risiko sollte also besser beim Betreiber des Superrechners liegen, daher Open Source und kostenlos.Sensationelle Aussage. Du willst das Risiko nicht tragen, aber die Rechenzentren sollen das Risiko tragen. Die werden es aus dem genau gleichen Grund nicht machen, weil sie auch nicht für das Ding gerade stehen wollen, wenn es denn nicht richtig funktioniert. Ein Rechenzentrum probiert Risiken zu vermindern und nicht zu erhöhen.
Nichts gegen Umweltschutz, aber bitte realistische und vernünftige. Schau dir mal die Konzepte der Grünliberalen an. Das ist eine vernünftige Herangehensweise an das Thema Wirtschaft und Ökologie.
Grüssli
-
Marc++us schrieb:

Ökofreak schrieb:
enn dieser also in x Milliarden Fällen zuverlässig schaltet, warum sollte er es dann einmal nicht tun?
*lol*
Weil dieses Verhalten ganz typisch für Fehlerwahrscheinlichkeiten ist. Das Atomkraftwerk lief 10 Jahre ohne Störung zuverlässig, warum sollte es im 11. Jahr einen Fehler haben?
@Ökofreak
Jo echt, semmel das mal in dein Hirn rein, du Backe!
-
Ich mach das hier mal zu.
Wenn der Thread ernst gemeint ist, deutet das auf wesentlich mehr mangelnde Erfahrung des OP mit Serverbetrieb und Rechenzentren hin, als sich in einem Thread korrigieren lässt.
Aber für mich riecht das sowieso nur nach Getrolle, das brauche ich gar nicht.