verringert dauerbetrieb die lebenszeit?



  • @3rei
    Du kannst wirklich nicht rechnen, oder?

    Abnutzung ~~ Laufzeit * A + Standbyzeit * B + Einschaltvorgänge * C + Standby-/Betriebswechsel * D ...

    Wenn C, D vs. A, B gross genug sind kann es sich schnell auszahlen den PC permanent eingeschaltet zu lassen, bzw. sogar ihn nichtmal in den Standby fahren zu lassen.



  • 3rei schrieb:

    TGGC schrieb:

    IMHO: Die Zeit die ein Rechner laeuft duerfte sich damit auf jeden Fall verlaengern, da an/aus auf jeden Fall keine positive Auswirkungen haben kann.

    Ja, wenn man den Rechner immer laufen lässt, läuft er länger. 😃 Ist nur die Frage, ob etwas davon hat, wenn der Rechner im Dauerbetrieb eine Laufzeit von 3 Jahren hat und man ihn in diesen 3 Jahren effektiv 1 Jahr nutzt und nach 3 Jahren in die Tonne wirft, oder wenn der Rechner durch ein- und ausschalten nur eine Laufzeit von 2 Jahren hat und man ihn effektiv 2 Jahre nutzt und nach 6 Jahren in die Tonne wirft*.

    * Die Zahlen, ob ein Rechner 3 Jahre Dauerbetrieb und 2 Jahre ein/ausschalten oder sonst was aushält sind erfunden, soll nur das Problem zeigen.

    👍 👍



  • hustbaer schrieb:

    @3rei
    Du kannst wirklich nicht rechnen, oder?

    Abnutzung ~~ Laufzeit * A + Standbyzeit * B + Einschaltvorgänge * C + Standby-/Betriebswechsel * D ...

    Wenn C, D vs. A, B gross genug sind kann es sich schnell auszahlen den PC permanent eingeschaltet zu lassen, bzw. sogar ihn nichtmal in den Standby fahren zu lassen.

    Mit Laufzeit meinst du die Zeit, die ein Rechner eingeschalten ist, oder? In meiner Rechnung habe ich Laufzeit als das bezeichnet, wie lange ein Rechner läuft, bis er kaputt ist. Aber sonst ist das genau meine Rechnung und ich gehe davon aus, dass A wesentlich größer als B ist. Wenn man jetzt 10h/Tag mit dem Rechner wirklich arbeitet und er 14h/Tag nur so im Dauerbetrieb läuft, nutzt er sich in den 14h ab, ohne das du was davon hast. Diese 14h Abnutzung hast du nicht, wenn du den Rechner ausschaltest und B viel kleiner als A ist. Oder gehst du wirklich davon aus, dass die Abnutzung bei Betrieb und Standby gleich ist?



  • 3rei schrieb:

    Wenn man jetzt 10h/Tag mit dem Rechner wirklich arbeitet und er 14h/Tag nur so im Dauerbetrieb läuft, nutzt er sich in den 14h ab, ohne das du was davon hast. Diese 14h Abnutzung hast du nicht, wenn du den Rechner ausschaltest und B viel kleiner als A ist. Oder gehst du wirklich davon aus, dass die Abnutzung bei Betrieb und Standby gleich ist?

    Wenn du ihn fuer die 10h Arbeit 100x schaltest, dann wahrscheinlich schon. Bei Sparbirnen ist das ja sehr genau untersucht wurden, die halten durschnittlich 10.000h und 5.000 Schaltvorgaenge. D.h. also entweder 50 Tage mit 100x schalten oder 416 Tage 24/7 Dauerbetrieb.



  • TGGC|work schrieb:

    Bei Sparbirnen ist das ja sehr genau untersucht wurden, die halten durschnittlich 10.000h und 5.000 Schaltvorgaenge. D.h. also entweder 50 Tage mit 100x schalten oder 416 Tage 24/7 Dauerbetrieb.

    Schön, Rechner sind aber keine Sparbirnen.

    Was soll übrigens beim PC Einschalten/Booten einen so großen Verschleiß erzeugen, dass sich die Laufzeit so merklich verringert? Nach ein oder zwei Sekunden haben alle Motoren den gleichen Zustand wie beim Dauerbetrieb. Sind ja keine Verbrenner die erst Betriebstemperatur erreichen müssen.



  • Ach und die Ausdehnung durch die Wärme ist z.B. egal?
    Ich meine, die Temperaturunterschiede sind ja z.T. schon recht ordentlich, so ne CPU oder speziell GPU hat auch im Idle schnell mal etliche zig Grad mehr als Lufttemperatur.



  • 3rei schrieb:

    Sind ja keine Verbrenner die erst Betriebstemperatur erreichen müssen.

    Aeh doch, so gut wie alle Bauteile im PC erwaermen sich im Betrieb.



  • Erstens hab ich mit den Verbrennern die Motoren gemeint und da wollen es Elektormotoren lieber kühl. Und zweitens ist das beim PC keine Betriebstemperatur die erreicht werden muss, damit der PC besser läuft. Verbrenner brauchen eine bestimmte Temp, damit die Schmierung stimmt. Wozu sollte eine CPU sowas brauchen? PCs will man eigentlich immer kühl halten, deswegen ja auch die Lüfter. Habt ihr irgendwo Messungen die zeigen, ob eine CPU schneller Kaputt geht, wenn sie 10000 mal "eingeschalten" wird oder dauernd läuft? Ich hab noch nie gehört, dass eine CPU deshalt Kaputt gehen soll, eigentlich eher durch übertakten und zu hohe Temperaturen.



  • Außerdem wäre dieser angebliche Verschleiß durch die Erwärmung der CPU beim Start nicht wirklich was anderes als mal kurz was berechnen, bei dem die CPU wärmer wird. Dann wäre jedes Video anschauen oder Kompilieren, so viel Verschleiß wie einschalten. Und ich glaube wir können oft kompilieren. Wenn du ein modernes Spiel spielst, wäre das dann so viel wie 100 mal einschalten?



  • hustbaer schrieb:

    Ach und die Ausdehnung durch die Wärme ist z.B. egal?
    Ich meine, die Temperaturunterschiede sind ja z.T. schon recht ordentlich, so ne CPU oder speziell GPU hat auch im Idle schnell mal etliche zig Grad mehr als Lufttemperatur.

    Wenn die Wärmeausdehnung der verschiedenen Komponenten wie Chip und Platine nicht aufeinander abgestimmt wär, würden Lötstellen sofort reißen. Deswegen geh ich davon aus, dass die ziemlich genau aufeinander abgestimmt sind.


Anmelden zum Antworten