Warum wird ein Windows-PC immer langsamer?
-
Also mir fällt das auch immer wieder auf, wobei ich sagen muss, dass ich auf meinem Rechner zuhause sehr viel installiere und ausprobieren. Alle 8-12 Monate wird der dann wirklich platt gemacht und ist danach bedeutend schneller.
Ich defragmentiere schon recht regelmäßig, aber danach wird es kaum merkbar schneller. Die einzige einigermaßen logische Erklärung dir mir bisher eingefallen ist, wäre das vielleicht der PATH, die Suchorte für ddls oder die Registry voller werden, was das finden von Dateien/Einträgen langsamer macht. Das würde die gleichbleibende Leistung aber die langsamere Reaktionszeit beim starten von Programmen etc. erklären.
-
Werner Salomon schrieb:
TSVNCache.exe 1256 TortoiseSVN status cache http://tortoisesvn.net
Das Ding hab ich auch auf der Arbeit und bei dem ist mir aufgefallen, dass es manchmal ne ganze Weile auf der Platte rum macht, wenn es beim Runterfahren nicht richtig beendet wurde. Dann scheint es alle SVN Verzeichnisse nochmal zu scannen.
Im taskmanager kann man sich zusätzliche Spalten für E/A Lesen und schreiben anzeigen lassen, dann sieht man wer viel auf der Platte macht.
-
Werner Salomon schrieb:
Hat jemand eine Erklärung? oder weiß womöglich Abhilfe?
regelmäßig entmisten, diejenigen selbst installierten Programme, bei denen sich herausstellt, daß man sie nie braucht, deinstallieren.
Mal ein Auge auf die gestarteten Dienste werfen (aber um Gottes willen nicht willkürlich irgendeinen der Dienste abschalten, von dem man nicht genau weiß, ob er systemrelevant ist)
Auf defragmentierung & co. wurde ja schon hingewiesen.Notfalls OS wechseln - andere desktops haben auch hübsche Fenster

-
Also der Thread hier ist interessant. Ich denke auch oft darüber nach, was es ist, das speziell Windows PCs mit der Zeit an Reaktionsgeschwindigkeit nachlassen. Ich kenne mich ein bisschen mit PCs aus, habe aber bisher keinen Grund gefunden, warum das so sein muss.
Bei solchen Themen fallen immer oft so Schlagwörter wie "Defragmentieren", "Programme deinstallieren" oder "Windows Tweaks". Aber erwiesenermaßen bringen diese ganzen "Tricks" herzlich wenig.
Defragmentieren kann unter Umständen Programmstarts beschleunigen. Aber das ist ja im Grunde nicht die Hauptbeschäftigung eines Users. Außerdem verliert dieser Faktor mit zunehmender Festplattenübertragungsrate an Bedeutung.
Programme deinstallieren bringt zuerst einmal gar nichts. Warum auch? Wenn man sich das mal überlegt sind nach der Deinstallation ein paar Mbytes mehr auf der Platte, ein paar Startmenü Einträge und ein paar Registrierungseinträge weniger da. Aber das beeinflusst nicht die Performance von Windows. Außer in dem speziellen Fall, dass das Programm im Autostart war und im Hintergrund läuft. Dann kann es bei geringem RAM sein, das ausgelager wird, oder der Systemstart länger braucht. Aber darauf wollte der Threadersteller glaube ich nicht hinaus.
Ja und diese Tweak
Immer wieder ein heißes Thema. Aber mehr nutzlos als heiß. Es stimmt, dass wenn man Dienste deaktiviert, das der Systemstart schneller vonstatten geht. Aber die allermeisten dieser Tipps greifen in Prozesse ein, die vom Hersteller durchaus gewollt sind und sinnvoll sind. Oft liest man dass die Auslagerungsdatei 3*RAM Größe betragen soll. Das ist ein gutes Beispiel für einen völlig sinnlosen Ratschlag. Es kann sogar zu Problemen führen, wenn ein Programm nicht genug virtuellen RAM zur Verfügung hat.Alle diese Dinge haben keinen Einfluss darauf, warum der Klick auf "Start" das Startmenü erst nach 2 Sekunden anstatt sofort zu Tage fördert. Oder warum der PC manchmal einfach zu "hängen" scheint, auch wenn die CPU Auslastung oder die Festplatten Aktivität gegen 0 geht.
Ich finde das agnz zu Recht auch komisch, denn eigentlich sollte es ja so sein, dass wenn das Betriebssystem sonst nichts zu tun hat, es sich schnellstens um die angeforderte Aktion kümmern sollte.Die einzige Erklärung, die ich dafür habe ist ungeschicktes Speichermanagment durch den Programmierer bzw. eine Programmierung, die anfällig für eben dieses Problem ist.
Aber meiner Meinung fällt dieses Problem in dieselbe Kategorie wie: "Warum braucht eine moderne Quadcore-CPU in diesen Zeiten immer noch mehr als eine Stunde, um einen HD-Film in h264 umzuwandeln?"
Und die Antwort ist glaube ich recht einfach. Die Programmierer scheren sich in diesen Zeiten nicht mehr um Optimierung, Skalierung und Anpassung an die Hardware, weil es einfach zu teuer ist. Warum auch. Wenn immer mehr Rechenleistung kommt, ist Optimierung nachrangig.
Letztens ist mir was passiert, wo ich aufstoßen musste: Ich konnte kein Firmware Update meine Sony Ericsson Handys durchführen, weil der Update Client zum Ausführen Macromedia Shockwave als Internet Explorer Plugin benötig. Hallo??????????
-
Das ist unter anderen Betriebssystemen auch nicht so viel anders. Die Partitionen werden zum Beispiel mit der Zeit einfach träger, dagegen hilft aber ein Sichern aller Dateien, neu Formatieren und die Dateien zurückspielen. Das alleine bringt schon ganz schön was.
-
Bestimmt gibts da ne eingebaute Slow-Down-Funktion, die abhängig vom Datum das System abbremst. Nur so kriegen sie es hin dass das neue tolle Betriebssystem wieder etwas schneller ist als das alte von gestern - aber langsamer als das selbe alte vor 5 Jahren

-
Linux-User schrieb:
Das ist unter anderen Betriebssystemen auch nicht so viel anders.
man hört aber wenig Beschwerden in dieser Richtung aus der linux-Ecke, oder habe ich da was verpaßt ?
-
u_ser-l schrieb:
Linux-User schrieb:
Das ist unter anderen Betriebssystemen auch nicht so viel anders.
man hört aber wenig Beschwerden in dieser Richtung aus der linux-Ecke, oder habe ich da was verpaßt ?
Das Problem bei Linux ist, dass jede 6 Monate eine neue Distribution erscheint, die man unbedingt ausprobieren muss.
-
Ich halte den Effekt für psychologisch:
Als ich meinen neuen Rechner gekauft hatte, kam mir der alte auf einmal sehr, sehr lahm vor. Der neue hingegen sehr schnell. Inzwischen habe ich mich allerdings an die Geschwindigkeit gewöhnt, also kommt mir der alte noch langsamer vor, obwohl seitdem keinen nennenswerten Veränderungen (Installationen, etc. ) mehr vorgenommen wurden.u_ser-l schrieb:
Linux-User schrieb:
Das ist unter anderen Betriebssystemen auch nicht so viel anders.
man hört aber wenig Beschwerden in dieser Richtung aus der linux-Ecke, oder habe ich da was verpaßt ?
Ich kann damit z.T. dienen. *flamewarbeginn* Ich habe nicht gemerkt, dass Linux mit der Zeit langsamer wird, aber ich finde es von Haus aus, ähnlich wie Vista und Seven, träger als Windows XP.
-
Mr X schrieb:
Ich kann damit z.T. dienen. *flamewarbeginn* Ich habe nicht gemerkt, dass Linux mit der Zeit langsamer wird, aber ich finde es von Haus aus, ähnlich wie Vista und Seven, träger als Windows XP.
Hast Du schon mal opensolaris mit ZFS und nur 1GB Ram versucht? Dagegen ist alles schnell
Mit 2GB ist es aber richtig gut.
-
Mr X schrieb:
Ich halte den Effekt für psychologisch:
Ich nicht, da durchaus das gleiche System vor und Nach einer Neuinstallation (mit anschließenden Installieren der Updates und der wesentlichen Software) messbar schneller sein kann (nicht muss, aber solche Fälle hatte ich auch schon - und Viren, Spyware und Trojaner konnte ich ausschließen).
-
Defragmentieren kann unter Umständen Programmstarts beschleunigen. Aber das ist ja im Grunde nicht die Hauptbeschäftigung eines Users. Außerdem verliert dieser Faktor mit zunehmender Festplattenübertragungsrate an Bedeutung.
Das stimmt so nicht ganz.
Erstmal müssen viele Programme auch nach den Starten bzw. auch beim Beenden ewig viel auf der Platte rummachen.
Und dann ist die Festplattenübertragungsrate (MB/sec bei linearem lesen/schreiben) herzlich egal. Es geht um Seekzeiten, und die haben sich in den letzten paar Jahren kaum verbessert.Defragmentieren mit den Windows Defragmentierer bringt allerdings wirklich nicht so viel. Aber es gibt andere Tools, z.B. JkDefrag: http://www.kessels.com/Jkdefrag/
Da gibt's eine "sort" Funktion, die alle Dateien nach Pfad sortiert auf die Platte legt. Und das bringt *einiges* bei einem älteren PC.Das Problem ist nämlich nicht nur, dass einzelnen Dateien "zerrissen" sind, sondern dass die zig oder hunderten DLLs/Datenfiles für bestimmte Programme durch Updates und auch durch Defragmentieren mit der Zeit über die ganze Platte verteilt werden.
Eine Datei liegt zwar schön am Stück, aber wenn er hunderte Dateien lesen muss, und jedesmal über die ganze Platte seeken, dann ist das trotzdem langsam.Sortiert nach Pfad geht es viel schneller, da dann z.B. schonmal das ganze system32 Verzeichnis, bzw. auch die Programmverzeichnisse alle fast "am Stück" liegen.
Wäre cool wenn du es ausprobieren würdest, und das Resultat hier posten.
Allerdings solltest du das übers Wochenende laufen lassen, da das Ding mit der "sort" Option einfach ewig braucht (er muss ja auch *alle* Daten auf der ganzen Partition umschreiben).
----
Wenn du einen schnellen PC haben willst, kauf dir eine SSD

Intel oder OZC Vertex - die geben unglaublich das (ich hab mit ne Intel gekauft, und der Unterschied ist echt dramatisch).
-
DEvent schrieb:
u_ser-l schrieb:
Linux-User schrieb:
Das ist unter anderen Betriebssystemen auch nicht so viel anders.
man hört aber wenig Beschwerden in dieser Richtung aus der linux-Ecke, oder habe ich da was verpaßt ?
Das Problem bei Linux ist, dass jede 6 Monate eine neue Distribution erscheint, die man unbedingt ausprobieren muss.
das letzte Mal, dass ich eine Distribution getestet habe, war in Sep. 2004, nämlich Gentoo. Seitdem habe ich nie wieder etwas anders installiert

-
wenn ich bei mir internet explorer 7 installiere öffnet sich das startmenü oft verzögert => auf keinen fall installieren
-
hustbaer schrieb:
Wenn du einen schnellen PC haben willst, kauf dir eine SSD

Intel oder OZC Vertex - die geben unglaublich das (ich hab mit ne Intel gekauft, und der Unterschied ist echt dramatisch).Hilft aber nichts, wenn man mindestens zwei Programme installiert hat, die z.B. beim Runterfahren (warum auch immer) als letztes von Windows beendet werden sollen. Die warten dann solange aufeinander, bis Windows die Schnauze voll hat und erst nach einem Timeout von meinetwegen 10 Sekunden alle killt. Solche rein programmiertechnischen Gurken für Windows gibt es auch fürs Hochfahren und das Starten von (anderen) Programmen, sogar fürs Kontextmenü.
-
Von vorherigen PCs kenne ich das langsamer-werden auch, mein Vista mülle ich zwar seit 1,5 Jahren mit allem möglichen zu, habe aber keine Einbußen der Reaktionszeit. Das einzige Programm, was mir hier bis jetzt Reaktionszeit geklaut hat, war mein Ex-Virenscanner, und der nicht zu knapp.
-
DEvent schrieb:
u_ser-l schrieb:
Linux-User schrieb:
Das ist unter anderen Betriebssystemen auch nicht so viel anders.
man hört aber wenig Beschwerden in dieser Richtung aus der linux-Ecke, oder habe ich da was verpaßt ?
Das Problem bei Linux ist, dass jede 6 Monate eine neue Distribution erscheint, die man unbedingt ausprobieren muss.
Ich rede hier von der Geschwindigkeit die Programme zum starten benötigen (kaltstart nicht warmstart wohlgemerkt, dafür spielt die Festplatte dann ja keine Rolle mehr). Nach ein paar Monaten geht das einfach langsamer.
Gegen Autostart-Dienste und Programme kann man ja sehr leicht was tun. Sowohl unter Linux als auch Windows (wobei sich zumindest bei meinem Linux keine Programme nach der Installation automatisch starten, das muss ich dann schon extra machen. Bei Windows ist es ja eher umgekehrt...).
Ein anderer Vorteil unter Linux dürfte wohl die Treibersituation sein. Es hat halt schon Vorteile, wenn diese (fast) alle mit dem Kernel mitgeliefert werden.
-
Badestrand schrieb:
Von vorherigen PCs kenne ich das langsamer-werden auch, mein Vista mülle ich zwar seit 1,5 Jahren mit allem möglichen zu, habe aber keine Einbußen der Reaktionszeit.
Ja, mit Vista scheint das wirklich besser zu sein. Kann auch kein langsamer werden feststellen.
-
Linux-User schrieb:
Ich rede hier von der Geschwindigkeit die Programme zum starten benötigen (kaltstart nicht warmstart wohlgemerkt, dafür spielt die Festplatte dann ja keine Rolle mehr). Nach ein paar Monaten geht das einfach langsamer.
Ja, könnte möglich sein, daß es sich hier um ein informationstheoretisches Analogon zur Zeitdilatation in der Relativitätstheorie handelt - In der Umgebung von gut gefüllten Massenspeichern verlangsamt sich die Zeitmessung

Nein, im Ernst - echt? Ist mir bisher bei Systemen mit dem Pinguin nie aufgefallen.
-
Edit: Doppelpost.