Oblivion: 600 MiB, 800 MiB, 900 MiB, 1.1 GiB, ... ende irgendwann?



  • Wenn, dann ist es schlecht designed. Der Sourcecode wird ja wohl nur einen verschwindend kleinen Teil der Größe ausmachen. Aber jeder Standardrechner hat ja heutzutage locker schon 200 GB... also wayne ^^



  • this->that schrieb:

    Wenn, dann ist es schlecht designed. Der Sourcecode wird ja wohl nur einen verschwindend kleinen Teil der Größe ausmachen. Aber jeder Standardrechner hat ja heutzutage locker schon 200 GB... also wayne ^^

    hm das wäre Traumhaft. Alle Anwendungen werden beim ersten Start in den Speicher geladen und nie wieder entfernt. Das OS ist sowieso zu 100% im Speicher und meine Musik-Sammlung wird auch in den Speicher geladen. Am besten man schaft Festplatten ab und ersetzt sie duch Flash-Speicher, so 500 Gigabyte-Flash-Speicher.

    Ne das absolute geilste wäre 500 Gigs L1-Speicher, direkt mit dem Prozessor verbunden. Muahaha 500 Gigs mit vollem Prozessortakt. Ladezeiten im negativen bereich 😃



  • Ich wär schon froh, wenn mein OS freien Speicher nicht einfach ungenutzt und verschimmeln lassen würde, sondern anständig das Dateisystem cachen.



  • Neuer Rekord: 1.2 GiB 😃 👍
    Wer schafft es, dass zu überbieten? (Tipp: Man kann sich im Taskmanager den Spitzen-Arbeitssatz anzeigen lassen)



  • Optimizer schrieb:

    Ich wär schon froh, wenn mein OS freien Speicher nicht einfach ungenutzt und verschimmeln lassen würde, sondern anständig das Dateisystem cachen.

    Dann benutze Linux 🙂 Bei mir wird 527 MB für
    Buffers und 255 MB für Cache benutzt.

    Ich habe max. 1024 MB RAM drinner.

    "Freier", im Sinne von ungenutzter, Speicher habe ich 21 MB.

    total       used       free     shared    buffers     cached
    Mem:          1009        988         21          0          3        255
    -/+ buffers/cache:        729        280
    Swap:         1027        524        502
    


  • Ja, das macht Linux zugegebenermaßen wirklich besser. Windows Vista hat ja dieses geile Superfetch, was häufig benutzte Dateien cached, der Witz ist nur, dass man scheinbar die Cache-Größe nicht einstellen kann? Jedenfalls ist sie zu klein. Und selbst wenn man es könnte, würde er dann wirklich bei erhöhtem RAM-Verbrauch den Cache wieder abbauen oder würde er den Cache swappen (was ja wohl ewig scheiße wär). Vielleicht kann das ein Windows-Nerd hier beantworten. 🙂

    Unterdessen jage ich weiter nach Rekorden. Also wenn man einmal von Bravil nach Bruma gelaufen ist, kriegt man ziemlich viel Speicherbedarf zusammen. 😃



  • Ich verstehe das Problem nicht ganz. Du hast 2GB RAM und wunderst Dich warum die nix freigeben? Warum sollten sie einmal geladene Landschaften freigeben, solange noch so viel Speicher verfügbar ist?
    Da Spiele üblicherweise exklusiv auf nem Rechner laufen sehe ich da auch nicht wirklich ein Problem. Dafür haste nach ner Weile wahrscheinlich kaum noch Nachladeruckler. Bedenklich fände ich's erst, wenn er mehr Speicher angefordert hat als Dein System bieten kann.



  • Ich kenne auch jemanden, der nur 1 GiB RAM hat, der findet das nicht mehr so lustig... natürlich, wie kann ich schon beweisen, dass der Speicher über Zeit leakt? Trotzdem kann es auch aus Performance-Gründen nicht Sinn machen, immer nur noch mehr Speicher anzufordern, ein großes Working Set macht dein Programm ja schließlich auch langsam.



  • Optimizer schrieb:

    Ich kenne auch jemanden, der nur 1 GiB RAM hat, der findet das nicht mehr so lustig... natürlich, wie kann ich schon beweisen, dass der Speicher über Zeit leakt? Trotzdem kann es auch aus Performance-Gründen nicht Sinn machen, immer nur noch mehr Speicher anzufordern, ein großes Working Set macht dein Programm ja schließlich auch langsam.

    Okay, wenn er die Menge bei 1GB anfordert ist das auch problematisch. Aber wenn der Speicher da ist, dann isses doch nicht langsamer den allokiert zu lassen als ihn freizugeben und bei bedarf wieder anzufordern?

    Insofern finde ich die Situation wie Du sie zunächst beschrieben hast nicht bedenklich. Wenn die selbe Speichermenge aber auch auf kleineren Systemen angefordert wird ist das ne andere Sache.



  • Das ist eben die Frage, ob es sinnvoll ist sich um sein eigenes Cachen zu kümmern (Große Daten wie Landschaften selbst nachladen, aus dem RAM löschen nach Bedarf) oder alles in den Speicher packen und den Kernel auslagern lassen 🙂

    btw. was soll MiB und GiB sein?



  • Jester schrieb:

    Optimizer schrieb:

    Ich kenne auch jemanden, der nur 1 GiB RAM hat, der findet das nicht mehr so lustig... natürlich, wie kann ich schon beweisen, dass der Speicher über Zeit leakt? Trotzdem kann es auch aus Performance-Gründen nicht Sinn machen, immer nur noch mehr Speicher anzufordern, ein großes Working Set macht dein Programm ja schließlich auch langsam.

    Okay, wenn er die Menge bei 1GB anfordert ist das auch problematisch. Aber wenn der Speicher da ist, dann isses doch nicht langsamer den allokiert zu lassen als ihn freizugeben und bei bedarf wieder anzufordern?

    Hmmmm weiß nicht so genau. Du hast ja die Speicherhierarchie und je weiter oben du deine ganze Anwendung reinkriegst, desto schneller ist i.d.R. alles. Wenn du deine ganze Anwendung nicht auf die Festplatte kriegst, ist alles scheiße. Wenn du sie nicht komplett in den RAM kriegst, ist alles schlecht. Wenn du sie nicht in komplett in den L3 Cache kriegst, ist es nicht optimal schnell. Usw. wird halt immer besser. Je mehr du in nen schnelleren Speicher bringst, desto besser flutscht alles, aus dem RAM was nachzuladen sind halt auch ein paar tausend Takte...

    Und die Welt ist so riesig, dass ich eigentlich nicht viel davon hab, wenn er sich die Landschaften, die ich gerade besuchte habe, merkt. Höchstwahrscheinlich gehe ich als nächstes woanders hin. Aber es ist eh nur Spekulation, wir wissen ja nicht, was da scheinbar immer weiter anwächst...



  • rüdiger schrieb:

    btw. was soll MiB und GiB sein?

    Das sind Mega binary Byte, also 1024*1024 Byte. So ne Nerd-Geschichte, wenn man sich ganz korrekt ausdrücken will, was man meint. 😃
    Im Gegensatz dazu gibt's die Wirtschaftler-Gigabytes, das sind die GB, die kriegst du angegeben wenn du eine Festplatte kaufst.



  • Optimizer schrieb:

    Hmmmm weiß nicht so genau. Du hast ja die Speicherhierarchie und je weiter oben du deine ganze Anwendung reinkriegst, desto schneller ist i.d.R. alles. Wenn du deine ganze Anwendung nicht auf die Festplatte kriegst, ist alles scheiße. Wenn du sie nicht komplett in den RAM kriegst, ist alles schlecht. Wenn du sie nicht in komplett in den L3 Cache kriegst, ist es nicht optimal schnell. Usw. wird halt immer besser. Je mehr du in nen schnelleren Speicher bringst, desto besser flutscht alles, aus dem RAM was nachzuladen sind halt auch ein paar tausend Takte...

    Schon klar, aber solange mir der Speicher noch nicht ausgeht sehe ich nicht wirklich nen Sinn drin nicht benötigte Daten freizugeben. Das kann man ja später immer noch machen. Die Ebenen der Speicherhierarchie, die oberhalb des RAM liegen sind offensichtlich nicht ausreichend um den Content von Oblivion zu enthalten, also braucht man das RAM eh.


Anmelden zum Antworten