Windows Xp oder Vista?
-
darthdespotism schrieb:
Aktuelle Linux-FSes (ext2, ext3, reiserFS) sollen wohl wegen des anderen Vorgehens nicht fragmentieren und müssen daher auch nicht mehr defragmentiert werden, denke das war gemeint
Wie gehen die vor?
Bei Wikipedia unter Fragmentierung steht da etwas von "Mythos" und von "andere Berechnung, weswegen die Zahl weit weniger erschreckend aussieht".
NTFS gehört in der Hinsicht vielleicht nicht zu den schnellsten, aber technisch sicherlich zu den besten Dateisystemen.
MfG SideWinder
-
SideWinder schrieb:
NTFS gehört in der Hinsicht vielleicht nicht zu den schnellsten, aber technisch sicherlich zu den besten Dateisystemen.
Zu den technisch besten unter Windows verfügbaren Dateisystemen vielleicht. (Zugegeben: Besser als HFS+ oä ist es auch.)
Windows hat mittlerweile in vielerlei Hinsicht technisch stark zu konkurrierenden Betriebssystemen aufgeschlossen. Das Dateisystem gehört allerdings wohl kaum dazu.
Zu Deinen Wikipedia-Anmerkungen:
http://en.wikipedia.org/wiki/File_system_fragmentation#Proactive_techniquesWikipedia schrieb:
Ext2 implementiert mehrere Mechanismen, um Fragmentierung zu reduzieren. Dazu gehört das Zusammenfassen von Blöcken zu Blockgruppen. Dateien werden dann möglichst gleichmäßig auf Blockgruppen verteilt. Dadurch entsteht eine gleichmäßige Verteilung von Dateien (und freien Bereichen) auf der Platte. Im Gegensatz zu FAT werden nun Dateien immer in möglichst schlecht passende freie Bereiche gelegt, also kleine Dateien in große Lücken, um auf Größenänderungen der betreffenden Dateien ohne Verluste reagieren zu können. Hinter jeder Datei versucht Ext2 auch genug Platz zu lassen, sodass kleinere Größenänderungen von Dateien nicht prompt zu einer Fragmentierung führen. Durch die Verteilung der Daten über den kompletten nutzbaren Bereich fällt im Serverbetrieb die Fragmentierung weniger ins Gewicht als beim Lesen im „Burst“-Modus. So ordnen moderne Festplatten-Scheduler die Lese- oder Schreibanforderungen derart, dass Suchzeiten (z. B. des Schreib-Lese-Kopfes der Platte) minimal werden.
Eine weitergehende Reduzierung von Fragmenten erhält man z. B. durch das Dateisystem XFS, welches Schreiboperationen verzögert (delayed write) und im RAM möglichst komplett zwischenspeichert. Bei kleinen Dateien ist so die komplette Dateigröße dem Dateisystem bekannt, bevor die Datei auf die Platte geschrieben wird. So kann XFS eine optimale Stelle für die Datei finden. Passt die Datei nicht komplett in den RAM, wird natürlich schon vorher begonnen den Puffer auf den Datenträger zu schreiben.
Wikipedia schrieb:
Die unter Linux und Unix-Varianten verwendeteten Dateisysteme sind weitestgehend selbstdefragmentierend[...]
Erklärt wohl einen Teil des Missverständnises. "Unix-FS fragmentieren nicht" ist Blödsinn. "Unix-FS sind selten stark fragmentiert" hingegen ist aufgrund oben zitierter Eigenschaft durchaus plausibel.
-
SideWinder schrieb:
darthdespotism schrieb:
Aktuelle Linux-FSes (ext2, ext3, reiserFS) sollen wohl wegen des anderen Vorgehens nicht fragmentieren und müssen daher auch nicht mehr defragmentiert werden, denke das war gemeint
Wie gehen die vor?
Bei Wikipedia unter Fragmentierung steht da etwas von "Mythos" und von "andere Berechnung, weswegen die Zahl weit weniger erschreckend aussieht".
NTFS gehört in der Hinsicht vielleicht nicht zu den schnellsten, aber technisch sicherlich zu den besten Dateisystemen.
MfG SideWinder
Oh man, wie viel Schrott man aus dem Munde eines MS-Fanboys hören kann. Da war mir selbst Fat32 noch lieber.
-
Windows-Käufer schrieb:
Ich will mir Windows kaufen, soll ich XP oder Vista nehmen?
Wie lange wird XP noch unterstützt?...ich bin Schüler und hab nicht so viel Geld für beides.

Wenn Du den Rechner zum Surfen, MP3, Mailen, Textverarbeitung (Hausaufgaben oder so) usw. brauchst, würde ich Dir raten, Dir mal Ubuntu-Linux anzusehen. Das ist kostenlos. Du fragst in einem C++-Forum, solltest Du an C++-Programmierung interessiert sein, rate ich eigentlich auch zu Linux.
Windows brauche ich inzwischen nur noch zum Spielen, was so selten vorkommt, dass die Windows-Lizenzen hier eigentlich eher ungenutzt herumliegen.
Es heißt Windows XP führt DirectX-9-Spiele schneller aus als Windows Vista.
Allerdings gibt es DirectX 10 nur unter Vista. Wenn Du eine sehr aktuelle Grafikkarte mit DirectX 10 Fähigkeit haben (z.B. GeForce 8xxx) und sehr neue Spiele, die DirectX 10 unterstützen, dann solltest Du Dir überlegen Vista zu kaufen. Da Du über Geldmangel klagst, sieht es nicht so aus, als würdest DirectX 10 benötigen.
Ich lese häufiger, dass Vista Probleme hat, diverse Programme sauber auszuführen.
Ich habe meine Überlegungen eine Vista-Lizenz zu kaufen nach einem kurzen Vista Test wieder verworfen.
Es braucht mehr RAM und Festplatte, dafür ist es bunter. Mehr Nutzen sah ich für mich nicht.
Abhängig davon, wie Dein Rechner ausgestattet ist, könnte Vista für Dich bedeuten, dass Du den Rechner aufrüsten MUSST, um ihn sinnvoll benutzen zu können.Für XP steht noch ein Service Pack an. Das OS würde damit afaik noch mindestens 5 Jahre unterstützt. Der offizielle Support für Windows 98 lief jedenfalls erst 2006 aus. Es kann allerdings auch sein, dass Microsoft auf das SP3 verzichtet, um die Verkäufe von Vista anzukurbeln und sich damit die Supportzeiten für XP nicht mehr verlängern.
-
Allerdings gibt es DirectX 10 nur unter Vista. Wenn Du eine sehr aktuelle Grafikkarte mit DirectX 10 Fähigkeit haben (z.B. GeForce 8xxx) und sehr neue Spiele, die DirectX 10 unterstützen, dann solltest Du Dir überlegen Vista zu kaufen.
Gibt natuerlich auch die Alternative Spiele zu kaufen, die auf Linux laufen. Da sie mit OpenGL programmiert sind, kommst du auch so zu deinem Grafikgenuss. Aber leider gehen die Chance ein aktuelles Spiel nativ fuer Linux zu kriegen gegen 0...
So sind die, die Softwareschmieden, vertrauen sich lieber einem quasi-Monopolisten, statt auf ein Industriestandard zu setzen und ihre Spiele bereits zu 80 oder 90% portabel zu haben. Und wenn der Monopolist entschieden hat, dass sein "Standard" nur noch auf seinem neustem System zu haben ist, dann bejubeln natuerlich alle ihn und kuessen ihm die Fuesse.
Naja, ich frag mich grade was wohl passiert wenn MS von heute auf morgen pleite geht. Wieviele Softwareschmieden wohl wieder von 0 anfangen muessten...
-
Zu den technisch besten unter Windows verfügbaren Dateisystemen vielleicht.
hehe, viel Konkurrenz ist da ja nicht. Fat16, Fat32 und NTFS.
-
DEvent schrieb:
So sind die, die Softwareschmieden, vertrauen sich lieber einem quasi-Monopolisten, statt auf ein Industriestandard zu setzen und ihre Spiele bereits zu 80 oder 90% portabel zu haben.
Was vielleicht damit zu tun haben könnte, dass dieser Industriestandard keine besonders tolle Ausgangsbasis für Spiele bietet.
DirectX ist eben nicht nur ein Buzzword.
-
SideWinder schrieb:
T0M schrieb:
Falls ich mir z.B. eine neue Grafikkarte kaufen würde, um aufzurüsten, käme da zur Zeit auch nur eine in Frage, die DirectX 9 (aber noch nicht 10) unterstützt.

Kannst du mir das erklären?
Ich meinte, dass ich mir Vista erst ab Home Premium und mit tollen (und sinnlosen) Transparenz-Grafikeffekten kaufen würde und diese dann natürlich nicht abschalten (müssen) will.

-
Aber du kannst ja trotzdem eine DX10-Karte kaufen, die kann ja DX9 genauso gut, wird aber insgesamt eher eine neuere Karte sein und deshalb schneller sein.
MfG SideWinder
-
SideWinder schrieb:
Aber du kannst ja trotzdem eine DX10-Karte kaufen, die kann ja DX9 genauso gut, wird aber insgesamt eher eine neuere Karte sein und deshalb schneller sein.
MfG SideWinder
Stimmt, dachte ursprünglich, dass die DX10 Karten viel teurer seien, aber inzwischen hab ich eine Radeon HD 2400 Pro für 50 € gesehen, das kommt dann natürlich auch in Frage.
-
SeppSchrot schrieb:
DEvent schrieb:
So sind die, die Softwareschmieden, vertrauen sich lieber einem quasi-Monopolisten, statt auf ein Industriestandard zu setzen und ihre Spiele bereits zu 80 oder 90% portabel zu haben.
Was vielleicht damit zu tun haben könnte, dass dieser Industriestandard keine besonders tolle Ausgangsbasis für Spiele bietet.
DirectX ist eben nicht nur ein Buzzword.
Kannst du mir das erklaeren? Weil Netzwerk und Sound fehlt?
-
DEvent schrieb:
SeppSchrot schrieb:
DirectX ist eben nicht nur ein Buzzword.
Kannst du mir das erklaeren? Weil Netzwerk und Sound fehlt?
Bei Netzwerk sehe ich keine Probleme.
Aber soetwas wie DirectX fehlt unter Linux einfach.
Also eine Möglichkeit, den ganzen hardwareabstakten, netzwerktransparenten Datenstau zügig zu umfahren und trotzdem dem Programmierer eine Sicherheit über die Kombatiblität zu geben. Und das gilt eben nicht nur für die Grafik.
-
SeppSchrot schrieb:
DEvent schrieb:
SeppSchrot schrieb:
DirectX ist eben nicht nur ein Buzzword.
Kannst du mir das erklaeren? Weil Netzwerk und Sound fehlt?
Bei Netzwerk sehe ich keine Probleme.
Aber soetwas wie DirectX fehlt unter Linux einfach.
Also eine Möglichkeit, den ganzen hardwareabstakten, netzwerktransparenten Datenstau zügig zu umfahren und trotzdem dem Programmierer eine Sicherheit über die Kombatiblität zu geben. Und das gilt eben nicht nur für die Grafik.Hmm? Für Sound gibt es doch z.B. OpenAL. Für Grafik gibt es OpenGL, zusammen mit GLX (vergleichbar mit WGL). Was es für Input gibt, weiß ich nicht. DirectPlay wird doch niemand verwenden, das Netzwerkzeug muss man also auf beiden Plattformen selber machen und da gibt es POSIX.
Oder was fehlt dir?
-
Es ist einfach ein Unterschied, ob man sich das, was man will, aus fünf Bibliotheken zusammen suchen muss, und diese dann noch zur Zusammenarbeit zu bewegen, oder, ob man alles aus einer Hand schön aufeinander abgestimmt bekommt. Vergiss mal nicht: Die meisten Spiele, die beim Stichwort DirectX immer so schön angehimmelt werden, haben mit DirectX selbst direkt nicht viel am Hut. Vielmehr mit einer der zahlreichen Engines, die ihrerseits DirectX verwenden. Und sei mal ehrlich: Wie viele Engines in der Größenordung von der Unreal- oder Doom-Engine gibt es für Linux?
-
árn[y]ék schrieb:
Es ist einfach ein Unterschied, ob man sich das, was man will, aus fünf Bibliotheken zusammen suchen muss, und diese dann noch zur Zusammenarbeit zu bewegen, oder, ob man alles aus einer Hand schön aufeinander abgestimmt bekommt. Vergiss mal nicht: Die meisten Spiele, die beim Stichwort DirectX immer so schön angehimmelt werden, haben mit DirectX selbst direkt nicht viel am Hut. Vielmehr mit einer der zahlreichen Engines, die ihrerseits DirectX verwenden. Und sei mal ehrlich: Wie viele Engines in der Größenordung von der Unreal- oder Doom-Engine gibt es für Linux?
Ich glaub, das zusammensuchen der bibliotheken wird bei einem großen projet wie einem spiel(/spieleengine) das geringste problem sein... Zudem sind die Bibliotheken bekannt, sodass man sie nur besorgen muss. Durch die portabilität kann man ein weit aus breiteres Publikum erreichen.
-
árn[y]ék schrieb:
Es ist einfach ein Unterschied, ob man sich das, was man will, aus fünf Bibliotheken zusammen suchen muss, und diese dann noch zur Zusammenarbeit zu bewegen, oder, ob man alles aus einer Hand schön aufeinander abgestimmt bekommt. Vergiss mal nicht: Die meisten Spiele, die beim Stichwort DirectX immer so schön angehimmelt werden, haben mit DirectX selbst direkt nicht viel am Hut. Vielmehr mit einer der zahlreichen Engines, die ihrerseits DirectX verwenden. Und sei mal ehrlich: Wie viele Engines in der Größenordung von der Unreal- oder Doom-Engine gibt es für Linux?
Warte mal. Erst sagst du es seih ein Nachteil 5 Bibliotheken zu haben, dann sagst du man benuzt doch eh eine Engine. Also was nu?
OpenGL und DirectX geben sich nichts als APIs fuer die Grafikkarte. Beides sind blos APIs, um mit den Treiber der Karte zu kommunizieren. OpenGL hat aber den Vorteil, dass es ein Standard ist und das sich die API nicht aendert.
Zum anderen, OpenGL, OpenAL usw, machen eh was foellig anderes. Die muss man nicht unter einem Hut unterbringen. Bzw., es ist gut das es getrennte Bibliotheken sind, weil man sie dann leichter austauschen kann.
Auch verstehe ich einfach nicht, wieso die Spielehersteller zuerst ein DirectX Spiel programmieren, um ein paar Wochen spaeter einen Mac-Port (auf OpenGL) herausbringen. Wieso programmieren die nicht gleich fuer beide Systeme?
-
DEvent schrieb:
Warte mal. Erst sagst du es seih ein Nachteil 5 Bibliotheken zu haben, dann sagst du man benuzt doch eh eine Engine. Also was nu?
Oh, stimmt, da ist mir ein gedachter Satz nicht mit in den Text eingeflutscht

Was ich eben meinte war, dass viele solcher Spiele eine Engine verwenden, und sich dadurch nicht aus zig Bibliotheken eine eigene basteln müssen. Das war kein Punkt pro DirectX sondern ein Punkt contra 5 Libs zusammenwürfeln.
(P.s. ja, ich weiß, dass es Ausnahmen gibt ;))DEvent schrieb:
Auch verstehe ich einfach nicht, wieso die Spielehersteller zuerst ein DirectX Spiel programmieren, um ein paar Wochen spaeter einen Mac-Port (auf OpenGL) herausbringen. Wieso programmieren die nicht gleich fuer beide Systeme?
Wobei du auch zugeben musst, dass sich die Anzahl solcher Portierungen (leider) in Grenzen hält. Ich denke, die meisten solcher Projekte verwenden eine Engine, bei der man mit relativ wenig Aufwand von DirectX auf OGL um"switchen" kann; ein komplettes Recoden würde sich vermutlich nicht rentieren ...
-
Also ich bekomme jedesmal einen Kotzkrampf wenn ich OpenGL benutzen muss. Bei DirectX ist wenigens ein objekt(orientiert,basiert)er ansatz dabei mit gespeicherten Status. Also am besten wäre es, wenn es dafür ein platformübergreifenden Wrapper gäbe.
-
Es geht ja nicht nur darum, sich mal eben als Entwickler fünf Bibliotheken zusammenzusuchen. Die Machine des Endkunden muss das ja dann auch alles unterstützen.
Linux ist so schon nicht gesegnet mit überschwenglichen Treibersupport - das wird ja nicht besser, wenn es noch mehrere konkurierende APIs gibt.
Die Für-Windows-Entwickler schreiben einfach auf die Packung: Braucht Windows98, DirectX 7 und ne windowsfähige Soundkarte - und das Ding läuft.
Der arme Support für den Linuxport... oh, hab ich vergessen, ID und co. schließen ja für ihre Linuxports Support von vornherein aus
DEvent schrieb:
Auch verstehe ich einfach nicht, wieso die Spielehersteller zuerst ein DirectX Spiel programmieren, um ein paar Wochen spaeter einen Mac-Port (auf OpenGL) herausbringen. Wieso programmieren die nicht gleich fuer beide Systeme
Weil Portablität naturgemäß immer mehr abdecken muss als Spezialanfertigung.
In einer Branche wie der Spielebranche -- wo es nur darauf ankommt, ein Spiel mit der richtigen Jahreszahl im Namen pünklich zum Weinachtsgeschäft in den Regalen stehen zu haben -- bringt man das Spiel natürlich zuerst auf der Plattform raus, die eben doch noch den kleinen Tick schneller ist, um noch den einen kleinen Grafikeffekt reinzubauen, den die Konkurenz nicht hat.Wenn dann die PC Version so langsam auf dem 5Euro Wühltisch rumliegt, kann man ja die Kuh noch weiter melken und portieren, da dann inzwischen auch die anderen Systeme leistungs- und treibermäßig Anschluss gefunden haben.
-
árn[y]ék schrieb:
Und sei mal ehrlich: Wie viele Engines in der Größenordung von der Unreal- oder Doom-Engine gibt es für Linux?
Unreal (Tournament 2004, bzw. die Engine davon) und Doom (3). Schonmal zwei.