OpenGL Entwicklungsrechner-Optimierung



  • Hey,

    wenn ich mit Visual C++ 7 meine OpenGL (+DirectInput) Anwendungen kompiliere, habe ich jedes Mal um EINIGES mehr Frames als andere Leute, denen ich sie schicke.

    Beispiel 1: Ein schwarzes Fenster mit 2500 fps. Freunde mit genauso gutem/besserem System haben 300-500fps.

    Beispiel 2: http://bloody-blades.de/terrain.jpg. Ich 350fps, andere 150fps.

    Das kann doch irgendwo nicht sein?

    Bin bis jetzt leider noch nicht dazu gekommen, es mal auf einem deren Rechner zu kompilieren und es bei mir zu testen. Aber kann es eventuell sein, dass der Compiler es für mein System optimiert? Kann ich mir nur irgendwie nicht vorstellen.

    Kennt jemand dieses Phänomen?

    Vielen Dank,
    Tim



  • besseres system != besserer treiber

    xindon schrieb:

    Bin bis jetzt leider noch nicht dazu gekommen, es mal auf einem deren Rechner zu kompilieren und es bei mir zu testen. Aber kann es eventuell sein, dass der Compiler es für mein System optimiert? Kann ich mir nur irgendwie nicht vorstellen.

    um jetzt tggc vorzugreifen 😃 compiler doku lesen. 😉
    mit welchen einstellungen kompilierst du? runtime bibliotheken die gleichen? dx auch gleich bei deinen freunden? vielleicht sowas wie -msse (gcc) und deine freunde haben keine sse unterstützung (banales beispiel), etc, etc. ein paar mehr infos wären nicht schlecht und teste als erstes mal die treiber (gl_version)



  • AA / AF an im Treiber?
    VSYNC?
    ...



  • Kein AA; Kein AF, Vsync aus, sonst wärens nicht 2500fps 😛

    Mein System:
    Athlon 2800+
    GeForce 5900 Ultra
    1GB Ram 400mhz

    Freund:
    64 3500+
    GeForce 5950 Ultra
    1GB Ram 400Mhz

    Schwarzes Fenster: Ich 2500fps, er 300-500fps.

    Treiber sind die aktuellen NVidia.



  • Ist auf dem anderen Rechner denn auch VSYNC ausgeschaltet ?



  • klar, sonst hätte er nicht 250-350 fps
    Bei vsync hat er max. die fps der Bildschimfrequenz



  • Hm, ok stimmt schon.
    Wie siehts mit den Qualitäts-Einstellungen aus ?
    Bei nVidia Treibern gibts immer so einen tollen Schiebe-Regler den man auf Leistung - Ausgeglichen oder Qualität stellen kann. Sieht das bei beiden Rechnern gleich aus ? An sonsten: Treiber-Version, Farbtiefe, AA, AF usw.
    Kann mir nicht vorstellen, das eine Compiler-Optimierung sooo grosse Performance-Unterschiede (vor allem bei Hardware-beschleunigter Grafik) bringen soll.



  • xindon schrieb:

    Kein AA; Kein AF, Vsync aus, sonst wärens nicht 2500fps 😛

    Es geht um den anderen, Du Kopp!!

    Wenn Du "pur" mit 2500 fährst der andere aber 16:1 Supersampling und Anisotropisches Filtering Stufe 8 im Treiber aktiviert hat, wundern mich die weniger Frames nicht. 💡



  • Du Fenster, der andere Fullscreen, oder so?! 🤡

    Enumerierst Du irgendwelche Formate durch und wählst dann on-the-fly? Oder ist alles fest?

    Sonst: Schlechter Code! 👎 🕶

    Cpp_Junky schrieb:

    Wie siehts mit den Qualitäts-Einstellungen aus ?
    Bei nVidia Treibern gibts immer so einen tollen Schiebe-Regler den man auf Leistung - Ausgeglichen oder Qualität stellen kann.

    Bei ATI auch. 🤡



  • Sgt. Nukem schrieb:

    xindon schrieb:

    Kein AA; Kein AF, Vsync aus, sonst wärens nicht 2500fps 😛

    Es geht um den anderen, Du Kopp!!

    Wenn Du "pur" mit 2500 fährst der andere aber 16:1 Supersampling und Anisotropisches Filtering Stufe 8 im Treiber aktiviert hat, wundern mich die weniger Frames nicht. 💡

    Du Kopp!, die 2500 fps beziehen sich auf Vsync, mit aktivem wären es nur konstante 100fps. Das nächste Mal mache ich einen dicken fetten Absatz zwischen "Kein AF" und "VSync aus"....
    Und, schonmal nen Monitor mit 300hz gesehen?

    Treibereinstellungen sind auf allen Rechnern gleich. Videosetup ist auch bei allen gleich. Ebenso Antialiasing und Anisotropische Filterung.

    800x600x32
    Vsync aus
    Fullscreen aus
    AA aus
    AF aus

    Nagut, nehmen wir an, mein Code ist schlecht, wieso läuft es dann auf meinem System trotzdem so gut?



  • xindon schrieb:

    Das nächste Mal mache ich einen dicken fetten Absatz zwischen "Kein AF" und "VSync aus"....

    Korrekte Interpunktion würde genügen. 👍

    xindon schrieb:

    Nagut, nehmen wir an, mein Code ist schlecht, wieso läuft es dann auf meinem System trotzdem so gut?

    Weil Du daran so lange gestrickt hast, bis er auf _DEINEM_ System optimal läuft nehme ich an... 🙄

    Ist das was geheimes?
    Sonst stell' die Sourcen mal hoch und lass die GL Gurus das mal auseinander klamüsern.
    Bzw. von paar Leuten gegentesten.



  • evtl. noch 32-bit kompabilitätsmodus



  • Sgt. Nukem schrieb:

    Weil Du daran so lange gestrickt hast, bis er auf _DEINEM_ System optimal läuft nehme ich an... 🙄

    Naaajaaa, ehrlich gesagt habe ich an nem schwarzen Fenster nicht sonderlich lange 'gestrickt'.

    Sgt. Nukem schrieb:

    Ist das was geheimes?
    Sonst stell' die Sourcen mal hoch und lass die GL Gurus das mal auseinander klamüsern.
    Bzw. von paar Leuten gegentesten.

    Kommt sofort.



  • so, hier:

    http://bloody-blades.de/dev/GameStruc.rar

    Zur Erklärung um was es da überhaupt geht: Es ist im Grunde nichts weiter als eine Art Basisstruktur für OpenGL Anwendungen, dass wenn ich mal eine Idee für ein kleines Spiel habe, nicht wieder das ganze Grundgerüst neu aufsetzen brauche.



  • celeron 2.66
    512mb
    w2k

    opengl schrieb:

    GeForce FX 5200/AGP/SSE2 Version: 2.0.0

    32bit farbtiefe
    aa == off
    af == off
    ~370fps



  • AMD Athlon 1200
    256 MB Ram
    Windows XP home
    Geforce 2 GTS
    32 Bit Farbtiefe
    aa == off
    af == off
    ~405 fps



  • Vergleichsweise behaupte ich jetzt mal, dass Andreas XXL's Rechner gut abgeht 😛

    Gibts was zum Code zu sagen?

    ::edit::
    Kumpel hats grad nochmal getestet

    amd 64 3200+ clawhammer
    asus A8V deluxe (socket 939)
    1gb corsair ram 400mhz (oder 466? nee glaub 400)
    HIS excalibur radeon 9800 pro 128mb

    ~1940 fps



  • Hi, mein erster Post hier im Forum, und dann gleich erstmal Rechner-Spezifikationen ... 🙄

    AMD Athlon 64 3700+ San Diego
    2048MB DDR Infinion
    ATI X850XT Platinum Edition
    Windows XP Professional x64 Edition
    32 Bit Farbtiefe
    aa == off
    af == off

    ~3650fps



  • hier ein amd ath 64 wini 3000+
    graka gf 6800gt
    und 1 gig ram
    win 2k

    1740 im fenster
    720 maximiert

    edit:
    aa und af ausgestellen vergessen:
    3090 im fenster <- edit2 (vertippt)
    1335 maximiert
    :editende

    und die maus verschwindet, wenn man ueber das fenster faehrt (auch titelleiste)

    kann es sein, dass du ein fenster drueber hattest?

    bei mir ist es abhaengig von der fenster art:

    bei einem normalen windowsfenster gehn die fps hoch, und beim cool'n'quiet fenster (da ist eine grafik als hintergrund, und es verwendet den alpha kanal (nicht rechteckig))
    ueber 9450 komm ich aber auch nicht verdeckt hinaus..



  • Dann will ich auch mal Hardware-prollen 😃

    Athlon64 3400+ (Newcastle)
    Abit KV8 Pro
    1024MB TwinMOS Twister PC3200 CL2 Ram
    GeForce 5900XT, 128MB (Gainward Golden Sample - Von Werk aus übertaktet)
    Win2K SP4

    ~2300 FPS

    VSYNC, AA und AF aus. Der rest steht auf "Qualität".
    Also die Ergebnisse die hier bis jetzt gepostet wurden passen schonmal einigermaßen zusammen. Vielleich stimmt einfach irgendwas mit dem Rechner nicht. Schrott installiert, der Rechenleistung frisst etc. Check das mal im Task Manager.


Anmelden zum Antworten