Zeit in Millisekunden messen



  • Hi,

    ich habe gerade angefangen mich in OpenGL einzulesen, und zwar anhand dieser Webseite: http://www.glprogramming.com/red/chapter01.html#name7.
    Unter diesem Link wird ein Beispiel für eine Animation gezeigt, nämlich ein sich drehendes Viereck. Jetzt hängt die Dreh-Geschwindigkeit aber von der Leistungsfähigkeit der Grafikkarte ab (jedes mal, wenn das Bild neu gezeichnet wird, wird das 4-Eck um 2 Grad gedreht - wenn das Zeichnen also schnell geht, wird das Teil öfters um 2 Grad pro Sekunde gedreht, als wenn eben länger dauert.)

    Ich möchte das Beispiel jetzt so erweitern, dass sie das 4-Eck einmal pro Sekunde dreht. Zeit zwischen dem Zeichnen von 2 Bildern messen (z.B. 1/100 sek.) und dann um den entsprechenden Winkel drehen (360*gemessene Zeit).
    Aber wie messe ich diese Zeit in dieser Genauigkeit?

    Oder gibt es noch einen gescheiteren Ansatz, dieses Problem zu lösen?

    Danke schonmal

    PS: Ja, ich bin ein C/C++ Anfänger - aber mit Erfahrung in Sprachen, die dem Syntax ähbnlich sind (Java, PHP)





  • Gast_OpenGL schrieb:

    PS: Ja, ich bin ein C/C++ Anfänger - aber mit Erfahrung in Sprachen, die dem Syntax ähbnlich sind (Java, PHP)

    Als aller erstes würde ich erst mal überlegen, ob ich C- oder C++-Anfänger bin 🙄 . Ansonsten gibt es gettimeofday.


Anmelden zum Antworten