Zeit in Millisekunden messen
-
Hi,
ich habe gerade angefangen mich in OpenGL einzulesen, und zwar anhand dieser Webseite: http://www.glprogramming.com/red/chapter01.html#name7.
Unter diesem Link wird ein Beispiel für eine Animation gezeigt, nämlich ein sich drehendes Viereck. Jetzt hängt die Dreh-Geschwindigkeit aber von der Leistungsfähigkeit der Grafikkarte ab (jedes mal, wenn das Bild neu gezeichnet wird, wird das 4-Eck um 2 Grad gedreht - wenn das Zeichnen also schnell geht, wird das Teil öfters um 2 Grad pro Sekunde gedreht, als wenn eben länger dauert.)Ich möchte das Beispiel jetzt so erweitern, dass sie das 4-Eck einmal pro Sekunde dreht. Zeit zwischen dem Zeichnen von 2 Bildern messen (z.B. 1/100 sek.) und dann um den entsprechenden Winkel drehen (360*gemessene Zeit).
Aber wie messe ich diese Zeit in dieser Genauigkeit?Oder gibt es noch einen gescheiteren Ansatz, dieses Problem zu lösen?
Danke schonmal
PS: Ja, ich bin ein C/C++ Anfänger - aber mit Erfahrung in Sprachen, die dem Syntax ähbnlich sind (Java, PHP)
-
-
Gast_OpenGL schrieb:
PS: Ja, ich bin ein C/C++ Anfänger - aber mit Erfahrung in Sprachen, die dem Syntax ähbnlich sind (Java, PHP)
Als aller erstes würde ich erst mal überlegen, ob ich C- oder C++-Anfänger bin . Ansonsten gibt es gettimeofday.