V
Artchi schrieb:
Da die Phosphorschicht, auf die der Strahl trifft, eine Nachleuchtdauer hat, reicht es aus, wenn nur ein Pixel aktiv dargestellt wird. Aber das Nachleuchten war nicht lang genug, weshalb bei 50 oder 60 Hz das Bild geflimmert hat.
Ab 72 Hz waren CRT-Bildschirme für gewöhnlich flimmerfrei (z.B. beim Atari ST mit passenden Atari S/W-Monitor), weil dann die Kürze der Nachleuchtdauer ausgeglichen wurde.
Ergänzung:
Der Grünmonitor am Apple-II hat 10 Sekunden lang sichtbar nachgeleuchtet. Kein Flackern! Das Bild stand wie einbetoniert. Einfach nur geil!
Das Nachleuchten wurde ohne rechte Not zu kurz entworfen! Spätestens mit dem NEC-Multisync ging es rapide bergab.
Der Moni konnte verschiedene Frequenzen und die Nachleuchtzeit wurde auf die höchste eingestellt. Damit man keine Wischer sieht. Flackern war wohl das kleinere Übel.
Wer die teure Grafikkarte hatte, die zur Max-Frequenz des Monitors paßte, nur bei dem war alles ok. Bis auf die niedrige Auflösung, die er fahren mußte, löl.
Also selbst bei dem war die Nachleuchtzeit zu klein, weil er schon eine ordentliche Auflösung haben wollte.
Und dann haben sich Grafikkarten und Monitore unglaublich lange und vollkommen unsinnig gegenseitig gejagt, wer mehr kann.
Das Auge ist mit 25Hz durchaus zufrieden, wie jeder alte Fernseher (der wie damals üblich angemessen nachleuchtet) gerne bestätigt.
Und es blieb flackernd. Wenn die Nachleuchtzeit nur kurz genug gewählt wird, können sogar noch 72Hz störend flackern. Deswegen braucht man ja jetzt 100Hz. Welch ein Unfug.
Die Flachbildschirme mit fest 60Hz machen dem Spuk endlich ein Ende und man kann sich um höhere Auflösungen kümmern.
Ein paar Zocker denken, sie würden mit mehr als 60Hz das Bild deutlich früher sehen und dann mehr killen können. Unfug. Aber sie werden es schaffen, denke ich, daß es bald nur noch welche mit 120Hz gibt.