Roehrenmonitor
-
Hallo,
1. Warum heisst es Kathodenstrahlroehre ?
2. Durch die Spulen wird der Strahl an die richtige Stahl auf dem Bildschirm
bewegt. Wie aber wird die richtige Farbe erstellt ?
3. Warum braucht man das Vakuum ? Luft leitet doch besser als Vakuum ?
-
blurry333 schrieb:
Hallo,
1. Warum heisst es Kathodenstrahlroehre ?Weil in der Röhre ein Kathodenstrahl läuft.
blurry333 schrieb:
2. Durch die Spulen wird der Strahl an die richtige Stahl auf dem Bildschirm bewegt. Wie aber wird die richtige Farbe erstellt ?
Ein "Pixel" besteht aus drei Leuchtpunkten in den Grundfarben.
Siehe Bild rechts: http://de.wikipedia.org/wiki/Farbfernsehen#Geschichteblurry333 schrieb:
3. Warum braucht man das Vakuum ? Luft leitet doch besser als Vakuum ?
Einen Elektronenstrahl muß keiner leiten. Besser nix dazwischentun, was die fliegenden Elektronen aufhalten oder umlenken würde.
-
Der Strahl kann ja immer nur 1 Pixel erzeugen. Das dauert ja dann ewig bis der ganze Bildschirm gezeichnet ist ?
-
blurry333 schrieb:
Der Strahl kann ja immer nur 1 Pixel erzeugen. Das dauert ja dann ewig bis der ganze Bildschirm gezeichnet ist ?
Zwischen dem ersten und dem zweiten Satz besteht keine logische Verbindung.
Daher dauert es auch nicht ewig.
Der Computer kann ja immer nur eine Rechenoperation durchführen. Das dauert ja dann ewig, bis man etwas ausgerechnet hat.
-
Das kannst du dir selbst beantworten. Die Bildwiederholraten schwanken zwischen 60-70 FPS. Also braut er 1/60 bis 1/70 Sekunden bis der Bidschirm gezeichnet ist. Und das dauert nicht ewig, der Kathodenstrahl wird ja durch Magneten extrem schnell abgelenkt.
-
willst du archeologe werden oder warum stellst du so altertümliche fragen?
-
Jonas OSDever schrieb:
Das kannst du dir selbst beantworten. Die Bildwiederholraten schwanken zwischen 60-70 FPS. Also braut er 1/60 bis 1/70 Sekunden bis der Bidschirm gezeichnet ist. Und das dauert nicht ewig, der Kathodenstrahl wird ja durch Magneten extrem schnell abgelenkt.
Ich glaube es sind statische Felder.
Und es gibt/gab durchaus Röhrenmonitore die über 100 Hz aushalten.
[/klugscheiss]
-
Bin jetzt einfach mal von der Frequenz eines LCD-Screens ausgegangen. Klar es gibt sicherlich Ausnahmen aber in der Regel würd ichs zwischen 60 u. 70 Hz belassen.
-
Jonas OSDever schrieb:
Das kannst du dir selbst beantworten. Die Bildwiederholraten schwanken zwischen 60-70 FPS. Also braut er 1/60 bis 1/70 Sekunden bis der Bidschirm gezeichnet ist. Und das dauert nicht ewig, der Kathodenstrahl wird ja durch Magneten extrem schnell abgelenkt.
Naja, nehmen wie 60Hz und 1024x768 und keine Rücklaufzeiten.
Dann muß der Strahl pro Sekunde 60*768 Zeilen schaffen, also mit 46080 Hz hin- und Herwackeln. Das ist machbar mit Magnetspulen. Aber kann schon sein, daß man da brutal sein muß und ein wenig mehr Leistung aus der Steckdose ziehen.Innerhalb einer Zeile kann der Strahl bequem dahingleiten und wird nur in seiner Intensität pixelweise gesteuert, also mit 60*1024*768*3=142MHz. Das ist ganz leicht. Da war es früher schwieriger, RAM für die Grafikkarte bzw einen RAMDAC zu finden, der überhaupt so schnell ist. Und später hat das VGA-Kabel abgekackt, so hohe Frequenzen (Drittel davon, die Farben haben ja eigene Litzen) noch hübsch zu leiten. Hübschigkeit entscheidet sich an den Flanken! Ich habe heute hier einen Flachi und einen Rechner, der über VGA-Kabel 1600x1050x60Hz leiten will. Der kleine Idiot. Das ist gar nicht so hübsch, was da noch ankommt.
-
Da die Phosphorschicht, auf die der Strahl trifft, eine Nachleuchtdauer hat, reicht es aus, wenn nur ein Pixel aktiv dargestellt wird. Aber das Nachleuchten war nicht lang genug, weshalb bei 50 oder 60 Hz das Bild geflimmert hat.
Ab 72 Hz waren CRT-Bildschirme für gewöhnlich flimmerfrei (z.B. beim Atari ST mit passenden Atari S/W-Monitor), weil dann die Kürze der Nachleuchtdauer ausgeglichen wurde.
-
Artchi schrieb:
Da die Phosphorschicht, auf die der Strahl trifft, eine Nachleuchtdauer hat, reicht es aus, wenn nur ein Pixel aktiv dargestellt wird. Aber das Nachleuchten war nicht lang genug, weshalb bei 50 oder 60 Hz das Bild geflimmert hat.
Ab 72 Hz waren CRT-Bildschirme für gewöhnlich flimmerfrei (z.B. beim Atari ST mit passenden Atari S/W-Monitor), weil dann die Kürze der Nachleuchtdauer ausgeglichen wurde.
Ergänzung:
Der Grünmonitor am Apple-II hat 10 Sekunden lang sichtbar nachgeleuchtet. Kein Flackern! Das Bild stand wie einbetoniert. Einfach nur geil!Das Nachleuchten wurde ohne rechte Not zu kurz entworfen! Spätestens mit dem NEC-Multisync ging es rapide bergab.
Der Moni konnte verschiedene Frequenzen und die Nachleuchtzeit wurde auf die höchste eingestellt. Damit man keine Wischer sieht. Flackern war wohl das kleinere Übel.
Wer die teure Grafikkarte hatte, die zur Max-Frequenz des Monitors paßte, nur bei dem war alles ok. Bis auf die niedrige Auflösung, die er fahren mußte, löl.
Also selbst bei dem war die Nachleuchtzeit zu klein, weil er schon eine ordentliche Auflösung haben wollte.
Und dann haben sich Grafikkarten und Monitore unglaublich lange und vollkommen unsinnig gegenseitig gejagt, wer mehr kann.
Das Auge ist mit 25Hz durchaus zufrieden, wie jeder alte Fernseher (der wie damals üblich angemessen nachleuchtet) gerne bestätigt.Und es blieb flackernd. Wenn die Nachleuchtzeit nur kurz genug gewählt wird, können sogar noch 72Hz störend flackern. Deswegen braucht man ja jetzt 100Hz. Welch ein Unfug.
Die Flachbildschirme mit fest 60Hz machen dem Spuk endlich ein Ende und man kann sich um höhere Auflösungen kümmern.Ein paar Zocker denken, sie würden mit mehr als 60Hz das Bild deutlich früher sehen und dann mehr killen können. Unfug. Aber sie werden es schaffen, denke ich, daß es bald nur noch welche mit 120Hz gibt.