the word wide web
-
noobLolo schrieb:
geht das kabel nicht einmal um die erde? kann da nicht über china oder russland nach amerika geroutet werden?
lg lolo
schau dir doch wenigstens den link mit den seekabeln mal an. da ist doch von mehr als einem kabel die rede: http://de.wikipedia.org/wiki/Seekabel#Ausgew.C3.A4hlte_Seekabelanlagen das ist auch nur eine auswahl. und die 'dicken' kabel werden an land dann an geographisch geeigneten orten durch vergleichbar dicke kabel 'verdrahtet'.
-
SeppJ schrieb:
noobLolo schrieb:
geht das kabel nicht einmal um die erde? kann da nicht über china oder russland nach amerika geroutet werden?
lg loloJa. Aber ist halt ziemlich langsam dann.
Da wäre ich mir nicht so sicher.
-
volkard schrieb:
SeppJ schrieb:
noobLolo schrieb:
geht das kabel nicht einmal um die erde? kann da nicht über china oder russland nach amerika geroutet werden?
lg loloJa. Aber ist halt ziemlich langsam dann.
Da wäre ich mir nicht so sicher.
mußt du dir auch nicht. die signallaufzeiten auf diesen strecken sind in der tat eher vernachlässigbar. an land kannst du mit 5 ms pro 100 km rechnen - faustregel (nicht auf lokale netze anwendbar). unter wasser wird, so lange es geht, optisch verstärkt. es findet sehr viel seltener die 'umgekehrte optokopplung' statt. die kostet zeit. zur erinnerung: licht schafft es ~ 7 mal pro sekunde um die erde.
edit: bei den 5 ms pro 100 km sind routing und switching die haupsächlichen verantwortlichen. das kann man noch nicht optisch auf paketebene machen. bei einzelnen wellenlängen allerdings schon.
-
Ich dachte eigentlich nicht an die Latenz der Verbindung durch Signallaufzeit sondern an eine totale Überlastung der Ausweichrouten. Die Pazifikroute ist sehr viel schlechter ausgebaut als die Transatlantikroute. Und sehr viel Überkapazität ist da nicht vorhanden, schließlich hat sich das Internet längst davon verabschiedet ein vom Militär geplantes Netz zu sein sondern wird von knapp kalkulierenden Unternehmen betrieben.
-
SeppJ schrieb:
Und sehr viel Überkapazität ist da nicht vorhanden, schließlich hat sich das Internet längst davon verabschiedet ein vom Militär geplantes Netz zu sein sondern wird von knapp kalkulierenden Unternehmen betrieben.
hast du dazu aktuelle quellen? das würde mich tatsächlich interessieren.
-
mezzo mix schrieb:
bei einzelnen wellenlängen allerdings schon.
Uih. Kurz mal nicht aufgepaßt, und schon wieder haben die was anscheinend unmögliches gebastelt.
-
mezzo mix schrieb:
SeppJ schrieb:
Und sehr viel Überkapazität ist da nicht vorhanden, schließlich hat sich das Internet längst davon verabschiedet ein vom Militär geplantes Netz zu sein sondern wird von knapp kalkulierenden Unternehmen betrieben.
hast du dazu aktuelle quellen? das würde mich tatsächlich interessieren.
So lala. Man hört es immer wieder in den Medien, aber ich weiß nicht wo man suchen muss um die Zahlen aus erster Hand zu bekommen. Falls du einen (ziemlich offensichtlich lobbyistisch motivierten) Zeitungsartikel als seriöse Quelle ansiehst, kannst du alles hier zusammengefasst sehen:
http://www.zdnet.com/news/at-t-internet-to-hit-full-capacity-by-2010/197822
-
volkard schrieb:
mezzo mix schrieb:
bei einzelnen wellenlängen allerdings schon.
Uih. Kurz mal nicht aufgepaßt, und schon wieder haben die was anscheinend unmögliches gebastelt.
falls es dich interessiert. dabei werden wellenlängen ge(de)multiplext. derzeit bis zu 80 á 100 Gbit/s im labor. diese optischen transportnetze werden dann, transparent für router, unter die geswitch/routeten netze geleget. das wird auch schon eingesetzt. die 3.2 Tbit/s von hier:
mezzo mix schrieb:
sind auch nicht anders zu erreichen.
das problem sind schwebungen, dispersion und vieles mehr. das switchen ist noch das einfachste.
-
-
SeppJ schrieb:
mezzo mix schrieb:
SeppJ schrieb:
Und sehr viel Überkapazität ist da nicht vorhanden, schließlich hat sich das Internet längst davon verabschiedet ein vom Militär geplantes Netz zu sein sondern wird von knapp kalkulierenden Unternehmen betrieben.
hast du dazu aktuelle quellen? das würde mich tatsächlich interessieren.
So lala. Man hört es immer wieder in den Medien, aber ich weiß nicht wo man suchen muss um die Zahlen aus erster Hand zu bekommen. Falls du einen (ziemlich offensichtlich lobbyistisch motivierten) Zeitungsartikel als seriöse Quelle ansiehst, kannst du alles hier zusammengefasst sehen:
http://www.zdnet.com/news/at-t-internet-to-hit-full-capacity-by-2010/197822die transportnetze sind (meiner meinung nach) nicht wirklich das problem. problematisch wird es richtung kunde. iptv in hd und co machen da ganz andere probleme, da sie die lokalen netze (und server! dann will ja jeder, jederzeit, jede sendung abrufen können) extrem belasten. traffic dieser art wir aber nie über tiefseeleitungen geschickt. den multicast traffic kann man noch berechnen, also das normale programm. wenn aber 50 leute 50 verschiedene videos an einem switch 'on demand' sehen wollen, dann muß man die leitungen überbuchen. das wird noch interessant.
-
volkard schrieb:
mezzo mix schrieb:
bei einzelnen wellenlängen allerdings schon.
Uih. Kurz mal nicht aufgepaßt, und schon wieder haben die was anscheinend unmögliches gebastelt.
ach so, ein beispiel zur veranschauung. zwei wellenlängen laufen in einem ring, jede der beiden überspringt mit optischen filtern jeden zweiten hop, benutzen aber die gleiche glasfaser. das senkt die signallaufzeiten, aber hauptsächlich die benötigten kapazitäten der router/switches, erheblich. ringe werden oft zum datenrücklauf verwendet, brauchen also nur einen ausgang. das ist derzeit einer der hauptgründe. schon 10 Gbit/s switchen die geräte derzeit nicht beliebig oft, damit will ich sagen, ein gerouteter ports pro gerät ist sehr teuer. passive splitter quasi umsonst.
dadurch kann man aber auch komplexe optische netze unter geswitch/routete netze legen. wellenlängenmultiplexer scheren sich eben nicht um pakete pro sekunde, was derzeit der hauptfaktor sein dürfte.