RISC vs CISC
-
Man muß sich echt nicht an solchen Begriffen festkrallen und kann sich stattdessen fragen, wie gut man parallel programmieren kann bzw. parallelprogrammiererfahren ist.
Der Kern bei Risc ist, dass man sehr compilerabhängig wird, aber andererseits natürlich auch immer von Compilern lernen kann.
Seltsamerweise tut sich an der Oberfläche von "Reduced" das genaue Gegenteil auf, Java programme z.B. wirken recht aufgebläht, und sind meistens ziemlich langsam.
Visual Basic ist zwar recht effizent, sieht aber grauenhaft aus.
Oder wie wäre es z.B. mit einer reduced Windows Api?
Hier ist Linux klar im Vorteil, aber das war Unix auch schon - und? hat es sich durchgesetzt? Doch nur, weil Unix an den Unis en vogue war und nicht wegen reduced - und es dauert ja auch wirklich eine Weile, bis an mit dem Way of reduced von Unix/Linux klar kommt.In der Zukunft wäre es schön, wenn beides Hand in Hand geht, und da ist Intel eher Vorreiter als die anderen.
-
riscor schrieb:
Wenn ich das richtig verstehe und die Kosten von großen Rechenzentren fast ausschließlich Stromkosten sind (auch für die Kühlung), dürfte ARM doch einen signifikanten Unterschied machen? Ich dachte immer ARM CPUs würden in etwa 10% von dem Verbrauchen was x86 Modelle benötigen. (Was natürlich auch super für die Hitzeentwicklung ist.)
Ist dem gar nicht so, oder habe ich da etwas anders übersehen? Denn so gibt es doch eigentlich keinen Grund mehr für Google, Facebook & co bei Servern nicht auf ARM zu setzen, wo sie ja schon Rechenzentren am Nordpol bauen wollen um Stromkosten zu sparen.Tja, und wieviel Prozent aller CPUs auf der Welt sind in Rechenzentren verbaut? Und wieviel würde die Umstellung der Software kosten? Nur weil irgendetwas irgendwie ein bisschen besser wäre, lohnt sich nicht unbedingt ein Umstieg.
-
SeppJ schrieb:
Tja, und wieviel Prozent aller CPUs auf der Welt sind in Rechenzentren verbaut?
Ich habe jedenfalls mal gelesen genug um 25 Atomkraftwerke mit Arbeit zu versorgen.
SeppJ schrieb:
Und wieviel würde die Umstellung der Software kosten? Nur weil irgendetwas irgendwie ein bisschen besser wäre, lohnt sich nicht unbedingt ein Umstieg.
Ich hatte irgendwie eher erwartet, dass irgendetwas mit meinen Fakten oben nicht stimmt. Denn wenn das alles zutrifft gibt es eigentlich nur eine Schlussfolgerung:
Herb Sutter erwähnte mal, dass Strom etwa 80% der Betriebsgskosten eines Rechenzentrums ausmachen. Nehmen wir mal Festplatten etc. raus, bleiben großzügig 60% für CPU Strom. Davon kann man jetzt 90% sparen, sind 56%. Man kann also mal eben über 50% der Kosten sparen?
Dass Stromkosten ein generelles Problem sind, zeigt ja auch das oben genannte Beispiel: Facebook baut Rechenzentren am Polarkreis.Insofern bleiben für mich eigentlich zwei Schlussfolgerungen:
- Alle Unternehmen mit großen Rechenzentren sind total auf den Kopf gefallen
- Ich übersehe/unterschätze hier noch irgendeinen FaktorDas erste halte ich generell mal für weniger wahrscheinlich.
Bleibt die Suche nach diesem Faktor. Software wurde ja schon genannt, aber ist das wirklich so viel Aufwand? Es betrifft ja nur native Software, und auch die muss doch eigentlich nur neu kompiliert und vielleicht etwas angepasst werden? Oder ist da wirklich so viel an die Architektur gekoppelt? Wie muss man sich das vorstellen, überall inline Assembler? Oder kann das auch anders passieren?
-
Ja, ich halte deine Fakten auch für falsch. Dass Stromkosten 90% ausmachen, glaube ich nicht. Wo hast du das her? Hab grad nur kurz was auf Wiki gelesen, dass Stromkosten von Rechenzentren 1.8% des Stromverbrauchs in Deutschland ausmachen. Das wären ganz sicher keine 25 AKWs. Und IBM und HP machen dutzende Milliarden Umsatz mit Servern, würde mich doch stark überraschen, wenn die Stromkosten tatsächlich nochmal 10 mal mehr ausmachen würden. Und dann wären die Personalkosten noch gar nicht berücksichtigt...
ARM usw. sind auch nicht 10 mal effizienter als Intel Prozessoren. Intel hat hier sehr stark aufgeholt und den Stromverbrauch gesenkt. Du musst ja auch bedenken, dass ARM hier von der Leistungsfähigkeit nichts ansatzweise vergleichbares bietet. Ich glaube nicht, dass sie dann effizienter als Intel/IBM/Sun wären. Und wenn, dann würde es von 10000 anderen Faktoren und nicht unbedingt von RISC/CISC abhängen.
-
Werden in Rechenzentren überhaupt x86-Prozessoren benutzt? Dort gibt es doch meistens andere Architekturen.
Was RISC vs CISC betrifft kann ich mich noch an die Frage erinnern warum CISC mittlerweile doch wieder besser als RISC ist. Die Antwort hab ich aber jetzt nicht im Kopf.
-
nachtfeuer schrieb:
und da ist Intel eher Vorreiter als die anderen.
Nein ist Intel nicht. Viele Register: ja durch MMX und Co.; Conditional Execution (klick) mitlerweile auch einige; Befehle mit 3 Operanden, naja mit AVX einige. Auf der anderen Seite hat Arm auch einige Erweiterungen wie NEON, um Multimediaanwendungen zu beschleunigen.
Zu Rechenzentren: Die kosten ja bekanntlich ziemlich viel Geld. Und ueber dieses Geld entscheiden nun mal wichtige Leute. Diese haben wahrscheinlich noch nie einen Rechner von innen gesehen. Da wird genommen, was man kennt, bzw. wer am meisten Werbung macht. Hier kommt es mir auch so vor, dass viele ihre Argumentation aufgrund von Media-Markt-Prospekten vortragen. Dort werden nur selten Armprozessoren beworben.
Was das Neuschreiben der Programme angeht: das passiert sowieso. Oder wie soll sonst fuer einen Cluster mit Cell, Nvidia und x86-Prozessoren ein Programm geschrieben werden?
Intel hat hier sehr stark aufgeholt und den Stromverbrauch gesenkt. Du musst ja auch bedenken, dass ARM hier von der Leistungsfähigkeit nichts ansatzweise vergleichbares bietet.
Hier mal was von 2009: klick. Die meisten Argumente sind Meinungen. Fakten liefert irgendwie niemand. Ist doch immer das gleiche: AMD vs. Intel, Intel vs. Arm, Linux vs. Windows, ...
-
knivil schrieb:
Zu Rechenzentren: Die kosten ja bekanntlich ziemlich viel Geld. Und ueber dieses Geld entscheiden nun mal wichtige Leute. Diese haben wahrscheinlich noch nie einen Rechner von innen gesehen. Da wird genommen, was man kennt, bzw. wer am meisten Werbung macht. Hier kommt es mir auch so vor, dass viele ihre Argumentation aufgrund von Media-Markt-Prospekten vortragen. Dort werden nur selten Armprozessoren beworben.
Leute, die so wichtig sind, entscheiden nicht über Hardwaredetails. Das delegiert man.
Was das Neuschreiben der Programme angeht: das passiert sowieso. Oder wie soll sonst fuer einen Cluster mit Cell, Nvidia und x86-Prozessoren ein Programm geschrieben werden?
Kommt drauf an, auf welchem Level die Anwendung geschrieben ist. Im Hochleistungsrechnen sind mindestens die Numerikbibliotheken, die im Hintergrund arbeiten, handoptimiert. Wenn jemand einen Supercomputer mit exotischer Architektur baut, muss er daher die gängigen Schnittstellen selber mit einer passenden Implementierung bedienen.
Was bei den Stromkosten wichtig ist, ist natürlich der Preis/Performance. Momentan sind da mWn die aktuellen IBM-Prozessoren recht gut (RISC
), die dann aber wieder unter (leichten) Portierungsproblemen leiden, denn die Power-Architektur hat doch schon so einige Eigenheiten. Die aktuellen ARMs sind in dieser Kategorie mWn sogar schlechter als die aktuellen x86.
-
Leute, die so wichtig sind, entscheiden nicht über Hardwaredetails. Das delegiert man.
Ist doch egal. War auch nicht meine Aussage.
Die aktuellen ARMs sind in dieser Kategorie mWn sogar schlechter als die aktuellen x86.
Nit, dass ich dir nicht glauben wuerde, aber ... habe ich nicht in meinem vorherigen Post um Fakten gebeten? Ja!
-
knivil schrieb:
Humbug
toll, ein regestrierter Troll. Wieso wird so ein Misst nicht kommentarlos gelöscht?
-
knivil schrieb:
Nit, dass ich dir nicht glauben wuerde, aber ... habe ich nicht in meinem vorherigen Post um Fakten gebeten? Ja!
Hast du. Na und? So sehr interessiert mich diese Diskussion eigentlich nicht, vor allem, da ich hauptsächlich riscor mit dieser Aussage meinte, nicht dich. Falls das jemanden wirklich interessiert, dann mag er meine Aussagen prüfen. Das wird aber auch nicht ganz einfach, da ARM und x86 nicht wirklich die gleiche Nische haben. ARM ist gar nicht gut mit Fließkommarechnungen, x86 ist hier hingegen stark und diese Art Rechnung will man zumindest in wissenschaftlichen Rechenzentren, da hat ARM sowieso keine Chance.
-
knivil schrieb:
Die aktuellen ARMs sind in dieser Kategorie mWn sogar schlechter als die aktuellen x86.
Nit, dass ich dir nicht glauben wuerde, aber ... habe ich nicht in meinem vorherigen Post um Fakten gebeten? Ja!
ich springe mal ein, ein einzelner atom vs dual core Arm:
http://www.hartware.de/news_54276.html
dabei verbrauch der intel soc 0.8Watt spitze, apples version soll das auch verbrauchen (kurz gegoogled, gibt keine offiziellen quellen, 100% sind SOC eh nicht vergleichbar, weil meistens die funk module einen ordentlichen teil ziehen und unterschiedliche verbaut sind).risc vs cisc in rechenzentren ist keine sonderliche frage von verbrauch, man koennte auch server mit atom cpus basteln (machen manche sogar), aber das ist eine milchmaenchen rechnung. es kommt nicht nur auf ein paar werte an, sondern auf das ganze system. um ein paar mehr daten zu bekommen, hier von der neuen intel platform: http://www.anandtech.com/show/5553/the-xeon-e52600-dual-sandybridge-for-servers/1
wenn ich meine arm/mobile profilings anschaue, bin ich die meiste zeit ueber memory limitiert. mein xeon-assembler skaliert wunderbar auf kleinen testdaten die im cache liegen, wenn ich aber dann occlusion culling oder intersection tests in richtigen szenen im spiel mache, wird der ganze xeon code 20% schneller als der vorherige fpu (vom compiler) generierte. wenn ich nichts falsch mache, liegt das zumeist an dem speicher der mit ca 1GB/s saturiert. ein intel xeon system bekomme ich auf ca 40GB/s.
natuerlich kann es sein, dass man mit 40 ARM systemen energieeffizienter ist als ein Intel system. das intel system kostet ca 2KEuro, das ergebe 50euro/arm system, was mit rasperi PI eventuel machbar ist, doch hab ich meine zweifel ob man da mit den 512MB ram (in vielleicht einer noch langsammeren version) und mit einem ethernet interface wirklich an die leistung eines xeons kommt, z.b. bei crash simulationen oder wettervorhersage.
zudem muss man bedenken, dass genau wie das Amdahl law fuer parallelisierung, so gibt es auch ein limit fuer die distribution von daten. Ich hatte gelesen, dass damals die NEC chips beim earth simulator gewonnen haben, weil sie pro knoten mehr rechenleistung boten, und dass das exponentiel in die schlussendliche simulationsleistung beitraegt (mehr also die gflops linpack benchmarks zeigen), weil bei jedem volumen das man simuliert, eine gewisse menge "nachbarvolumina" im speicher gehalten werden muss. da machen 512MB vs 64GB viel aus, und in 40mal mehr rechner 64gb einbauen wuerde die kalkulation eventuel umstuertzen.ein paar informative links mehr:
http://www.heise.de/newsticker/meldung/Schnellster-deutscher-Supercomputer-eingeweiht-1442632.html
-113.644 Kernen des AMD-Prozessors Interlagos (Opteron 6276, 16 Kerne, 2,3 GHz). Ein weiteres Rack enthält 96 Serviceknoten.
-Der Rechner verfügt über 126 TByte Hauptspeicher
-Energiebedarf liegt bei 1,55 MW
-22,5 Millionen Euro
-Betriebskosten in Höhe von 2 Millionen Euro jährlich (was strom+mitarbeiter usw. bedeuten duerfte)http://www.heise.de/newsticker/meldung/Leibniz-Rechenzentrum-weiht-Gebaeude-fuer-den-SuperMUC-Supercomputer-ein-1361718.html
-14.112 Intel Sandy-Bridge-EP-Prozessoren mit 112.896 Kernen
-das neue Gebäude ein, das für 49,2 Millionen Euro
-"noch einmal weiter 83 Millionen Euro" fuer den eigentlichen server
16core interlagos ist ca 140W in der top version, ich glaube SBE mit 8x 2.9GHz 130W, ist die frage, was die betriebskosten sind, falls es der verbrauch ist, ist es 4Mio, dennoch nur 1/30 von beschaffungspreis, und 30jahre duerfte sowas kaum laufen.wenn man die kosten pro cpu umrechnet, sind das ca 5k, daran sieht man, dass die CPU an sich eigentlich nicht der grosse kostenfaktor ist, die verbauten duerften weit unter 2k kosten. meist sind es die ganzen speziellen interconnects zwischen den rechnern z.b. infiniband die teuer sind. niemand will da 40mal mehr von verbauen und niemand will ein rechenzentrum aufstellen was genug von denen rumliegen hat.
zudem ist service meist mit in der rechnung integriert, firmen wie IBM stellen oft redundanzrechner hin, faellt einer aus, wird sofort ein anderer knoten eingeschalten und jemand vom service kuemmert sich am naechsten tag um den toten knoten.ich glaube bei sowas wie datenbanken usw. duerften einzlene sehr schnelle cores besser skalieren, weshalb intel in dem markt scheinbar 80%+ abdeckt.
wenn man rechenleistung haben will, duerften GPUs weit aus besser sein, ich glaube ein A8-3850 mit ~500GFlops wird da auch jeden arm in sachen leistung/kosten und leistung/watt in den boden rammen.eine sehr interesante seite ist finde ich: https://en.bitcoin.it/wiki/Mining_hardware_comparison#ARM
seltener fall wo cpus/gpus von nvidia,arm,intel,via verglichen werden. und da die leute dort wirklich auf leistung/watt bzw leistung/$ aus sind, versuchen die moeglichst effiziente systeme zu nutzen (mining lohnt sich halt nicht, wenn hardware + stromkosten zu gross sind).RISC 2x Cortex-A9 0.57 GHash/s 0.5Watt CISC Atom Z520 1.20 GHash/s 2Watt RISC IBM Power7 7.6 GHash/s RISC Cell 26.6 GHash/s 35Watt (60W fuer ganze PS3) CISC Core i7 980x 19.2 GHash/s 130Watt CISC Opteron 8220 x16 25 GHash/s 125Watt (afaik) A8-3850 60 GHash/s 100Watt GTX560 Ti 74.8 GHash/s 180Watt Radeon 5830 302 GHash/s 180Watt
-
rapso schrieb:
eine sehr interesante seite ist finde ich: https://en.bitcoin.it/wiki/Mining_hardware_comparison#ARM
Finde ich auch. Wobei die Programme fuer Arm nur C verwenden. Ich denke nicht, dass sie Befehlssatzerweiterungen nutzen. Interessant ist auch der Vergleich zu FPGAs.