RISC vs CISC
-
knivil schrieb:
Humbug
toll, ein regestrierter Troll. Wieso wird so ein Misst nicht kommentarlos gelöscht?
-
knivil schrieb:
Nit, dass ich dir nicht glauben wuerde, aber ... habe ich nicht in meinem vorherigen Post um Fakten gebeten? Ja!
Hast du. Na und? So sehr interessiert mich diese Diskussion eigentlich nicht, vor allem, da ich hauptsächlich riscor mit dieser Aussage meinte, nicht dich. Falls das jemanden wirklich interessiert, dann mag er meine Aussagen prüfen. Das wird aber auch nicht ganz einfach, da ARM und x86 nicht wirklich die gleiche Nische haben. ARM ist gar nicht gut mit Fließkommarechnungen, x86 ist hier hingegen stark und diese Art Rechnung will man zumindest in wissenschaftlichen Rechenzentren, da hat ARM sowieso keine Chance.
-
knivil schrieb:
Die aktuellen ARMs sind in dieser Kategorie mWn sogar schlechter als die aktuellen x86.
Nit, dass ich dir nicht glauben wuerde, aber ... habe ich nicht in meinem vorherigen Post um Fakten gebeten? Ja!
ich springe mal ein, ein einzelner atom vs dual core Arm:
http://www.hartware.de/news_54276.html
dabei verbrauch der intel soc 0.8Watt spitze, apples version soll das auch verbrauchen (kurz gegoogled, gibt keine offiziellen quellen, 100% sind SOC eh nicht vergleichbar, weil meistens die funk module einen ordentlichen teil ziehen und unterschiedliche verbaut sind).risc vs cisc in rechenzentren ist keine sonderliche frage von verbrauch, man koennte auch server mit atom cpus basteln (machen manche sogar), aber das ist eine milchmaenchen rechnung. es kommt nicht nur auf ein paar werte an, sondern auf das ganze system. um ein paar mehr daten zu bekommen, hier von der neuen intel platform: http://www.anandtech.com/show/5553/the-xeon-e52600-dual-sandybridge-for-servers/1
wenn ich meine arm/mobile profilings anschaue, bin ich die meiste zeit ueber memory limitiert. mein xeon-assembler skaliert wunderbar auf kleinen testdaten die im cache liegen, wenn ich aber dann occlusion culling oder intersection tests in richtigen szenen im spiel mache, wird der ganze xeon code 20% schneller als der vorherige fpu (vom compiler) generierte. wenn ich nichts falsch mache, liegt das zumeist an dem speicher der mit ca 1GB/s saturiert. ein intel xeon system bekomme ich auf ca 40GB/s.
natuerlich kann es sein, dass man mit 40 ARM systemen energieeffizienter ist als ein Intel system. das intel system kostet ca 2KEuro, das ergebe 50euro/arm system, was mit rasperi PI eventuel machbar ist, doch hab ich meine zweifel ob man da mit den 512MB ram (in vielleicht einer noch langsammeren version) und mit einem ethernet interface wirklich an die leistung eines xeons kommt, z.b. bei crash simulationen oder wettervorhersage.
zudem muss man bedenken, dass genau wie das Amdahl law fuer parallelisierung, so gibt es auch ein limit fuer die distribution von daten. Ich hatte gelesen, dass damals die NEC chips beim earth simulator gewonnen haben, weil sie pro knoten mehr rechenleistung boten, und dass das exponentiel in die schlussendliche simulationsleistung beitraegt (mehr also die gflops linpack benchmarks zeigen), weil bei jedem volumen das man simuliert, eine gewisse menge "nachbarvolumina" im speicher gehalten werden muss. da machen 512MB vs 64GB viel aus, und in 40mal mehr rechner 64gb einbauen wuerde die kalkulation eventuel umstuertzen.ein paar informative links mehr:
http://www.heise.de/newsticker/meldung/Schnellster-deutscher-Supercomputer-eingeweiht-1442632.html
-113.644 Kernen des AMD-Prozessors Interlagos (Opteron 6276, 16 Kerne, 2,3 GHz). Ein weiteres Rack enthält 96 Serviceknoten.
-Der Rechner verfügt über 126 TByte Hauptspeicher
-Energiebedarf liegt bei 1,55 MW
-22,5 Millionen Euro
-Betriebskosten in Höhe von 2 Millionen Euro jährlich (was strom+mitarbeiter usw. bedeuten duerfte)http://www.heise.de/newsticker/meldung/Leibniz-Rechenzentrum-weiht-Gebaeude-fuer-den-SuperMUC-Supercomputer-ein-1361718.html
-14.112 Intel Sandy-Bridge-EP-Prozessoren mit 112.896 Kernen
-das neue Gebäude ein, das für 49,2 Millionen Euro
-"noch einmal weiter 83 Millionen Euro" fuer den eigentlichen server
16core interlagos ist ca 140W in der top version, ich glaube SBE mit 8x 2.9GHz 130W, ist die frage, was die betriebskosten sind, falls es der verbrauch ist, ist es 4Mio, dennoch nur 1/30 von beschaffungspreis, und 30jahre duerfte sowas kaum laufen.wenn man die kosten pro cpu umrechnet, sind das ca 5k, daran sieht man, dass die CPU an sich eigentlich nicht der grosse kostenfaktor ist, die verbauten duerften weit unter 2k kosten. meist sind es die ganzen speziellen interconnects zwischen den rechnern z.b. infiniband die teuer sind. niemand will da 40mal mehr von verbauen und niemand will ein rechenzentrum aufstellen was genug von denen rumliegen hat.
zudem ist service meist mit in der rechnung integriert, firmen wie IBM stellen oft redundanzrechner hin, faellt einer aus, wird sofort ein anderer knoten eingeschalten und jemand vom service kuemmert sich am naechsten tag um den toten knoten.ich glaube bei sowas wie datenbanken usw. duerften einzlene sehr schnelle cores besser skalieren, weshalb intel in dem markt scheinbar 80%+ abdeckt.
wenn man rechenleistung haben will, duerften GPUs weit aus besser sein, ich glaube ein A8-3850 mit ~500GFlops wird da auch jeden arm in sachen leistung/kosten und leistung/watt in den boden rammen.eine sehr interesante seite ist finde ich: https://en.bitcoin.it/wiki/Mining_hardware_comparison#ARM
seltener fall wo cpus/gpus von nvidia,arm,intel,via verglichen werden. und da die leute dort wirklich auf leistung/watt bzw leistung/$ aus sind, versuchen die moeglichst effiziente systeme zu nutzen (mining lohnt sich halt nicht, wenn hardware + stromkosten zu gross sind).RISC 2x Cortex-A9 0.57 GHash/s 0.5Watt CISC Atom Z520 1.20 GHash/s 2Watt RISC IBM Power7 7.6 GHash/s RISC Cell 26.6 GHash/s 35Watt (60W fuer ganze PS3) CISC Core i7 980x 19.2 GHash/s 130Watt CISC Opteron 8220 x16 25 GHash/s 125Watt (afaik) A8-3850 60 GHash/s 100Watt GTX560 Ti 74.8 GHash/s 180Watt Radeon 5830 302 GHash/s 180Watt
-
rapso schrieb:
eine sehr interesante seite ist finde ich: https://en.bitcoin.it/wiki/Mining_hardware_comparison#ARM
Finde ich auch. Wobei die Programme fuer Arm nur C verwenden. Ich denke nicht, dass sie Befehlssatzerweiterungen nutzen. Interessant ist auch der Vergleich zu FPGAs.