Supercomputer und Cluster



  • Da hier einige mit Supercomputern arbeiten, würde mich mal interessieren, was diese Supercomputer für Daten (MHz, Cores, RAM...) haben? Sind Supercomputer heute überhaupt noch sinnvoll? Ist es nicht viel billiger ein Cluster aus normalen Rechnern zu bauen, die haben ja inzwischen auch immer mehr Cores.



  • Was glaubst du was ein Supercomputer eigentlich ist? Spezialentwicklungen die mit Kryptonit betrieben sind?
    Klar kann sich da mal die Architektur unterscheiden. Ggf gibts auch ein paar Spezialentwicklungen aber es sind eben auch des öfteren einfach große Rechnercluster mit speziellen BS.
    Die Spezifikationen können aber nicht mehr wirklich in Mhz, Ram etc gerechnet werden. Einfach hochrechnen ist da nicht. Denn z.B. ist die Netzwerkkarte auch ein Entscheidender Faktor. Ausfallsicherheit etc. Daher wird meist in PetaFlops berechnet (FLOP = Floating Point Operation) die probieren einfach in einen Benchmark wieviele Gleitkommaoperationen pro Sekunde das Teil schafft.



  • FLOPS sind doch total unaussagekräftig. Was, wenn ich mit Fließkommazahlen gar nicht rechnen will?



  • 314159265358979 schrieb:

    FLOPS sind doch total unaussagekräftig. Was, wenn ich mit Fließkommazahlen gar nicht rechnen will?

    es gibt viele skalen, FLOPS im Linpack sindnunmal die bekantesten daten, da fuer die supercomputer bei den aufwendigsten anforderungen fuer die man sie baut flops am aussagekraeftigsten ist.
    daneben gibt es natuerlich flops/dollar, flops/watt, bei kleineren gibt es auch oefter java benchmark ergebnisse. rein integer werte eher nicht, die werten eher in uebergeordneten benchmarks angegeben wie z.b. bild bearbeitungs benchmarks (e.g. sateliten scanes zu 3d volumen umwandeln) die allgemeine leistung aus.

    flops sind vermutlich auch deswegen so aussagekraeftig, weil sie weitaus komplizierter als integer zu implementieren sind und traditionel rechner weitaus mehr int leistung haben als float.


  • Mod

    @asdftge: Ein Supercomputer ist kein Zauberrechner. Es ist wie ein Rechnercluster aus konventionellen CPUs (meistens sogar recht langsame CPUs wegen der kosten und der Wärmeentwicklung), der entscheidende Unterschied ist, dass die durch ein fettes Bussystem verbunden sind, was - entgegen zu normalen Rechnerclustern - paralleles Rechnen mit (relativ) viel Kommunikation zwischen den CPUs möglich macht. Effektiv ist es daher wie ein einzelner Computer mit zehntausenden Kernen. Und das kann man durch nichts anderes ersetzen.

    Du darfst dir auch nicht vorstellen, dass jedes Programm alle diese Kerne benutzt. Auf so einem Rechner arbeiten hunderte Arbeitsgruppen gleichzeitig, manche brauchen für ihr Programm eben tausende Kerne, manche nur ein paar Dutzend. Oder auch mal viele Programme parallel auf einem Kern, wenn die Arbeitsgruppe sonst keinen Zugang zu einem normalen Rechnercluster hat.

    Technisch gesehen sind das, wie schon angedeutet, recht normale CPUs. Gerne auch mal Eigenentwicklungen des Herstellers, aber nichts, was man sich nicht auch in einem Heimrechner denken könnte. Meistens mit recht vielen Cores und dann vier bis acht von diesen CPUs auf einem Board, so dass man dann Rechner mit 16-64 Cores hat. Und diese dann mit Infiniband verbunden. Die RAM-Ausstattung ist meistens eher klein und bewegt sich in den Bereichen, die man auf Heimrechnern hat, also ein paar Gigabytes pro Core. Das liegt da dran, dass die Probleme die man auf Superrechnern löst meistens nicht sehr RAM-Intensiv sind. Wenn man viel RAM braucht, hat man einen Spezialrechner mit ein paar hundert Gigabytes in der Arbeitsgruppe stehen, für einen Supercomputer der von vielen verschiedenen Gruppen genutzt wird, ist diese Anforderung zu exotisch, um Geld da drin zu investieren.


Anmelden zum Antworten