Hardware-Auswahl für privaten Webserver/DB-Server



  • Folgendes liebe Freunde,
    ich will mir eine Maschine als WebServer/DB-Server zulegen und brauche Eure Erfahrung/Meinungen dazu. Zur Software ist nicht viel zu sagen, nur dass es auf dem Rechner vorwiegend Apache und PostgreSQL (LAMP) unter Ubuntu Server (12.04 LTS) laufen sollen. Da ich ihn am Anfang zu Übungszwecken und nur privat einsetzen werde, wollte ich nicht gleich zu einer vollwertigen Workstation mit Itanium/Phenom/etc. und 100GB RAM greifen, sondern im kleineren Maßstab bleiben, d.h. Sandy Bridge mit 4x 3,40 GHz, vorerst 8 GB DDR3 und zwei SATA HDs (jeweils 500 GB). Ihr seht schon - Kosten spielen eine wichtige Rolle 🙂
    Bei dem Mikroprozessor überlege ich, etwas Vergleichbares von AMD zu nehmen - diese sind billiger, schneiden aber bei diversen Benchmarks nicht so gut ab.
    Da ich mit der Kombination unter Ubuntu Server (US) noch keine Erfahrung habe, wollte ich von euch wissen, ob die Hardware für einen vernünftigen Sreverbetrieb ausreichen würde (immerhin laufen der App- und der DB-Server auf einer Maschine...). Ich rechne am Anfang mit einer geringen Serverauslastung durch eine wenig besuchte Webseite, auf der u.a. Geodaten aus der DB visualisiert werden.
    Da stellt sich für mich immer die Frage, ja woher weiß ich, ob die ausgewählte Hardware von Ubuntu komplett unterstützt wird (vor allem bei AMD) und das System stabil läuft? Oder mache ich mir da zu viele Gedanken?
    Da tun sich eigentlich noch hundert andere Fragen auf, wie z.B. wie sichere ich meine Daten am besten (ich weiß, da gibt es 137 Möglichkeiten) und ob das software-aided RAID unter US zu bewerkstelligen ist, aber ich belass es lieber bei den oberen.
    Alle Tipps sind willkommen. Danke!



  • Ich rechne am Anfang mit einer geringen Serverauslastung durch eine wenig besuchte Webseite, auf der u.a. Geodaten aus der DB visualisiert werden.

    Leider schreibst du nicht dazu, welchen Rechenaufwand der Rechner pro Besucher durchführen muss.

    Wenn ich dich richtig verstehe, dann soll der Rechner aus der DB Geodaten holen und dann daraus eine Vektorgrafik (z.B. SVG) oder ein Bitmap Bild erstellen und dieses dann dem Besucher der Webseite ausgeben.
    Der Besucher wird vorher wohl noch angeben können, welchen Kartenausschnitt er haben will und was da für Daten alles drin sein sollen (Hauptstraßen, Radwege, Höhenprofile usw.).

    Ist das so richtig?
    Falls ja, dann hängt das entscheident vom Aufwand ab.
    Einfache Karten lasen sich auch schon auf einem 10 Jahre alten Uraltrechner recht zügig erstellen, sind die Karten aber komplexer, dann brauchst du dafür natürlich immer mehr Leistung.

    Ich würde dir daher vorschlagen, erstmal Testweise einen Uraltrechner hinzustellen und den ein paar Zugriffe druchführen lassen, dann weißt du ungefähr, wie schnell das ist und kann die ganze Sache für eine richtige HW besser einschätzen.

    Mit entsprechenden Testfällen, kannst du auch mehrere Anfragen an den Server schicken und dann schauen wie gut der Skaliert.

    Prinzipiell hast du die beste Optimierungsmöglichkeit allerdings in der SW, die dir die Karten erstellt.



  • Ist das so richtig?

    Ja. Die Karte wird aber anfangs noch relativ anspruchslos sein. Es werden Karten in Form von SVGs erstellt, dabei handelt es sich jedoch nur um Verwaltungsgrenzen auf unterschiedlichen Ebenen (später kann ein WMS + WFS/WCS mit Rasterdaten hinzukommen). Der meiste Rechenaufwand beschränkt sich also zunächst nur auf die Generierung einer mehr oder weniger hochaufgelösten Vektorgrafik (Regressionsanalysen und Ähnliches werden eher selten durchgeführt). Die Originaldaten werde ich dann noch aus Performancegründen um einen Faktor generalisieren. Die SW wird natürlich - soweit es geht - optimiert.

    Tja, nur leider habe ich keine uralte Kiste zum Testen, würde aber sowieso nur sehr ungern viel Zeit mit weiteren großen Tests verbringen. Ist natürlich eine gute Idee, allerdings könnte ich selbst dann die Grenzen des Rechners schlecht ertasten, weil ich offline den Zugriff durch viele Clients nicht simulieren kann.



  • [Rewind] schrieb:

    Tja, nur leider habe ich keine uralte Kiste zum Testen, würde aber sowieso nur sehr ungern viel Zeit mit weiteren großen Tests verbringen. Ist natürlich eine gute Idee, allerdings könnte ich selbst dann die Grenzen des Rechners schlecht ertasten, weil ich offline den Zugriff durch viele Clients nicht simulieren kann.

    Warum sollte das nicht gehen?
    Das LAN ist hier keine Hürde, du kannst also dutzende Anfragen von einem PC an den Server schicken.
    Andere testen so ihre Serveranwendungen auch. Ich wette sogar, dass es dafür spezialisierte Programme gibt, die genau das machen.

    Ansonsten könnten du natürlich eine feste Geldsumme nehmen, die du ausgeben möchtest, und dir dann für dieses Geld die beste Hardware kaufen, die du kriegen kannst.


Anmelden zum Antworten