Max. Größe von MySQL-Datenbank



  • Naja meine Güte 10GB ist nu auch nicht die Welt, das wird das MySQL DBMS auch noch schaffen, mit ein paar klugen Indexen und einem vernünftigen Design.

    Ansonsten halt wie die anderen angeraten haben Oracle, gibts als Eduversion kostenfrei. Oder halt Postgres.

    bye

    tt



  • Die größe ein er MySQL-DB ist abhängig von der max. Filegröße des Dateisystems.

    Bei Linux waren es mal 2 GB.

    MySQL verwaltet alle Daten in einem File.
    Andere DB sind da deshalb besser weil sie die Daten in mehrere File aufteilen.
    Somit muss nicht ein Datei mit 2 GB durchsucht werden sondern jenachdem in welchen Datenfile diese Daten liegen. Das nimmt dir das RDBMS ab.

    Wer aber Tabellen mit 10 GB hat sollte sowieso über Design, BS, DB nachdenken.



  • Hallo

    MySQL verwaltet alle Daten in einem File

    wenn ich mich nicht irre stimmt das so nicht

    Datenbank != Tabelle

    mySQL - Tabelle ist ein File (+Indexdatei)
    dh wenn die 10GB auf viele Tabellen aufgesplittet sind - kein Problem,
    aber das Konzept ist da wohl viel wichtiger

    MfG
    Klaus



  • Ok hab mich schlecht ausgedrückt. Hätte aber durch meinen letzen Satz erkennbar sein sollen. Da habe ich von einer Tabelle mit 10GB gesprochen.
    Eine Tabelle in MySQL besteht eigentlich aus 3 Files. Die Daten, die Strktur der Tabelle und der Index.



  • Erstmal sorry wegen des falschen Forums.

    @Unix-Tom
    Das Problem liegt darin, dass pro Jahr ca. 1 Mio. Datensätze anfallen und diese erst nach 3 Jahren aus der DB ausgelagert werden sollen/dürfen.
    Sämtliche Sätze müssten unter Berücksichtigung der Normalformen in die gleiche Tabelle.

    So, das größte Problem liegt nun anscheinend wirklich beim Filesystem und darauf hab ich keinen Einfluss. Ähnlich geringen Einfluss hab ich auf die verfügbaren DBMS, momentan sind nur MySQL und Applix (wer gute Informationen dazu hat: immer her damit) vorhanden.
    Ist es so, dass manch anderes DBMS eine Tabelle in mehrere Dateien aufsplitten kann?
    Notfalls muss ich dann halt wirklich die Datensätze in verschiedenen Tabellen abspeichern.
    Sieht nicht gut aus, was!?

    Kann mir jemand Erfahrungsberichte zur Performance von SQLite geben? Sieht aber wohl eher schlecht aus denke ich.
    (auf das System müssten grundsätzlich maximal 3 User gleichzeitig zugreifen: ein Schreibender und 2 Lesende)



  • Habe zwar keine Erfahrung mit Oracle aber gehört zu haben das es mehrere Dateien gibt. MUss es ja auch da jede DB die gleichen Einschränkungen mit der Dateigröße hat. Ist BS Abhängig und kann dadurch nicht umgangen werden.

    Kannst du die Daten nicht selbst auslagern. Nach Monat oder zumindes nach Jahr.
    Was sind das für Daten die so groß sind. Normalisieren bis Stufe 3 Reeciht manchmal auch schon.



  • Also bei Oracle bruacht man sich soweit ich weiss wirklich keine Sorge um MaxFileSize des OS machen.
    Dazu is das Produkt einfach zu teuer und gut 😉



  • Imho kann man dann Tabellen bei Platzmangel auf mehrere Files aufteilen, bloß der Index darf nicht über die maximale Größe gehen.

    MfG SideWinder



  • Ok, danke Euch, werd mir das dann nochmal intensiver ansehn 🙂



  • Eine Rolle spielt auch das Dateisystem auf dem die DB installiert ist. Hier ist sicherlich unter Windows NTFS die erste Wahl. Bei Fat32 ist ja bekannterweise bei 2GB Dateigröße Schicht. Die neue Windows-BetaVersion 8.0.0 von PostgreSQL läßt sich daher schon standardmäßig nur noch auf NTFS installieren.


Anmelden zum Antworten