Mehrere Datenbanken - kein Autoimport

    • kampfpizza
      kampfpizza
      Bronze
      Dabei seit: 18.01.2007 Beiträge: 306
      Hallo,

      es ist ja ganz schön, dass man mit dem Elephant mehrere Datenbanken anlegen kann. Im Moment sehe ich allerdings keine Möglichkeit, das einigermaßen praktisch handzuhaben: Ich spiele mehrere Portale und Limits, und möchte natürlich nicht, dass z.B. Titan-Hände NL 50 Hände per Autoimport in die Stars NL 100 Datenbank gelangen. Es wäre also praktisch, wenn man die Auto-Import-Einstellungen abhängig von der DB angeben kann, idealerweise noch abhängig vom Limit.

      Was ist die Alternative? Auf den Auto-Import kann man kaum verzichten, da beim Multitabling die Stats von unbekannten Spielern wichtig sind und ich nicht alle 2 Minuten manuell importieren will. Also muss ich die Auto-Import-Einstellungen mit jedem Wechsel der DB anpassen? Oder gibt es eine praktischere Vorgehensweise?


      Kampfpizza
  • 2 Antworten
    • galam
      galam
      Bronze
      Dabei seit: 06.03.2005 Beiträge: 11.136
      Hi momentan ist der Elephant nur mit einer DB vernünftig zu gebrauchen. Generell spricht auch nichts dagegen alles in einer DB zu halten. Später werden wir vernünftigen Support für mehrere Limits hinzufügen, wird aber noch etwas dauern.

      Gruß Sebastian
    • kampfpizza
      kampfpizza
      Bronze
      Dabei seit: 18.01.2007 Beiträge: 306
      leider sprechen doch einige Dinge dagegen, alles in einer DB zu halten:

      a) Performanz. Habe bisher zumindest mit PT2 das Gefühl, dass die Skalierung sehr schlecht ist, ergo ab einer gewissen DB-Größe die Performanz stark abnimmt.

      b) Pflege / Wartung: Kleinere Datenbanken sind leichter zu pflegen (defragmentieren etc.) und Backups gehen schneller / sind leichter irgendwo abzulegen.

      Mein postgresql-data-Ordner ist bei PT2 derzeit 20 GB und wenn das alles in einer DB läge, hätte ich wahrscheinlich schon einige Probleme. Ob der Elephant besser skaliert, traue ich mich noch nicht zu bewerten, ich fürchte aber, dass dies einfach daran liegt, dass ein normaler PC nicht für den Einsatz als DB-Server optimiert ist: Idealer wäre wohl mehr RAM und eine eigene Partition / besser noch eine eigene Festplatte für das Data-Verzeichnis, leider kann ein normaler User-PC damit nicht aufwarten und deshalb killen Fragmentierung und Memory Swapping ab einer gewissen DB-Größe wohl die Performanz und die Software kann nicht unbedingt was dafür.