Hi! 
ich hätte gern eure Meinung gewusst was das Datenbankdesign angeht..
Folgendes: ich möchte von mehreren servern (von 59 bis 100 und mehr..) eine csv datei holen und diese in einer datenbank speichern.
die daten werden jeweils pro server im schnitt alle 10 bis 30 sec aktualisiert (d.h. alle 10 bis 30sec wird ein datensatz in die datenbank gespeichert)
gehen wir mal von einem server aus so sind dies bei einem intervall von 30sec 3000 datensätze. bei 100 servern also täglich 300.000. (und nach 10 tagen dementsprechend viel...)
sinnvollerweise wären es dann pro server eine t_data tabelle..
was meint ihr? was würdet ihr ggf. anders machen?
t_servers (id, name, ip)
t_data_serverid(id, value1 value2, errormsg, etc..)
eben für jeden server eine eigene data tabelle..

ich hätte gern eure Meinung gewusst was das Datenbankdesign angeht..
Folgendes: ich möchte von mehreren servern (von 59 bis 100 und mehr..) eine csv datei holen und diese in einer datenbank speichern.
die daten werden jeweils pro server im schnitt alle 10 bis 30 sec aktualisiert (d.h. alle 10 bis 30sec wird ein datensatz in die datenbank gespeichert)
gehen wir mal von einem server aus so sind dies bei einem intervall von 30sec 3000 datensätze. bei 100 servern also täglich 300.000. (und nach 10 tagen dementsprechend viel...)
sinnvollerweise wären es dann pro server eine t_data tabelle..
was meint ihr? was würdet ihr ggf. anders machen?
t_servers (id, name, ip)
t_data_serverid(id, value1 value2, errormsg, etc..)
eben für jeden server eine eigene data tabelle..

Kommentar