Hi zusammen,
ich plane aktuell eine kleine Online-Software die alle 5 Minuten exakt 1.345 Daten auswertet.
Diese sollen natürlich in eine Datenbank gespeichert und regelmäßig ausgewertet werden.
Sprich: Diese 1.345 Sensoren liefern verschiedene Werte (Int, Float, Boolean, ..). Das ganze soll dann in einem Diagramm ausgewertet und optisch dargestellt werden.
Beim Diagramm mach ich mir nicht so große sorgen, da hier nicht alle Sensoren auf einmal sondern einzeln angezeigt werden.
Allerdings mache ich mir um die Datenbank etwas sorgen.
Wie lange wird das ganze wohl gut gehen mit dem Auswerten?
Aktuell sieht die Datenbank so aus:
ID, Sensor (Name), Wert (Speichert den zuletzt gelieferten Wert).
Ich müsste das ganze nun natürlich um eine Tabelle "Statistik" erweitern:
SensorID, Datum, Wert
Index wäre natürlich SensorID (und einer fürs Datum?).
Aber das sind 390.000 Einträge am Tag. Oder 140.400.000 im Jahr..das geht nicht lange gut beim auslesen.
Habt ihr ein paar Tipps wie ihr das lösen würdet?
Lg
Patrick
ich plane aktuell eine kleine Online-Software die alle 5 Minuten exakt 1.345 Daten auswertet.
Diese sollen natürlich in eine Datenbank gespeichert und regelmäßig ausgewertet werden.
Sprich: Diese 1.345 Sensoren liefern verschiedene Werte (Int, Float, Boolean, ..). Das ganze soll dann in einem Diagramm ausgewertet und optisch dargestellt werden.
Beim Diagramm mach ich mir nicht so große sorgen, da hier nicht alle Sensoren auf einmal sondern einzeln angezeigt werden.
Allerdings mache ich mir um die Datenbank etwas sorgen.
Wie lange wird das ganze wohl gut gehen mit dem Auswerten?
Aktuell sieht die Datenbank so aus:
ID, Sensor (Name), Wert (Speichert den zuletzt gelieferten Wert).
Ich müsste das ganze nun natürlich um eine Tabelle "Statistik" erweitern:
SensorID, Datum, Wert
Index wäre natürlich SensorID (und einer fürs Datum?).
Aber das sind 390.000 Einträge am Tag. Oder 140.400.000 im Jahr..das geht nicht lange gut beim auslesen.
Habt ihr ein paar Tipps wie ihr das lösen würdet?
Lg
Patrick
Kommentar