[vz-dev] Alternative Implementierung für vzcompress

Daniel Lauckner mailing at jahp.de
Sun Apr 14 11:26:45 CEST 2013


Hallo,

Am Samstag, 13. April 2013 um 14:57 schrieb Florian Knodt:
> Am 11.04.2013 20:16, schrieb Daniel Lauckner:
>> den Eindruck das die DB bei den
>> 5-Minutenwerten nicht von Anfang an bearbeitet sondern irgendwo
>> einsteigt.
>> Falls ja, wo ist das definiert?

> das sind die "compressscheme"-Zeilen unten im Script, genauer die erste
> Zahl des Arrays. Im Original heißt es z.B.

(7*24*60*60)    =>> (1*60),
(30*24*60*60)   =>> (5*60),
(6*30*24*60*60) =>> (15*60)
(365*24*60*60)  =>> (30*60)

Sieht bei mir im Moent so aus (Z. 259 - 263):
        'default' => array( //Definition for all other channels
           (1*24*60*60)    => (1*60),      //Older than 1 Days (org: 7)      Datapoint per 1 Minute
           (30*24*60*60)   => (5*60),      //Older than 30 Days     Datapoint per 5 Minutes
//            (6*30*24*60*60) => (15*60),     //Older than 6 Month     Datapoint per 15 Minutes
//            (365*24*60*60)  => (30*60),     //Older than 1 Year      Datapoint per 30 Minutes


> In dem Fall würden Daten, welche neuer als 7 Tage (also neuer als die
> kleinste Definition, in dem Fall 7*24*60*60 Sekunden) sind NICHT
> komprimiert. Werte die älter sind erhalten einen Wert pro Minute (1*60
> Sekunden), Daten älter als 30 Tage (30*24*60*60 Sekunden) ein Wert pro 5
> Minuten (5*60 Sekunden) etc.

So wie ichs jetzt konfiguriert habe müsste das Script alle Datensätze
älter als 30 Tage auf 300-Sekunden zusammenfassen. Macht es aber
nicht (ich hab mal die %-Anzeige deaktiviert):

Processing Sensor ID 7...
  Compressing datapoints between 17.03.2013 14:39:26 and 13.04.2013 10:40:14 using a 60 second timeframe
    Removed 2834 Datapoints in 623 Seconds.
  Skipping compression pass for datapoints between 14.04.2013 10:40:16 and 15.03.2013 09:40:16 using a 300 second timeframe: No Datapoints found


mfg Daniel




More information about the volkszaehler-dev mailing list