
月曜日、朝出勤するとネットワークが落ちていた。
理由は土曜日の工事停電のために金曜日の夜からネットワークその他の電源を先に落としておいて、停電終了とともに復帰させなかったからだ。またそれに対して実際に使う方もクレームを言うこともないらしい。
と、まあこう言う状況なのでやはりネットワークを使用したデータ取得は正式に止める事にした。バカらしいし。力点を他に移す事にする。
普段からデータを取り続けると言うのは本当は宝探し、金塊掘りみたいなもので、生産に関わる者としては本当に素晴らしい事なのだ。いつ何が出るかわからないと言うのはあるので長丁場の仕事だけれど、データなんて貯めて置いて見れば見るほどそこに何か埋まってる。砂金採りのような感じだ。当たれば儲けはデカい。放っておいたらバカだ。
でも仕方ないのでもう止める。
別方向の事で、昨日書いたTinyQueryをちょっと考えてみた。どう言う構造にするかだけれど、csvを読み込んでそこでいろいろやるより、最初にデータベースに全部入れてしまう方が後でいろいろできて楽かもしれないと思った。JSONオブジェクトのまま置いておくとデータの保管順番が特定できないらしくて、表示順序がコントロールしにくい。
あと、考えたのが、読み込むと同時に基本統計量を全部計算してしまい、各データの偏差と前のデータとの差を計算してしまう。データが数値でない場合は変化点をマーキングする。それを全部データベースに入れておく。
そこから後は人間の操作で各データの関連を求める。
と、まあ、どれだけ時間がかかるかわからないが考えよう。これができたらいろいろ楽になるはず。(誰が?...一般的な話として。)
以前に不具合が出た時にとってあるいろいろなデータをこねくり回して何と何が関連していそうかとやった事がある。あれはエクセルでやってて重くなるし面倒だしけっこう大変だった。そう言う事やる者はいないんだろうけどやらないとやっぱりダメだと思う。
理由は土曜日の工事停電のために金曜日の夜からネットワークその他の電源を先に落としておいて、停電終了とともに復帰させなかったからだ。またそれに対して実際に使う方もクレームを言うこともないらしい。
と、まあこう言う状況なのでやはりネットワークを使用したデータ取得は正式に止める事にした。バカらしいし。力点を他に移す事にする。
普段からデータを取り続けると言うのは本当は宝探し、金塊掘りみたいなもので、生産に関わる者としては本当に素晴らしい事なのだ。いつ何が出るかわからないと言うのはあるので長丁場の仕事だけれど、データなんて貯めて置いて見れば見るほどそこに何か埋まってる。砂金採りのような感じだ。当たれば儲けはデカい。放っておいたらバカだ。
でも仕方ないのでもう止める。
別方向の事で、昨日書いたTinyQueryをちょっと考えてみた。どう言う構造にするかだけれど、csvを読み込んでそこでいろいろやるより、最初にデータベースに全部入れてしまう方が後でいろいろできて楽かもしれないと思った。JSONオブジェクトのまま置いておくとデータの保管順番が特定できないらしくて、表示順序がコントロールしにくい。
あと、考えたのが、読み込むと同時に基本統計量を全部計算してしまい、各データの偏差と前のデータとの差を計算してしまう。データが数値でない場合は変化点をマーキングする。それを全部データベースに入れておく。
そこから後は人間の操作で各データの関連を求める。
と、まあ、どれだけ時間がかかるかわからないが考えよう。これができたらいろいろ楽になるはず。(誰が?...一般的な話として。)
以前に不具合が出た時にとってあるいろいろなデータをこねくり回して何と何が関連していそうかとやった事がある。あれはエクセルでやってて重くなるし面倒だしけっこう大変だった。そう言う事やる者はいないんだろうけどやらないとやっぱりダメだと思う。
※コメント投稿者のブログIDはブログ作成者のみに通知されます