ビッグデータというと、Hadoopなどが有名。しかし、これは、トランザクション処理とかには向いていない。どっちかというと、データをためて、バッチ処理するようなものに向いている。
たとえば、あるものを購入する人は、どのような属性を持っているか、クラスター分析したいとか言うとき。
一方、リアルタイム処理したい場合もある。今、この株を買うべきか?買うならいくらで?とかいうとき。この場合、CEP(複合イベント処理)を使ってメモリ上で処理していくとかいうことになりそう。
ただ、この2つに「分かれる」と考えていいのだろうか?
たとえば、株を買うかどうか判別できたとする。
この判別自体はCEPを使うかもしれない。
しかし、判別する際の元となる判別関数があるはずである。
この関数は、膨大なデータを元に作るとすれば、hadoopで処理することになる。
つまり、HadoopとCEPを複合したようなシステムが、今後、必要になってきそうな気がする。
たとえば、あるものを購入する人は、どのような属性を持っているか、クラスター分析したいとか言うとき。
一方、リアルタイム処理したい場合もある。今、この株を買うべきか?買うならいくらで?とかいうとき。この場合、CEP(複合イベント処理)を使ってメモリ上で処理していくとかいうことになりそう。
ただ、この2つに「分かれる」と考えていいのだろうか?
たとえば、株を買うかどうか判別できたとする。
この判別自体はCEPを使うかもしれない。
しかし、判別する際の元となる判別関数があるはずである。
この関数は、膨大なデータを元に作るとすれば、hadoopで処理することになる。
つまり、HadoopとCEPを複合したようなシステムが、今後、必要になってきそうな気がする。