ウィリアムのいたずらの、まちあるき、たべあるき

ウィリアムのいたずらが、街歩き、食べ物、音楽等の個人的見解を主に書くブログです(たま~にコンピューター関係も)

仮想化不要-スモールコアサーバーの衝撃

2012-02-14 23:48:45 | Weblog
日経コンピューター 2012年2月16日号 78ページの記事

スモールコアサーバーの衝撃
仮想化不要、超高集積を実現

によると(以下太字は上記サイトより引用)


モバイル機器向けのプロセッサ(モバイルチップ)を搭載した
「スモールコアサーバー」の実用化が目前に迫っている。
消費電力や設置スペースを1ケタ減らせる点が特徴だ。
現在主流の仮想化技術は用いず、数百台のサーバーを
同時に動かす。

なんだって。興味津々。これから、記事読む

  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

福島県の定時降下物環境放射能測定結果を、Crystal Ballで判断する(その1)

2012-02-14 16:30:11 | そのほか
モンテカルロ・シミュレーションを使って、いろんな予測をする場合、

株価や販売予測を行う手順
http://blog.goo.ne.jp/xmldtp/e/0db4704b9d0c5337c898249c8cf6d8e2

で、手順は、

●予測の元(入力)となる不確定なデータを発生させる
●不確定なデータをもちいて、予測したいデータ(出力)を導くモデルを
●予測したいデータ(出力)を設定
●シミュレーション実行
●結果の表示

と書きました。

このとき、不確定データを発生させる方法として、


・分布がわかっている
   その分布をもとに、乱数を発生させる
   (Crystal Ballでは:分布を設定する)

・分布がわからない
   時系列の場合  (Crystal Ballでは:CB Predictor)
   そうでない場合 (Crystal Ballでは:バッチフィット、分布の推定)

と書いて、

「その分布をもとに、乱数を発生させる」のは、

Crystal Ballを使って、プロジェクトの完了日等を、シミュレーションで確率的に求める方法
http://blog.goo.ne.jp/xmldtp/e/6175dee452be73cde2687439238de76f


で、

・分布がわからない
   時系列の場合  (Crystal Ballでは:CB Predictor)

については、

株価予測(時系列)シミュレーションをCrystal Ballで行うには
http://blog.goo.ne.jp/xmldtp/e/7d3d2f918cf9b442084f484a99a02c16


で書いたので、今日は、

・分布がわからない
   そうでない場合 (Crystal Ballでは:バッチフィット、分布の推定)

について、書きます。




■お題

 福島県では、「定時降下物環境放射能測定結果」というのを出しています。
 2月12日は、
   セシウム134 98.2
   セシウム137 139
 だそうです。この値が、異常値かどうか、

 普通は、統計で調べるのですが、今日はシミュレーションをつかって、
出現率から判断しましょう。

なお、このデータは毎日出ています。
2011/12/27~のデータを入手するため、

http://radioactivity.mext.go.jp/ja/1285/2012/02/1285_020218.pdf
http://radioactivity.mext.go.jp/ja/1285/2012/02/1285_021318.pdf

の2つを使いました。

そのままの分布だと、ぜんぜん適合しないので、対数をとり、検出できないのが0だと、
対数とれないので、最低の値よりも低い、
セシウム134の場合、1.4、セシウム137の場合1.3を使いました。




■「分布の適合」を使う

 「分布の適合」を使う方法を説明します。

 まず、一番左の緑の「仮定の定義」をクリック

 「分布の適合」をクリック

 「実測データの範囲」をいれるのですが、範囲を文字入力しても
 いいですけど、入力範囲の横にあるセルっぽいボタンをクリックして

範囲を選んでもいいです。

OKをクリックして実行させると、

なかんじで分布と適合度合いがでます。「適用」をクリックすると

なかんじで分布が選ばれ、OKをクリックすると確定します。

緑になって、乱数が発生できそうです。

そこで、今度は、結果のほうを定義します。
乱数で発生する値が、今日の観測値98.2よりも大きかったら1、小さかったら0とします
そうすると、この平均が、1の回数、つまり98.2より大きかった数になります。

これを実行すると

なかんじで

なかんじ・・・

平均0.04=4%  
うーん、微妙・・・5%以下?




長くなったので、ちょっとここできります。

  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

「ビッグデータ」の市場より、「ビッグ”じゃない”データ」の市場のほうが、大きくないか?

2012-02-14 11:08:06 | Weblog
 「NEC、ビッグデータ関連事業売上高を3年間で倍増に」というニュースとか、ビッグデータって、今話題ですけど、そもそも、「ビッグデータ」の市場より、「ビッグ”じゃない”データ」の市場のほうが、大きいんじゃないでしょうか?

 ビッグデータに力入れてると、意外とそっちの、大きな市場がおろそかになってしまうんじゃないかと思います。




 まず、そのニュース

NEC、ビッグデータ関連事業売上高を3年間で倍増に
http://headlines.yahoo.co.jp/hl?a=20120213-00000036-reut-bus_all


ここでいう、「大量データ」が問題なんだけど、たぶん、テラ以上の単位だよね。
それを処理するということだよね。

いや、TBレベルを「格納する」ってだけなら、秋葉原行って、TBレベルの
ハードディスク買ってくれば済むことだし・・・
処理するという点で、ビッグデータの価値がある。
数百GByteだったら、RDBで十分だし・・・


 で、そういうTBレベルのデータを処理している会社って、もう何かはいっている
場合が多いわけなんですよね。テラデータにビジネスオブジェクツとか・・・
 そうなってくると、それに追加とかリプレースとか、そういう話になってくる。
 なので、新規ってわけじゃない。

 つまり、新規顧客をガンガン開拓できるわけじゃないので、
 売上的に急上昇っていうのは・・・どうなんでしょうねえ?




 むしろ、ビッグデータじゃない市場のほうが、大きいのかも・・・

 ひとつは、データサイズが小さく(GBレベル)、まだ、統計的な解析とかをやっていない市場
 もうひとつは、(ビッグデータというと、統計処理だけど、そうでなく)統計以外の手法(シミュレーションなど)を使って、処理を行う市場。

 こっちの市場が立ち上がった場合、ビッグデータばかりに力を入れていると、出遅れる可能性は・・・ないのかな?

  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする