goo blog サービス終了のお知らせ 

霊犀社2

第2霊犀社(元祖第一は、田中逸平主宰の私塾)@霊際社@P。ネタ帳・メモ書きなど、まあガラクタ。嫌疑76件わざと表示拒否中

赤池 ボルツマンのエントロピー

2008-02-20 18:26:35 | LinkRecords
赤池 ボルツマンのエントロピー
「情報量」I(p;q):ボルツマンのエントロピーの議論に原始的な形で登場


赤池 負のエントロピー OR 負エントロピー

[参考] -I(q; p)は負のエントロピーと呼ばれる.
    ↑
上記正しくは、I(q; p)は負のエントロピーと呼ばれる.ではないでしょうか?
    -------------
真の分布と予想された分布との距離は以下の式で測ります.
images  (5.1)

式(5.1) は以下の性質を満足します.
1. I(g : f ) ≥ 0
2. I(g : f ) = 0, g, f が完全に一致するとき

このことから,I(g : f ) がゼロに近いほど,両方の分布の距離が近いことになります.

式(5.1) で定義される量をカルバック-ライブラー情報量(Kullback-Leibler Quantity of Information 以下K-L 情報量と書きます)と呼びます.あるいは符号を変えた量
images  (5.2)

(負の)エントロピーと呼びます.
           ↑
(引用者注:上記B「(負の)エントロピー」は、下記の「-I (g :f )」と同じはずなので、竹中淑子に従えば、「ボルツマンのエントロピー」となる。
I=-B なので、I は、「ボルツマンの負のエントロピー」となる。)

http://raycy.seesaa.net/article/11233584.html
数学からの7つのトピックス 竹中 淑子 (著)
KL‐情報量I (g :f )の符号を変えたもの-I (g :f )がボルツマンのエントロピーといわれるものである

http://raycy.seesaa.net/article/13519965.html
赤池弘次 統計とエントロピ-
ボルツマン・エントロピー(P.5)

http://raycy.seesaa.net/article/12193067.html
松縄規 エントロピ・情報・統計
古典力学に於るエントロピとの対応を持つSBあるいはSGに於て通常意味を持つのはそれら自身の値ではなく,異なる状態あるいは異なる分布に対するSBあるいはSGの差である.(引用者補記。ここでSBあるいはSGの差の量の肩に「*」を付す)その観点からするとSB*あるいはSG*はより実用的で広範囲な応用を持つ量であると言える.(5.14)からSB自身が適当な条件下でSB*に比例しているから,K‐L情報量が時には負のエントロピ(より正確にはf の に関する負のエントロピ)と呼ばれるのも納得できる.(P.227)


コメント    この記事についてブログを書く
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする
« 統計物理―トス先生の物理教室... | トップ | 『京』の定義である碁盤目状... »
最新の画像もっと見る

コメントを投稿

サービス終了に伴い、10月1日にコメント投稿機能を終了させていただく予定です。
ブログ作成者から承認されるまでコメントは反映されません。

LinkRecords」カテゴリの最新記事