赤池 ボルツマンのエントロピー
赤池 負のエントロピー OR 負エントロピー
http://raycy.seesaa.net/article/11233584.html
数学からの7つのトピックス 竹中 淑子 (著)
http://raycy.seesaa.net/article/13519965.html
赤池弘次 統計とエントロピ-
http://raycy.seesaa.net/article/12193067.html
松縄規 エントロピ・情報・統計
「情報量」I(p;q):ボルツマンのエントロピーの議論に原始的な形で登場
赤池 負のエントロピー OR 負エントロピー
[参考] -I(q; p)は負のエントロピーと呼ばれる.-------------
↑
上記正しくは、I(q; p)は負のエントロピーと呼ばれる.ではないでしょうか?
真の分布と予想された分布との距離は以下の式で測ります.
(5.1)
式(5.1) は以下の性質を満足します.1. I(g : f ) ≥ 0
2. I(g : f ) = 0, g, f が完全に一致するとき
このことから,I(g : f ) がゼロに近いほど,両方の分布の距離が近いことになります.
式(5.1) で定義される量をカルバック-ライブラー情報量(Kullback-Leibler Quantity of Information 以下K-L 情報量と書きます)と呼びます.あるいは符号を変えた量
(5.2)
を(負の)エントロピーと呼びます.
↑
(引用者注:上記B「(負の)エントロピー」は、下記の「-I (g :f )」と同じはずなので、竹中淑子に従えば、「ボルツマンのエントロピー」となる。
I=-B なので、I は、「ボルツマンの負のエントロピー」となる。)
http://raycy.seesaa.net/article/11233584.html
数学からの7つのトピックス 竹中 淑子 (著)
KL‐情報量I (g :f )の符号を変えたもの-I (g :f )がボルツマンのエントロピーといわれるものである
http://raycy.seesaa.net/article/13519965.html
赤池弘次 統計とエントロピ-
ボルツマン・エントロピー(P.5)
http://raycy.seesaa.net/article/12193067.html
松縄規 エントロピ・情報・統計
古典力学に於るエントロピとの対応を持つSBあるいはSGに於て通常意味を持つのはそれら自身の値ではなく,異なる状態あるいは異なる分布に対するSBあるいはSGの差である.(引用者補記。ここでSBあるいはSGの差の量の肩に「*」を付す)その観点からするとSB*あるいはSG*はより実用的で広範囲な応用を持つ量であると言える.(5.14)からSB自身が適当な条件下でSB*に比例しているから,K‐L情報量が時には負のエントロピ(より正確にはf のg に関する負のエントロピ)と呼ばれるのも納得できる.(P.227)