
〔2〕情報エントロピー. 情報理論では,生起可能な状態に番号をつけ,i番目の状態が現れる確率をP(i)として,エントロピーをビット単位で計って
H=-ΣP(i)log₂P(i)
で定義する.H≧0で,Hの価はどの状態が生起するかの不確定の度合いを表し,これを示すには2進信号で表して平均してH桁の長さの情報が必要である.エントロピーを用いて情報量が定義できる.H=0ならば完全に情報を得ていることになる.2つの相関のある事象系に対しては,一方の事象系で状態 j が生起したという条件の下で他の事象系で状態 i が生起する条件つき確率

を用いて,条件つきエントロピー



を導入する.雑音を伴う通信の情報量はこの形で表せる.マクスウェルの魔物のパラドックスは,魔物のもつ情報のエントロピーが負であるとして説明できる.なお,確率論,エルゴード理論,統計学などに関連して種々の形のエントロピーが用いられる.コルモゴロフのエントロピー,カルバック-ライブラーの情報量,赤池の情報量規準などである.
H=-ΣP(i)log₂P(i)
で定義する.H≧0で,Hの価はどの状態が生起するかの不確定の度合いを表し,これを示すには2進信号で表して平均してH桁の長さの情報が必要である.エントロピーを用いて情報量が定義できる.H=0ならば完全に情報を得ていることになる.2つの相関のある事象系に対しては,一方の事象系で状態 j が生起したという条件の下で他の事象系で状態 i が生起する条件つき確率

を用いて,条件つきエントロピー



を導入する.雑音を伴う通信の情報量はこの形で表せる.マクスウェルの魔物のパラドックスは,魔物のもつ情報のエントロピーが負であるとして説明できる.なお,確率論,エルゴード理論,統計学などに関連して種々の形のエントロピーが用いられる.コルモゴロフのエントロピー,カルバック-ライブラーの情報量,赤池の情報量規準などである.