エントロピー[情報量](読み)エントロピー[じょうほうりょう](英語表記)entropy

翻訳|entropy

ブリタニカ国際大百科事典 小項目事典 「エントロピー[情報量]」の意味・わかりやすい解説

エントロピー[情報量]
エントロピー[じょうほうりょう]
entropy

1948年にクロード・E.シャノン情報量定義したときに導入した,平均情報量をはかる尺度単位は「ビット/文字」で表される。シャノンによれば,情報源は独立かつ一定の分布をもつ確率過程とみなされ,情報源のエントロピーは,情報源から発生する通報の生起確率対数期待値で定義される。この定義によれば,おのおのの通報が発生する確率が等しいときエントロピーは最大となる。すなわち,どの通報がくるか予想がつきにくいほどエントロピーは大きいということになる。シャノンの定義は,熱力学で用いられるエントロピーと,比例定数を除いて一致するが,負号がつくので,負エントロピー negentropyとも呼ばれる。この概念は,データ通信暗号化コーディング理論などの分野で威力を発揮する。(→情報理論

出典 ブリタニカ国際大百科事典 小項目事典ブリタニカ国際大百科事典 小項目事典について 情報

今日のキーワード

脂質異常症治療薬

血液中の脂質(トリグリセリド、コレステロールなど)濃度が基準値の範囲内にない状態(脂質異常症)に対し用いられる薬剤。スタチン(HMG-CoA還元酵素阻害薬)、PCSK9阻害薬、MTP阻害薬、レジン(陰...

脂質異常症治療薬の用語解説を読む

コトバンク for iPhone

コトバンク for Android