コトバンクはYahoo!辞書と技術提携しています。

エントロピー[情報量] エントロピー[じょうほうりょう]entropy

翻訳|entropy

ブリタニカ国際大百科事典 小項目事典の解説

エントロピー[情報量]
エントロピー[じょうほうりょう]
entropy

1948年にクロード・E.シャノン情報量を定義したときに導入した,平均情報量をはかる尺度。単位は「ビット/文字」で表される。シャノンによれば,情報源は独立かつ一定の分布をもつ確率過程とみなされ,情報源のエントロピーは,情報源から発生する通報の生起確率の対数期待値で定義される。この定義によれば,おのおのの通報が発生する確率が等しいときエントロピーは最大となる。すなわち,どの通報がくるか予想がつきにくいほどエントロピーは大きいということになる。シャノンの定義は,熱力学で用いられるエントロピーと,比例定数を除いて一致するが,負号がつくので,負エントロピー negentropyとも呼ばれる。この概念は,データ通信暗号化コーディング理論などの分野で威力を発揮する。(→情報理論

出典|ブリタニカ国際大百科事典 小項目事典ブリタニカ国際大百科事典 小項目事典について | 情報

エントロピー[情報量]の関連キーワード新藤兼人木下恵介エレクトロニクス史(年表)民主自由党[日本]市川崑北朝鮮斎藤寅次郎戦争文学ヒューストン(John Huston)ベルイマン(Ingmar Bergman)

今日のキーワード

俳句甲子園

1998年から松山市で開かれる全国高等学校俳句選手権大会。高校生が5人1組で句の優劣をディベートで競い合う。チームでの勝敗とは別に、個人の最優秀句も選ぶ。今年は過去最多の41都道府県から121校、15...

続きを読む

コトバンク for iPhone

コトバンク for Android