コトバンクはYahoo!辞書と技術提携しています。

エントロピー(情報) エントロピー

百科事典マイペディアの解説

エントロピー(情報)【エントロピー】

シャノンが導入した〈あいまいさ〉を表す情報量の尺度。ある情報が与えられ,それを解釈するとき,可能な答えが確率的に等しい重さでN通りあり,どれが正しい答えかわからない場合,その答えを確定させるに必要な情報量はlog2N=Sビットで評価される。
→関連項目熱力学の法則

出典 株式会社平凡社百科事典マイペディアについて 情報

エントロピー(情報)の関連キーワード熱力学