| ア | イ | ウ | エ | オ |
| カ | キ | ク | ケ | コ |
| サ | シ | ス | セ | ソ |
| タ | チ | ツ | テ | ト |
| ナ | ニ | ヌ | ネ | ノ |
| ハ | ヒ | フ | ヘ | ホ |
| マ | ミ | ム | メ | モ |
| ヤ | ユ | ヨ | ||
| ラ | リ | ル | レ | ロ |
| ワ | ヰ | ヴ | ヱ | ヲ |
| ン |
| A | B | C | D | E |
| F | G | H | I | J |
| K | L | M | N | O |
| P | Q | R | S | T |
| U | V | W | X | Y |
| Z | 数字 | 記号 | ||
ある情報が伝える情報の本質量。
例えば、ある企業Mは誰もが悪徳企業であると考えていると仮定したとして、"実はM社は悪徳企業では無かった" という情報が伝え得る衝撃は大きいが、"M社の社長BG氏は善人では無かった" という情報が伝え得る衝撃は小さいとすると、そのそれぞれの衝撃の大きさが情報エントロピーである。つまり、予測がしにくい状態ほど、大きな量が得られる。
情報工学的には、ある情報の生起確率を、公式 "-log2 生起確率" にあてはめて、求められる量をエントロピー量とする。
この理論から、生起確率が50%の時のエントロピー量を1ビットとする事によって、エントロピー量の単位をビット単位で測れるようにしている。
コメントなどを投稿するフォームは、日本語対応時のみ表示されます