情報理論は、数学・物理・コンピュータ科学・脳科学・経済学・生物学……あらゆる分野を貫く“見えない基盤”だ。私たちは普段、情報を「言葉」や「データ」として扱っているが、情報理論はそれをもっと根本的に捉える。情報とは「不確実性が減ること」。つまり、あなたが何かを知った瞬間、世界の曖昧さが少しだけ減り、その分だけ情報が生まれる。情報は“曖昧さを削る力”なのだ。
この考え方の面白さは、情報を「量として測れる」ようにした点にある。シャノンが導いたエントロピーという概念は、情報の“驚き度”を数値化する。よくある出来事は情報量が少なく、予想外の出来事は情報量が多い。たとえば、明日太陽が昇るのは当たり前だから情報量はほぼゼロ。でも、明日太陽が昇らないなら、それは宇宙レベルの大ニュースで、情報量はとんでもなく大きい。情報理論は、世界の“意外性”を数学で扱えるようにした。

コメント