情報化社会と情報(2)

情報の定義

  • 文系的には情報の定義はいろいろ
  • 科学的な情報の定義は、、、

情報の「量」

  • 情報量はそれが起こったときの「驚きの量」
  • 例えば
    • コインを投げて表が出たとき ... 1
    • コインを投げて2回続けて表が出たとき ... 2
    • コインを投げて N 回続けて表が出たとき ... N
  • 情報のエントロピー
    • I(A) = log2 1/P(A) ... P(A)は A が起る確率

ちなみに

  • エントロピーは物理学(熱力学/統計力学)で重要な概念
  • dS = dQ/T, S = k log Ω
  • 物理学の勉強ではひとつのヤマ

情報量の単位 bit

  • 1 bit ... 0 又は 1 (2通り)
  • 2 bit ... 0, 1, 2, 3 (4通り)
  • 10 bit ... 0, 1, ... 1023 (1024通り)
  • 20 bit ... 220 = 1048576 通り

コンピュータの原理

  • 2進数
  • 数を bit で表す

2進数のどこがいいのか

  • 素子数(算盤の玉)を減らせる(桁数は増える)
    • 算盤 999 ... 15 個
    • 2進数 1023 ... 10個
  • しつこくやってみると こんな感じ

さらに、

  • 足し算が簡単
  • 0+0=0, 0+1=1, 1+0=1, 1+1=10
  • 「九九」が簡単
  • 0x0=0, 0x1=0, 1x0=0, 1x1=1

息抜き