Note: The slideshow mode requires javascript.
情報化社会と情報(2)
Tokio Kikuchi
情報の定義
文系的には情報の定義はいろいろ
科学的な情報の定義は、、、
情報の「量」
情報量はそれが起こったときの「驚きの量」
例えば
コインを投げて表が出たとき ... 1
コインを投げて2回続けて表が出たとき ... 2
コインを投げて N 回続けて表が出たとき ... N
情報のエントロピー
I(A) = log
2
1/P(A) ... P(A)は A が起る確率
ちなみに
エントロピーは物理学(熱力学/統計力学)で重要な概念
dS = dQ/T, S = k log Ω
物理学の勉強ではひとつのヤマ
情報量の単位 bit
1 bit ... 0 又は 1 (2通り)
2 bit ... 0, 1, 2, 3 (4通り)
10 bit ... 0, 1, ... 1023 (1024通り)
20 bit ... 2
20
= 1048576 通り
コンピュータの原理
2進数
数を bit で表す
2進数のどこがいいのか
素子数(算盤の玉)を減らせる(桁数は増える)
算盤 999 ... 15 個
2進数 1023 ... 10個
しつこくやってみると
こんな感じ
さらに、
足し算が簡単
0+0=0, 0+1=1, 1+0=1, 1+1=10
「九九」が簡単
0x0=0, 0x1=0, 1x0=0, 1x1=1
息抜き
ぐわし