본문 바로가기

3-1학기 과목(지금 볼거X)/정보이론

정보이론 3주차-1

정보량

정보란? =상태에 대한 지식= 의미 있는 데이터

 

=>정보 표현에 필요한 "최소한의 비트 수"

=>정보가 데이터중 얼마인지,

 

단위:bit (양자 택일시 0/1) = 1bit =log(2)2

 

즉, M(2^m) 개의 기호가 있다면, m(= log2M)개의 정보가 필요하다는 이야기.

 

 

**LOR로 시작했다면, 끝까지 LOR 로 해야함, 중간에 ROL로 변경할 경우 문제 발생!

**확률이 큰 기호에 짧은 부호를 할당해야 하는 이유

=>확률이 크다는건 그만큼 언급(불려오는) 횟수가 많다는 이야기 이기 때문에 레지스터의 크기가 가까울 수록 유리하겠죠?

 

H(X) = E[I(Xi)] = -(Sigma i to m)P(xi)log2P(Xi) = (Sigma ito m) P(Xi)I(Xi) 

Ex. 문제 풀이,  P(0) =0.8// P(1) = 0.2 라고 가정하고 문제를 품.

Hmax= 기호, 즉 상태가 2개이므로 log2^2 =1이라는 것을 알 수 있음. (log2M이 Hmax)이므로.

 

H(X)= 엔트로피는 위의 식, -Sigma..에 의해

-0.8(log2(0.8) -0.2(log2(0.2) => 전개 후 풀면 0.72가 나오게 됨.

 

h(정보원 x의 상태) = 0.72/1 == 0.72

 

r(Redundacy) , =1-0.72 ==0.28

 

(흐린 부분)

경기 사람의 충남 외출시, 경기의 일기 예보는 얼마나 신뢰 할 수 있는가?

 

X(H(x)) , Y(H(y))

=>H(x|y)의 상호정보량  I(X:Y) =(H(x) -H(x|y))==(H(y) -H(y|x))==H(x)+H(y)-H(x,y)

 

P(x|y)=P(x,y)/P(y)

 

=============================

기억이 없는 정보원=>정보원의 발생이 다른 시점과 독립이라는 것(랜덤 발생)

==>확률 편증이 없으며, 현실세계에는 이딴 건 없음.

 

 

마르코프 정보원(기억 있는 정보원)

=>마르코프 과정을 따름.

 

상태(State)

=>새로운 기호의 발생은 상태의 천이를 의미함

(상태에 의해 다음 기호의 출현 확률을 예측 할 수 있음.)

마르코프 과정

=>기호를 발생하며 상태에서 상태로 천이를 반복하는 과정.

 

P(xi|x1,x2,x3 ... xn-1) = P(Xi|Xi-m+1, Xi-m+2... Xi-1)

 

1차 마르코프 정보원

P(x1, x2, x3.. xn) = P(x1)P(X2|x1)P(X3|X2)P(X4|X3)...P(Xn|Xn-1)

 

Zero order Src=>독립 정보원, (기호 +상태)

 

상태 천이도 및 그림그리기(행렬보고) 알아 둘 것.

 

팁이라면 행렬의 우측 열 번호를 타고 올라간다고 생각하면 될듯?

(ㄴ자를 오른쪽에서부터 왼쪽으로 그린다는 느낌..?)

 

그림을 보고 행렬을 그릴 때에는

1)일단 자기 자신을 회귀하는거 먼저 채우고

 

2)S0 =>S1 (이동값 0.2)라면

S0 행의 S1열에 값을 기입하면 됨!!

 

 

ppt 3-1부분임! 필요하면 다시 볼 것.

(상호정보량, 엔트로피 부분 복습 요함)

'3-1학기 과목(지금 볼거X) > 정보이론' 카테고리의 다른 글

6주-1  (0) 2023.04.06
5주차 정보이론  (0) 2023.04.02
4주차 정보이론  (0) 2023.03.26
3/7~10 정보 이론 1주차  (2) 2023.03.15