Processing math: 100%
본문 바로가기

NLP/도서

[Chapter 6] Markov Chains

Markov Chain

Hidden Markov Model를 정의하기 위해 Markov chain( observed Markov Model )에 대해 알아야 한다. Markov Chain은  Sequence 값이 입력될 경우 유일한 하나의 State를 결정하는 Weighted Finite-State Automaton의 특수한 경우이다. 모호성 문제가 없기 때문이다.(?)

Markov Chain As Graphical Model

Markov Chain의 그래프 모델의 구성 요소는 Set of States, Transition Probability Matrix, Start State & End Satate로 구성된다. Transition Probability Matrix의 합 a01+a02++ann은 1이다.

 



- Set of States                                Q=q1q2qN

- Transition Probability Matrix     A=q01q02qn1qnn

- Start State & End State               q0,qF

 

특정 State의 확률을 구할 때 이전 State에만 의존하는 Markov Assumption로 인해 aijP(qi|qi1)로 표현된다.

 

Markov Assumption: P(qi|q1qi1)=P(qi|qi1)

Markov Chain As Graphical Model - Not Rely On Start & End State

Markov Chain Graphical Model에 Start & End State에 의존하지 않기 위해 각 State에 시작 확률을 부여하는 방식을 사용할 수 있다. Inital Probability Distribution과 Accepting States로 구성된다. Initial Probability Distribution의 모두 원소의 합은 1이다.

 

- Initial Probability Distribution      π1,π2,,πN

- Accepting State                              QA={qx,qy},QAQ

궁금 & 공부

1. 통계 Markov Chain에 대해 찾아보고 이해하기

2. Markov Chain이 모호성 문제가 없는 이유

3. Markov Model의 예시를 찾아보고 실제 확률 구해보는 프로그램 짜보기

'NLP > 도서' 카테고리의 다른 글