Markov Property

과거 상태에 영향을 받지 않고 현재 상태로만 미래 상태의 확률을 구할 수 있다.

Markov Process

markov property를 만족시키는 (S,A)의 tupel

Markov Decision Process

MDP is tuple (S, A, P, R, $\gamma$)의 모든 state는 Markov property를 가진다.