1. Introduction
- ์ธ์์ ๋ช ๊ฐ์ observable ํ๊ฑฐ๋ ๊ทธ๋ ์ง ์์ random variables์ ํฌํจํ๊ณ ์๋ ์ด๋ค snapshot ๋๋ time slices์ ์งํฉ์ด๋ผ๊ณ ์๊ฐํ์.
- Xt : state variables at time t , ์๊ฐ์ด t์ผ ๋์ state variable๋ค์ ์งํฉ. ๊ด์ธกํ ์ ์๋, ๊ทธ ๊ฐ์ ์ ์ ์๋ variable์ด๋ค.
- Et : evidence variables, ๊ด์ธกํ ์ ์๋, ์ ์ ์๋ variable
- transition model : state์ด ์ด๋ป๊ฒ ๋ณํ๋์ง ์ ์ํ๋ค. ์๋ฅผ ๋ค์ด t-1 ์ผ ๋ state์ด X์ผ ๋, ๋ค์ state์ด X ์ผ ํ๋ฅ
- sensor model : evidence variable์ด ๊ฐ์ด ์ด๋ป๊ฒ ๋์ด์ผ ํ๋์ง ์ ์ํ๋ค. ์๋ฅผ ๋ค์ด state๊ฐ X์ผ ๋ Evidence E๊ฐ ๊ด์ธก๋ ํ๋ฅ
1) Transition Model : P(Xt | X 0:t-1) (state Xt์ ํ๋ฅ ๋ถํฌ ์ ์)
- First-order Markov process : ์ค์ง ์ง์ state์๋ง dependence ํ๋ค
P(Xt | X 0:t-1 ) = P(Xt | Xt-1)
- Second- order Markov process: ์ง์ 2๊ฐ์ state์๋ง dependenceํ๋ค
P(Xt | X 0:t-1 ) = P(Xt | Xt-1, Xt-2)
- Stationary process : ์๊ฐ์ด ๋ณํด๋ ํ๋ฅ ์ ๋ณํ์ง ์๋๋ค. ์ฆ, ๋ชจ๋ t์ ๋ํด์ P(Xt|Xt-1) ์ ๊ฐ์ ๋ ๊ฐ๋ค
- ๋ชจ๋ ๊ฒ์ ์์์ P(X0) ; time์ด 0์ผ ๋์ prior probability
2) Sensor Models : P(Et | X0:t, E1:t-1) = P(Et | Xt) (evidence์ ํ๋ฅ ๋ถํฌ ์ ์)
-> Sensor Markov assumption : Et๋ Xt์๋ง dependent ํ๋ค๊ณ ๊ฐ์ ํ๋ค (ํ์ฌ state์๋ง ์ํฅ์ ๋ฐ๋๋ค)
3) Complete Joint Distribution
P(X_0:t , E_1:t) = P(X0)P(X1|X0)P(E1|X1, X0)P(X2|X1, X0, E1)P(E2|X2,X1,X0,E1) ...
= P(X0)P(X1|X0)P(E1|X1)P(X2|X1)P(E2|X2) ...
= P(X0)∏P(Xi|X_i-1)P(Ei|Xi) (transition model * sensor model)
4) Inference in Temporal Models
โ Filtering(=state estimation)
: 1~t์ evidence ๊ฐ ์ฃผ์ด์ก์ ๋ Xt๋ฅผ ๊ตฌํ๋ ๊ฒ. P(Xt | e_1:t)
โก Prediction
: 1~t์ evidence๊ฐ ์ฃผ์ด์ก์ ๋ ๋ฏธ๋์ state, t์๊ฐ ์ดํ์ state X_t+k๋ฅผ ์ถ์ธกํ๋ ๊ฒ
P(X_t+k | e_1:k)
โข Smoothing
: 1~t์ evidence๊ฐ ์ฃผ์ด์ก์ ๋, t ์ด์ ์์ ์ state ๊ตฌํ๊ธฐ. P(Xk | e_1:t)
โฃ most likely sequence of states : observations์ sequence๊ฐ ์ฃผ์ด์ก์ ๋, ์ด ๊ด์ธก ๊ฒฐ๊ณผ๋ก๋ถํฐ ์์ฑ๋ ํ๋ฅ ์ด ๊ฐ์ฅ ๋์ sequence of states๋ฅผ ๊ตฌํ๋ค. arg max P(x_1:t | e_1:t)
-> transition and sensor models์ ๋ชจ๋ฅด๋๋ผ๋ observation์ ํตํด ํ์ต๋ ์ ์์. (EM algorithm)
2. Filtering : ํ์ฌ ์๊ฐ๊น์ง์ evidences๋ฅผ ์ ๋ ํ์ฌ state ์ถ์ธก
P(Xt | e_1:t) = α Forward(f_1:t-1, et)
f_1:0 = P(X0 | e_1:0) = P(X0) // prior probability
1~0 ์ ์ญ์์ด๋๊น ๋ง์ด ์๋จ! ๊ทธ๋ฅ ํญ์ ํ๋ฅ 1์ด๋ผ๊ณ ์๊ฐํ์ ใ ใ
-> state variables์ด ๋ค discreteํ ๋, time๊ณผ space๋ constantํ๊ฒ ํ์(?)ํจ. ๊ทธ๋ฆฌ๊ณ ์ด ์์๊ฐ์ state space์ question์ temporal model์ ์ข ๋ฅ์ ๋ฐ๋ผ ๊ฒฐ์ ๋จ. ์ฆ, time/space complexity๋ constantํ๋ฉฐ, ์ด constant ๊ฐ์ state์ time t์ dependentํ๋ค.
3. Evidence
- Evidence Sequence Likelihood
: P(e_1:t) = ∑ P(xt, e_1:t)
4. Prediction : t๊น์ง์ evidence๊ฐ ์ฃผ์ด์ก์ ๋ t+k์ ๋ฏธ๋์ state์ ์์ํ๋ ๊ฒ
P(X_t+k | e_1:t)
5. Smoothing
-Backward Message : state k ์ผ ๋ ๋ฏธ๋์ evidence e_k+1:t ๊ตฌํ๊ธฐ
P(e_k+1:t | Xk)
-Smoothing : 1~t์ evidence๋ฅผ ์ ๋ t>k ์ธ ์์ , ์ด์ ์์ ์ state ์๊ธฐ
6. Viterbi Algorithm : ๊ฐ์ฅ ํ๋ฅ ์ด ํฐ state sequence ๊ตฌํ๊ธฐ
1) Lattice
'๐ก๐ธ๐ธ๐ถ5: ๐ฆ๐๐๐๐ถ ๐ฐ๐๐พ๐ > Artificial Intelligence(COSE361)' ์นดํ ๊ณ ๋ฆฌ์ ๋ค๋ฅธ ๊ธ
[์ธ๊ณต์ง๋ฅ] 17. Making Sequential Decisions (0) | 2021.06.14 |
---|---|
[์ธ๊ณต์ง๋ฅ] 16. Hidden Markov Models (HMM) (0) | 2021.06.13 |
[์ธ๊ณต์ง๋ฅ] 14. Bayesian Networks (0) | 2021.06.12 |
[์ธ๊ณต์ง๋ฅ] 13. Probability and Statistics (0) | 2021.06.12 |
[์ธ๊ณต์ง๋ฅ] 8~9. First-Order Logic(FOL) (2) | 2021.04.25 |