Professional Documents
Culture Documents
Rantai Markov 49
4. RANTAI MARKOV
4.1 PENDAHULUAN
Dalam masalah pengambilan suatu keputusan, seringkali kita diperhadapkan
dengan suatu ketidakpastian.
Permasalahan ini dapat dimodelkan secara
matematis asalkan ketikdakpastian tersebut memiliki pola yang teratur sehingga
dapat dinyatakan sebagai sebuah model probabilistik.
Rantai Markov 50
Penelitian Operasional II
Penelitian Operasional II
m
(n )
ij
=1
Rantai Markov 51
j =1
P(n) =
state
0
1
.
.
.
M
0
(n)
p00
p10(n)
.
.
.
pm0(n)
1
(n)
p01
p11(n)
.
.
.
pm1(n)
.
.
.
M
p0m(n)
p1m(n)
.
.
.
pmm(n)
p30
p 03
p13
p 23
p33
Asumsikan Dt memiliki distribusi Poisson dengan parameter = 1.
p 01 p 02
p11 p12
p 21 p 22
p 31 p 32
Penyelesaian :
max{(3 D t +1 ),0} X t < 1
Xt+1 =
max{(X t D t +1 ),0} X t 1
max{(3 D t ),0} X t 1 < 1
Xt =
max{(X t 1 D t ),0} X t 1 1
Rantai Markov 52
0.080
0.632
Di dapat P =
0.264
0.080
Penelitian Operasional II
0.184 0.368 0.368
0.368
0
0
0.368 0.368
0
Contoh 4.6:
Model dari kondisi suatu stok barang tertentu. Pada akhir suatu hari tertentu
kondisi sutau stok dicatat. Jika stok meningkat hari ini maka probabilitas bahwa
stok esok hari meningkat adalah 0.7. Jika stok hari ini menurun maka probabilitas
bahwa stok esok hari meningkat adalah 0.5
Model ini merupakan rantai markov dimana :
State 0 = stok meningkat dan
State 1 = stok menurun
Maka matriks transisinya adalah :
0.7 0.3
P=
0.5 0.5
Jika model ini dikembangkan menjadi : bahwa kondisi stok esok berubah atau
tidak tergantung pada hari ini dan kemarin maka kemungkinan-kemungkinan
yang ada adalah sebagai berikut :
- Jika dalam 2 hari terakhir stok meningkat, besok akan meningkat
dengan probabilitas 0.9
- Jika hari ini meningkat, kemarin menurun, besok akan meningkat
dengan probabilitas 0.6
- Jika hari ini menurun, kemarin meningkat, besok akan meningkat
dengan probabilitas 0.5
- Jika dalam 2 hari terakhir stok menurun, besok akan meningkat dengan
probabilitas 0.3
Model ini juga merupakan rantai markov dengan :
State 0 : stok hari ini meningkat kemarin meningkat
State 1 : stok hari ini meningkat kemarin menurun
State 2 : stok hari ini menurun kemarin meningkat
State 3 : stok hari ini menurun kemarin menurun
Matriks transisi : Pij = P(Xt = j | Xt-1 = i)
0.9 0 0.1 0
0.6 0 0.4 0
P=
0 0.5 0 0.5
0 0.3 0 0.7
Siana Halim Teknik Industri UK. Petra
Penelitian Operasional II
Rantai Markov 53
0
0
0
p
0
0
0
0
p
Jika v = 1 maka :
M
(n)
(n 1)
P
= p p
ij
ik kj
k=o
i, j, n
Jika v = n - 1
M (n - 1)
(n)
P
= p
p
i, j, n
ij
ik
kj
k=o
Ini merupakan probabilitas transisi 1 langkah rekursif.
Siana Halim Teknik Industri UK. Petra
Rantai Markov 54
Penelitian Operasional II
Untuk n = 2 maka
M
(2)
P
= p p
ij
ik kj
k=o
i, j, n
Karena pij(2) adalah elemen dari matriks P(2) maka dengan mengalikan matriks
probabilitas transisi 1 langkah dengan dirinya sendiri di dapat :
P(2) = P. P = P2
Secara umum :
P(n) = P. PP = Pn
= P. Pn-1
= Pn-1 P
Contoh 4.8
Dari matriks transisi pada contoh 4.5 didapat :
0.080 0.184 0.368 0.368 0.080 0.184 0.368 0.368
0.632 0.368
0
0 0.632 0.368
0
0
(2)
2
P =P =
0.264 0.368 0.368
0 0.264 0.368 0.368
0
=
0.351 0.319 0.233 0.087
0.249 0.286
0.289 0.286
0.282 0.285
=
0.284 0.283
0.289 0.286
0.300
0.233
0.233
0.300
0.261
0.268
0.263
0.261
0.165
0.233
0.087
0.165
0.164
0.166
0.177
0.164
0.249
0.283
0.351
0.249
0.286
0.252
0.319
0.286
0.300
0.233
0.233
0.300
0.165
0.233
0.087
0.165
Penelitian Operasional II
Rantai Markov 55
Arti :
p10(4) : Stok kamera pada akhir minggu adalah 1, probabilitas bahwa 4 minggu
kemudian tidak ada stok kamera adalah 0.282
p23(4) : Stok kamera pada akhir minggu adalah 2, probabilitas bahwa 4 minggu
kemudian stok kamera menjadi 3 adalah 0.171
Probabilitas transisi n langkah pij(n) = P{Xn = j | X0 = i} merupakan probabilitas
bersyarat. Jika dicari probabilitas tak bersyarat P(Xn = j), maka harus diketahui
distribusi probabilitas dari state awal, misalnya Qx0 (i) , dimana :
Qx0(i) = P (X0 = i) I = 0,1,2,,M
Maka P(Xn = j) = Qx0(0) poj(n) + Qx0(1) p1j(n) + + Qx0(M) pMj(n)
Contoh 4.9
Dari contoh 4.5 asumsikan bahwa stok awal =3 kamera, jadi :
Qx0 (0) = Qx0 (1) = Qx0 (2) = 0;
Qx0 (3) = 1
Diketahui bahwa probabilitas bersyarat bahwa terdapat 3 kamera setelah 2 minggu
dari awal inventori adalah 0.165, maka probabilitas tak bersyaratnya adalah :
= Qx0 (3). P33(2)
P(X2 = 3)
= 1 x 0.165
= 0.165
Misal diberikan bahwa Qx0 (i) = 0.25 I = 0,1,2,3 maka
P(X2 = 3)
= Qx0 (0) p03(2) + Qx0 (1) p13(2) + Qx0 (2) p23(2) + Qx0 (3) p33(2)
= 0.25 (0.165) + 0.25 (0.233) + 0.25(0.097) + 0.25(0.165)
= 0.165
Catatan 4.10
Kedua nilai tersebut di atas sama, ini hanya kebetulan saja.
Rantai Markov 56
Penelitian Operasional II
(n)
ii
n =1
mulai dari state i, setelah keluar dari state i sistem pasti akan dapat
kembali lagi ke state i (karena pasti maka nilai peluangnya adalah 1
sehingga
(n)
ii
= )
n =1
(n)
ii
<
n =1
Relevansi :
Jika state i recurrent , maka di mulai dari state i, sistem akan kembali
lagi dan kembali lagi ke state i berulang-ulang sampai tak berhingga kali.
Sebaliknya jika state i transient , sekali saja sistem memasuki state i
maka terdapat suatu peluang positif yang akan membawa sistem ini untuk
tidak pernah lagi memasuki state i.
Jika state i recurrent dan state i berkomunikasi dengan state j, maka
state j juga bersifat recurrent.
Semua state dalam suatu rantai markov dengan state yang bersifat
irreducible terbatas adalah recurrent berarti juga seluruh state dalam
proses berkomunikasi.
Penelitian Operasional II
6.
Rantai Markov 57
Periode
Periode dari state i didefinisikan sebagai bilangan bulat t (t > 1) sedemikian
hingga pii(n) = 0 untuk seluruh n yang bukan kelipatan t (t, 2t, 3t, ) dan t
adalah bilangan bulat terbesar dengan sifat ini
Contoh 4.11
Pada contoh 4.7, misalkan p =
0
0
0
0
0
0
1
1
1 / 2 1 / 4 0 1 / 4
1 / 2 0 1 / 2 0
P=
P2 =
1 / 4 0 1 / 4 1 / 2
0 1 / 2 0 1 / 2
0
0
1
0
0
1
0
0
1 0 0 0
1 0 0 0
* 0 * *
* * 0 *
3
4
P =
P =
* * 0 *
* 0 * *
0 0 0 1
0 0 0 1
Terlihat bahwa p11 = p22 = 0 untuk seluruh n, pada saat n = 1,3,5, berarti
periode t (bukan n) adalah 2.
Artinya : proses tersebut dapat masuk ke state 1 hanya pada saat 2,4,
7.
Aperiodik
Jika terdapat 2 bilangan berurutan, s dan (s+1) sedemikian hingga proses
dapat berada pada state i pada saat s dan (s+1), state i dikatakan memiliki
periode 1 dan disebut sebagai aperiodik state.
8.
Positif Recurrent
Jika state i recurrent, maka state i dikatakan positif recurrent
Jika dimulai dari state i, waktu harapan sampai proses kembali lagi ke state i
adalah terbatas.
9.
Null Recurrent
Jika state i recurrent tetapi tidak positif recurrent maka state i adalah Null
Recurrent.
10. Ergodic
Jika suatu state bersifat positif recurrent dan aperiodik maka state tersebut
disebut ergodic.
4.9 WAKTU LINTASAN PERTAMA (FIRST PASSAGE TIME)
Waktu yang dibutuhkan oleh suatu proses untuk menuju state j dari state i untuk
pertama kali disebut sebagai waktu lintasan pertama (first passage time, fpt).
Jika j=1, waktu lintasan pertama ini merupakan jumlah transisi hingga proses
kembali ke state mula-mula yaitu i. Dalam hal ini waktu lintasan pertama disebut
sebagai waktu recurrence untuk state i.
Siana Halim Teknik Industri UK. Petra
Rantai Markov 58
Penelitian Operasional II
Contoh 4.12
Dari contoh 4.5 (level inventori). Diketahui X0 = 3 (inventori awal).
Andaikan : X1 = 2, X2 = 1, X3 =0, X4 = 3 dan X5 = 1.
Dalam hal ini FPT dari state 3 ke state 1 adalah 2 minggu, FPT dari state 3 ke
state 0 adalah 3 minggu dan waktu recurrent adalah 4 minggu.
Secara umum first passage time merupakan perubah acak dan memiliki distribusi
probabilitas yang bersesuaian dengan mereka. Distribusi probabilitas ini
tergantung pada peluang transisi dari proses.
Misalkan : Fij(n) : merupakan probabilitas bahwa first passage time dari state i ke
state j sama dengan n.
Dapat ditunjukkan bahwa probabilitas ini memenuhi hubungan rekursif sebagai
berikut :
n 1
(k)
(n k)
f ij(n) = p (n)
ij f ij .p jj
k =1
Jadi probabilitas dari suatu first passage time dari state i ke state j dalam langkah
n dapat dihitung secara rekursif dari probabilitas transisi satu langkah.
Contoh 4.13:
Dari contoh 4.5 :
f30(1) = 0.080
f30(2) = 0.249 - (0.080) (0.080) = 0.243
untuk i dan j yang tetap, fij(n) merupakan bilangan nonnegatif sedemikian hingga :
f
n =1
(n)
ij
sayangnya, jumlahan ini sangatlah mungkin kurang dari 1, yang berarti bahwa
suatu proses yang diawali dari state i tidak pernah mencapai state j.
Jika jumlahan = 1, fij(n) (untuk n = 1 , 2,) dapat dianggap sebagai distribusi
probabilitas untuk peubah acak, FPT.
Menghitung, fij(n) untuk seluruh n mungkin sulit, relatif lebih sederhana untuk
menghitung FPT harapan dari state i ke state j.
Diberikan nilai harapan ij yang didefinisiakan sebagai berikut :
jika
f ij( n ) < 1
n =1
ij =
Penelitian Operasional II
Bila
f
n =1
Rantai Markov 59
(n)
ij
ij = 1 +
p
k j
ik
kj
Selanjutnya
lim pij( n ) = j
i =0
j =0
=1
Rantai Markov 60
Penelitian Operasional II
j disebut sebagai probabilitas pada keadaan stabil dari rantai markov dan
memiliki hubungan resiprokal terhadap waktu recurrent harapan.
1
j =
untuk j = 0,1,, M
jj
! Steady state probability artinya adalah : bahwa probabilitas bahwa untuk
mendapatkan proses dalam suatu state tertentu, katakan j, setelah sejumlah
besar transisi cenderung menuju nilai j . Independen dari distribusi
probabilitas awal yang telah didefinisikan terhadap states tersebut.
! j dapat juga diinterpretasikan sebagai probabilitas stasioner.
Contoh 4.15
Dari contoh 4.5
0 = 0 p00 + 1 p10 +2 p20 +3 p30
1 = 0 p01 + 1 p11 +2 p21 +3 p31
2 = 0 p02 + 1 p12 +2 p22 +3 p32
3 = 0 p03 + 1 p13 +2 p23 +3 p33
1 = 0
+ 1
+ 2
+ 3
substitutikan nilai pij ke dalam persamaan di atas, didapat :
0 = (0.080) 0 + (0.632) 1 + (0.264) 2 + (0.080) 3
1 = (0.184)0 + (0.368) 1 + (0.368) 2 + (0.184) 3
2 = (0.368)0
+ (0.368) 2 + (0.368) 3
3 = (0.368)0
+ (0.368) 3
1 =
0 +
1 +
2 +
3
di dapat :
0 = 0.285
1 = 0.285
2 = 0.264
3 = 0.166
00 = 1/ 0 = 3.51 minggu
11 = 1/ 1 = 3.51 minggu
22 = 1/ 2 = 3.79 minggu
33 = 1/ 3 = 6.02 minggu
Catatan 4.16
Pada steady state probabilitas berlaku :
! Jika i dan j merupakan states yang recurrent dengan kelas-kelas yang berbeda
maka :
pij(n) = 0 untuk setiap n
! Jika j merupakan state yang transient maka
pij(n) = 0
Berarti bahwa probabilitas untuk mendapatkan suatu proses dalam suatu state
yang transient setelah sejumlah besar transisi cenderung menuju ke nol.
4.5.2 Biaya rata-rata harapan/unit waktu
Untuk suatu rantai markov yang irreducible dengan recurent state positif, suatu
rantai dengan state terbatas, berlaku :
Siana Halim Teknik Industri UK. Petra
Penelitian Operasional II
Rantai Markov 61
1 N
lim pij( k ) = j
n n N k =1