You are on page 1of 13

Penelitian Operasional II

Rantai Markov 49
4. RANTAI MARKOV

4.1 PENDAHULUAN
Dalam masalah pengambilan suatu keputusan, seringkali kita diperhadapkan
dengan suatu ketidakpastian.
Permasalahan ini dapat dimodelkan secara
matematis asalkan ketikdakpastian tersebut memiliki pola yang teratur sehingga
dapat dinyatakan sebagai sebuah model probabilistik.

4.2 PROSES STOKASTIK


Suatu proses stokastik dapat didefinisikan sebagai kumpulan peubah acak
berindex {Xt}, dimana index t bergerak sepanjang himpunan T yanag diberikan.
Seringkali T merupakan himpunan bilangan bulat tak negatif dan Xt mewakili
suatu karakteristik yang terukur pada waktu t.
Contoh 4.1:
Xt : Dapat menyatakan tingkat inventori dalam tiap minggu (atau bulan) dari
suatu produk, atau dapat pula menyatakan jumlah permintaan dari produk
tersebut tiap minggu (atau bulan).
Jika T adalah himpunan yang dapat dihitung (countable set) maka proses stokastik
tersebut dikatakan sebagai Proses stokastik dengan waktu diskrit, misalnya {Xt,
t=0,1,}.
Jika T adalah suatu interval pada garis real, maka proses stokastik tersebut
dikatakan sebagai proses stokastik dengan waktu kontinu, misalnya {Xt, t 0}.
Index T seringkali menyatakan waktu, karena itu Xt disebut sebagai keadaan
(state) dari proses pada saat t.
Secara ringkas proses stokastitik dapat didefinisikan sebagai berikut :
Definisi 4.2:
Proses Stokastik merupakan serangkaian random variabel yang berubah terhadap
waktu pengamatan. { X(t) , t T}
dimana
: X(t) = state (keadaan) yang acak
t
= waktu (saat pengamatan)
Contoh 4.3:
Sebuah toko kamera memiliki stok dari suatu model kamera tertentu yang dapat
dipesan mingguan. Misalkan: D1, D2, mewakili permintaan kamera tersebut
selama minggu ke-1, ke-2, dan asumsikan bahwa Di independen dan
probabilitas distribusinya diketahui, misalnya X0 adalah jumlah kamera yang ada

Siana Halim Teknik Industri UK. Petra

Rantai Markov 50

Penelitian Operasional II

pada keadaan awal (merupakan maksimum level inventori), X1 adalah jumlah


kamera pada akhir minggu I, X2 adalah jumlah kamera pada akhir minggu II, dst.
Asumsikan X0 = 3. Minggu malam toko tersebut melakukan pemesanan kamera
dan akan dikirimkan pada hari Senin. Toko ini menggunakan kebijakan (s,S*)
yaitu jika jumlah kamera yang ada pada akhir minggu kurang dari s=1 (tidak ada
stok kamera) maka toko akan memesan S=3. Pada kondisi lain toko tidak
melakukan pemesanan (jika stok kamera ada, toko tidak memesan). Diasumsikan
bahwa penjualan akan rugi jika permintaan melebihi persediaan yang ada.
Kasus ini merupakan proses stokastik {Xt} dengan t = 0,1, state yang ada pada
kasus ini adalah 0,1,2,3 yang mewakili jumlah kamera yang mungkin ada pada
akhir minggu. Peubah acak Xt bukan merupakan peubah bebas dan dapat
dinyatakan secara iteratif sebagai berikut :
max{(3 D t +1 ),0} X t < 1
Xt+1 =
max{(X t D t +1 ),0} X t 1

4.3 RANTAI MARKOV


Suatu proses stokastik {Xt} dikatakan memiliki sifat markov jika :
P{Xt+1 = j X0 = k0, X1 = k1, Xt-1 = kt-1, Xt = I} = P{Xt+1 = j Xt = i}
Untuk t = 0,1, dan untuk tiap i, j, k0, k1, ., kt-1.
Sifat markov ini dikatakan sebagai berikut :
Bahwa probabilitas bersyarat dari kejadian di masa mendatang, jika diketahui
kejadian dimasa lalu dan kondisi saat ini Xt = i, adalah tidak tergantung pada masa
lalu dan hanya tergantung pada kondisi dari proses saat ini
Probabilitas bersyarat P{Xt+1 = j | Xt = i} dikatakan sebagai probabilitas transisi.
Jika untuk setiap i dan j :
P{Xt+1 = j | Xt = i} = P{X1 = j | X0 = i}, untuk semua t = 0, 1, ..
maka probabilitas transisi (1 langkah) dikatakan stasioner, (probabilitas transisi
tidak berubah terhadap waktu) dinotasikan dengan pij.
Jika untuk setian i dan j :
P{Xt+1 = j | Xt = i} = P{Xn = j | X0 = i}, untuk semua t = 0, 1, ..
Probabilitas bersyarat ini dinotasikan dengan pij(n) dan disebut sebagai probabilitas
transisi n-langkah.
pij(n) : probabilitas bersyarat dimana peubah acak X, dimulai dari state i, akan
berapa pada state j setelah tepat n langkah (unit waktu).
karena pij(n) adalah probabilitas bersyarat maka harus memenuhi sifat-sifat :
pij(n) 0 i dan j, n = 0,1,2, (sifat ketidaknegatifan)

Siana Halim Teknik Industri UK. Petra

Penelitian Operasional II
m

(n )
ij

=1

Rantai Markov 51

i dan j n = 0,1,2, (jumlahan dari probabilitas = 1)

j =1

Matriks transisi n langkah :

P(n) =

state
0
1
.
.
.
M

0
(n)

p00
p10(n)
.
.
.
pm0(n)

1
(n)

p01
p11(n)
.
.
.
pm1(n)

.
.
.

M
p0m(n)
p1m(n)
.
.
.
pmm(n)

Definisi 4.4 : Rantai Markov


Suatu proses stokastik {Xt, t = 0,1,..} dikatakan merupakan suatu rantai markov
dengan state terbatas (finite state markov chain) jika memiliki sifat-sifat sebagai
berikut :
(1) Memiliki jumlah state yang terbatas
(2) Memiliki sifat markov
(3) Probabilitas transisinya stasioner
(4) Memiliki himpunan probabilitas awal P{X0 = i} i
Contoh 4.5:
Dari contoh 4.3, {Xt} merupakan proses stokastik dengan
Xt : Jumlah kamera yang mungkin ada pada akhir minggu ke-t (sebelum
pesanan diterima)
Tentukan probabilitas trasnsisi 1 langkahnya !
p00
p
10
P=
p 20

p30

p 03
p13
p 23

p33
Asumsikan Dt memiliki distribusi Poisson dengan parameter = 1.
p 01 p 02
p11 p12
p 21 p 22
p 31 p 32

Penyelesaian :
max{(3 D t +1 ),0} X t < 1
Xt+1 =
max{(X t D t +1 ),0} X t 1
max{(3 D t ),0} X t 1 < 1
Xt =
max{(X t 1 D t ),0} X t 1 1

Siana Halim Teknik Industri UK. Petra

Rantai Markov 52
0.080
0.632
Di dapat P =
0.264

0.080

Penelitian Operasional II
0.184 0.368 0.368
0.368
0
0
0.368 0.368
0

0.184 0.368 0.368

Contoh 4.6:
Model dari kondisi suatu stok barang tertentu. Pada akhir suatu hari tertentu
kondisi sutau stok dicatat. Jika stok meningkat hari ini maka probabilitas bahwa
stok esok hari meningkat adalah 0.7. Jika stok hari ini menurun maka probabilitas
bahwa stok esok hari meningkat adalah 0.5
Model ini merupakan rantai markov dimana :
State 0 = stok meningkat dan
State 1 = stok menurun
Maka matriks transisinya adalah :
0.7 0.3
P=

0.5 0.5
Jika model ini dikembangkan menjadi : bahwa kondisi stok esok berubah atau
tidak tergantung pada hari ini dan kemarin maka kemungkinan-kemungkinan
yang ada adalah sebagai berikut :
- Jika dalam 2 hari terakhir stok meningkat, besok akan meningkat
dengan probabilitas 0.9
- Jika hari ini meningkat, kemarin menurun, besok akan meningkat
dengan probabilitas 0.6
- Jika hari ini menurun, kemarin meningkat, besok akan meningkat
dengan probabilitas 0.5
- Jika dalam 2 hari terakhir stok menurun, besok akan meningkat dengan
probabilitas 0.3
Model ini juga merupakan rantai markov dengan :
State 0 : stok hari ini meningkat kemarin meningkat
State 1 : stok hari ini meningkat kemarin menurun
State 2 : stok hari ini menurun kemarin meningkat
State 3 : stok hari ini menurun kemarin menurun
Matriks transisi : Pij = P(Xt = j | Xt-1 = i)
0.9 0 0.1 0
0.6 0 0.4 0

P=
0 0.5 0 0.5

0 0.3 0 0.7
Siana Halim Teknik Industri UK. Petra

Penelitian Operasional II

Rantai Markov 53

Contoh 4.7: Kasus Perjudian


Seorang pemain memiliki uang 1$, dalam tiap permainan peluang untuk menang
sebesar 1$ adalah p dan peluang untuk kalah sebesar 1$ adalah 1-p. Permainan
ini berakhir bila pemain dapat mengumpulkan $3 atau bangkrut.
Kasus ini merupakan rantai markov dengan {Xt} mewakili keberuntungan dari
pemain , yaitu: 0, 1$ ,2$ ,3$.
Matriks probabilitas transisinya adalah :
0
1
1 p
0
P=
0 1 p

0
0

0
p
0
0

0
0
p

4.4 PERSAMAAN CHAPMAN-KOLMOGOROV


Persamaan Chapman-Kolmogorov memberikan cara untuk menghitung peluang
perpindahan (Probabilitas transisi) n-langkah yaitu :
M (v) (n v)
(n)
P
= p p
i, j, n dan u m n
ij
ik
kj
k=o
Persamaan ini menunjukkan bahwa dari state i ke state j dalam n langkah, proses
akan berada pada state k setelah tepat v ( < n) langkah. Jadi pik(v) pkj(n-v)
merupakan probabilitas bersyarat, mulai dari state i, lalu ke state k setelah v
langkah dan kemudikan ke state j dalan n-v langkah, maka :
M (v) (n v)
(n)
P
= p p
ij
ik
kj
k=o

Jika v = 1 maka :
M
(n)
(n 1)
P
= p p
ij
ik kj
k=o

i, j, n

Jika v = n - 1
M (n - 1)
(n)
P
= p
p
i, j, n
ij
ik
kj
k=o
Ini merupakan probabilitas transisi 1 langkah rekursif.
Siana Halim Teknik Industri UK. Petra

Rantai Markov 54

Penelitian Operasional II

Untuk n = 2 maka
M
(2)
P
= p p
ij
ik kj
k=o

i, j, n

Karena pij(2) adalah elemen dari matriks P(2) maka dengan mengalikan matriks
probabilitas transisi 1 langkah dengan dirinya sendiri di dapat :
P(2) = P. P = P2
Secara umum :
P(n) = P. PP = Pn
= P. Pn-1
= Pn-1 P
Contoh 4.8
Dari matriks transisi pada contoh 4.5 didapat :
0.080 0.184 0.368 0.368 0.080 0.184 0.368 0.368
0.632 0.368
0
0 0.632 0.368
0
0
(2)
2

P =P =
0.264 0.368 0.368
0 0.264 0.368 0.368
0

0.080 0.184 0.368 0.368 0.080 0.184 0.368 0.368


0.249 0.286 0.300 0.165
0.283 0.252 0.233 0.233

=
0.351 0.319 0.233 0.087

0.249 0.286 0.300 0.165


Arti :
p10(2) : Stok kamera pada akhir minggu adalah 1, probabilitas bahwa 2 minggu
kemudian tidak ada stok kamera adalah 0.283
p23(2) : Stok kamera pada akhir minggu adalah 2, probabilitas bahwa 2 minggu
kemudian stok kamera menjadi 3 adalah 0.097
P(4) = P4 = P(2) P(2)
0.249 0.286
0.283 0.252
=
0.351 0.319

0.249 0.286
0.289 0.286
0.282 0.285
=
0.284 0.283

0.289 0.286

0.300
0.233
0.233
0.300
0.261
0.268
0.263
0.261

0.165
0.233
0.087

0.165
0.164
0.166
0.177

0.164

0.249
0.283

0.351

0.249

0.286
0.252
0.319
0.286

0.300
0.233
0.233
0.300

0.165
0.233
0.087

0.165

Siana Halim Teknik Industri UK. Petra

Penelitian Operasional II

Rantai Markov 55

Arti :
p10(4) : Stok kamera pada akhir minggu adalah 1, probabilitas bahwa 4 minggu
kemudian tidak ada stok kamera adalah 0.282
p23(4) : Stok kamera pada akhir minggu adalah 2, probabilitas bahwa 4 minggu
kemudian stok kamera menjadi 3 adalah 0.171
Probabilitas transisi n langkah pij(n) = P{Xn = j | X0 = i} merupakan probabilitas
bersyarat. Jika dicari probabilitas tak bersyarat P(Xn = j), maka harus diketahui
distribusi probabilitas dari state awal, misalnya Qx0 (i) , dimana :
Qx0(i) = P (X0 = i) I = 0,1,2,,M
Maka P(Xn = j) = Qx0(0) poj(n) + Qx0(1) p1j(n) + + Qx0(M) pMj(n)
Contoh 4.9
Dari contoh 4.5 asumsikan bahwa stok awal =3 kamera, jadi :
Qx0 (0) = Qx0 (1) = Qx0 (2) = 0;
Qx0 (3) = 1
Diketahui bahwa probabilitas bersyarat bahwa terdapat 3 kamera setelah 2 minggu
dari awal inventori adalah 0.165, maka probabilitas tak bersyaratnya adalah :
= Qx0 (3). P33(2)
P(X2 = 3)
= 1 x 0.165
= 0.165
Misal diberikan bahwa Qx0 (i) = 0.25 I = 0,1,2,3 maka
P(X2 = 3)
= Qx0 (0) p03(2) + Qx0 (1) p13(2) + Qx0 (2) p23(2) + Qx0 (3) p33(2)
= 0.25 (0.165) + 0.25 (0.233) + 0.25(0.097) + 0.25(0.165)
= 0.165
Catatan 4.10
Kedua nilai tersebut di atas sama, ini hanya kebetulan saja.

4.5 KLASIFIKASI STATE DALAM RANTAI MARKOV


Berikut ini merupakan beberapa difinisi yang berkaitan dengan state-state dari
Rantai Markov.
1. Dapat dicapai (Accessible)
State j dikatakan dapat dicapai (accessible) dari state i jika pij(n) > 0 untuk
beberapa n > 0. State j dapat dicapai (accessible) dari state i berarti bahwa
sistem bisa mencapai state j jika berangkat dari state i.
2. Berkomunikasi (Communicate)
jika state j dapat dicapai dari state i, dan state i dapat dicapai dari state j,
maka state i dan j dikatakan berkomuniasi (communicate) .
Secara umum :
a. setiap state berkomunikasi dengan dirinya sendiri. Karena :
pii(0) = P{X0 = i | X0 = i} = 1).

Siana Halim Teknik Industri UK. Petra

Rantai Markov 56

Penelitian Operasional II

b. Jika state i berkomunikasi dengan state j, maka state j


berkomunikasi dengan state i.
c. Jika state i berkomunikasi dengan state j dan state j berkomunikasi
dengan state k, maka state i berkomunikasi dengan state k.
Dari ketiga sifat ini, maka suatu state mungkin dipartisi menjadi kelas-kelas
yang saling asing (disjoint classes) dengan states yang saling berkomunikasi
dikatakan berada dalam satu kelas.
3. Tak dapat direduksi (Irreducible)
Rantai markov dikatakan irreducible jika hanya mempunyai satu kelas saja,
jadi semua keadaan saling berkomunikasi.
4. Absorbing
Suatau state i dikatakan sebagai state yang absorbing jika probabilitas transisi
satu langkah pii = 1. Jadi sekali sistem memasuki state i maka sistem akan
tetap selamanya berada di state i tersebut.
5. Recurrent dan Transient
State i dikatakan recurrent jika dan hanya jika :

(n)
ii

n =1

mulai dari state i, setelah keluar dari state i sistem pasti akan dapat
kembali lagi ke state i (karena pasti maka nilai peluangnya adalah 1

sehingga

(n)
ii

= )

n =1

State i dikatakan transient jika dan hanya jika :

(n)
ii

<

n =1

Relevansi :
Jika state i recurrent , maka di mulai dari state i, sistem akan kembali
lagi dan kembali lagi ke state i berulang-ulang sampai tak berhingga kali.
Sebaliknya jika state i transient , sekali saja sistem memasuki state i
maka terdapat suatu peluang positif yang akan membawa sistem ini untuk
tidak pernah lagi memasuki state i.
Jika state i recurrent dan state i berkomunikasi dengan state j, maka
state j juga bersifat recurrent.
Semua state dalam suatu rantai markov dengan state yang bersifat
irreducible terbatas adalah recurrent berarti juga seluruh state dalam
proses berkomunikasi.

Siana Halim Teknik Industri UK. Petra

Penelitian Operasional II
6.

Rantai Markov 57

Periode
Periode dari state i didefinisikan sebagai bilangan bulat t (t > 1) sedemikian
hingga pii(n) = 0 untuk seluruh n yang bukan kelipatan t (t, 2t, 3t, ) dan t
adalah bilangan bulat terbesar dengan sifat ini
Contoh 4.11
Pada contoh 4.7, misalkan p =
0
0
0
0
0
0
1
1
1 / 2 1 / 4 0 1 / 4
1 / 2 0 1 / 2 0

P=
P2 =
1 / 4 0 1 / 4 1 / 2
0 1 / 2 0 1 / 2

0
0
1
0
0
1
0
0
1 0 0 0
1 0 0 0
* 0 * *
* * 0 *
3
4

P =
P =
* * 0 *
* 0 * *

0 0 0 1
0 0 0 1
Terlihat bahwa p11 = p22 = 0 untuk seluruh n, pada saat n = 1,3,5, berarti
periode t (bukan n) adalah 2.
Artinya : proses tersebut dapat masuk ke state 1 hanya pada saat 2,4,

7.

Aperiodik
Jika terdapat 2 bilangan berurutan, s dan (s+1) sedemikian hingga proses
dapat berada pada state i pada saat s dan (s+1), state i dikatakan memiliki
periode 1 dan disebut sebagai aperiodik state.

8.

Positif Recurrent
Jika state i recurrent, maka state i dikatakan positif recurrent
Jika dimulai dari state i, waktu harapan sampai proses kembali lagi ke state i
adalah terbatas.

9.

Null Recurrent
Jika state i recurrent tetapi tidak positif recurrent maka state i adalah Null
Recurrent.

10. Ergodic
Jika suatu state bersifat positif recurrent dan aperiodik maka state tersebut
disebut ergodic.
4.9 WAKTU LINTASAN PERTAMA (FIRST PASSAGE TIME)
Waktu yang dibutuhkan oleh suatu proses untuk menuju state j dari state i untuk
pertama kali disebut sebagai waktu lintasan pertama (first passage time, fpt).
Jika j=1, waktu lintasan pertama ini merupakan jumlah transisi hingga proses
kembali ke state mula-mula yaitu i. Dalam hal ini waktu lintasan pertama disebut
sebagai waktu recurrence untuk state i.
Siana Halim Teknik Industri UK. Petra

Rantai Markov 58

Penelitian Operasional II

Contoh 4.12
Dari contoh 4.5 (level inventori). Diketahui X0 = 3 (inventori awal).
Andaikan : X1 = 2, X2 = 1, X3 =0, X4 = 3 dan X5 = 1.
Dalam hal ini FPT dari state 3 ke state 1 adalah 2 minggu, FPT dari state 3 ke
state 0 adalah 3 minggu dan waktu recurrent adalah 4 minggu.
Secara umum first passage time merupakan perubah acak dan memiliki distribusi
probabilitas yang bersesuaian dengan mereka. Distribusi probabilitas ini
tergantung pada peluang transisi dari proses.
Misalkan : Fij(n) : merupakan probabilitas bahwa first passage time dari state i ke
state j sama dengan n.
Dapat ditunjukkan bahwa probabilitas ini memenuhi hubungan rekursif sebagai
berikut :
n 1

(k)
(n k)
f ij(n) = p (n)
ij f ij .p jj
k =1

Jadi probabilitas dari suatu first passage time dari state i ke state j dalam langkah
n dapat dihitung secara rekursif dari probabilitas transisi satu langkah.
Contoh 4.13:
Dari contoh 4.5 :
f30(1) = 0.080
f30(2) = 0.249 - (0.080) (0.080) = 0.243
untuk i dan j yang tetap, fij(n) merupakan bilangan nonnegatif sedemikian hingga :

f
n =1

(n)
ij

sayangnya, jumlahan ini sangatlah mungkin kurang dari 1, yang berarti bahwa
suatu proses yang diawali dari state i tidak pernah mencapai state j.
Jika jumlahan = 1, fij(n) (untuk n = 1 , 2,) dapat dianggap sebagai distribusi
probabilitas untuk peubah acak, FPT.
Menghitung, fij(n) untuk seluruh n mungkin sulit, relatif lebih sederhana untuk
menghitung FPT harapan dari state i ke state j.
Diberikan nilai harapan ij yang didefinisiakan sebagai berikut :

jika
f ij( n ) < 1

n =1
ij =

n f ij( n ) jika f ij( n ) = 1


n =1
n =1

Siana Halim Teknik Industri UK. Petra

Penelitian Operasional II

Bila

f
n =1

Rantai Markov 59

= 1 maka ij memenuhi persamaan berikut secara unik.

(n)
ij

ij = 1 +

p
k j

ik

kj

jika i = j, ii disebut recurrent time harapan.


Contoh 4.14:
Dari contoh 4.5. Persamaan di atas dapat digunakan untuk menghitung waktu
harapan hingga kamera habis. Asumsikan proses dimulai dengan persediaan
kamera = 3 lintasan waktu pertama harapan, 30 dapat dicapai karena seluruh state
recurrent, maka :
30 = 1 + p31 10 + p32 20 + p33 30
20 = 1 + p21 10 + p22 20 + p23 30
10 = 1 + p11 10 + p12 20 + p13 30 atau
30 = 1 + 0.184 10 + 0.368 20 + 0.368 30
20 = 1 + 0.368 10 + 0.368 20
10 = 1 + 0.368 10
Di dapat : 10 = 1,58 minggu
20 = 2,51 minggu
30 = 3,50 minggu
Waktu yang dibutuhkan agar kamera kehabisan stok adalah 3,5 minggu.

4.5 RANTAI MARKOV DALAM JANGKA PANJANG (Long Run


Properties of Markov Chain)
4.5.1 Probabilitas pada keadaan stabil (steady state probabilities)
Untuk rantai markov yang irreducible ergodic dapat ditunjukkan bahwa :
lim pij( n ) ada dan independen terhadap i.
n

Selanjutnya
lim pij( n ) = j

dimana j secara unik memenuhi persamaan-persamaan steady state berikut :


j > 0
j =

i =0

j =0

pij untuk j = 0,1,2,, M

=1

Siana Halim Teknik Industri UK. Petra

Rantai Markov 60

Penelitian Operasional II

j disebut sebagai probabilitas pada keadaan stabil dari rantai markov dan
memiliki hubungan resiprokal terhadap waktu recurrent harapan.
1
j =
untuk j = 0,1,, M
jj
! Steady state probability artinya adalah : bahwa probabilitas bahwa untuk
mendapatkan proses dalam suatu state tertentu, katakan j, setelah sejumlah
besar transisi cenderung menuju nilai j . Independen dari distribusi
probabilitas awal yang telah didefinisikan terhadap states tersebut.
! j dapat juga diinterpretasikan sebagai probabilitas stasioner.
Contoh 4.15
Dari contoh 4.5
0 = 0 p00 + 1 p10 +2 p20 +3 p30
1 = 0 p01 + 1 p11 +2 p21 +3 p31
2 = 0 p02 + 1 p12 +2 p22 +3 p32
3 = 0 p03 + 1 p13 +2 p23 +3 p33
1 = 0
+ 1
+ 2
+ 3
substitutikan nilai pij ke dalam persamaan di atas, didapat :
0 = (0.080) 0 + (0.632) 1 + (0.264) 2 + (0.080) 3
1 = (0.184)0 + (0.368) 1 + (0.368) 2 + (0.184) 3
2 = (0.368)0
+ (0.368) 2 + (0.368) 3
3 = (0.368)0
+ (0.368) 3
1 =
0 +
1 +
2 +
3
di dapat :
0 = 0.285
1 = 0.285
2 = 0.264
3 = 0.166

00 = 1/ 0 = 3.51 minggu
11 = 1/ 1 = 3.51 minggu
22 = 1/ 2 = 3.79 minggu
33 = 1/ 3 = 6.02 minggu

Catatan 4.16
Pada steady state probabilitas berlaku :
! Jika i dan j merupakan states yang recurrent dengan kelas-kelas yang berbeda
maka :
pij(n) = 0 untuk setiap n
! Jika j merupakan state yang transient maka
pij(n) = 0
Berarti bahwa probabilitas untuk mendapatkan suatu proses dalam suatu state
yang transient setelah sejumlah besar transisi cenderung menuju ke nol.
4.5.2 Biaya rata-rata harapan/unit waktu
Untuk suatu rantai markov yang irreducible dengan recurent state positif, suatu
rantai dengan state terbatas, berlaku :
Siana Halim Teknik Industri UK. Petra

Penelitian Operasional II

Rantai Markov 61

1 N

lim pij( k ) = j
n n N k =1

dimana j memenuhi persamaan-persamaan stedy state. Andaikan bahwa suatu


biaya (atau fungsi penalti lainnya) C(Xt) terjadi ketika proses berada di state Xt
pada saat t, untuk t = 0,1,2,
Catatan 4.17
C(Xt) adalah peubah acak dengan nilai C(0), C(1), , C(N) dan fungsi C(Xt)
independen terhadap t.

Siana Halim Teknik Industri UK. Petra

You might also like