İçeriğe atla

Markov zinciri

Vikipedi, özgür ansiklopedi

Matematikte, Markov Zinciri (Andrey Markov'un adına atfen), Markov özelliğine sahip bir stokastik süreçtir. Markov özelliğine sahip olmak, mevcut durum verildiğinde, gelecek durumların geçmiş durumlardan bağımsız olması anlamına gelir. Bir başka deyişle, mevcut durumun açıklaması, sürecin gelecekteki evrimini etkileyebilecek tüm bilgiyi kapsar. Gelecek durumlara belirli bir şekilde değil, olasılıksal bir süreçle ulaşılacaktır.

Her bir anda sistem belirli bir olasılık dağılımına bağlı olarak kendi durumunundan başka bir duruma geçebilir yahut aynı durumda kalabilir. Durumda olan değişiklikler geçiş olarak bilinir ve çeşitli durum değişmeleriyle ilişkili olasılıklar da geçiş olasılıkları olarak adlandırılır.

Markov zincirine bir örnek basit rastgele yürüyüş olur. Basit rastgele yürüyüş için durum uzayı bir gösterim üstünde bir grup köşeler halindedir. Geçiş aşamaları ise (yürüyüşün geçmişinde ne olmuş olursa olsun) cari köşeden herhangi bir komşu köşeye gitmeyi kapsar. Cari köşeden herhangi bir komşu köşeye gitme olasılığı hep aynı olup birbirine eşittir.


Markov zincir Markov özelliğini taşıyan, yani mevcut durum verilmiş olursa geçmiş ve gelecek durumların bağımsız olduğu, ardı ardına gelen, X1, X2, X3, ... ile ifade edilen, bir seri rassal değişkendir. Matematiksel biçimle

Xi'in mümkün değerleri, S olarak ifade edilen ve zincirin durum uzayı adı verilen sayılabilir bir set oluşturur.

Çok kere Markov zincirleri bir yönlendirilmiş gösterim ile tanımlanmaktadır ve bu gösterimde kenar doğrular bir durumdan diğer bir duruma geçiş olasılıkları ile tanıtılmaktadır.


Çeşitlemeleri

[değiştir | kaynağı değiştir]

Sürekli-zaman Markov sürecinin sürekli bir endeksi bulunur.

Zaman içinde homojen Markov zincirleri zamana göre homojen olan geçiş olasılıkları bulunan Markov zincirleridir ve tüm n değerleri için

olan süreçlerdir.

m sonlu bir sayı ise, bir m dereceli bir Markov zinciri (yani m bellekli bir Markov zinciri) için tüm n değerleri için şu ifadeler verilebilir:

'Klasik' Markov özelliği olan (Xn)den yeni bir (Yn) zincirinin şöyle kurulması mümkündür: Yn sıralamalı m-boyutlu X değerlerinden şöyle kurulsun:

Yn = (Xn, Xn-1, ..., Xn-m+1)

O zaman Yn, durum uzayı Sm olan ve klasik Markov özelliği bulunan bir Markov zinciri olur.

Markov zincirlerinin özellikleri

[değiştir | kaynağı değiştir]

İndirgenebilirlik

[değiştir | kaynağı değiştir]

Eğer i durumdan başladığımız bilindiği halde, i durumuna hiçbir zaman dönme imkânı yaratmayan bir sıfıra eşit olamayan olasılık bulunuyorsa i durumu geçiş durum olarak nitelendirilir. Daha matematik biçimle ve notasyonla bir rassal değişken olan Ti i durumuna ilk geri dönüş zamanı (vurma zamanı') olsun; yani

Bu halde i durumu geçişli olması için ancak ve ancak

olmalıdır. Eğer bir durum i geçişli değilse (yani 1 olasılıkla bir sonlu olan vurma zamanına sahipse), o halde i durumu yinelenen veya ısrarlı durum olarak adlandırılır. Vurma zamanı sonlu olmakla beraber bir sonlu beklenen değeri bulunması gerekmez. Mi beklenen geri dönüş zamanı, yani

olsun. O halde eğer Mi sonlu ise i durumu da pozitif yinelenen olur; aksi halde i durumu sıfır yinelenen olacaktır; bu durumlara aynı sırayla sıfır olmayan ısrarlı veya sıfır ısrarlı durum adları da verilir.

Bir durumun yinelenen olması ancak ve sadece ancak

ifadesi gerçekse ortaya çıkacağı ispatlanamıştır.

Eger durum i yi girdikten sonra hiçbir zaman o durumdan çıkmak mümkün değilse, i durumu yutan durum olarak adlandırılır. Bu halde i durumu yutan durum olması için ancak ve sadece ancak şu koşulu sağlaması gerekir;

and for

P geçiş matrisinde tüm durumlar birbirleri arasında geçiş sağlayabiliyorsa bu zincire ergodik markov zinciri denir.

0 1 0 0
0 0 1 0
0 0 0 1
1 0 0 0

üstteki P matrisi ergodik bir markov zinciridir.

0 1 0 0
0 0 1 0
0 1 0 0
1 0 0 0

üstteki P matrisi ise ergodik bir markov zinciri değildir. Sebebi ise 4. duruma hiçbir şekilde varılamamaktadır.

Sonlu durum uzayında Markov zincirleri

[değiştir | kaynağı değiştir]

Tersinebilir Markov zincirleri

[değiştir | kaynağı değiştir]

Bernoulli şeması

[değiştir | kaynağı değiştir]

Genel durum uzayında Markov zincirleri

[değiştir | kaynağı değiştir]

İnternet uygulamaları

[değiştir | kaynağı değiştir]

Google'in kullandığı internet sayfalarının PageRank'i Markov zinciri ile tanımlanmaktadır.[1] Markov zincirinde durağan dağılımda tüm bilinen internet sayfaları arasından sayfasında bulunma olasılığıdır. Eğer bilinen internet sayfaları ise ve sayfası bağlantısına sahip ise, o zaman bağlantılı olduğu tüm sayfalar için ve bağlantısı olmadığı tüm sayfalar için geçiş olasılığına sahiptir. parametresi yaklaşık 0.15 olarak alınmıştır.

Markov modelleri aynı zamanda kullanıcıların internet gezinti davranışlarını analiz etmek için de kullanılmıştır. Bir kullanıcının bir internet sayfasından web bağlantısı ile geçişi, birincil ya da ikincil Markov modelleri ile modellenebilir ve gelecekteki hareketleri öngörmede ve dolayısıyla internet sayfasını kullanıcı için kişiselleştirme de kullanılabilir.

Matematiksel biyoloji

[değiştir | kaynağı değiştir]

Markov parodi üreticileri

[değiştir | kaynağı değiştir]

Ayrıca bakınız

[değiştir | kaynağı değiştir]
  • A.A. Markov. "Rasprostranenie zakona bol'shih chisel na velichiny, zavisyaschie drug ot druga". Izvestiya Fiziko-matematicheskogo obschestva pri Kazanskom universitete, 2-ya seriya, tom 15, pp 135–156, 1906.
  • A.A. Markov. "Extension of the limit theorems of probability theory to a sum of variables connected in a chain". Yeni basım Appendiks B: R. Howard. Dynamic Probabilistic Systems, volume 1: Markov Chains. John Wiley and Sons, 1971.
  • Classical Text in Translation: A. A. Markov, An Example of Statistical Investigation of the Text Eugene Onegin Concerning the Connection of Samples in Chains, trans. David Link. Science in Context 19.4 (2006): 591-600. Online: http://journals.cambridge.org/production/action/cjoGetFulltext?fulltextid=637500
  • Leo Breiman. Probability. Original edition published by Addison-Wesley, 1968; reprinted by Society for Industrial and Applied Mathematics, 1992. ISBN 0-89871-296-3. (See Chapter 7.)
  • J.L. Doob. Stochastic Processes. New York: John Wiley and Sons, 1953. ISBN 0-471-52369-0.
  • S. P. Meyn and R. L. Tweedie. Markov Chains and Stochastic Stability. London: Springer-Verlag, 1993. ISBN 0-387-19832-6. online: https://web.archive.org/web/20071012194420/http://decision.csl.uiuc.edu/~meyn/pages/book.html . Second edition to appear, Cambridge University Press, 2009.
  • S. P. Meyn. Control Techniques for Complex Networks. Cambridge University Press, 2007. ISBN 9780521884419. Appendix contains abridged Meyn & Tweedie. online: https://web.archive.org/web/20080513165615/http://decision.csl.uiuc.edu/~meyn/pages/CTCN/CTCN.html
  • Booth, Taylor L. (1967). Sequential Machines and Automata Theory (1.1 yayıncı = John Wiley and Sons, Inc. bas.). New York. Library of Congress Card Catalog Number 67-25924.  Extensive, wide-ranging book meant for specialists, written for both theoretical computer scientists as well as electrical engineers. With detailed explanations of state minimization techniques, FSMs, Turing machines, Markov processes, and undecidability. Excellent treatment of Markov processes pp. 449ff. Discusses Z-transforms, D transforms in their context.
  • Kemeny, John G.; Mirkil, Hazleton; Snell, J. Laurie; Thompson, Gerald L. (1959). Finite Mathematical Structures (1.1 yayıncı = Prentice-Hall, Inc. bas.). Englewood Cliffs, N.J. Library of Congress Card Catalog Number 59-12841.  Classical text. cf Chapter 6 Finite Markov Chains pp. 384ff.

Dış bağlantılar

[değiştir | kaynağı değiştir]