Ланци Маркова

С Википедије, слободне енциклопедије

У математици ланац Маркова означава дискретни Марковљев случајни процес. Име је добио по Марков Андреју, руском математичару, који је глас стекао својим истраживањима у овој грани науке. Имати својство Маркова значи, укратко, да поред датог тренутног стања, будуће стање система не зависи од прошлих. Другим речима, то значи, да опис садашњости у потпуности садржи информацију која може утицати на будуће стање процеса.[1][2][3]

Дакле, поред дате садашњости, будућност не зависи од прошлости. Ништа што се догодило у прошлости, не утиче, не даје прогнозу у погледу будућности, у будућности је све могуће. Основни пример је бацање новчића – ако први пут добијемо главу, други пут с подједнаким шансама можемо добити главу или писмо. Ако пак добијамо главу 100 пута заредом, и тада је вероватноћа да ћемо 101. пут добити главу иста као и да ћемо добити писмо – другим речима, прошлост не предвиђа будући резултат. Тренутно стање је да имамо новчић са главом и писмом на своје две стране. Претпостављајући правилна извођења експеримента, ништа друго не може утицати на будући исход. Други пример може да буде случајна шетња по бројној оси, где се, при сваком кораку, позиција мења за 1 (у једном или другом смеру једнако вероватно). Са сваке позиције постоје два могућа прелаза: на следећи или на претходни цео број. Вероватноће прелаза тада зависе само од тренутног стања, а не од начина како се до њега дошло. На пример, ако је тренутна позиција −3, прелаз у −2 има вероватноћу 0,5, без обзира на претходне позиције. У сваком тренутку систем, на основу дате расподеле случајне променљиве, може променити стање, или остати у истом. Промене стања називамо прелазима, а вероватноће, које се односе на различите промене стања, називамо вероватноћама прелаза.

Ланци Маркова имају мноштво апликација као статистички модели процеса стварног света,[1][4][5][6] као што је изучавање контролних система темпомата у моторним возилима, утврђивање трендова редова или линија путника који долазе на аеродром, варијација девизних курсева и популационе динамике животиња.[7] Марковљеви процеси су основа за општи стохастички метод симулација, познат као Марковљев ланац Монте Карло, који се користи за симулацију узорковања из сложених дистрибуција вероватноће и који је нашао примену у Бајесовој статистици и вештачкој интелигенцији.[7][8][9]

Формална дефиниција[уреди | уреди извор]

Ланци Маркова представљају значајну класу зависних случајних променљивих. Низ случајних променљивих X1, X2, X3, … називамо ланцем Маркова, ако важи својство Маркова, тј.:

Могуће вредности Xi су из пребројивог скупа S. Овај скуп назива се скуп стања. Ланце Маркова можемо приказати и усмереним графовима, где су чворови поједина стања, а вредности написане на гранама представљају вероватноће прелаза (у одговарајућем смеру).


Типови[уреди | уреди извор]

Говоримо о ланцу Маркова са стационарним вероватноћама стања (хомогеном ланцу Маркова), ако вероватноће прелаза не зависе од времена, то јест:

независно од n.

Ланци Маркова реда m (са меморијом m) су они за које важи (за коначно m):

за свако n. Другим речима, будуће стање зависи од m пређашњих. У случају m=1 ради се о простом ланцу Маркова.

Особине ланаца Маркова[уреди | уреди извор]

Прво је потребно да уведемо појам вероватноће прелаза за један корак:

и појам вероватноће прелаза за n корака:

Прво означава вероватноћу прелаза из стања i у стање j из једног корака, а потоње из n корака, под претпоставком да је .

За хомогене ланце Маркова:

и

па прелазак из n корака задовољава једначину Чепман-Колмогорова, да за свако k за које важи 0 < k < n,

где је S скуп стања ланца Маркова.

Доказ

Применом својства Маркова и уопштене формуле тоталне вероватноће, важи следеће:

што је требало доказати.

Маргинална расподела Pr(Xn = x) је расподела над стањима у тренутку n. Почетна расподела је Pr(X0 = x).

Ергодичност[уреди | уреди извор]

Ланац Маркова се назива ергодичан ако је могуће прећи из било ког стања у било које стање (не обавезно у једном кораку).

Регуларност[уреди | уреди извор]

Ланац Маркова је регуларан ако неки степен матрице прелаза има само позитивне елементе. Другим речима, за неко n, могуће је прећи из било ког стања у било које друго стање у тачно n корака. Из дефиниције се види да је сваки регуларан ланац и ергодичан, обрнуто не мора да важи.

Матрица прелаза је матрица чији је (i, j)-ти елемент једнак

и она показује како су распоређене вероватноће прелаза.

Фундаментална гранична теорема за регуларне ланце Маркова[уреди | уреди извор]

Нека је P матрица прелаза за регуларан ланац. Тада , где је P* матрица чије су све врсте једнаке p*. Све компоненте вектора p* су позитивне, и збир им је 1.

Доказ

Треба, у суштини, доказати да елементи сваке колоне матрице теже да буду једнаки (тј. да су све врсте те матрице једнаке). Напоменимо да ј-та колона од је где је вектор колона са јединицом на ј-том месту, и нулама на осталим местима. Према томе, практично треба доказати да за сваки вектор колону , тежи константном вектору кад n тежи бесконачности. Како је свака врста матрице P вектор вероватноћа, замењује са математичким очекивањима његових компоненти (врши неку врсту упросечавања). Компоненте вектора су ближе једна другој него компоненте вектора . Показаћемо да разлика између максималне и минималне компоненте тежи нули кад n тежи бесконачности. То у суштини значи да вероватноћа да ће се систем наћи у неком стању после великог броја корака не зависи од почетног стања. Нека је P матрица прелаза димензија r×r, без нултих елемената. Узмимо да је l најмања вредност у тој матрици. Нека је вектор колона са r елемената, од којих је највећи M0, а најмањи m0. Нека су M1 и m1 највећа и најмања компонента (респективно) вектора . Пошто је сваки елемент матрице математичко очекивање елемената из , највеће могуће очекивање се може добити ако сви (осим једног) елементи вектора имају вредност M0, а један има вредност m0, и он се множи са l, да би најмање доприносио. У том случају математичко очекивање износи

.

Слично, најмање могуће очекивање је једнако

.

Тако,

.

Ово ће нам помоћи у доказу фундаменталне граничне теореме за регуларне ланце Маркова. Доказаћемо теорему за специјалан случај да је P без елемената који су једнаки нули, а после ћемо уопштити. Нека је вектор колона са r елемената, где је r број стања у ланцу. Претпоставићемо да је r>1 (јер се иначе своди на тривијално). Нека су Mn и mn, респективно, максимална и минимална компонента вектора . Вектор се добија множењем (слева) вектора вектором P. Према томе, свака компонента вектора представља средњу вредност компоненти из . Тако је и . Оба ова низа су монотона и ограничена, . Према томе, оба низа ће имати граничну вредност кад n тежи бесконачности (низови су конвергентни). Нека је M гранична вредност од Mn, а m од mn. Знамо да је . Треба да докажемо да је M-m=0. Показали смо да важи . Из овога је очигледно . Како је , тако мора бити и , тј. , а пошто се број између 0 и 1 диже на експонент који тежи бесконачности, јасно је да ће разлика тежити тада нули. Према томе, сви елементи ће тежити неком броју u. Нека је сада вектор чија је ј-та компонента једнака 1, а све остале су једнаке нули. Тада је ј-та колона од . Понављајући поступак за свако ј доказује се да колоне теже константим векторима колонама. Може се рећи да врсте матрице теже заједничком вектору врсти p*, tj. . Остало је да се докаже да су сви елементи матрице P* строго позитивни. Ако узмемо исти вектор колону (са једном јединицом и свим нулама), је ј-та колона од , а сви њени елементи су позитивни (по нашој почетној претпоставци). Најмањи елемент вектора је дефинисан као , па је . Како је , имамо да је и , а ова вредност m је заправо ј-та компонента од p*, па су према томе све компоненте p* строго позитивне.

Овај доказ се, међутим, односио на случај да P нема нултих елемената (нисмо претпоставили да је P регуларна). Претпоставимо да је P регуларна. Тада, за неко N, нема нула. Дати доказ показује да MnN-mnN тежи нули кад n тежи бесконачности. Али, разлика MnN-mnN се не може повећавати (кад је l=0, у најгорем случају разлика може остати иста). Ако знамо да разлике које се добију посматрањем сваких N пута теже нули, тада и цео низ мора тежити нули. Тиме је доказ завршен.

Референце[уреди | уреди извор]

  1. ^ а б Gagniuc, Paul A. (2017). Markov Chains: From Theory to Implementation and Experimentation. USA, NJ: John Wiley & Sons. стр. 1—235. ISBN 978-1-119-38755-8. 
  2. ^ „Markov chain | Definition of Markov chain in US English by Oxford Dictionaries”. Oxford Dictionaries | English. Архивирано из оригинала 15. 12. 2017. г. Приступљено 14. 12. 2017. 
  3. ^ Definition at Brilliant.org "Brilliant Math and Science Wiki". Retrieved on 12 May 2019
  4. ^ Samuel Karlin; Howard E. Taylor (2. 12. 2012). A First Course in Stochastic Processes. Academic Press. стр. 47. ISBN 978-0-08-057041-9. Архивирано из оригинала 23. 3. 2017. г. 
  5. ^ Bruce Hajek (12. 3. 2015). Random Processes for Engineers. Cambridge University Press. ISBN 978-1-316-24124-0. Архивирано из оригинала 23. 3. 2017. г. 
  6. ^ G. Latouche; V. Ramaswami (1. 1. 1999). Introduction to Matrix Analytic Methods in Stochastic Modeling. SIAM. стр. 4—. ISBN 978-0-89871-425-8. Архивирано из оригинала 23. 3. 2017. г. 
  7. ^ а б Sean Meyn; Richard L. Tweedie (2. 4. 2009). Markov Chains and Stochastic Stability. Cambridge University Press. стр. 3. ISBN 978-0-521-73182-9. Архивирано из оригинала 23. 3. 2017. г. 
  8. ^ Reuven Y. Rubinstein; Dirk P. Kroese (20. 9. 2011). Simulation and the Monte Carlo Method. John Wiley & Sons. стр. 225. ISBN 978-1-118-21052-9. Архивирано из оригинала 23. 3. 2017. г. 
  9. ^ Dani Gamerman; Hedibert F. Lopes (10. 5. 2006). Markov Chain Monte Carlo: Stochastic Simulation for Bayesian Inference, Second Edition. CRC Press. ISBN 978-1-58488-587-0. Архивирано из оригинала 23. 3. 2017. г. 

Литература[уреди | уреди извор]

  • A. A. Markov (1906) "Rasprostranenie zakona bol'shih chisel na velichiny, zavisyaschie drug ot druga". Izvestiya Fiziko-matematicheskogo obschestva pri Kazanskom universitete, 2-ya seriya, tom 15, pp. 135–156.
  • A. A. Markov. "Extension of the limit theorems of probability theory to a sum of variables connected in a chain". reprinted in Appendix B of: R. Howard. Dynamic Probabilistic Systems, volume 1: Markov Chains. John Wiley and Sons, 1971.
  • Classical Text in Translation: Markov, A. A. (2006). Превод: Link, David. „An Example of Statistical Investigation of the Text Eugene Onegin Concerning the Connection of Samples in Chains”. Science in Context. 19 (4): 591—600. doi:10.1017/s0269889706001074. 
  • Leo Breiman (1992) [1968] Probability. Original edition published by Addison-Wesley; reprinted by Society for Industrial and Applied Mathematics ISBN 0-89871-296-3. (See Chapter 7)
  • J. L. Doob (1953) Stochastic Processes. New York: John Wiley and Sons ISBN 0-471-52369-0.
  • S. P. Meyn and R. L. Tweedie (1993) Markov Chains and Stochastic Stability. London: Springer-Verlag ISBN 0-387-19832-6. online: MCSS . Second edition to appear, Cambridge University Press, 2009.
  • S. P. Meyn. Control Techniques for Complex Networks. Cambridge University Press, 2007. ISBN 978-0-521-88441-9. Appendix contains abridged Meyn & Tweedie. online: Booth, Taylor L. (1967). Sequential Machines and Automata Theory (1st изд.). New York, NY: John Wiley and Sons, Inc. Library of Congress Card Catalog Number 67-25924.  Extensive, wide-ranging book meant for specialists, written for both theoretical computer scientists as well as electrical engineers. With detailed explanations of state minimization techniques, FSMs, Turing machines, Markov processes, and undecidability. Excellent treatment of Markov processes pp. 449ff. Discusses Z-transforms, D transforms in their context.
  • Kemeny, John G.; Hazleton Mirkil; J. Laurie Snell; Gerald L. Thompson (1959). Finite Mathematical Structures (1st изд.). Englewood Cliffs, NJ: Prentice-Hall, Inc. Library of Congress Card Catalog Number 59-12841.  Classical text. cf Chapter 6 Finite Markov Chains pp. 384ff.
  • John G. Kemeny & J. Laurie Snell (1960) Finite Markov Chains, D. van Nostrand Company ISBN 0-442-04328-7
  • E. Nummelin. "General irreducible Markov chains and non-negative operators". Cambridge University Press, 1984, 2004. ISBN 0-521-60494-X
  • Seneta, E. Non-negative matrices and Markov chains. 2nd rev. ed., 1981, XVI, 288 p., Softcover Springer Series in Statistics. (Originally published by Allen & Unwin Ltd., London, 1973) ISBN 978-0-387-29765-1
  • Kishor S. Trivedi, Probability and Statistics with Reliability, Queueing, and Computer Science Applications, John Wiley & Sons, Inc. New York, 2002. ISBN 0-471-33341-7.
  • K. S. Trivedi and R.A.Sahner, SHARPE at the age of twenty-two, vol. 36, no. 4, pp. 52–57, ACM SIGMETRICS Performance Evaluation Review, 2009.
  • R. A. Sahner, K. S. Trivedi and A. Puliafito, Performance and reliability analysis of computer systems: an example-based approach using the SHARPE software package, Kluwer Academic Publishers, 1996. ISBN 0-7923-9650-2.
  • G. Bolch, S. Greiner, H. de Meer and K. S. Trivedi, Queueing Networks and Markov Chains, John Wiley, 2nd edition, 2006. ISBN 978-0-7923-9650-5.

Спољашње везе[уреди | уреди извор]