Lanț Markov

De la Wikipedia, enciclopedia liberă
Salt la: Navigare, căutare

În matematică, un proces Markov, sau un lanț Markov, este un proces stochastic care are proprietatea că, dată fiind starea sa prezentă, stările viitoare sunt independente de cele trecute.[1] Această proprietate se numește proprietatea Markov. Cu alte cuvinte, starea curentă a unui astfel de proces reține toată informația despre întreaga evoluție a procesului. Lanțurile Markov au fost denumite după matematicianul rus Andrei Markov.

Într-un proces Markov, la fiecare moment, sistemul își poate schimba sau păstra starea, în conformitate cu o anumită distribuție de probabilitate. Schimbările de stare sunt numite tranziții. Un exemplu simplu de proces Markov este parcurgerea aleatoare a nodurilor unui graf, tranzițiile fiind trecerea de la un nod la unul din succesorii săi, cu probabilitate egală, indiferent de nodurile parcurse până în acel moment.

Note[modificare | modificare sursă]

  1. ^ Eric Weisstein. „Markov Chain”. MathWorld. http://mathworld.wolfram.com/MarkovChain.html. Accesat la 3 iunie 2008.