Lanț Markov

De la Wikipedia, enciclopedia liberă
Jump to navigation Jump to search

În matematică, un proces Markov, sau un lanț Markov, este un proces stochastic care are proprietatea că, dată fiind starea sa prezentă, stările viitoare sunt independente de cele trecute.[1] Această proprietate se numește proprietatea Markov. Cu alte cuvinte, starea curentă a unui astfel de proces reține toată informația despre întreaga evoluție a procesului. Lanțurile Markov au fost denumite după matematicianul rus Andrei Markov.

Într-un proces Markov, la fiecare moment, sistemul își poate schimba sau păstra starea, în conformitate cu o anumită distribuție de probabilitate. Schimbările de stare sunt numite tranziții. Un exemplu simplu de proces Markov este parcurgerea aleatoare a nodurilor unui graf, tranzițiile fiind trecerea de la un nod la unul din succesorii săi, cu probabilitate egală, indiferent de nodurile parcurse până în acel moment.

Note[modificare | modificare sursă]

  1. ^ Eric Weisstein. „Markov Chain”. MathWorld. Accesat în . 

Bibliografie[modificare | modificare sursă]