Na teoría de la probabilidá, conozse como cadena de Márkov o modelu de Márkov a un tipu especial de procesu estocástico
discretu nel que la probabilidá de qu'asoceda un eventu depende solamente del eventu darréu anterior. Esta carauterística de falta de memoria recibe'l nome de propiedá de Markov.
En matemática defínese como un procesu estocástico discretu que cumple cola propiedá de Márkov, esto ye, si conoz la hestoria del sistema hasta'l so intre actual, el so estáu presente resume tola información relevante pa describir en probabilidá'l so estáu futuru.
Una cadena de Márkov ye una secuencia X1, X2, X3,... de variables aleatories. El dominiu d'estes variables ye llamáu espaciu tao; el valor de Xn ye l'estáu del procesu nel tiempu n. Si la distribución de probabilidá condicional de Xn+1 n'estaos pasaos ye una función de Xn por sigo sola, entós:
Onde xi ye l'estáu del procesu nel intre i. La identidá amosada ye la propiedá de Márkov.
Una cadena de Márkov dizse homoxénea si la probabilidá de dir del estáu i al estáu j nun pasu nun depende del tiempu nel que s'atopa la cadena, esto ye:
pa tou n y pa cualesquier i, j.
Si pa dalguna pareya d'estaos y pa dalgún tiempu n la propiedá antes mentada nun se cumple vamos dicir que la cadena de Márkov ye non homoxénea.
Probabilidaes de transición y matriz de transición
La probabilidá de dir del estáu i al estáu j en n unidaes de tiempu ye
,
na probabilidá de transición nun pasu omítese'l superíndice de cuenta que queda
Un fechu importante ye que les probabilidaes de transición en n pasos satisfaen la ecuación de Chapman-Kolmogórov, esto ye, pa cualesquier k tal que 0 < k < n cumplir que
onde Y denota l'espaciu d'estaos.
Cuando la cadena de Márkov ye homoxénea, munches de les sos propiedaes útiles pueden llograse al traviés de la so matriz de transición, definida entrada a entrada como
esto ye, la entrada i, j correspuende a la probabilidá de dir del estáu i a j nun pasu.
De la mesma puede llograse la matriz de transición en n pasos como:
Vamos Dicir qu'un vector de probabilidá (finito o infinitu numerable) ye invariante pa una cadena de Márkov si
onde P denota la matriz de transición de la cadena de Márkov. Al vector de probabilidá invariante tamién se-y llama distribución estacionaria o distribución d'equilibriu.
Pa dos estaos i,j nel espaciu d'estaos Y, vamos dicir que de i aportar a j (y se denotará ) si
pa dalgún n,
si y entós vamos dicir que icomunica con j y se denotará i↔j.
La propiedá "↔" ye una rellación d'equivalencia. Esta rellación induz una partición nel espaciu d'estaos. A estes clases d'equivalencia vamos llamar clases de comunicación.
Dau un estáu x, denotaremos a la so clase de comunicación como C(x).
Vamos Dicir qu'un subconxuntu C del espaciu d'estaos (al que denotaremos Y) ye zarráu si nengún estáu de Y-C pue ser aportáu dende un estáu de C, esto ye, si pa tou x∈C, pa tou y∈Y-C y pa tou natural m>0.
Una cadena de Márkov dizse positivu-recurrente si tolos sos estaos son positivu-recurrentes. Si la cadena ye amás irreducible ye posible demostrar qu'esiste un únicu vector de probabilidá invariante y ta dau por:
Una cadena de Márkov dizse regular (tamién primitiva o ergódica) si esiste dalguna potencia positiva de la matriz de transición que les sos entraes sían toes puramente mayores que cero.
Cuando l'espaciu d'estaos Y ye finito, si P denota la matriz de transición de la cadena tiense que:
onde W ye una matriz con tolos sos renglones iguales a un mesmu vector de probabilidá w, que resulta ser el vector de probabilidá invariante de la cadena. Nel casu de cadenes regulares, ésti vector invariante ye únicu.
Si en llugar de considerar una secuencia discreta X1, X2,..., Xi,.. con i indexado nel conxuntu de númberos naturales, considérense les variables aleatories Xt con t que varia nun intervalu continuu del conxuntu de númberos reales, vamos tener una cadena en tiempu continuu. Pa esti tipu de cadenes en tiempu continuu la propiedá de Márkov espresar de la siguiente manera:
tal que
Pa una cadena de Márkov continua con un númberu finito d'estaos puede definise una matriz estocástica dada por:
La cadena denominar homoxénea si . Pa una cadena de Márkov en tiempu continuu homoxénea y con un númberu finito d'estaos puede definise'l llamáu xenerador infinitesimal como:[2]
Y puede demostrase que la matriz estocástica vien dada por:
Si consideramos el tiempu atmosféricu d'una rexón al traviés de distintos díes, ye plausible asumir que l'estáu actual namái depende del últimu estáu y non de tola historia en sí, de cuenta que pueden usase cadenes de Márkov pa formular modelos climatolóxicos básicos. Por casu, desenvolviéronse modelos de recurrencia de les agües basaos en cadenes de Márkov.[3]
Una importante aplicación de les cadenes de Márkov atopar nel procesu Galton-Watson. Ésti ye un procesu de ramificación que puede usase, ente otres coses, pa modelar el desenvolvimientu d'una epidemia (vease modelaje matemáticu d'epidemies).
El pagerank d'una páxina web (usáu por Google nos sos motores de busca) defínese al traviés d'una cadena de Márkov, onde la posición que va tener una páxina nel buscador va ser determinada pol so pesu na distribución estacionaria de la cadena.
Les cadenes de Márkov son utilizaes p'aprovir una solución analítica a ciertos problemes de simulación, por casu en teoría de coles el Modelu M/M/1[4] ye de fechu un modelu de cadenes de Márkov.
Son munchos los xuegos d'azar que pueden modelase al traviés d'una cadena de Márkov. El modelu de la ruina del xugador, (Gambler's ruin), qu'establez la probabilidá de qu'una persona qu'apuesta nun xuegu d'azar finalmente termine ensin dineru, ye una de les aplicaciones de les cadenes de Márkov nesti rubro.
Les cadenes de Márkov pueden utilizase en modelos simples de valuación d'opciones pa determinar cuándo esiste oportunidá d'arbitraxe, según nel modelu de colapsos d'una bolsa de valores o pa determinar la volatilidá de los precios. Nos negocios, les cadenes de Márkov utilizáronse p'analizar los patrones de compra de los deldores morosos, pa entamar les necesidaes d'alministración de personal personal y p'analizar el reemplazu d'equipu.
Empléguense cadenes de Márkov en teoría de xenética de poblaciones, pa describir el cambéu de frecuencies xéniques nuna población pequeña con xeneraciones discretes, sometida a deriva xenética. Foi emplegada na construcción del modelu d'espardimientu de Motō Kimura.
A.A. Márkov. "Rasprostranenie zakona bol'shih chisel na velichiny, zavisyaschie drug ot druga". Izvestiya Fiziko-matematicheskogo obschestva pri Kazanskom universitete, 2-yá seriya, tom 15, pp. 135–156, 1906.
A.A. Markov. "Extension of the limit theorems of probability theory to a sum of variables connected in a chain". reprinted in Appendix B of: R. Howard. Dynamic Probabilistic Systems, volume 1: Markov Chains. John Wiley and Sons, 1971.
Leo Breiman. Probability. Original edition published by Addison-Wesley, 1968; reprinted by Society for Industrial and Applied Mathematics, 1992. ISBN 0-89871-296-3. (See Chapter 7.)
J.L. Doob. Stochastic Processes. New York: John Wiley and Sons, 1953. ISBN 0-471-52369-0.
S. P. Meyn and R. L. Tweedie. Markov Chains and Stochastic Stability. London: Springer-Verlag, 1993. ISBN 0-387-19832-6. online: [1] . Second edition to appear, Cambridge University Press, 2009.
Booth, Taylor L. (1967). Sequential Machines and Automata Theory, 1st, Nueva York: John Wiley and Sons, Inc.. Library of Congress Card Catalog Number 67-25924. Extensive, wide-ranging book meant for specialists, written for both theoretical computer scientists as well as electrical engineers. With detailed explanations of state minimization techniques, FSMs, Turing machines, Markov processes, and undecidability. Excellent treatment of Markov processes pp. 449ff. Discusses Z-transforms, D transforms in their context.
Kemeny, John G.; Mirkil, Hazleton; Snell, J. Laurie; Thompson, Gerald L. (1959). Finite Mathematical Structures, 1st, Englewood Cliffs, N.J.: Prentice-Hall, Inc.. Library of Congress Card Catalog Number 59-12841. Classical text. cf Chapter 6 Finite Markov Chains pp. 384ff.
Kijima, Masaaki (1997). Markov Processes for Stochastic Modeling, 1st, Cambridge: Chapman & Hall. ISBN 0 412 60660 7.
Y. Nummelin. "Xeneral irreducible Markov chains and non-negative operators". Cambridge University Press, 1984, 2004. ISBN 0-521-60494-X