4.2 Cadenas de Markov¶
Una Cadena de Markov es un proceso estocástico que cumple ciertas condiciones.
Su nombre proviene del matemático ruso Andrei Markov (1856-1922).
Definiciones¶
Proceso estocástico¶
Un proceso estocástico es un conjunto de variables aleatorias
donde \(X_t\) el estado en el tiempo \(t\).
Es decir, \(X_t\) puede ser:
el tiempo que hace (El tiempo en mi ciudad)
la cantidad de dinero del apostador (La ruina del apostador)
la posición de la pulga (La pulga saltarina)
el resultado de tirar la moneda (Tirar una moneda)
la clasificación del conductor por parte de la empresa de seguros (Conductores)
el tipo de letra en un texto (El Lenguaje)
el estado del coloide (Aplicación de Cadena de Markov)
en el tiempo/posición \(t\). El estado del proceso estocástico en el tiempo \(t\) es el valor de \(X_t\).
Son modelos matemáticos dinámicos y estocásticos.
Espacio de estados¶
El espacio de estados \(\mathcal{X}\) es el conjunto de valores que puede tomar \(X_t\).
Puede ser un conjunto infinito, pero nos limitaremos al caso en que
Es decir, veremos cadenas de Markov con un conjunto finito de estados
Important
Cada uno de estos estados puede ocurrir con una cierta probabilidad y se cumple
Trayectoria de un proceso estocástico¶
Una trayectoria es un conjunto particular de valores de las variables aleatorias \(X_t\). En el ejemplo de La pulga saltarina una trayectoria puede ser
Si el proceso toma los valores \(X_0=x_0,X_1=x_1,X_2=x_2,\ldots\) decimos que la trayectoria es
Note
Se suele llamar path a la trayectoria.
Propiedad Markoviana¶
Las cadenas de Markov han de cumplir la propiedad Markoviana que viene a decir que el proceso no tiene memoria.
El estado \(X_{t+1}\) depende únicamente del estado \(X_t\).
para todo \(t,x,x_{t},x_{t-1},\ldots,x_0\).
Note
Un proceso estocástico que cumpla la propiedad Markoviana es una cadena de Markov.
Distribución de \(X_t\)¶
Dada una cadena de Markov \(\{X_0,X_1,X_2,\ldots\}\) con espacio de estados \(\mathcal{X}=\{x_1,x_2,\ldots,x_r\}\), cada una de las \(X_t\) es una variable aleatoria, por tanto tendrá una distribución de probabilidad (discreta).
Podemos escribir esta distribución de probabilidad de un modo vectorial.
Consideramos \(X_0\). Denotamos su distribución de probabilidad como
Escribimos
En el ejemplo La pulga saltarina esto se corresponde con la elección aleatoria de la pulga acerca de en qué vértice empezar a saltar en tiempo 0:
Probabilidades de transición¶
Consideramos una cadena de Markov con \(r\) estados. Sea la probabilidad
de que el sistema pase del estado \(i\) al estado \(j\) en la iteración \(t\).
Note
Consideraremos cadenas de Markov homogéneas en el tiempo. Las probabilidades de transición no dependen del tiempo:
Matriz de transición¶
Llamamos matriz de transiciones de la cadena de Markov a la matriz \(r\times r\):
Son matrices cuadradas. Las filas representan el estado de entrada y las columnas el de salida.
\(0\leq p_{ij}\leq 1\) (las entradas de la matriz son probabilidades).
Las \(\color{red}{\text{filas}}\) suman 1:
Note
Toda matriz que verifique estas propiedades se llama matriz estocástica (por filas).
Probabilidades de transición a \(n\) pasos¶
Dada una cadena de Markov con matriz de transición \(P\) y condición inicial \(X_0=x_i\), ya sabemos cómo calcular la distribución de probabilidad de \(X_1\). En nuestra notación
Es natural preguntarse cuál será la distribución en tiempos posteriores. Estamos interesados en conocer las probabilidades de transición a \(n\) pasos, \(P^{(n)}\), definidas por
Para \(n=2\) tenemos:
La matriz de transición a 2 pasos \(P^{(2)}=P^2\).
Tenemos el siguiente:
Sea \(\{X_0,X_1,\ldots\}\) una cadena de Markov con matriz de transición \(P\). Las probabilidades de transición a \(n\) pasos son \(P^{(n)}=P^n\), es decir
Note
Usaremos la notación \((P^n)_{ij}=P_{ij}^n\).
Warning
Lo anterior no es igual a \((P_{ij})^n\).
Dinámica¶
Supongamos que conocemos el vector de probabilidades inicial \(\mathbf{\pi}^{(0)}\). ¿Cómo determinamos los siguientes vectores de probabilidad en los siguientes pasos temporales?
Estamos interesados en conocer la distribución de \(X_n\), que almacenamos en \(\pi^{(n)}\), es decir
Calculamos \(\pi^{(n+1)}\) asumiendo que conocemos \(\pi^{(n)}\):
Se tiene el siguiente:
Si \(P\) es la matriz de transiciones de una cadena de Markov y \(\pi^{(n)}\) es el vector de probabilidades en la \(n\)-ésima observación, entonces
Por tanto:
siendo \(\pi^{(0)}\) el vector de probabilidades inicial.
Probabilidad de una secuencia de estados¶
Nos interesamos ahora por la probabilidad de observar una secuencia de longitud \(n\), \(seq = \{x_1 , x_2 , \ldots , x_n \}\):
que podemos reescribir como:
Gracias a la propiedad Markoviana, que dice que la probabilidad de observar \(X_t\) solamente depende de la probabilidad de \(X_{t-1}\), la anterior expresión se simplifica:
que simplificamos como:
Important
Conocido el vector de probabilidades iniciales, \(\pi^{(0)}\) , y la matriz de transiciones \(P\), podemos calcular la probabilidad de observar una secuencia cualquiera (numéricamente es mejor calcular \(\log \mathbb{P}\{seq\}\)).