teoria de markov
En la teoría de la probabilidad, se conoce como cadena de Márkov o modelo de Márkov a un tipo especial de proceso estocástico discreto en el que la probabilidad de que ocurra unevento depende del evento inmediatamente anterior. En efecto, las cadenas de este tipo tienen memoria. "Recuerdan" el último evento y esto condiciona las posibilidades de los eventos futuros. Estadependencia del evento anterior distingue a las cadenas de Márkov de las series de eventos independientes, como tirar una moneda al aire o un dado.
Reciben su nombre del matemático ruso AndréiMárkov (1856-1922), que las introdujo en 1907.1
Estos modelos muestran una estructura de dependencia simple, pero muy útil en muchas aplicaciones.
Índice
[ocultar]
1 Definición formal
2 Notación útil2.1 Cadenas homogéneas y no homogéneas
2.2 Probabilidades de transición y matriz de transición
2.3 Vector de probabilidad invariante
2.4 Clases de comunicación
2.5 Tiempos de entrada
2.6 Recurrencia2.7 Periodicidad
3 Tipos de cadenas de Márkov
3.1 Cadenas irreducibles
3.2 Cadenas positivo-recurrentes
3.3 Cadenas regulares
3.4 Cadenas absorbentes
3.5 Cadenas de Márkov en tiempo continuo4 Aplicaciones
4.1 Física
4.2 Meteorología
4.3 Modelos epidemiológicos
4.4 Internet
4.5 Simulación
4.6 Juegos de azar
4.7 Economía y finanzas
4.8 Genética
4.9 Música
5 Referencias6 Bibliografía
7 Enlaces externos
Definición formal[editar · editar código]
En matemática se define como un proceso estocástico discreto que cumple con la propiedad de Márkov, es decir, si se conoce la historiadel sistema hasta su instante actual, su estado presente resume toda la información relevante para describir en probabilidad su estado futuro.
Una cadena de Márkov es una secuencia X1, X2, X3,... devariables aleatorias. El rango de estas variables, es llamado espacio estado, el valor de Xn es el estado del proceso en el tiempo n. Si la distribución de probabilidad condicional de Xn+1 en...
Regístrate para leer el documento completo.