Cadenas de markov

Páginas: 7 (1564 palabras) Publicado: 24 de marzo de 2012
CADENA DE MARKOV
EN LA TEORÍA DE LA PROBABILIDAD, SE CONOCE COMO CADENA DE MÁRKOV A UN TIPO ESPECIAL DE PROCESO ESTOCÁSTICO DISCRETO EN EL QUE LA PROBABILIDAD DE QUE OCURRA UN EVENTO DEPENDE DEL EVENTO INMEDIATAMENTE ANTERIOR. EN EFECTO, LAS CADENAS DE ESTE TIPO TIENEN MEMORIA. "RECUERDAN" EL ÚLTIMO EVENTO Y ESTO CONDICIONA LAS POSIBILIDADES DE LOS EVENTOS FUTUROS. ESTA DEPENDENCIA DEL EVENTOANTERIOR DISTINGUE A LAS CADENAS DE MÁRKOV DE LAS SERIES DE EVENTOS INDEPENDIENTES, COMO TIRAR UNA MONEDA AL AIRE O UN DADO.
RECIBEN SU NOMBRE DEL MATEMÁTICO RUSO ANDREI ANDREEVITCH MARKOV (1856-1922), QUE LAS INTRODUJO EN 1907.[1]
ESTOS MODELOS MUESTRAN UNA ESTRUCTURA DE DEPENDENCIA SIMPLE, PERO MUY ÚTIL EN MUCHAS APLICACIONES.

DEFINICIÓN FORMAL

EN MATEMÁTICAS, SE DEFINE COMO UN PROCESOESTOCÁSTICO DISCRETO QUE CUMPLE CON LA PROPIEDAD DE MÁRKOV, ES DECIR, SI SE CONOCE LA HISTORIA DEL SISTEMA HASTA SU INSTANTE ACTUAL, SU ESTADO PRESENTE RESUME TODA LA INFORMACIÓN RELEVANTE PARA DESCRIBIR EN PROBABILIDAD SU ESTADO FUTURO.
Una cadena de Márkov es una secuencia X1, X2, X3,... de variables aleatorias. El rango de estas variables, es llamado espacio estado, el valor de Xn es el estadodel proceso en el tiempo n. Si la distribución de probabilidad condicional de Xn+1 en estados pasados es una función de Xn por sí sola, entonces:


Donde xi es el estado del proceso en el instante i. La identidad mostrada es la propiedad de Márkov.


Notación útil


CADENAS HOMOGÉNEAS Y NO HOMOGÉNEAS

• UNA CADENA DE MARKOV SE DICE HOMOGÉNEA SI LA PROBABILIDAD DE IR DEL ESTADO I ALESTADO J EN UN PASO NO DEPENDE DEL TIEMPO EN EL QUE SE ENCUENTRA LA CADENA, ESTO ES:
[pic]PARA TODO N Y PARA CUALQUIER I, J.
SI PARA ALGUNA PAREJA DE ESTADOS Y PARA ALGÚN TIEMPO N LA PROPIEDAD ANTES MENCIONADA NO SE CUMPLE DIREMOS QUE LA CADENA DE MARKOV ES NO HOMOGÉNEA.

Probabilidades de transición y matriz de transición

• LA PROBABILIDAD DE IR DEL ESTADO I AL ESTADO J EN NUNIDADES DE TIEMPO ES
[pic],
EN LA PROBABILIDAD DE TRANSICIÓN EN UN PASO SE OMITE EL SUPERÍNDICE DE MODO QUE QUEDA
[pic]
• UN HECHO IMPORTANTE ES QUE LAS PROBABILIDADES DE TRANSICIÓN EN N PASOS SATISFACEN LA ECUACIÓN DE CHAPMAN-KOLMOGOROV, ESTO ES, PARA CUALQUIER K TAL QUE 0 < K < N SE CUMPLE QUE
[pic]
DONDE E DENOTA EL ESPACIO DE ESTADOS.
• Cuando la cadena deMarkov es homogénea, muchas de sus propiedades útiles se pueden obtener a través de su matriz de transición, definida entrada a entrada como [pic]
ESTO ES, LA ENTRADA I, J CORRESPONDE A LA PROBABILIDAD DE IR DEL ESTADO I A J EN UN PASO.
Del mismo modo se puede obtener la matriz de transición en n pasos como:
[pic], donde [pic].

Vector de probabilidad invariante

• SE DEFINE LA DISTRIBUCIÓNINICIAL [pic].
• DIREMOS QUE UN VECTOR DE PROBABILIDAD (FINITO O INFINITO NUMERABLE) ES INVARIANTE PARA UNA CADENA DE MARKOV SI
[pic]
DONDE P DENOTA LA MATRIZ DE TRANSICIÓN DE LA CADENA DE MARKOV. AL VECTOR DE PROBABILIDAD INVARIANTE TAMBIÉN SE LE LLAMA DISTRIBUCIÓN ESTACIONARIA O DISTRIBUCIÓN DE EQUILIBRIO.

Clases de comunicación

• PARA DOS ESTADOS I,J EN EL ESPACIO DEESTADOS E, DIREMOS QUE DE I SE ACCEDE A J (Y SE DENOTARÁ [pic]) SI
[pic]PARA ALGÚN N,
SI [pic]Y [pic]ENTONCES DIREMOS QUE I COMUNICA CON J Y SE DENOTARÁ I↔J.
La propiedad "↔" es una relación de equivalencia. Esta relación induce una partición en el espacio de estados. A estas clases de equivalencia las llamaremos clases de comunicación.
Dado un estado x, denotaremos a su clase decomunicación como C(x).
• Diremos que un subconjunto C del espacio de estados (al que denotaremos E) es cerrado si ningún estado de E-C puede ser accedido desde un estado de C, es decir, si [pic]para todo x∈C, para todo y∈E-C y para todo natural m>0.

TIEMPOS DE ENTRADA

SI [pic], DEFINIMOS EL PRIMER TIEMPO DE ENTRADA A C COMO LA VARIABLE ALEATORIA
[pic]
esto es, [pic]denota la primera vez...
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • cadenas de markov
  • CADENA DE MARKOV
  • Cadenas de markov
  • cadenas de markov
  • Cadenas de markov
  • Cadenas de markov
  • Cadenas de markov
  • cadena de markov

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS