CaDenas De Markov

Páginas: 29 (7083 palabras) Publicado: 12 de abril de 2012
Cadenas de Markov

CAPÍTULO VI CADENAS DE MARKOV 6.1 INTRODUCCIÓN El análisis de Markov es un método para analizar la conducta actual de alguna variable en un esfuerzo por predecir la conducta futura de esa variable. Este procedimiento fue desarrollado por el matemático ruso Andrei Andreivich Markov (14 de junio de 1856 – 20 de julio de 1922). Primero lo usó para describir y pronosticar elcomportamiento de partículas de gas en un recipiente cerrado. El análisis de Markov ha sido aplicado exitosamente a una amplia variedad de situaciones de decisión en áreas tales como educación, mercadotecnia, servicios de salud, finanzas, contabilidad y producción (problemas de inventarios, líneas de espera, mantenimiento y reemplazo entre otros). En el caso de mercadotecnia, se utiliza para examinary pronosticar el comportamiento de los clientes desde el punto de vista de su lealtad a una marca y de sus formas de cambio a otras marcas. Por ejemplo un cliente puede comprar detergente de la marca A, B, ó C, pero una compra comprenderá sólo una de las marcas. Si la probabilidad de que la siguiente compra sea de la marca A, B, ó C depende exclusivamente de la compra mas reciente y no de lasanteriores. En el caso de producción, se puede utilizar para pronosticar el comportamiento de una máquina desde el punto de vista de su funcionamiento. Por ejemplo una máquina en un momento dado puede estar en funcionamiento o descompuesta. La probabilidad de que en el siguiente tiempo t la máquina este en funcionamiento o descompuesta dependerá del estado mas reciente y no de los estados anteriores.En el caso de genética, se puede utilizar para modelar la teoría de Gregor Mendel donde existe una probabilidad de que un rasgo tal como el color está determinado por dos genes, cada uno de los cuales puede ser de carácter “dominate o recesivo”. Según la teoría, cuando de dos genes hay uno dominante, el color queda determinado por éste, mientras que sólo puede tener el otro color si ambos genesson recesivos y esto depende del estado mas reciente y no de los estados anteriores. 6.2 CONCEPTOS BÁSICOS 6.2.1 Vectores de Probabilidad

Un vector fila v = (v1, v2, ...,vn) recibe el nombre de vector de probabilidad si sus componentes son no negativas y la suma es igual a 1.

82

Cadenas de Markov

Ejemplo 1 Identificación de vectores de probabilidad. Indicar cual(es) de los siguientesvectores son vectores de probabilidad a) w = (1/3, 2/5, ½) b) x = (1/2, ¾, -1/4) c) y = (1/5, 2/5, 2/5) d) z = (1/2, 0, ½)

a) w No es un vector de probabilidad porque la suma de sus componentes es mayor a 1 b) x No es un vector de probabilidad porque tiene componentes negativos c) y Es un vector de probabilidad porque todas sus componentes son no negativas y la suma es igual a 1 d) z Es un vectorde probabilidad porque todas sus componentes son no negativas y la suma es igual a 1. El vector no nulo w = ( 2, 3, 0, 6, 4) no es un vector de probabilidad puesto que la suma de sus componentes no es igual a 1. Sin embargo, puesto que las componentes de w son no negativas, w tiene un múltiplo escalar λw que es un vector de probabilidad; puede obtenerse a partir de w dividiendo cada componente dew por la suma de las componentes de w: Ejemplo 2: Vectores no nulos Obtenga el vector de probabilidad a partir del vector no nulo w= ( 2, 3, 0, 6, 4)
1 1 = 2 + 3 + 0 + 6 + 4 15 1 2 3 0 6 4 λw = w =  , , , ,  15  15 15 15 15 15 

λ=

6.2.2 Proceso estocástico: Si el estado de un sistema dado puede cambiar con cierta probabilidad a intervalos fijos o aleatorios de tiempo se denominaproceso estocástico
Un proceso estocástico se define como una colección subindizada de variables aleatorias denotadas por {Xt}. Las variables X1, X2 y X3 pueden representar los niveles de inventario al finalizar los meses 1, 2 y 3 ó las marcas de productos preferidas por los clientes en las semanas 1, 2 y 3.

6.2.3 Espacio de estados: Se define al conjunto de todos los posibles valores asociados...
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • cadenas de markov
  • CADENA DE MARKOV
  • Cadenas de markov
  • cadenas de markov
  • Cadenas de markov
  • Cadenas de markov
  • cadena de markov
  • Cadenas de markov

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS