Cadenas de markov

Páginas: 2 (437 palabras) Publicado: 13 de noviembre de 2011
1. ¿Qué es una matriz estocástica?
Es una matriz en la que todos sus elementos tienen un valor comprendido entre 0 y 1. Además la suma de los elementos de cada columna de una matriz estocástica esigual a 1. Fíjate que se tienen que cumplir las dos condiciones y no basta con una sola.
a. ¿Con qué otros nombres se le conoce?
i. Matriz de probabilidades de transiciónii. Matriz de Markov
2. Defina los siguientes términos:
* Matriz de transición: Matriz cuadrada en donde la potencia de sus componentes respectivamente es positiva. (algunos componentes de lamatriz es positiva)
* Matriz regular de transición: cuando todos los elementos de una potencia son positivos. Como ejemplo, tomaremos nuestra matriz estocástica de la diapositiva anterior laelevamos al cuadrado y las características son:
* la matriz (p) tiene un vector de probabilidad fijo (t) cuyos componentes son todos positivos
* la sucesión de potencias de la matriz: p, p2,p3, se aproxima a la matriz T cuyas filas son cada punto fijo (t)
* si p es un vector de probabilidad, entonces la sucesión de vectores: pP, pP2, pP3, se aproxima al punto fijo t
* Vectorde probabilidad: el vector de probabilidad son aquellos que sus elementos son números positivos y al sumarlos el resultado es 1
* Vector de estado : es un vector que describe la distribución delos objetos estudiados en un factor llamado k
* Vector de estado estacionario: Vector en el cual su estado es x y se le aplica a una propiedad Px = x

3. ¿Qué es una cadena de Markov o procesode Markov?
Una cadena de Markov es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. Es decir que el último evento condiciona lasposibilidades de los eventos futuros. En los negocios, las cadenas de Markov se usan para analizar los patrones de compra de los deudores, para planear las necesidades de personal y para analizar el...
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • cadenas de markov
  • CADENA DE MARKOV
  • Cadenas de markov
  • cadenas de markov
  • Cadenas de markov
  • Cadenas de markov
  • cadena de markov
  • Cadenas de markov

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS