Markov

Páginas: 3 (568 palabras) Publicado: 9 de noviembre de 2010
INTRODUCCION

Los modelos ocultos de Markov, es un proceso por el cual se observa el comportamiento del sistema de manera indirecta pues los estados del sistema, en otras palabras permanecenocultos para el observador, es decir, no son directamente visibles los estados para el observador pero si son las variables influenciadas por el estado.

MARCO TEORICO

Modelos ocultos de Markov
1.Introduccion a los modelos de Markov
Con modelos ocultos de Markov se modelan sistemas que siguen una estadística Markoviana. Los sistemas markovianos tienen un comportamiento definido dentro de unconjunto de estados determinado. Se caracterizan por tener una evolución estocástica entre estados a lo largo del tiempo, es decir, el sistema transita de un estado a otro de un modo aleatorio. Paramodelar este comportamiento se emplean las cadenas de Markov, que son una serie de nodos (estados del sistema) enlazados mediante las probabilidades de transición entre dichos nodos. Se trata de unacadena con memoria ya que recuerda el último estado, cosa que condiciona las probabilidades de los estados futuros. En una cadena de Markov de primer orden cada estado implica una única salida del sistemamodelado.

Es decir un proceso de Markov es una secuencia X0, X1, X2, etc de variables aleatorias cuyo conjunto de sus posibles valores se denomina el espacio de estados.

El valor de Xn es elestado del proceso en el tiempo n. Se cumple que (propiedad de Markov):

P(Xn+1|X0, · · ·Xn) = (Xn+1|Xn)

En este caso las variables Xi solo pueden tomar un conjunto finito de valores. Una forma devisualizar un proceso es mediante un grafo dirigido. El arco que va del estado i al j estará etiquetado con P(Xn+1 = i|Xn = j) (probabilidad de transición). Este grafo se puede representar medianteuna matriz (matriz de transición)

2. Definición de Modelos Ocultos de Markov

Ejemplo de transición de estados en un modelo oculto de Márkov
x — estados ocultos
y — salidas observables
a —...
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • Markov
  • markov
  • Markov
  • Markov
  • Markov
  • markov
  • Estados de markov
  • Markov

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS