Cadenas De Markov (Info)

Páginas: 40 (9904 palabras) Publicado: 4 de octubre de 2011
NO ES UNA TAREA, ES INFORMACIÓN

Capitulo 3
Cadenas de Markov
3.1 Introducción a los Procesos Estocásticos

Condiciones de Observación

Proceso Estocástico ó Fenómeno aleatorio

Variables Interrelacionadas Una o más variables aleatorias Sistema en Estudio

Figura 3.1. Elementos de un sistema estocástico Podemos definir un Proceso Estocástico como una colección indexada de variablesaleatorias {Xt}, donde el índice t toma valores de un conjunto T dado, considerándose generalmente a t como un momento particular en el tiempo y a T el conjunto de instantes de tiempo en los cuales Xt tomará valores. Se define pues a Xt como una característica de interés que evoluciona en el tiempo de manera probabilística. Es bueno señalar aquí que a pesar de que frecuentemente se considera a loProbabilistico como opuesto a lo Deterministico, esta percepción del comportamiento de los sistemas no viene a ser del todo cierta cuando se trata de analizar Sistemas Complejos, con variables que evolucionen en el tiempo de una manera caótica. No necesariamente existe lo puramente probabilistico (viable de asociar racionalmente a cierta distribución de

39

probabilidad) ni lo puramentedeterministico (viable de determinar con certeza), existiendo, sobre todo en el análisis de sistemas dinámicos no lineales, comportamientos extraños, confusos, altamente sensibles a las condiciones iniciales, afectando incluso el poder asociar al comportamiento de las variables ciertas probabilidades empíricas subjetivas según la metodología bayesiana. Esta interesante discusión está por fuera delalcance de estas notas de clase, y el lector interesado puede consultar las múltiples fuentes bibliográficas sobre Teoría del Caos y sistemas dinámicos disponibles sin mayores restricciones en internet. Ahondemos un poco más en los conceptos fundamentales. Supóngase un proceso estocástico elemental con una variable aleatoria indexada {Xt}. Definiremos los componentes básicos de éste proceso estocásticoatendiendo al alcance de éste curso. Instantes de Tiempo “t” Corresponden a “momentos en el tiempo” donde probablemente se producen cambios de la variable aleatoria. En un experimento se puede decir que t Є T son los momentos de observación del fenómeno aleatorio, donde se verifican los cambios de estado de la variable aleatoria (ó variables aleatorias). Ejemplos de representación de losinstantes de tiempo son los siguientes: t0 = 0 t0 = Enero t0 = Enero t1 = 1 pm t2 = 2 pm …. t1 = Febrero t2 = Marzo …. t1 = Febrero t2 = Octubre ….

    

Instantes de Tiempo Discretos

t > 0 ó 2 < t < 10

Instantes de Tiempo Continuos dentro de un intervalo

Tenga en cuenta que los momentos t que se definan dentro del conjunto T de instantes de tiempo, son aquellos momentos donde nosinterese inspeccionar el estado de la variable. Como ejemplo, supóngase el estudio de la variable demanda de un producto, y que además dicha demanda puede variar mes a mes. Para estudiar este fenómeno aleatorio puedo establecer que los meses en los cuales quiero verificar el valor que toma la demanda son únicamente Enero, Febrero y Octubre, esto por motivo de que en los demás meses ésta

40 variable se comporta de manera estable y uniforme, siendo factible en esos otros meses determinar con algo de certeza cual será su valor. En este caso, estos tres meses serían entonces mis instantes de tiempo, y el proceso de demanda se consideraría un proceso estocástico ya que no sé cuál será la demanda en dichos meses con exactitud mas sí dispongo de cierta información probabilística ó esperodisponer de ella. Estado Un estado es un valor que toma la variable aleatoria en cada momento t (en otras palabras, en cada momento t el proceso estocástico {Xt} se encuentra en un determinado estado). Los estados son mutuamente excluyentes para cada t, y pueden ser finitos o infinitos, cualitativos o cuantitativos. En el curso consideraremos un número finito de estados. Ejemplo 1 Sea Xt = número de...
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • Cadenas de markov
  • cadenas de markov
  • CADENA DE MARKOV
  • Cadenas de markov
  • cadenas de markov
  • Cadenas de markov
  • Cadenas de markov
  • cadena de markov

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS