Aplicacion Cadenas De Markov

Páginas: 7 (1707 palabras) Publicado: 20 de octubre de 2011
UNIVERSIDAD DE GUADALAJARA
2011
MARIELA S. MARTÍNEZ ORTEGA
ANA GONZÁLEZ VILLANUEVA
JOSÉ ANDRÉS RAIGOZA RODRÍGUEZ

21/06/2011
CENTRO UNIVERSITARIO DEL SUR
NEGOCIOS INTERNACIONALES
MAESTRA: MARTHA LETICIA RUJANO SILVA
CADENAS DE MARKOV

Mi Ranchito Restaurant
Carretera Cd. Guzmán-Zapotiltic km 2.5
Tel. 01 (341) 4106607

Julio 2011
Estudiantes de sextosemestre de la Lic. en Negocios Internacionales. Mariela S. Martínez Ortega, Ana R. González Villanueva, José Andrés Raygoza Rodríguez.
Aplicación de las cadenas de Markov, evaluación del entorno publicitario en Mi Ranchito Restaurant. Enero-febrero, 2011,
Universidad de Guadalajara, Centro Universitario del Sur, Jalisco, México

Universidad de Guadalajara
Centro Universitario del Surwww.cusur.udg.mx

RESUMEN
Proponemos un método para la estimación de probabilidades en base al aumento en la concurrencia de clientes, aumento de los ingresos causados por las ventas, y lo aplicamos en “Mi Ranchito Restaurant”. El método emplea cadenas de Markov con base en proyección y análisis de aplicación de publicidad para aumentar la afluencia de clientes. Según nuestro análisis basándonosen los meses enero y febrero del presente año sin utilizar publicidad, realizamos una proyección futura de los dos meses subsecuentes utilizando publicidad. Lo cual se reflejo favorablemente en el aumento del número de clientes y la cantidad de ingresos causados por las ventas.
ABSTRACT
PALABRAS CLAVE
1.-INTRODUCCIÓN
EL análisis de Markov tuvo su origen en los estudios de A.A.Markov (1906-1907)sobre la secuencia de los experimentos conectados en cadena, y en los intentos para describir matemáticamente los fenómenos físicos conocidos como movimiento browniano. La primera construcción matemática correcta de un proceso de Markov con trayectorias continuas se debe a N. Wiener en 1923. La teoría general de los procesos de Markov se desarrollo en las décadas de 1930, 1940 por A.N.Kolmagoron, W. Feller, W. Doeblen, P. Levy, J.L. Doob y otros.
Las cadenas de Markov se basan en un proceso estocástico donde tienen la propiedad particular de que las probabilidades que describen la forma en que el proceso evolucionara en el futuro dependen solo del estado actual en que se encuentra el proceso y, por lo tanto, son independientes de los eventos ocurridos en el pasado.
Un procesoestocástico se define como una colección indexada (Xt), donde el índice t toma valores de un conjunto T dado. Con frecuencia T se toma como el conjunto de enteros no negativos y Xt representa una característica de interés mensurable en el tiempo t.
Los procesos estocásticos son de interés para describir el comportamiento de un sistema en operación durante algunos periodos.
Es necesario hacer algunossupuestos sobre la distribución conjunta de X0, X1,… para obtener resultados analíticos. Un supuesto que conduce al manejo analítico es que el proceso estocástico es una cadena de Markov, que tiene la siguiente propiedad esencial: se dice que un proceso estocástico (Xt) tiene la propiedad markoviana P (Xt+1=jlX0=k0, X1=k1,…,Xt-1=kt-1, Xt=i) = P(Xt+1=jlXt=i), para t=0,1 …y toda sucesión i, j, k0, k1,…,kt-1.
Esta propiedad markoviana establece que la probabilidad de cualquier “evento” futuro dados cualquier “evento” pasado y el estado actual Xt=i, es independiente de los eventos pasados y solo depende del estado actual del proceso.
Un proceso estocástico {Xt} (t=0,1…) es una cadena de Markov si presenta la propiedad markoviana.
Las propiedades condicionales P {Xt+1 = j | Xt=i} de unacadena de Markov se llaman probabilidades de transición (de un paso). Si para cada i y j, P {Xt+1=j | Xt=i} = P {X1=j|X0=i}, para toda t=1,2,…, entonces se dice que las probabilidades de transición (de un paso) son estacionarias. Así, tender probabilidades de transición estacionaria implica que las probabilidades de transición no cambian con el tiempo. La existencia de probabilidades de transición...
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • aplicacion de las cadenas de markov en la musica
  • Aplicacion cadenas de markov
  • Aplicación de Cadenas Markov
  • Cadenas de markov
  • cadenas de markov
  • CADENA DE MARKOV
  • Cadenas de markov
  • cadenas de markov

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS