Cadenas de markov

Páginas: 15 (3692 palabras) Publicado: 2 de junio de 2011
Unidad IV
Cadenas de Markov

4.1. Introducción.
4.2 Caso de Aplicación.
4.3. Formulación de las cadenas de Markov.
4.4. Procesos estocásticos.
4.5. Propiedad de transición de 1er. orden.
4.6. Probabilidad de transición estacionaria de un solo paso.
4.7. Probabilidad de transición estacionaria de n pasos.
4.8. Probabilidad de transición estacionaria de estados estables.
4.9. Tiempos deprimer paso.
4.1 Introducción
[pic]
Una cadena de Markov es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria. "Recuerdan" el último evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Markov de lasseries de eventos independientes, como tirar una moneda al aire o un dado.
En los negocios, las cadenas de Markov se han utilizado para analizar los patrones de compra de los deudores morosos, para planear las necesidades de personal y para analizar el reemplazo de equipo.
El análisis de Markov, llamado así en honor de un matemático ruso que desarrollo el método en 1907, permite encontrar laprobabilidad de que un sistema se encuentre en un estado en particular en un momento dado. Algo más importante aún, es que permite encontrar el promedio a la larga o las probabilidades de estado estable para cada estado. Con esta información se puede predecir el comportamiento del sistema a través del tiempo.
La tarea más difícil es reconocer cuándo puede aplicarse. La característica más importante quehay que buscar en la memoria de un evento a otro.
 
4.2 Caso de Aplicación
[pic]
Aplicación a la administración: Planeación de Personal
El anális de transición puede ser útil al planear satisfacer las necesidades de personal. Muchas firmas emplean trabajadores de diferentes niveles de clasificación dentro de la misma categoría de trabajo. Esto es común para personal de confianza,oficinistas, obreros calificados, no calificados y personal profesional. La firma debe tener el número de empleados en cada nivel de clasificación para proporcionar la oportunidad de promoción adecuada, cumplir con las habilidades necesarias para el trabajo y controlar la nómina. Una planeación de personal a largo plazo apropiada requiere que se considere el movimiento de personas tanto hacia arriba en elescalafón de clasificación como hacia afuera de la organización. El análisis de Markov puede ayudar en este esfuerzo de planeación.
El movimiento de personal a otras clasificaciones puede considerarse como una cadena de Markov.  Se supone que hay tres clasificaciones; el grado 1 es la más baja. Además, los descensos se consideran raros y se omiten. El estado "salen" es absorbente, el cual incluyerenuncias, ceses, despidos y muertes. Por supuesto, todos los empleados finalmente alcanzan este estado.
Las transiciones del grado 1 al grado 2 y del grado 2 al grado 3 representan promociones. Como transiciones de probabilidad, están controladas por la firma, puede establecerse el nivel que la firma determine que es necesario para cumplir sus objetivos. Como ejemplo, supóngase que la firma tieneen este momento 30 empleados del 3, 90 empleados del grado 2 y 300 empleados del grado 1 y que desea mantener este nivel de empleados durante el próximo año. Por experiencia, se espera que salgan el 30 % de los empleados de grado 1 al año, el 20 % de los empleados de grado 2 y el 10 % de aquellos que están en el grado 3. Si la política es contratar sólo en los niveles de clasificación más bajos,cuántos se deben contratar y cuántos se deben promover el siguiente año para mantener estables los niveles ?.
Este problema puede resolverse sin el análisis de Markov, pero el modelo es útil para ayudar a conceptualizar el problema. Como se trata sólo de un ciclo, se usa el análisis de transición. El análisis comienza con el grado más alto. No se hacen promociones pero el 10 %, o sea, 3, sale....
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • cadenas de markov
  • CADENA DE MARKOV
  • Cadenas de markov
  • cadenas de markov
  • Cadenas de markov
  • Cadenas de markov
  • cadena de markov
  • Cadenas de markov

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS