Cadenas De Markov

Páginas: 26 (6427 palabras) Publicado: 8 de mayo de 2015



Cadenas de Markov y Procesos markovianos de decisión
1. INDAGUE EN QUÉ CONSISTEN LAS CADENAS DE MARKOV
Las cadenas de markov son modelos probabilísticos que se usan para predecir la evolución y el comportamiento a corto y a largo plazo de determinados sistemas.
Ejemplos: reparto del mercado entre marcas; dinámica de las averías de máquinas para decidir política de mantenimiento; evolución deuna enfermedad.
Una Cadena de Markov (CM) es:
Un proceso estocástico
Con un número finito de estados (M)
Con probabilidades de transición estacionarias
Que tiene la propiedad markoviana
2. ¿CUÁLES SON SUS APLICACIONES EN LA EMPREA?
Es posible aplicar este principio a campos tan diferentes como la meteorología, astrología, biología… o a las empresas (entre otras muchas áreas, por supuesto).
En loque nos interesa, se ha aplicado para analizar patrones de morosidad, necesidades de personal, prever defectos en maquinaria, etc… (os dejo el enlace a un documento bien detallado con un ejemplo práctico aplicado a la contabilidad donde incluso se utiliza la ley de Chapman-Kolmogórov).
Existen varios tipos de cadena según el número de estados esperados, siendo más sencillo aplicar una cadena denúmero finito. Todo depende de las probabilidades de transición en “x” pasos.
Personalmente he jugado con este tipo de cadenas por la capacidad de mostrar datos futuros con criterio y en base a la historia de la propia empresa. Por ejemplo, en base a ratios de rotación de personal (del que tendré que hablar algún día) podemos estipular de forma aproximada las necesidades a largo plazo de medios,entrevistas, formación interna y bajas que se producirán en el futuro según lo acontecido en los últimos 5 años ( por ejemplo ). La previsión ayuda a la planificación y al ser un método matemático con “memoria” a largo plazo es un aliado perfecto para un empresario con visión estratégica.
El problema de estas cadenas radica en la dificultad de su cálculo en casos donde el número de estados es muygrande (por eso recomiendo realizarlo en base a ratios relevantes) y en la búsqueda de factores que respondan a las “propiedades markovianas”.
Además, requiere de personal cualificado para crear un sistema eficiente para esos casos. Para ello se puede hablar con un informático ya que deberá realizarse una base de datos y este deberá estudiar las fórmulas para aplicarlas de la mejor manera posible.

3.MODELO DE LA APLICACIÓN DE CADENA DE MARKOV
INTRODUCCIÓN



El presente trabajo pretende mostrar la aplicación de las cadenas de Markov en el proceso industrial de fabricación de tejas de asbesto cemento en la empresa Empresa S.A.

ANTECEDENTES



Empresa es una empresa del grupo Eternit Bélgica dedicada a generar soluciones a la industria de la construcción con sus productos de asbesto cemento.En esta empresa es una prioridad el manejo del Scrap(desperdicio) en el proceso productivo debido a que su acumulación sé convierte en un problema ambiental y a su vez una carga en el costo final del producto.

El proceso productivo se puede describir así:
1. Humectación: lugar donde se combinan las materias primas para generar la mezcla con la que se elaboraran las tejas de asbesto cemento.
2.Fabricación: lugar donde la mezcla del proceso anterior se le da forma de teja.
3. Desmoldeo: lugar donde la teja es fraguada y separada de los moldes y apilada en estibas.
4. Almacén de producto terminado: lugar donde las tejas provenientes de desmoldeo terminan su ciclo de fraguado.
5. Scrap: lugar donde se almacenan los desperdicios o defectuosos generados por los procesos anteriores.


Iconicodel proceso:
HUMETACIÓN



FABRICACIÓN
DESMOLDEO
APT

SCRAP



OBJETIVOS


GENERAL:
Aplicar la teoría fundamental de cadenas de Markov para determinar el comportamiento de la materia prima a futuro en cada proceso.

ESPECIFICOS:
Mostrar que el proceso es una cadena de Markov.
Construir la matriz de transición.
Mostrar que los estados son accesibles.
Mostrar que los estados se comunican....
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • cadenas de markov
  • CADENA DE MARKOV
  • Cadenas de markov
  • cadenas de markov
  • Cadenas de markov
  • Cadenas de markov
  • cadena de markov
  • Cadenas de markov

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS