CADENAS DE MARKOV CADENAS ABSORBENTES

Páginas: 6 (1285 palabras) Publicado: 13 de junio de 2015



























CADENAS DE MARKOV
(CADENAS ABSORBENTES)

































CADENAS DE MARKOV
CADENAS ABSORBENTES

Muchas aplicaciones interesantes de las cadenas de Markov incluyen cadenas en las que algunos de los estados son absorbentes y el resto son transitorios. A esas cadenas se les llama cadenas absorbentes. Siempre que una cadena de Markov tiene estadosabsorbentes no calculamos probabilidades de estado estable debido a que se comienza en un estado transitorio, entonces finalmente se está seguro de salir del estado transitorio y terminar en uno de los estados absorbentes. Con estados absorbentes presentes, estamos interesados en conocer la probabilidad de que una unidad termine en cada uno de los estados absorbentes.

Para ver por qué nos interesan lascadenas absorbentes, describiremos las siguientes dos:


Ejemplo 1: Cuentas por cobrar

El estado de cuentas por cobrar en una empresa se modela con frecuencia como cadena absorbente de Markov. Entonces, al principio de cada mes, se puede clasificar cada cuenta en uno de los siguientes estados específicos:

Estado 1: Cuenta nueva.
Estado 2: El pago de la cuenta tiene un mes de atraso
Estado 3:El pago de la cuenta tiene dos meses de atraso
Estado 4: El pago de la cuenta tiene tres meses de atraso
Estado 5: La cuenta ha sido pagada.
Estado 6: La cuenta se borra como deuda incobrable

Supongamos que los últimos datos indican que la siguiente cadena de Markov describe cómo cambia el estado de una cuenta de un mes al siguiente:



Por ejemplo, si al principio de un mes una cuenta lleva dosmeses de vencida, hay 40% de probabilidades de que no se pague al principio del mes siguiente y, por lo tanto, que tenga tres meses de retraso y una probabilidad de 60% de que se pague la cuenta.

Para simplificar el ejemplo, supondremos que después de tres meses, la cuenta o se cobra o se considera incobrable.

Una vez que una deuda es pagada o se considera incobrable, se cierra y no se tienenmás transiciones. Por lo tanto. Pagada e Incobrable son estados absorbentes. Como toda cuenta al final o se paga o se considera incobrable, las cuentas Nueva, 1 mes, 2 meses y 3 meses son estados transitorios. Por ejemplo, una cuenta con 2 meses de atraso puede seguir la trayectoria 2 meses-cobrada, pero no hay regreso posible de cobrada a 2 meses.

Una cuenta nueva normal será absorbida ya seacomo pagada o como incobrable. Una pregunta de mayor interés es:
¿Cuál es la probabilidad de que una cuenta nueva finalmente se pueda cobrar?

Más adelante en esta sección se encontrará la respuesta.


Ejemplo 2: Planificación de personal de un estudio de abogados

Un estudio de abogados emplea a tres categorías de abogados: principiantes, con experiencia y socios. Durante un año determinado hayuna probabilidad 0.15 que un abogado principiante sea ascendido a abogado con experiencia y una probabilidad 0.05 que deje la empresa. También, hay una probabilidad 0.20 que un abogado con experiencia sea ascendido a socio y una probabilidad 0.10 que deje la empresa. También hay una probabilidad 0.05 que un socio llegue a dejar la empresa. El estudio nunca degrada a un abogado.

Surgen muchaspreguntas interesantes que la empresa podría contestar. Por ejemplo:

¿Cuál es la probabilidad que un abogado principiante recién contratado se vaya antes de ser socio?
En promedio, ¿cuánto tiempo permanece un abogado principiante recién contratado con la empresa?

Las respuestas se deducirán después en esta sección.

Modelaremos la trayectoria de un abogado como cadena absorbente de Markov con lasiguiente matriz de probabilidad de transición:

Pr: Principiante
Ex: Experimentado
As: Asociado
SNSoc: Sale como no Asociado
SSoc: Sale como Asociado




Los dos últimos estados son estados absorbentes y los demás son transitorios. Por ejemplo. Experimentado es estado transitorio, porque hay una trayectoria de Experimentado a Sale sin ser socio, pero no hay trayectoria que regrese de: Sale...
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • Cadenas de markov
  • cadenas de markov
  • CADENA DE MARKOV
  • Cadenas de markov
  • cadenas de markov
  • Cadenas de markov
  • cadena de markov
  • Cadenas de markov

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS