cadenas de markov

Páginas: 6 (1375 palabras) Publicado: 2 de marzo de 2014
ISSN 0124-4361/Vol.5/No.9/Año 2007

CADENAS DE MARKOV, UNA SENCILLA
APLICACION
GUSTAVO MESA*

Resumen
En este trabajo se explica un tópico específico de las cadenas de Markov, un campo de
aplicación que combina los elementos de la teoría de probabilidad con el álgebra
matricial.
Abstrac
In this work explains a specific topic of the chains of Markov, an application field that
combinesthe elements of the theory of probability with matrix algebra

PALABRAS CLAVES
Cadena Markov, Algebra Matricial, Probalidades
KEY WORD
Chain Markov, Álgebra Matricial, Probalidades

1. Introducción
Quizás algunos de los lectores de este artículo en un principio piensen que desconocen
situaciones asociadas a este tema, ya sea por que su campo no es el de las
probabilidades o el delálgebra de matrices; pero yo estoy seguro que por lo menos habrá
escuchado en algún momento las predicciones de algún meteorólogo a través de la radio
o la televisión, o durante su vida crediticia ha tenido que estar pendiente de una
certificación de Data-crédito para el estudio y aprobación de un crédito. Analicemos lo que
en ambos casos se da: el meteorólogo seguramente consulta las imágenessatelitales;
pero también sabe que el clima en un día del año corresponde de alguna manera a un
fenómeno aleatorio, es así como hoy puede ser soleado (temperaturas altas), ser lluvioso
o fresco sin lluvia, y que el clima estaría en una y solo una de estas tres posibilidades y
que la ocurrencia de una de ellas excluye a las demás. También es fácil ver que la
probabilidad de que en un díaespecífico llueva, o sea soleado o fresco sin lluvia, está
muy relacionada con lo ocurrido al clima el día anterior. En la situación de Data-crédito las
*

Docente Universidad Cooperativa de Colombia sede Pereira. Facultad de Ciencias Contables y
administrativas. Licenciado en Matemática. Especialista en Docencia Universitaria. Investigador
principal del proyecto CONADI “Optimización en procesos deproducción y asignación de recursos
en las empresas del sector confección”. gustavomesavi@yahoo.es

ISSN 0124-4361/Vol.5/No.9/Año 2007

entidades financieras saben que sus clientes pueden ser fácilmente clasificados de
acuerdo al manejo de sus créditos en excelentes, buenos o deficientes, y que si un cliente
es clasificado en alguna de ellas en un mes específico, entonces se excluye delas otras
posibilidades; y que estas clasificaciones obedecen a cierta aleatoriedad. Se puede
pensar que si un cliente en cierto mes es clasificado como deficiente, lo más seguro es
que su crédito sea negado ya que se piensa que para el mes siguiente es muy probable
que su comportamiento no cambie, lo que deja ver que la probabilidad de estar en alguno
de estos estados (excelente, bueno,deficiente), un mes cualquiera depende de la
clasificación del mes anterior, y que es razonable en el análisis del crédito concluir que un
manejo deficiente en cierto mes, asegura un mal manejo en el mes siguiente. En los
ejemplos expuestos se observa que se está haciendo proyecciones de ciertos
comportamientos con base a lo que está ocurriendo o ha ocurrido en un periodo anterior.
Con lasCadenas de Markov podremos hacer predicciones de comportamientos futuros
como las que se observaron en las situaciones anteriores. Así, si llamamos estados a
cada una de estas posibilidades que se pueden presentar en un experimento o situación
especifica, entonces podemos visualizar en las Cadenas de Markov una herramienta que
nos permitiría conocer a corto y largo plazo los estados en que seencontrarían en
periodos o tiempos futuros y tomar decisiones que afectarán o favorecerán nuestros
intereses.

2. ¿Qué es una cadena de Markov?
Llamemos E1, E2…, Ek los estados (resultados) exhaustivos y mutuamente
excluyentes de un experimento aleatorio en cualquier tiempo. Inicialmente en el
tiempo t0, el sistema puede estar en cualquiera de estos estados. Sea a0j (j = 0, 1,.
. ., k) la...
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • cadenas de markov
  • CADENA DE MARKOV
  • Cadenas de markov
  • cadenas de markov
  • Cadenas de markov
  • Cadenas de markov
  • cadena de markov
  • Cadenas de markov

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS