markov

Páginas: 7 (1523 palabras) Publicado: 18 de marzo de 2013
Introducción
El análisis de Markov tuvo su origen en los estudios de A. A. Markov (1906-1907) sobre la secuencia de los experimentos conectados en cadena, en los intentos para describir matemáticamente los fenómenos físicos conocidos como movimiento browniano. En los años treinta y cuarenta W. Feller, W. Doeblin, P. Levy, J. L. Doob y otros desarrollaron la teoría general de los procesos deMarkov.
Hoy día, el análisis de Markov se define como una manera de analizar el movimiento actual de alguna variable en un esfuerzo por predecir o pronosticar el movimiento futuro de la misma. Este método ha pasado a ser una herramienta de investigación de mercados para examinar y pronosticar el comportamiento de los clientes según el punto de vista de su lealtad a una marca y de la forma decambiar a otras. La principal suposición es que los clientes no cambian de una marca a otra al azar, sino que con el futuro cambian de marca, de tal forma que esto refleja sus selecciones del pasado. Debe decirse, sin embargo, que las aplicaciones de esta técnica no se limitan al mercadeo.
Hipótesis
“Una de las funciones del análisis de Markov es para pronosticar las participaciones futuras delmercado”
Desarrollo
Los problemas del análisis de Markov son de diferente orden. Los de primer orden se consideran sólo las selecciones de marca hechas durante el periodo actual a fin de determinar las probabilidades de selección del siguiente periodo. En un análisis de Markov de segundo orden supone que las selecciones para una marca específica en el periodo venidero dependen de las selecciones demarca hechas por los clientes en los dos últimos periodos. De modo semejante, en un proceso de Markov de tercer orden se analizan las preferencias de los clientes durante los últimos tres periodos para pronosticar su comportamiento respecto a marcas particulares en el siguiente periodo. Además se pueden formular hasta cadenas Markov de alto orden para pronosticar los cambios futuros en losclientes.
Como el análisis de Markov de primer orden ha resultado un método confiable para pronosticar las futuras preferencias de los clientes hacia ciertas marcas debido a que la matriz de probabilidades de transición permanece estable o casi estable durante cierto periodo, solo nos ocuparemos detalladamente del primer orden.


Desarrollo de la matriz de probabilidades de transición.
Para ilustrarel proceso de Markov se presenta un problema en el cual los estados de las actividades son marcas y las probabilidades de transición pronostican la probabilidad de que los cliente cambien de una marca a otra.
Supóngase que la muestra inicial de consumidores se compone de 1,000 personas que responden a la encuesta, distribuidas en cuatro marcas A, B, C y D. Los datos obtenidos se arrojan en lasiguiente tabla:
Tabla1.- intercambio de clientes durante un mes.


CAMBIOS DURANTE EL PERIODO

Marca
PERIODO 1, NUMERO DE CLIENTES
GANANCIAS
PERDIDAS
PERIODO 2, NUMERO DE CLIENTES
A
220
50
45
225
B
300
60
70
290
C
230
25
25
230
D
250
40
35
255

1000
175
175
1000
De acuerdo con la tabla1, la marca A perdió 45 clientes con una retención de 175 (220 –45). Para determinar el factor de probabilidad del “componente permanente” o grupo que no ha cambiado de marca, el número de clientes retenidos en el periodo bajo revisión se divide entre el número de clientes al comienzo del periodo, que da como resultado una probabilidad de transición de 0.796 (175 / 220) para la marca A. Las probabilidades para B, C y D se calcularon con los resultados 0.767,0.891 y 0.860, respectivamente.
A fin de complementar la matriz de probabilidades de transición para los clientes que cambian de marca es necesario determinar las ganancias y pérdidas entre las marcas, lo cual se muestra en la siguiente tabla:
Tabla2.- cambio de marca, ganancias y pérdidas.

PERIODO 1, NUMERO DE CLIENTES
Ganancias de

PERDIDAS A FAVOR DE
PERIODO 2, NUMERO DE CLIENTES...
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • Markov
  • markov
  • Markov
  • Markov
  • Markov
  • markov
  • Estados de markov
  • Markov

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS