Cadena markov

Páginas: 3 (675 palabras) Publicado: 8 de noviembre de 2013











Introducción:

La cadena de markov es un proceso o sucesión de eventos que se desarrolló en el tiempo en el cual el resultado en cualquier etapa contiene algún elementoque depende de un proceso al azar se denomina un proceso aleatorio o proceso estocástico.

Son modelos probabilísticos que se usan para predecir la evolución y el comportamiento a corto y a largoplazo de determinados sistemas.


















Definición de cadenas de Markov.

Es una herramienta para analizar el comportamiento y el gobierno de determinados tipos deprocesos estocásticos, esto es, procesos que evolucionan de forma no determinista a lo largo del tiempo en torno a un conjunto de estados. Por tanto, representa un sistema que varía a lo largo del tiempo.Siendo cada cambio una transición del sistema. Dichos cambios no están predeterminados.



Caso Práctico.

A continuación utilizaremos la cadena de Markov, para determinar la preferencia de lacompra & consumo de pasta dental tomando como preferencias las siguientes marcas:
Dento
Colgate
Oral B
Para lo cual tomamos como objeto de estudio para saber la preferencia de compra & consumo alos estudiantes de la carrera de Administración y Sistemas de la Facultad de Ciencias Administrativas y Contables de la UNIVERSIDAD PERUANA LOS ANDES.

Desarrollo de la prueba piloto.
Formulaciónde la pregunta para conocer la cantidad de alumnos a encuestar.
¿Usted utiliza pasta dental para su aseo personal?


SI

=
9
0.9






NO
=
1
0.1

10 1.0
Dadoque, la población no se conoce entonces utilizaremos la siguiente fórmula:




p: Proporción de la población que tiene interés que nos interesa medir.
q: Proporción de la población que no tienecaracterísticas de interés.
N: Tamaño de la población.
a: Grado o nivel de confianza.
n: Tamaño de la muestra.

Elección del nivel de confianza.


a %
90
95
98
99
Z
1.645
1.96
2.33...
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • cadenas de markov
  • CADENA DE MARKOV
  • Cadenas de markov
  • cadenas de markov
  • Cadenas de markov
  • Cadenas de markov
  • cadena de markov
  • Cadenas de markov

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS