Cadenas De Markov

Páginas: 6 (1497 palabras) Publicado: 29 de enero de 2013
V
V
UNIVERSIDAD PANAMERICANA
Campus Guadalajara

Investigación de Operaciones

“Tarea Segundo Parcial”
Análisis de la bolsa con cadenas de Markov

Titular de Asignatura.- Emilio Zamudio Gutiérrez

ALUMNO.-
Samuel Pablo Ramos Sánchez

Fecha de entrega.- 29/09/11
Al haber analizado el comportamiento de las acciones de AEROMEXICO, yo como un usuario técnico puedo dirigirme a usted,para ofrecerle un paquete de decisiones posibles a tomar de acuerdo al comportamiento de dicha acción, el caso de que usted desee manejar algunas operaciones con las mismas.
Confirmando datos, tenemos que:
1.1
Estados | Condición |
0 | -0.3% <= Variación <= 0.3% |
1 | 0.3% < Variación <= 1.5% |
2 | -1.5% <= Variación < -0.3% |
3 | 1.5% < Variación < 5% |
4| -5% < Variación < -1.5% |
5 | Variación > 5% |
6 | Variación < -5% |

1.2
| MATRIZ DE TRANSICION |
| 0 | 1 | 2 | 3 | 4 | 5 | 6 |
0 | 0.18 | 0.18 | 0.27 | 0.36 | 0 | 0 | 0 |
1 | 0.4 | 0.1 | 0.1 | 0.2 | 0.2 | 0 | 0 |
2 | 0.3 | 0.2 | 0.2 | 0.1 | 0.2 | 0 | 0 |
3 | 0 | 0.17 | 0.17 | 0.42 | 0.25 | 0 | 0 |
4 | 0.18 | 0.18 | 0.09 | 0 | 0.45 | 0 | 0.09 |
5 | 0 | 0 |0 | 0 | 0 | 0 | 0 |
6 | 0 | 1 | 0 | 0 | 0 | 0 | 0 |

1.3
RESULTADO |
PI0= | 20% |
PI1= | 18% |
PI2= | 16% |
PI3= | 21% |
PI4= | 22% |
PI5= | 0% |
PI6= | 2% |
Donde la tabla 1.1 nos indica los estados posibles en los que se puede encontrar el precio de una acción con respecto al precio del día anterior. Estos estados nos indican directamente que tanta variación en el preciode la acción se está dando a lo largo de los días estudiados.
La tabla 1.2 nos indica la probabilidad de que el sistema pase de un estado a otro, donde el sistema lo podemos ver como la variación en sí, o sea, podemos decir que sabemos la probabilidad de que ya con un precio, hacía donde es más probable que se mueva el sistema, o sea que el precio suba o baje, incluso también que se mantenga enun rango de mínima variación (estado 0).
Por último la tabla 1.3 nos indica la probabilidad de que el sistema, se encuentre en cualquiera de los estados (0,1.2,3,4,5,6) sin importar de qué estado se venga, o sea, se puede ver como un pronóstico para cualquier día que se quiera estudiar.
Analizando las pasadas tablas nos encontramos con que podemos crear un criterio de compra-venta de acciones.Este criterio lo vamos a realizar de acuerdo a probabilidades, o sea, no es completamente seguro, pero sin duda alguna vamos a tener una mejor precisión en nuestras decisiones debido a que sabemos cuáles son los comportamientos más probables a suceder de acuerdo a las acciones correspondientes, y no caemos en un juego de análisis teórico en donde solamente se utiliza el conocimiento a través delas acciones para tomar las decisiones correspondientes, dejando atrás el razonamiento matemático y probabilístico.
-El criterio será el siguiente:
De acuerdo a las probabilidades obtenidas en el estudio se tiene que,
Tabla 1.4
| MATRIZ DE TRANSICION | |
| 0 | 1 | 2 | 3 | 4 | 5 | 6 | Acción a tomar |
0 | 0.18 | 0.18 | 0.27 | 0.36 | 0 | 0 | 0 | PERMANECER |
1 | 0.4 | 0.1 | 0.1 |0.2 | 0.2 | 0 | 0 | VENDER |
2 | 0.3 | 0.2 | 0.2 | 0.1 | 0.2 | 0 | 0 | PERMANECER |
3 | 0 | 0.17 | 0.17 | 0.42 | 0.25 | 0 | 0 | PERMANECER |
4 | 0.18 | 0.18 | 0.09 | 0 | 0.45 | 0 | 0.09 | VENDER |
5 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | - |
6 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | PERMANECER |
| | | | | | | | |
| |   | Probabilidad más alta por fila | |
Donde la tabla 1.4 nos indica queacción realizar de acuerdo al estado en el que nos encontremos en un día actual, por ejemplo, si nos encontramos en el estado 0 el día de hoy, lo más probable que suceda es que el día de mañana nos encontraremos en un estado 3, por lo que el precio de la acción subirá y nuestro valor del portafolio de inversión subirá.
Y así sucesivamente para cada estado definido. En el caso en donde se...
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • cadenas de markov
  • CADENA DE MARKOV
  • Cadenas de markov
  • cadenas de markov
  • Cadenas de markov
  • Cadenas de markov
  • cadena de markov
  • Cadenas de markov

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS