Teoria de Control Optimo
Introduccion
El objetivo de la teoría del control óptimo en sentido amplio, es el estudio de los sistemas dinámicos reales, construyendo modelos matemáticos abstractos que, por una parte expliquen el sistema y, por otra, permitan regular la evolución del mismo mediante la adopción de decisiones adecuadas: se trata de intentar optimizar el comportamiento de un sistema,cuando ello sea posible, es decir, conseguir que un sistema funcione del modo “más conveniente” respecto a algún criterio previamente establecido..
El problema central de cualquier intento de optimización dinámica es “la búsqueda de un control que maximice o minimice un criterio representativo de la eficiencia del sistema”
La solución de un problema de optimización dinámica debe extendersesobre un período de tiempo, no se trata de determinar una sola magnitud óptima, sino una secuencia de acciones óptimas, una para cada punto t e[0,T] -o bien para cada subperiodo dentro del planificado en tiempo discreto- Tal solución tendrá por tanto la forma de trayectoria óptima en el tiempo y*(t) para cada variable de elección, detallando el mejor valor de dicha variable, para hoy, para mañana etc.hasta los sistemas reales construyendo modelos matemáticos abstractos que, por una parte expliquen el sistema y, por otra, permitan regular la evolución del mismo mediante la adopción de decisiones adecuadas, decisiones óptimas.
La resolución matemática de un problema de optimización dinámica permite elegir cursos o trayectorias temporales para ciertas variables llamadas variables de control,dentro de una clase dada que se denomina conjunto de control. La elección de estas trayectorias temporales para las variables de control supone, a través de una serie de ecuaciones diferenciales -ecuaciones de movimiento- cursos temporales para ciertas variables que describen el sistema, llamadas variables de estado. Las trayectorias o cursos temporales de las variables de control se eligen de modoque maximicen un funcional dado, que depende tanto de las variables de estado como de las de control, denominado funcional objetivo. Planteado de esta forma el problema se denomina problema de control.
El principio del máximo
La clave para la teoría de control óptimo es una condición necesaria de primer orden conocido como el principio del máximo1
El enunciado del principio del máximoimplica un enfoque que es afín a la función lagrangiana y a la variable multiplicadora de Lagrange. Para los problemas de control optimo, estas se conocen como la función hamiltoniana y la variable de coestado, conceptos que ahora vamos a desarrollar.
El hamiltoniano
Hay tres variables: el tiempo (t), la variable de estado (y) y la variable de control (u). Ahora se introduce una nuevavariable, conocida como la variable de coestado y la denotamos como (t). Al igual que el multiplicador de Lagrange, la variable de coestado mide el precio sombra de la variable de estado.
La variable de coestado se introduce en el problema de control óptimo vía una función hamiltoniana. El Hamiltoniano se define como:
H (t, y, u,) = F (t, y, u) + (t) f (t, y, u)
Donde H denota el Hamiltoniano yes una función de cuatro variables: t, y, u,
Para determinar la senda de las variables de control y estado que resuelven el problema, a partir de la función Hamiltoniana se emplea una condición de primer orden, denominado principio del máximo.
Esta condición requiere que escojamos a la variable control (u) de modo que maximice al hamiltoniano H para todos los instantes de tiempo.
El enunciadodel principio máximo también estipula como la forma en que y, deben cambiar respecto al tiempo, por medio de una ecuación de movimiento para la variable de estado y coestado.
Se identifican las diferentes condiciones del principio del máximo como sigue:
a) H (t,y,u*,) ≥ H (t,y,u,) sujeto a u(t) 2
b) y= (ecuación de estado)
c) = -...
Regístrate para leer el documento completo.