programacion dinamica
aticas Vol. 7 No. 2 (1999), pp. 167–185
´
Control Optimo
Determinista
via Programaci´
on Din´
amica
Deterministic Optimal Control via Dynamic Programming
Guillermo Ferreyra (ferreyra@math.lsu.edu)
Department of Mathematics
Louisiana State University
Baton Rouge, LA 70803, U.S.A.
Jes´
us Pascal (pascal@luz.ve)
Departamento de Matem´atica y Computaci´on
Facultad de Ciencias,Universidad del Zulia
Maracaibo, Venezuela.
Resumen
´
Este trabajo ofrece una introducci´
on a la Teor´ıa del Control Optimo
con varios ejemplos de aplicaciones pr´
acticas de esta teor´ıa a problemas
de ciencias e ingenier´ıa. Se hace ´enfasis en el m´etodo de la Programaci´
on
Din´
amica el cual, aplicado a problemas de control ´
optimo determinista,
produce una ecuaci´
on diferencial enderivadas parciales no lineal de
primer orden cuya soluci´
on es la funci´
on de valor del problema original.
Se incluye una demostraci´
on no rigurosa de este resultado (la cual sin
embargo puede volverse rigurosa utilizando conceptos m´
as avanzados
que los presentados en este trabajo). Finalmente se utiliza esta t´ecnica
para resolver expl´ıcitamente dos de los problemas planteados.
Palabras y FrasesClave: control ´
optimo, soluci´
on de viscosidad,
programaci´
on din´
amica.
Abstract
This paper offers an introduction to Optimal Control Theory and
several examples of practical applications of this theory to problems in
science end engineering. Emphasis is given to the dynamic programming method, which applied to deterministic optimal control problems
Recibido 1999/03/03. Aceptado 1999/05/23.MSC (1991): Primary 49-01; Secondary 49L20, 49L25.
168
Guillermo Ferreyra, Jes´
us Pascal
produce a first order nonlinear partial differential equation whose solution is the value function of the original problem. A non-rigorous proof
of this fact is included (but the proof can be made rigorous using deeper
concepts than those defined in this paper). Finally the technique is used
to explicitlysolve two of the stated problems.
Key words and phrases: optimal control, viscosity solutions, dynamic programming.
1
Introducci´
on
La idea de control puede ser expresada como el proceso mediante el cual se
ejerce una influencia sobre el comportamiento de un sistema din´amico (que
var´ıa con el tiempo) para alcanzar un prop´osito previamente fijado. Una
clase importante de modelos de sistemasdin´amicos controlados, a los cuales
se les dice simplemente sistemas de control, es la representada por la ecuaci´on
diferencial en Rn
x(t)
˙
= f (x(t), u(t)),
x(t0 ) = x0 ,
(1)
donde la din´amica f es una funci´on que satisface condiciones adecuadas y el
control u(·) pertenece a una familia especial U de funciones con valores en
un subconjunto U de Rn . Una vez elegido un control u ∈ U, elsistema (1)
determina una trayectoria o estado x(·) con condici´on inicial x0 en el momento
t0 .
Por ejemplo, si se desea controlar la trayectoria de un avi´
on, con condici´on
inicial x(t0 ), para lograr una condici´on final x(tf ), el estado del sistema x(·)
podr´ıa representar la posici´on y velocidad del avi´
on y el control u(·) representar´ıa la fuerza o aceleraci´on necesaria para lograr talobjetivo. Con esta
formulaci´on, este ejemplo representa un problema para la Teor´ıa de Control,
la cual hace ´enfasis en el an´alisis sobre las condiciones necesarias y suficientes para la existencia de los controles adecuados, y su computabilidad, asi
como tambi´en de la existencia, unicidad, y estabilidad de la trayectoria que
garantice el logro de dicho objetivo. Ahora bi´en, si adem´as sedesea lograr tal
prop´osito en un tiempo m´ınimo, o con m´ınimo uso de combustible, entonces
este es un problema de control ´optimo. En tal caso, se quiere minimizar una
funcional que depende del estado del sistema y del control llamada funcional
de costo
tf
J u(·) (t0 , x0 ) = (x(tf )) +
L(x(t), u(t)) dt,
t0
(2)
´
Control Optimo
Determinista via Programaci´
on Din´amica
169
donde L y son...
Regístrate para leer el documento completo.