optimizacion
TEMA 8: MÉTODOS NUMÉRICOS DE OPTIMIZACIÓN: PROBLEMAS DE
OPTIMIZACIÓN SIN RESTRICCIONES
1.- INTRODUCCIÓN: PROGRAMACIÓN MATEMÁTICA
2.- OPTIMIZACIÓN DE FUNCIONES SIN RESTRICCIONES
2.1.- Búsqueda Unidireccional. Conceptos Generales.
2.1.1.- Introducción
2.1.2.- Acotación del Óptimo.
2.2.- Búsqueda Unidireccional. Métodos Indirectos
2.2.1.-Método de Newton
2.2.2.- Método de Newton en Diferencias Finitas.
2.2.3.- Método de la Secante.
2.3.- Búsqueda Unidireccional. Métodos de Eliminación de Región
2.4.- Búsqueda Unidireccional Métodos de Aproximación Polinómica
2.4.1.- Interpolación Cuadrática.
2.4.2.- Interpolación Cúbica.
2.5.- Optimización Numérica Multivariable sin Restricciones.
2.5.1.- Introducción
2.5.2.- MétodosDirectos
2.5.2.1.- Métodos de Búsqueda Aleatoria
2.5.2.2.- Métodos de Búsqueda en Rejilla.
2.5.2.3.- Búsqueda Univariante.
2.5.2.4.- Método Simples Flexible.
2.5.2.5.- Direcciones Conjugadas. Método de Powell.
2.5.3.- Métodos Indirectos. Métodos de primer orden.
2.5.3.1.- Método de Gradiente. (Máximo Descenso).
2.5.3.2.- Método de Gradiente Conjugado.
37
Simulación y Optimización de losProcesos Químicos
2.5.4.- Métodos Indirectos. Métodos de Segundo Orden.
2.5.4.1.- Método de Newton.
2.5.4.2.- Forzando a la Matriz Hessiana a ser Definida Positiva.
2.5.2.3.- Métodos de Secante
38
Simulación y Optimización de los Procesos Químicos
TEMA 8
MÉTODOS NUMÉRICOS DE OPTIMIZACIÓN:
PROBLEMAS DE OPTIMIZACIÓN SIN RESTRICCIONES
1.- INTRODUCCIÓN: PROGRAMACIÓN MATEMÁTICALas condiciones de optimalidad discutidas en los capítulos anteriores forman la base
teórica para el desarrollo de varios algoritmos para la optimización de funciones con y sin
restricciones.
Los algoritmos para la optimización no lineal sin restricciones con múltiples variables se
pueden clasificar como: (i) Búsqueda sin el uso de derivadas (ii) búsqueda usando
información de la derivadaprimera, y (iii) búsqueda usando información de la derivada
segunda. Ejemplos típicos de que no usan derivadas son el método simplex, el algoritmo
de Hooke y Jeeves, el método de Rosenbrock y el método de las direcciones conjugadas.
Entre los algoritmos que usan información del gradiente están el método de máximo
descenso, el método del gradiente conjudado y los métodos cuasi Newton. El métododel
máximo descenso realiza una búsqueda a lo largo de la dirección opuesta al gradiente
para minimizar la función. El método de gradiente conjugado combina la información del
último gradiente con la información de gradientes de iteraciones previas. Los métodos
cuasi Newton construyen una aproximación de la curvatura de la función no lineal
utilizando sólo información del gradiente, evitandopor lo tanto calcular de forma
explícita la matriz hessiana. En el método de Newton, la inversa de la matriz hessiana
premultiplica a la dirección de máximo descenso y se encuentra una dirección adecuada
usando una aproximación cuadrática de la función objetivo.
En la optimización no lineal con restricciones los diferentes métodos pertenecen a las
clases: (i) métodos de penalización exterior.(ii) métodos de penalización interior
(barrera) (iii) métodos de proyección de gradiente. (iv) método de gradiente reducido
generalizado (v) programación lineal sucesiva (vi) programación cuadrática sucesiva.
39
Simulación y Optimización de los Procesos Químicos
En el método de penalización exterior se añade un término de penalización para cada
violación de las restricciones deigualdad o desigualdad. El problema se transforma en un
problema sin restricciones o en una sucesión de problemas sin restricciones. Se genera
una secuencia de puntos no factibles. El parámetro de penalización se debe hacer lo
suficientemente grande para generar una secuencia de soluciones que nos acerquen al
óptimo desde puntos no factibles. Para evitar el mal condicionamiento derivado de tener...
Regístrate para leer el documento completo.