Post on 15-Apr-2017
Equipo 5:
Héctor Pérez VázquezRoberto Maldonado MartínezArad Said Mora Hernández
Ángel Francisco Tepetlan Munguía
Universidad VeracruzanaFacultad de Ciencias Químicas
Ingeniería de Procesos
Optimización
Índice 1. Introducción a la optimización 2. Ajuste de datos empíricos a funciones 3. Función objetivo 4. Métodos numéricos para optimización de funciones Newton y Secante 5. Métodos de eliminación de regiones Fibonacci y Sección dorada 6. Optimización de funciones multivariables Directos, Indirectos y Diferencias finitas 7. Aplicaciones de optimización
1. Introducción a la optimización
¿Qué es la optimización?
Método para determinar los valores de las variables que intervienen en un proceso o sistema para que el resultado sea el mejor posible.
Consiste en maximizar o minimizar una función real.
Isaac Newton y Carl Friedrich Gauss propusieron métodos iterativos para el movimiento hacia un óptimo.
Históricamente, el primer término para la optimización fue programación lineal, debido a George B. Dantzig.
Dantzig publicó el algoritmo Simplex (Simple) en 1947 y John von Neumann desarrolló la teoría de la dualidad en el mismo año
La programación lineal es el campo de la optimización matemática dedicado a maximizar o minimizar (optimizar) una función lineal, denominada función objetivo.
2. Ajuste de datos empíricos a funciones
Los datos empíricos son obtenidos de pruebas, es decir, llevando a cabo el experimento. Por lo tanto los datos empíricos son sacados de las pruebas acertadas y los errores, es decir, de experiencia.
Los datos experimentales vienen siempre afectados por errores de medida
Ejemplo
Determinación de cinéticas químicas
3. Función objetivo
La función objetivo es la ecuación que será optimizada dadas las limitaciones o restricciones determinadas y con variables que necesitan ser minimizadas o maximizadas usando técnicas de programación lineal o no lineal.
4. Métodos numéricos para optimización de funciones
Los métodos numéricos son técnicas mediante las cuales es posible formular problemas de tal forma que sean resueltos con operaciones aritméticas.
Aunque hay muchos tipos de métodos, todos comparten una característica común, llevan a cabo un buen número de cálculos aritméticos y emiten soluciones aproximadas.
Método de Newton
Método de la Secante
Métodos de eliminación de Regiones Los métodos de eliminación de regiones se basan en eliminar
una región, en cada etapa del intervalo en el que está comprendido el mínimo. Cuando la región posible es suficientemente pequeña la búsqueda termina.
El elemento básico dentro de los métodos de eliminación de regiones es la comparación de valores de f(x) en dos o más puntos dentro del intervalo de x.
Los métodos más eficientes de búsqueda por eliminación de regiones son los métodos de la sección dorada y Fibonacci
Método de la sección dorada
La búsqueda o método de la sección dorada es una técnica para hallar el extremo (mínimo o máximo) de una función unimodal, mediante reducciones sucesivas del rango de valores en el cual se conoce el intervalo.
Función unimodal F(x)= X2-X Intervalo [0,2] L0 = b0 – τ ( b0 - a0)
r0 = a0 + τ ( b0 - a0) τ= 0.618
Método de Fibonacci
El método de búsqueda de Fibonacci es utilizado para obtener un punto óptimo en funciones no diferenciables sin utilizar derivadas es decir, que no sean derivables en el intervalo (a,b).
Este método es muy eficiente para aproximar, bajo cierto margen de error, un punto máximo o mínimo en funciones unimodales
Función unimodal
F(x)= (X – 4 )2
Intervalo [0,9] L0 = b0 – τ ( b0 - a0)
r0 = a0 + τ ( b0 - a0)
F= numero de fibonacci
F0=1 ; F1=1 ; F2=2 ; F3=3 ; F4=5 ; F5=8 n= numero de evaluaciones posibles para la función objetivo
n-2=i τ=
𝑓𝑛−1 𝑓𝑛 ;𝑓𝑛−2 𝑓𝑛−1 ; 𝑓𝑛−3 𝑓𝑛−2 ……..𝑓𝑛−(𝑖+1) 𝑓𝑛−𝑖
Optimización de funciones multivariables
Métodos directosPara la aplicación de estos métodos solamente es necesario conocer el valor de la función objetivo en cualquier punto del espacio y no necesitamos ninguna hipótesis adicional acerca de la diferenciabilidad de la función. Métodos indirectosLos métodos indirectos hacen uso de derivadas en la determinación de las direcciones de búsqueda. Una buena dirección de búsqueda debería reducir la función objetivo, entonces si x0 es el punto inicial y x1 es el nuevo punto: f(x1)<f(x0).
Optimización de funciones multivariables.
• Métodos Directos
• Métodos Indirectos
• Búsqueda Random• Búsqueda en una grilla• Método simplex• Método de las direcciones
conjugadas• Método de Powell
• Método del gradiente• Método de Newton• Método de la secante
Ejemplo
Una empresa produce dos tipos distintos A y B de un bien. El coste diario de producir x unidades de A e y unidades de B es:
Supongamos que el producto A lo vende a 15 € y el B a 9 €. Hallar que número de unidades hay que vender de A y B para
maximizar el beneficio.
Función objetivo:
Obtenemos las derivadas parciales
=
= Igualamos a 0 ambas derivadas
=0
=0
Se puede observar que la grafica es una curva que tiene forma de montaña por lo tanto el único punto critico será un máximo.
Diferencias Finitas
El Método de Diferencias Finitas es un método de carácter general que permite la resolución aproximada de ecuaciones diferenciales en derivadas parciales definidas en recintos finitos.
Los métodos numéricos para resolver ecuaciones diferenciales se basan en el reemplazo de las ecuaciones diferenciales por ecuaciones algebraicas
En diferencias finitas, esto se realiza al reemplazar las derivadas por diferencias