Optimización Clasica y sus características valorando sus metodospor Betzaida Martinez
1. Representación de máximos y mínimos en una función con una sola variable, técnicas de optimización clásica, Método de derivadas restringidas (Jacobiano), Método de Newton, explicación del método simplex, programación no lineal, métodos de gradiente.
2. Si la restricción no existe, o es una restricción de igualdad, con menor o igual número de variables que la función objetivo entonces, el cálculo diferencial, da la respuesta, ya que solo se trata de buscar los valores extremos de una función.
3. Un punto extremo de una función f(X) define un máximo o un mínimo de ella. Matemáticamente, un punto X0 = (x10, ..., xj0, ..., xn0) es máximo si f (X0 + h2) <= f (X02)
4. En otras palabras, X0 es un valor máximo si el valor de f en cada punto de la proximidad de X0 no es mayor que f(X0). En forma parecida, X0 es un mínimo si f (X0 + h) >= f (X02)
5. En general, X0 es un máximo débil si f(X0 h) f(X0), y es un máximo fuerte si f(X0 h) f(X0), donde h es como se definió arriba.
6. La primera derivada o pendiente de f es igual a cero en todos los puntos extremos. Esta propiedad también se satisface en puntos de inflexión y de silla.
7. Si un punto con pendiente (gradiente) cero no es un extremo (máximo o mínimo), debe ser un punto de inflexión o un punto de silla.
8. El método de Newton-Raphson es un procedimiento iterativo para resolver ecuaciones simultáneas no lineales. Aunque aquí se presenta el método en este contexto, en realidad es parte de los métodos de gradiente para optimizar numéricamente funciones no restringidas
9. el jacobiano o de Jacobi y el lagrangiano o de Lagrange. El método lagrangiano se puede deducir en forma lógica a partir del método jacobiano. Esta relación proporciona una interesante interpretación económica del método lagrangiano.
10. Método de derivadas restringidas (jacobiano). La idea de usar derivadas restringidas es desarrollar una ecuación de forma cerrada para las primeras derivadas parciales de f (X) en todos los puntos que satisfacen las restricciones g(X) 0.
11. Método lagrangiano. En el método de Jacobi, sea que el vector represente los coeficientes de sensibilidad;
12. Este procedimiento define al método lagrangiano, o de Lagrange, para identificar los puntos estacionarios de problemas de optimización con restricciones de igualdad. El procedimiento se puede desarrollar formalmente como sigue. Sea L(X, = f 1X2 - g1X2