Técnicas de Optimización en Bioprocesos

Comienza Ya. Es Gratis
ó regístrate con tu dirección de correo electrónico
Técnicas de Optimización en Bioprocesos por Mind Map: Técnicas de Optimización en Bioprocesos

1. Programacion lineal

1.1. El método gráfico se emplea para resolver problemas que presentan sólo 2 variables dedecisión

1.1.1. consiste en

1.1.1.1. Trazar las ecuaciones de las restricciones en un eje de coordenadas X1, X2 para tratar de identificar el área de soluciones factibles(soluciones que cumplen con todas las restricciones), pero muy rico en materia deinterpretación de resultados e incluso análisis de sensibilidad

1.1.1.1.1. Buscando

2. Algoritmos geneticos

2.1. son

2.1.1. Métodos de optimización heurística que, entre otras aplicaciones, pueden emplearse para encontrar el valor o valores que consiguen maximizar o minimizar una función

2.1.1.1. sigue los siguentes pasos

2.1.1.1.1. 1.- Crear una población inicial aleatoria de P individuos. En este caso, cada individuo representa una combinación de valores de las variables. 2.- Calcular la fortaleza (fitness) de cada individuo de la población. El fitness está relacionado con el valor de la función para cada individuo. Si se quiere maximizar, cuanto mayor sea el valor de la función para el individuo, mayor su fitness. En el caso de minimización, ocurre lo contrario. 3.- Crear una nueva población vacía y repetir los siguientes pasos hasta que se hayan creado P nuevos individuos. 3.1 Seleccionar dos individuos de la población existente, donde la probabilidad de selección es proporcional al fitness de los individuos. 3.2 Cruzar los dos individuos seleccionados para generar un nuevo descendiente (crossover). 3.3 Aplicar un proceso de mutación aleatorio sobre el nuevo individuo. 3.4 Añadir el nuevo individuo a la nueva población. 4.- Reemplazar la antigua población por la nueva. Si no se cumple un criterio de parada, volver al paso 2

3. Diseño de experimentos (DoE)

3.1. Es

3.1.1. Una metodología que aplica la estadística para analizar y optimizar procesos asociados a la creación de objetos, diseños o proyectos de los que se espera un algo grado de calidad, precisión y eficiencia. Para esto, se utilizan variables de diverso tipo y se consideran las respuestas de estas para conocer, en detalle, los factores más influyentes en los resultados.

3.1.1.1. Permite

3.1.1.1.1. Evaluar los experimentos con base en datos precisos, los cuales contribuyen a no solo estudiar en detalle un amplio número de procesos, sino también a tomar decisiones informadas en lo que concierne al diseño tanto de productos como de procesos.

4. Optimizacionn por enjambre de particulas (PSO)

4.1. Es un metodo

4.1.1. De optimización heurística orientado a encontrar mínimos o máximos globales. Su funcionamiento está inspirado en el comportamiento que tienen las bandadas de pájaros o bancos de peces en los que, el movimiento de cada individuo (dirección, velocidad, aceleración...), es el resultado de combinar las decisiones individuales de cada uno con el comportamiento del resto.

4.1.1.1. sigue los siguientes pasos

4.1.1.1.1. 1.- Crear un enjambre inicial de n partículas aleatorias. Cada partícula consta de 4 elementos: una posición que representa una determinada combinación de valores de las variables, el valor de la función objetivo en la posición donde se encuentra la partícula, una velocidad que indica cómo y hacia donde se desplaza la partícula, y un registro de la mejor posición en la que ha estado la partícula hasta el momento. 2.- Evaluar cada partícula con la función objetivo. 3.- Actualizar la posición y velocidad de cada partícula. Esta es la parte que proporciona al algoritmo la capacidad de optimización. En el apartado Mover partícula se describe con detalle el proceso. Si no se cumple un criterio de parada, volver al paso 2.

5. Métodos de optimización multiobjetivo usados

5.1. Es la tecnica

5.1.1. más utilizada en la industria actualmente, ya que se encuentra programada en diversos software comerciales, se propuso originalmente por Harrington (1965) proponiendo transformaciones exponenciales, posteriormente Derringer y Suich (1980) y Derringer (1994) mejoran la propuesta con funciones más flexibles.

5.1.1.1. Paso 1. Teniendo los modelos ajustados se convierte cada respuesta y i en función de deseabilidad d i, considerando si se desea maximizar, minimizar o lograr un valor objetivo. Paso 2. Combinar las deseabilidades individuales por medio de la Deseabilidad Global, que es una media geométrica. Considerar un vector de pesos w que pondera la importancia de cada respuesta. DG(x)=(∏ki=1dwii)1Σwi Paso 3. Maximizar la deseabilidad global por medio de un algoritmo como Levenberg-Marquardt o Nelder-Mead, considerando los límites de control para cada variable. Paso 4. Localizar el vector óptimo global de las variables de control que se usa para poder predecir las respuestas óptimas deseadas.

6. MOORA

6.1. Realiza

6.1.1. Las sumas de rendimientos normalizados de costo beneficio y calcula su diferencia para representar el rendimiento global de cada una de las alternativas en forma de un índice o ranking

6.1.1.1. Pasos

6.1.1.1.1. Paso 1. Se identifican las variables independientes xij,i=1,2,...,n;j=1,2,...r donde n es el número de situaciones experimentales y r son el número de respuestas. Se construye la matriz de decisión. D=⎡⎣⎢⎢⎢⎢x11x21⋮xn1x12x22⋮xn2⋯⋯⋮⋯x1rx2r⋮xnr⎤⎦⎥⎥⎥⎥ (3) Paso 2. Normalizar la matriz de decisión, se divide cada valor de x ij entre su norma euclidiana para normalizar cada elemento x*ij y obtener la matriz normalizada D* (Yang & Chou, 2005): x*ij=xij∑ni=1x2ij√, i=1,2,…,n; j=1,2,…,r (4) Paso 3. Se obtiene la matriz de decisión normalizada ponderada V que se calcula multiplicando cada elemento de la matriz D* por el peso correspondiente a la importancia de cada respuesta wj y que cumple ∑rj=1wj=1 : V=[Xij]m×r, i=1,2,…,n; j=1,2,…,r (5) Xij=x*ijwj (6) Paso 4. Calcular el índice MOORA Y i: Yi=∑tj=1Xij−∑rj=t+1Xij (7) Donde: t = número de respuestas a maximizar (r-t) = número de respuestas a minimizar Yi = ranking del i-ésimo caso experimental con respecto a todas las respuestas. A mayor valor de Y i se produce un mejor rendimiento de respuesta múltiple

7. TOPSIS (Technique for Order of Preference by Similarity to Ideal Solution)

7.1. Es un

7.1.1. Ranking basado en dimensiones que elige la alternativa de que simultáneamente tiene la distancia más corta de la solución ideal positiva (maximiza beneficios y minimiza el costo) y la distancia más alejada de la solución ideal negativa (maximiza el costo y minimizan los beneficios)

7.1.1.1. Pasos

7.1.1.1.1. Paso 1 a 3. Idénticos al método MOORA (MOO). Paso 4. Calcular la solución ideal positiva y negativa: d+= (X+1,X+2,...,X+r) (8) X+j= {(maxi Xij|j∈J),i=1,2,...,n} (9) d−= (X−1,X−2,...,X−r) (10) X−j= {(mini Xij|j∈J'),i=1,2,...,n} (11) donde J está relacionado con algún criterio de beneficio y J' está relacionado con algún criterio de costo. Paso 5. Calcular la distancia del i-ésimo experimento a la solución ideal positiva y negativa: d+i=∑rj=1(Xij−X+j)2−−−−−−−−−−−−−−−√,   i=1,2,...,n; j=1,2,...,r (12) d−i= ∑rj=1(Xij−X−j)2−−−−−−−−−−−−−−−√,   i=1,2,...,n;  j=1,2,...,r (13) Paso 6. Calcular el índice TOPSIS Ci, también llamado coeficiente de cercanía: Ci=d−id−i+d+i,  i=1,2,...,n;  j=1,2,...,r (14)

8. MULTIMOORA

8.1. Como variante

8.1.1. Puede tener una variante en el paso 4, en lugar del índice “ratio system”, se realiza un “Reference point”, y la combinación de estos índices junto con el índice “Full multiplicative form” genera el índice MULTIMOORA propuesto por Brauers y Zavadskas (2010). El Ratio system emplea la sumatoria como operador de agregación con los datos normalizados, el Reference point calcula un punto ideal de referencia y mide las distancias de las alternativas a este punto ideal.

8.1.1.1. Pasos

8.1.1.1.1. Paso 1 a 4. Son idénticos al método MOORA (MOO). Paso 5. Cálculo del índice de Reference point Pi, primero se calcula el punto de referencia como: RF={v+1,v+2,...,v+n} (15) donde v+j=maxi(vij) si el j-ésimo criterio es de beneficio, y v−j=mini(vij) si es de coste. Posteriormente se aplica la métrica min-max de Chebyshev: Pi=imin(jmax∣∣v+j−vij∣∣) (16) las alternativas se ordenan de forma creciente y las mejores son las de menor valor. Paso 6. Cálculo de la ecuación completa multiplicativa, Ui (Full multiplicative form): Ui=∏tj=1xwjij∏rj=t+1xwjij (17) donde el numerador son los criterios de beneficio y el denominador son los de coste. Después las alternativas se ordenan de forma decreciente, siendo las mejores alternativas las de valor mayor. Paso 7. Teoría de dominancia (Brauers et al., 2011; Brauers y Zavadskas, 2011). Se unen los rankings por medio de la teoría de dominancia y se genera un ranking final. Se considera que los tres índices tienen la misma import

9. Bibliografias

9.1. Akteke-Öztürk, B., Weber, G.-W. & Köksal, G. (2015). Desirability functions in multiresponse optimization. En Plakhov A.T. (Ed.), Optimization in the Natural Sciences 129-146. Cham.: Springer International Publishing.

9.1.1. Brauers, W. & Zavadskas, E. (2011). Multimoora optimization used to decide on a bank loan to buy property. Technological and Economic Development of Economy , 17, 174-188. https://doi.org/10.3846/13928619.2011.560632

9.1.1.1. Ceballos, B., Lamata, M.T. & Pelta, D. (2015). Una comparativa de modelos de decisión multi-criterio difusos. En Puerta J.M., Gámez J.A., Dorronsoro B., Barrenechea E., Troncoso A., Baruque B. & Galar M. (Ed.), Actas de la XVI Conferencia CAEPIA, 459-469. Albacete, España.

9.1.1.1.1. Derringer, G. & Suich, R. (1980). Simultaneous optimization of several response variables. Journal of Quality Technology, 12(4), 214-219. https://doi.org/10.1080/00224065.1980.11980968