Comienza Ya. Es Gratis
ó regístrate con tu dirección de correo electrónico
Problemas inversos por Mind Map: Problemas inversos

1. Se puede definir la inversa generalizada de G

1.1. Valores singulares muy pequeños en vectores columnas de Vp en m+

1.1.1. Sensibilidad al ruido

1.2. Rm

1.2.1. Matriz simetrica que describe como la solucion de la inversa generalizada proyecta el modelo original "m" en el modelo obtenido "m+".

2. Numero de condicion de una matriz

2.1. Mide el grado de condicion de una matriz (bien o mal condicionado)

3. Problemas Lineales

3.1. Matriz G

3.2. Vector d

3.3. Vector m

4. Matriz G como operador lineal que indica relación explicita entre datos (d) y parametros del modelo (m).

4.1. d=Gm

5. Bien condicionados

5.1. Filtro Kalman

6. Mal condicionados

7. Se estudian utilizando SVD para expresar G y se puede conocer la redundancia de un arreglo observacional.

7.1. G=USV*

7.1.1. Matriz U (mxm) espacio de datos.

7.1.2. Matriz S (mxn) valores singulares.

7.1.3. Matriz V (nxn) espacio del modelo.

8. Usando "p" valores singulares distintos de 0

8.1. Up y Um-p=U0

8.1.1. U0 es base ortonormal del espacio nulo de los datos.

8.2. Vp y Vn-p=V0

8.2.1. V0 es base ortonormal del espacio nulo del modelo

9. G=UpSpV*p

10. Estabilidad

11. Condicion de Picard

11.1. Si no se cumple se trunca la serie (TSVD)

11.1.1. Metodo de regularización

12. Regularizacion de Tikhonov

12.1. Metodo de estabilizacion de problemas inversos ponderando SVD's grandes mas que los pequeños.

13. 3 Criterios de seleccion de la ponderacion para los SVD

14. Curva L

14.1. Obtenida a partir de un gráfico log-log de los términos de la norma de "Gm-d" y de la norma de "m".

15. Parametro alpha

15.1. Se escoge alpha tal que esté lo mas cerca de la esquina de la curva L.

16. Se escribe el problema aumentandolo el problema de minimos cuadrados Gm=d

17. Usando matriz Identidad I

17.1. Regularización de Tikhonov de orden 0 para Gm=d

18. Minimizando la primera derivada usando matriz de acondicionamiento L1

18.1. Favorece un modelo plano

18.1.1. Regularización de Tikhonov de orden 1

19. Minimizando la segunda derivada usando matriz de acondicionamiento L2

19.1. Favorece un modelo suave

19.1.1. Regularización de Tikhonov de orden 2

20. Modelo recursivo que compara una predicción "Tb" y mediciones actuales "To" corriegiendo y disminuyendo el error para obtener un mejor valor de predicción "Ta" en la siguiente iteración.

21. En caso de un pronóstico

21.1. Ta = Tb + W( To - Tb )

21.1.1. Incremento observacional (To - Tb)

21.1.2. Matriz de ganacia de Kalman (W)

21.1.2.1. Precisión del análisis es la suma de la prescisión a priori y de las observaciones

21.1.3. Matriz H incluye interpolaciones y transformaciones de variables

22. G demasiado grande

22.1. Requiere mucha memoria

22.2. SVD y Tikhonov no resultan prácticos

23. Metodos iterativos

23.1. Metodo ART

23.2. Gradiente Descendiente

23.3. Gradiente Conjugado

24. Víctor Aravena Troncoso- PING-2021-Tarea3

25. Problemas No lineales

25.1. Matriz G como operador no lineal que indica que no hay relación lineal entre datos y parametros.