
1. Se puede definir la inversa generalizada de G
1.1. Valores singulares muy pequeños en vectores columnas de Vp en m+
1.1.1. Sensibilidad al ruido
1.2. Rm
1.2.1. Matriz simetrica que describe como la solucion de la inversa generalizada proyecta el modelo original "m" en el modelo obtenido "m+".
2. Numero de condicion de una matriz
2.1. Mide el grado de condicion de una matriz (bien o mal condicionado)
3. Problemas Lineales
3.1. Matriz G
3.2. Vector d
3.3. Vector m
4. Matriz G como operador lineal que indica relación explicita entre datos (d) y parametros del modelo (m).
4.1. d=Gm
5. Bien condicionados
5.1. Filtro Kalman
6. Mal condicionados
7. Se estudian utilizando SVD para expresar G y se puede conocer la redundancia de un arreglo observacional.
7.1. G=USV*
7.1.1. Matriz U (mxm) espacio de datos.
7.1.2. Matriz S (mxn) valores singulares.
7.1.3. Matriz V (nxn) espacio del modelo.
8. Usando "p" valores singulares distintos de 0
8.1. Up y Um-p=U0
8.1.1. U0 es base ortonormal del espacio nulo de los datos.
8.2. Vp y Vn-p=V0
8.2.1. V0 es base ortonormal del espacio nulo del modelo
9. G=UpSpV*p
10. Estabilidad
11. Condicion de Picard
11.1. Si no se cumple se trunca la serie (TSVD)
11.1.1. Metodo de regularización
12. Regularizacion de Tikhonov
12.1. Metodo de estabilizacion de problemas inversos ponderando SVD's grandes mas que los pequeños.
13. 3 Criterios de seleccion de la ponderacion para los SVD
14. Curva L
14.1. Obtenida a partir de un gráfico log-log de los términos de la norma de "Gm-d" y de la norma de "m".
15. Parametro alpha
15.1. Se escoge alpha tal que esté lo mas cerca de la esquina de la curva L.
16. Se escribe el problema aumentandolo el problema de minimos cuadrados Gm=d
17. Usando matriz Identidad I
17.1. Regularización de Tikhonov de orden 0 para Gm=d
18. Minimizando la primera derivada usando matriz de acondicionamiento L1
18.1. Favorece un modelo plano
18.1.1. Regularización de Tikhonov de orden 1
19. Minimizando la segunda derivada usando matriz de acondicionamiento L2
19.1. Favorece un modelo suave
19.1.1. Regularización de Tikhonov de orden 2
20. Modelo recursivo que compara una predicción "Tb" y mediciones actuales "To" corriegiendo y disminuyendo el error para obtener un mejor valor de predicción "Ta" en la siguiente iteración.
21. En caso de un pronóstico
21.1. Ta = Tb + W( To - Tb )
21.1.1. Incremento observacional (To - Tb)
21.1.2. Matriz de ganacia de Kalman (W)
21.1.2.1. Precisión del análisis es la suma de la prescisión a priori y de las observaciones
21.1.3. Matriz H incluye interpolaciones y transformaciones de variables