Propiedades de las Matrices
- Diagonal dominante: La suma en valor absoluto de los términos de una fila debe ser menor que el término de la diagonal principal.
- Estrictamente diagonal dominante: |aii| > suma de |aij| para j ≠ i.
- Simétrica: A = AT.
- Definida positiva: Valores propios > 0 y menores principales > 0.
- Radio espectral (ρ): Mayor valor propio en valor absoluto de una matriz.
Normas Matriciales
- Norma 1: Máximo de la suma por columnas.
- Norma 2 (Espectral): √ρ(AT * A). Es la norma más pequeña.
- Norma infinito: Máximo de la suma por filas. Es la que más se aproxima a la realidad.
- Propiedad: Para cualquier norma, ρ(A) ≤ ||A||.
Errores y Condicionamiento
- Error residual: ||A * xaprox – b||. Minimizarlo no garantiza que el error absoluto sea pequeño.
- Error absoluto: ||x – xaprox||.
- Error relativo: ||x – xaprox|| / ||x||.
- Condicionamiento K(A): ||A|| * ||A-1||. Un K(A) alto implica que pequeñas perturbaciones provocan grandes cambios en la solución.
Métodos Directos
Gauss
Objetivo: Obtener una matriz triangular superior U para resolver Ux = c. El costo computacional es aproximadamente (2n³)/3 operaciones.
- Estrategias de pivotaje: El pivotaje parcial (filas) garantiza estabilidad. El pivotaje total es más estable pero destruye la estructura de la matriz.
Factorización LU
Si los menores principales son no nulos, la descomposición es única. Se resuelve en dos pasos: 1) Ly = b, 2) Ux = y. Para matrices tridiagonales, L y U son bidiagonales.
Cholesky
Requisitos: Matriz simétrica y definida positiva. Estructura: A = L * LT. Costo computacional: n³/6 (la mitad que Gauss).
Métodos Iterativos
Fórmula general: xk+1 = B * xk + C. La condición necesaria y suficiente para la convergencia es ρ(B) < 1.
- Jacobi: Desplazamientos simultáneos. Bj = D-1 * (L + U).
- Gauss-Seidel: Desplazamientos sucesivos. Bgs = (D – L)-1 * U.
- SOR (Relajación): Bsor = (D – wL)-1 * ((1 – w)D + wU).
Problemas de Contorno Estacionario
- Dirichlet: u(a) = α, u(b) = β.
- Neumann: u'(a) = α, u'(b) = β.
- Robin: -u'(a) + g0 * u(a) = α, u'(b) + g1 * u(b) = β.
Cálculo del Orden de Error y Convergencia
La fórmula para el orden de convergencia p es:
p = ln(En+1 / En+2) / ln(En / En+1)
Acotación del error
Para métodos iterativos, si ||B|| < 1, el error se acota mediante:
||x(k) – x|| ≤ [||B|| / (1 – ||B||)] * ||x(k-1) – x(k)||
Series de Taylor
Aproximación de la primera derivada f'(a) mediante diferencias centradas:
f'(a) ≈ [f(a+h) – f(a-h)] / 2h
Orden de error p = 2, grado de precisión k = 3 y constante de error C = 1/6.
