Cholesky
Gustavo Montero
Escuela T´cnica Superior de Ingenieros Industriales e University of Las Palmas de Gran Canaria
Curso 2006-2007
Preliminares M´todo de Gauss e Factorizaci´n LU o Factorizaci´n de Cholesky o Aplicaci´n al c´lculo de la matriz inversa o a Resumen
Preliminares M´todo de Gauss eFactorizaci´n LU o Factorizaci´n de Cholesky o Aplicaci´n al c´lculo de la matriz inversa o a Resumen
Revisi´n de algunos conceptos o
Matriz sim´trica e
Se dice que una matriz A es sim´trica si At = A. e
Matriz definida positiva
Se dice que una matriz A es definida positiva si x t Ax > 0, ∀x = 0 ∈ R n .
Matriz ortogonal
Se dice que una matriz A es ortogonal si At = A−1 , es decir, At A = I .Matrices semejantes
Sea C cualquier matriz no singular de la misma dimensi´n que A. Entonces las matrices A y C −1 AC se dice que o son semejantes.
Polinomio caracter´ ıstico
Valor propio
Se dice que el n´mero λ, real o complejo, es un valor propio de A si existe un vector no nulo u, real o complejo tal u que Au = λu, es decir (A − λI )u = 0
Vector propio
El vector u se denomina vectorpropio de A asociado al valor propio λ. En general, el polinomio que resulta de desarrollar |A − λI |, cuyos ceros son precisamente los valores propios de A, se denomina polinomio caracter´ ıstico.
Polinomio caracter´ ıstico
Radio espectral
Se denomina radio espectral ρ de una matriz A al valor ρ(A) = max |λi |
Propiedades
Si λ es complejo, entonces u es complejo.
1≤i≤n
Losvalores propios de C −1 AC son los mismos de A.
Normas vectoriales y normas matriciales
Norma matricial y radio espectral
Si A ∈ R n,n , toda norma matricial verifica ρ(A) ≤ A . Dada A ∈ R n,n y ε > 0 cualquiera, existe una norma matricial Para todo A ∈ R n,n se tiene que: ρ(A) = inf A . · ε tal que A ε ≤ ρ(A) + ε
Sucesiones Matriciales
Sea A1 , A2 , A3 , ..., una sucesi´n de matrices cuadradasde orden n. Se dice que la sucesi´n tiene por l´ o o ımite la matriz cuadrada A de orden n, cuando r tiende a infinito si
r →∞
lim
Ar − A = 0
para una norma matricial cualquiera.
Sea A ∈ R n,n , la condici´n necesaria y suficiente para que o
m→∞
Teorema
lim
A
m
=0
es que ρ(A) < 1.
Vector residuo. N´mero de condicionamiento u
Sea el sistema lineal de ecuacionesAx = b. Vector residuo Se define el vector residuo del sistema como r = b − Ax.
N´mero de condici´n u o
Se define el numero de condici´n del sistema κ(A) = A o A−1 ≥ AA−1 = I ≥ 1.
Error y condicionamiento
e =x 1 κ(A) r b ≤
∗
−x ≤ κ(A) r b
e x
Preliminares M´todo de Gauss e Factorizaci´n LU o Factorizaci´n de Cholesky o Aplicaci´n al c´lculo de la matriz inversa o a ResumenGeneralidades sobre m´todos directos e
Resoluci´n de sistemas triangulares o
Supongamos que A es una matriz triangular superior (aij = 0 si i > j. Entonces, 0 @bk −
n X j=k+1
xn =
bn ann
,
xk =
1 akk
1 akj xj A , k = n − 1, n − 2, . . . , 1
N´mero total de operaciones: u Multiplicaciones/divisiones: n2 + n 2
Sumas/restas: 2 Un m´todo se dice que es directo si obtiene lasoluci´n exacta (en ausencia de errores de blackondeo) en un e o Si fuera triangular inferior ıa n´mero finito de pasos. se resolver´ de forma similar u Un primer m´todo de resoluci´n consistir´ en multiplicar A por M, tal que MA sea triangular: e o a Si MA = Mb = c entonces Ax ¡¡¡Prohibido usarUely m´todo de Cramer!!! = b e − → Ux = c
M´todos directos e
n2 − n
El m´todo de Cramer, con (n +1)!n − 1 operaciones, resulta prohibitivo para resolver grandes de sistemas. e
M´todo de Gauss e
Pivote parcial
Cuando se realiza la elecci´n del pivote, podemos tener problemas si este es nulo o incluso si es muy o peque˜o en valor absoluto. n La t´cnica de pivoteo parcial, trata de evitar este problema tomando en cada paso i-´simo el mayor pivote e e posible, en valor absoluto, en esa...
Regístrate para leer el documento completo.