Cap.3linear System
-
Upload
juan-carlos-moreno-ortiz -
Category
Documents
-
view
27 -
download
5
Transcript of Cap.3linear System
Page 1
Capítulo 3
Sistemas lineales
Se presentan algoritmos para resolver sistemas de ecuaciones lineales cuyos
coeficientes ma-
matriz es singular, y se discute la exactitud de estos algoritmos.
3.1 El significado de Ax
=
b
En primer lugar, examinar si un sistema lineal tiene una solución.
Realidad 3.1 (Dos vistas de un sistema lineal) Sea A ∈ C
m × n
Y b ∈ C
m × 1
.
1. El sistema lineal Ax = b tiene una solución si y sólo si existe un vector x que
resuelve las ecuaciones m
r
1
x = b
1
. . .
r
m
x = b
m
,
donde
A =
r
1
.
.
.
r
m
,
b =
b
1
.
.
.
b
m
.
2. El sistema lineal Ax = b tiene una solución si y sólo si b es una combinación lineal
de columnas de A,
b = a
1
x
1
+ · · · + A
n
x
n
,
donde
A = (a
1
. . . un
n
),
x =
x
1
.
.
.
x
n
.
Cuando la matriz es no singular, el sistema lineal tiene una solución para cualquier
lado derecho, y la solución se pueden representar en términos de la inversa de A.
Corolario 3.2 (Existencia y unicidad). Si A ∈ C
n × n
a continuación, es no singular
Ax = b tiene la solución única x = A
-1
b para cada b ∈ C
n
.
49
Página 2
50
Capítulo 3. Sistemas lineales
Antes de hablar de algoritmos para la resolución de sistemas lineales tenemos que tener
en
cuenta, como se explica en el capítulo 2, que la matriz y la derecha pueden ser con-
contaminado por la incertidumbre. Esto significa que, en lugar de resolver Ax = b, que
resolver un
sistema perturbado (A + E) z = b + f. Queremos determinar la sensibilidad del
solución es el perturbaciones f y E.
Aunque no sabemos la perturbaciones E y F, se puede estimar a partir de
la solución aproximada z. Para este fin definir el residuo r = Az - b. Podemos
ver la z como la solución a un sistema con perturbado lado derecho, Az = b + r. Si
z = 0, entonces podemos también ver la z como la solución a un sistema con matriz
perturbada,
(A + E) z = b,
donde E = -
rz
*
z
2
2
,
véase el ejercicio 1.
Ejercicios
(I) Determinar la solución de Ax = b cuando A es unitaria (ortogonal).
(Ii) Determinar la solución de Ax = b cuando A es involutivo.
(Iii) Sea A consta de varias columnas de una matriz unitaria, y b ser tal que los
sistema lineal Ax = b tiene una solución. Determine una solución de Ax = b.
(Iv) Si A es idempotente. ¿Cuándo empieza el sistema lineal Ax = b tiene una solución
para cada b?
(V) Si A es una matriz triangular. ¿Cuándo el sistema lineal Ax = b tiene una
solución para cualquier lado derecho b?
(Vi) Sean A = uv
*
ser un producto externo, donde u y v son vectores columna. Para
b que hace el sistema lineal Ax = b tiene una solución?
(Vii) Determinar una solución para el sistema lineal (AB)
(X
1
x
2
) = 0 cuando A es no-
singular. Es la única solución?
1. Las perturbaciones matriz de residuos.
Este problema se muestra cómo construir una matriz de perturbación de la residual.
Sea A ∈ C
n × n
ser no singular, Ax = b, z ∈ C
n
una aproximación diferente de cero
a x. Demuestre que (A + E
0
) Z = b, donde E
0
= (B - Az) z
†
y z
†
= (Z
*
z)
-1
z
*
;
y que (A + E) z = b, donde E = E
0
+ G (I - zz
†
) Y G ∈ C
n × n
es cualquier
matriz.
2. En el problema 1 anteriormente muestran que, entre todas las matrices F que
satisface (A + F) z = b,
la matriz E
0
es uno con los más pequeños de dos normas, es decir, E
0 2
≤ F
2
.
3.2 Acondicionamiento de Sistemas Lineales
Derivamos límites normwise para el acondicionamiento de sistemas lineales. El
siguiente
dos ejemplos demuestran que no es obvio cómo estimar la exactitud de
una solución aproximada z para un sistema lineal Ax = b. En particular, se ilustran
Página 3
3.2. Acondicionamiento de Sistemas Lineales
51
que el residuo r = Az - b puede dar información engañosa sobre lo cerca que z es
a x.
Ejemplo 3.3 Se ilustrar que una solución aproximada totalmente equivocado puede
tener un
pequeña norma residual.
Considere el sistema lineal Ax = b con
A = (
1
1
1 1 + ǫ)
,
b = (
2
2 + ǫ)
,
0 <ǫ «1,
x = (
1
1)
,
cuya solución x se aproxima por z = (2 0)
T
. El residuo
r = Az - b = (
0
-Ǫ)
tiene pequeña norma, r
p
= Ǫ, ǫ porque es pequeño. Esto parece sugerir que z hace un
buen trabajo de la solución del sistema lineal. Sin embargo, la comparación de z para
la solución exacta,
z - x = (
-1
1)
.
muestra que z es una mala aproximación a x. Por lo tanto, una pequeña norma residual
hace
no implica que z está cerca de x.
Lo mismo puede suceder incluso para matrices triangulares, como el siguiente ejemplo
shows.
Ejemplo 3.4 Para el sistema lineal Ax = b con
A = (
1 10
8
0
1)
,
b = (
1 + 10
8
1
),
x = (
1
1)
considerar la solución aproximada
z = (
0
1 + 10
-8
),
r = Az - b = (
0
10
-8
).
Como en el ejemplo anterior, el residuo tiene pequeña norma, es decir, r
p
= 10
-8
, Pero z es
totalmente inexacta,
z - x = (
-1
10
-8
).
Una vez más, la norma residual es engañosa. Es pequeño, a pesar de que z es una mala
aproxi-
mación.
El siguiente destino explica por qué aproximaciones inexactas pueden tener residuos
con pequeña norma.
Página 4
52
Capítulo 3. Sistemas lineales
Realidad 3.5 (Residual Bound) Sea A ∈ C
n × n
ser no singular, Ax = b y b = 0. Si
r = Az - b a continuación
z - x
p
x
p
≤ κ
p
(A)
r
p
La
p
x
p
,
Prueba. Si b = 0 y A es no singular, entonces x = 0, véase la Realidad 1,10. La
deseada obligado
sigue inmediatamente de la perturbación con destino a la multiplicación de matrices:
Aplicar
Hecho 2,22 a U =
~
U = A
-1
, V = b,
~
V = b + r, ǫ
U
= 0 y ǫ
V
= R
p
/ B
p
para obtener
z - x
p
x
p
≤
La
-1
p
b
p
La
-1
b
p
r
p
b
p
= Un
p
La
-1
p
r
p
La
p
x
p
.
La cantidad κ
p
(A) es el número de condición normwise relativa de A con re-
respeto a la inversión, consulte Definición 2.27. El límite en el Hecho 3.5 implica que
el lineal
sistema Ax = b está bien acondicionado si κ
p
(A) es pequeña. En particular, si κ
p
(A) es pequeña
y la norma residual relativa
r
p
La
p
x
p
también es pequeño, entonces la solución aproximada
z tiene un pequeño error (en el sentido relativo normwise). Sin embargo, si κ
p
(A) es grande, entonces
el sistema lineal es mal condicionado. Volvamos a los ejemplos 3.3 y 3.4 para ilustrar
el atado en el hecho 3.5.
Ejemplo. El sistema lineal Ax = b en el ejemplo 3.3 es
A = (
1
1
1 1 + ǫ)
,
b = (
2
2 + ǫ)
,
0 <ǫ «1,
x = (
1
1)
,
y una solución aproximada z = (2 0)
T
con residual
r = Az - b = (
0
-Ǫ)
.
El error relativo en la norma infinito es z - x
∞
/ X
∞
= 1, lo que indica que z tiene
sin precisión alguna. Para ver cuál es el límite en el Hecho 3.5 predice, determinamos
la inversa
La
-1
=
1
ǫ (
1 + ǫ -1
-1
1)
,
las normas de la matriz
La
∞
= 2 + ǫ,
La
-1
∞
=
2 + ǫ
ǫ
κ
∞
(A) =
(2 + ǫ)
2
ǫ
,
así como los ingredientes para la norma residual relativa
r
∞
= Ǫ,
x
∞
= 1,
r
∞
La
∞
x
∞
=
ǫ
2 + ǫ
.
Página 5
3.2. Acondicionamiento de Sistemas Lineales
53
Desde κ
∞
(A) ≈ 4 / ǫ, el sistema Ax = b es mal condicionado. El encuadernado en Realidad 3.5
iguales
z - x
∞
x
∞
≤ κ
∞
(A)
r
∞
La
∞
x
∞
= 2 + ǫ,
y así predice correctamente la inexactitud total de z. La pequeña norma residual
relativa
de unos ǫ / 2 aquí es engañosa ya que el sistema lineal es mal condicionado.
Incluso los sistemas triangulares no son inmunes al mal acondicionado.
Ejemplo 3.6 El sistema lineal Ax = b en el ejemplo 3.4 es
A = (
1 10
8
0
1)
,
b = (
1 + 10
8
1
),
x = (
1
1)
,
y una solución aproximada z = (1 + 0 10
-8
)
T
con residual
r = Az - b = (
0
10
-8
).
El error relativo normwise en la norma infinito es z-x
∞
/ X
∞
= 1 e indica
que z no tiene precisión. De
La
-1
= (
1 -10
8
0
1)
se determina el número de condición de Ax = b como κ
∞
(A) = (1 10
8
)
2
≈ 10
16
. Nota
que el condicionamiento de sistemas triangulares no se puede detectar con sólo mirar la
elementos de la diagonal, y los elementos diagonales de A son iguales a 1 y lejos de
cero, pero
sin embargo, A es mal condicionado con respecto a la inversión.
La norma residual relativa es
r
∞
La
∞
x
∞
=
10
-8
1 + 10
8
≈ 10
-16
.
Como consecuencia, el límite en el Hecho 3,5 es igual a
z - x
∞
x
∞
≤ κ
∞
(A)
r
∞
La
∞
x
∞
= (1 + 10
8
) 10
-8
≈ 1,
y predice correctamente que z no tiene precisión en absoluto.
El siguiente límite residual no requiere conocimiento de la solución exacta.
El límite es análoga a la de la Realidad 3.5, pero fuera El error relativo con
respecto a la solución perturbado.
Realidad 3.7 (Computable Residual Bound) Sea A ∈ C
n × n
ser no singular y
Ax = b. Si z = 0 y r = Az - b a continuación
z - x
p
z
p
≤ κ
p
(A)
r
p
La
p
z
p
,
Página 6
54
Capítulo 3. Sistemas lineales
Ahora vamos a derivar límites que separan a las perturbaciones en la matriz de
aquellos en el lado derecho. Primero presentamos un límite con respecto a la relativa
error en el perturbado solución, ya que es más fácil de obtener.
Realidad 3.8 (Matrix y derecha Perturbación Side) Sea A ∈ C
n × n
ser no-
singular y Ax = b. Si (A + E) z = b + f con z = 0, entonces
z - x
p
z
p
≤ κ
p
(A) (ǫ
La
+ Ǫ
F
),
donde
ǫ
La
=
E
p
La
p
,
ǫ
F
=
F
p
La
p
z
p
.
Prueba. En el límite en el Hecho 3.7, las cuentas r residuales para ambos
perturbaciones,
porque si (A + E) z = b + f entonces r = Az - b = f - Ez. Sustitución r
p
≤
E
p
z
p
+ F
p
Hecho en 3,7 da el destino deseado.
A continuación es un análogo unido por el error con respecto a la solución exacta.
En contraste con Realidad 3.8, por debajo de la envolvente requiere la matriz
perturbado a ser no-
singular.
Realidad 3.9 (Matrix y derecha Perturbación Side) Sea A ∈ C
n × n
ser no-
singular y Ax = b con b = 0. Si (A + E) z = b + f con A
-1
p
E
p
≤ 1/2
entonces
z - x
p
x
p
≤ 2κ
p
(A) (ǫ
La
+ Ǫ
F
)
donde
ǫ
La
=
E
p
La
p
,
ǫ
F
=
F
p
La
p
x
p
.
Prueba. Podríamos deducir el destino deseado de la perturbación con destino a la
matriz
multiplicación in Fact 2.22 y inversión de la matriz en el Hecho 2.25. Sin embargo, la
resultante
unida no sería apretado, ya que no se aprovecha de cualquier relación entre la matriz
y derecha lado. Por eso partimos de cero.
Restando (A + E) x = b + Ex de (A + E) z = b + f da (A + E) (z - x) =
f - Ex. Corolario 2.24 implica que A + E es no singular. Por lo tanto podemos escribir
z - x = (A + E)
-1
(Ex + f). Tomando las normas y la aplicación de los rendimientos Corolario 2.24
z - x
p
≤ 2 A
-1
p
(E
p
x
p
+ F
p
) = 2κ
p
(A) (ǫ
La
+ Ǫ
F
) X
p
.
Podemos simplificar la cota de Hecho 3.9 y obtener una versión más débil.
Corolario 3.10. Vamos Ax = b con A ∈ C
n × n
no singular y b = 0. Si (A + E) z =
b + f con A
-1
p
E
p
<1/2, entonces
z - x
p
x
p
≤ 2κ
p
(A) (ǫ
La
+ Ǫ
b
),
donde ǫ
La
=
E
p
La
p
, Ǫ
b
=
F
p
b
p
.
Page 7
3.2. Acondicionamiento de Sistemas Lineales
55
Prueba. En Realidad 3.9 obligado b
p
≤ A
p
x
p
.
Efecto del Lado Derecho. Hasta ahora nos hemos centrado casi exclusivamente en la
efecto que la matriz tiene en el acondicionamiento del sistema lineal, y tenemos
ignorado el lado derecho. La ventaja de este enfoque es que la resultante
límites de perturbación son válidas para todos los lados derechos. Sin embargo de los
límites pueden ser demasiado
pesimista para algunos lados derechos, como demuestra el siguiente ejemplo.
Ejemplo 3.11 Nos ilustran que una derecha favorable puede mejorar la
acondicionado de un sistema lineal. Vamos a cambiar el lado derecho en el ejemplo
3.6
y considerar el sistema lineal Ax = b con
A = (
1 10
8
0
1)
,
b = (
1
1)
,
x = (
1 - 10
8
1
),
y la solución aproximada
z = (
-10
8
- 9
1 + 10
-7
),
r = Az - b = (
0
10
-7
).
Aunque κ
∞
(A) ≈ 10
16
implica que A es mal condicionado con respecto a la inversión,
el error relativo de z es sorprendentemente pequeña,
z - x
∞
x
∞
=
10
1 - 10
8
≈ 10
-7
.
El límite en el Hecho 3.5 reconoce esto, también. De
κ
∞
(A) = (1 + 10
8
)
2
,
r
∞
La
∞
x
∞
=
10
-7
(10
8
- 1) (10
8
+ 1)
obtenemos
z - x
∞
x
∞
≤ κ
∞
(A)
r
∞
La
∞
x
∞
=
10
8
+ 1
10
8
- 1
10
-7
≈ 10
-7
.
Entonces, ¿qué está pasando aquí? Observe que la norma residual relativa es muy
pequeña,
r
∞
La
∞
x
∞
≈ 10
-23
, Y que las normas de la matriz y en el costado derecho
son grandes en comparación con la norma de la parte derecha, es decir, un
∞
x
∞
≈ 10
16
»
b
∞
= 1. Podemos representar esta situación por escrito el límite de Realidad 3.5 como
z - x
∞
x
∞
≤
La
-1
∞
b
∞
La
-1
b
∞
r
∞
b
∞
,
Debido A
-1
∞
b
∞
/ A
-1
b
∞
≈ 1, la multiplicación de la matriz de A
-1
con b es
bien acondicionado, con respecto a los cambios en b. Por lo tanto el sistema lineal Ax
= b es
bien acondicionado para este muy particular de la derecha lado b.
Página 8
56
Capítulo 3. Sistemas lineales
Ejercicios
(I) límites residuales absolutos.
Sea A ∈ C
n × n
ser no singular, Ax = b, y r = Az-b para algunos z ∈ C
n
. Mostrar
r
p
/ A
p
≤ z - x
p
≤ A
-1
p
r
p
.
(Ii) Baje límites de error relativo normwise.
Sea A ∈ C
n × n
ser no singular, Ax = b, b = 0, yr = Az-b para algunos z ∈ C
n
.
Mostrar
r
p
La
p
x
p
≤
z - x
p
x
p
,
1
κ
p
(A)
r
p
b
p
≤
z - x
p
x
p
.
(Iii) Relación entre las normas residuales relativos.
Sea A ∈ C
n × n
ser no singular, Ax = b, b = 0, yr = Az-b para algunos z ∈ C
n
.
Mostrar
r
p
La
p
x
p
≤
r
p
b
p
≤ κ
p
(A)
r
p
La
p
x
p
.
(Iv) Si un sistema lineal es bien acondicionado, y la norma residual relativa es pequeña,
a continuación, la aproximación tiene aproximadamente la misma norma como la
solución.
Sea A ∈ C
n × n
ser no singular, y b = 0. Demostrar: Si
ρκ <1,
donde κ κ =
p
(A),
ρ =
b - Az
p
b
p
entonces
1 - κρ ≤
z
p
x
p
≤ 1 + κρ.
(V) Para este lado especial derecha, el sistema lineal está bien condicionada con
refiere a las modificaciones en el lado derecho.
Sea A ∈ C
n × n
ser no singular, Ax = b, y Az = b + f. Mostrar: Si A
-1
p
=
La
-1
b
p
/ B
p
entonces
z - x
p
x
p
≤
F
p
b
p
.
1. Sea A ∈ C
n × n
ser la matriz bidiagonal
A =
1-α
1
-Α
.
.
.
.
.
.
1
-Α
1
.
a) Demostrar que
κ
∞
(A) = {
| Α | 1
| Α | -1
(| Α |
n
- 1)
si | α | = 1
2n
si | α | = 1.
Sugerencia: Consulte el ejercicio 4 en el § 1.13.
Página 9
3.3. Solución de Sistemas triangulares
57
b) Supongamos que queremos calcular una aproximación a la solución de Ax = e
n
cuando α = 2 y n = 100. ¿Qué tan pequeño, aproximadamente, es necesario que el
residual
norma sea, de modo que el error relativo normwise unido es menor que 0,1?
2. Componentwise números de condición.
Sea A ∈ C
n × n
ser no singular, b = 0, y Ax = b. Demostrar: Si x
j
= 0 entonces
| Z
j
- X
j
|
| X
j
|
≤ κ
j
b - Az
p
b
p
,
donde κ
j
=
x
p
| X |
j
e
*
j
La
-1
p
La
p
.
Podemos interpretar κ
j
como el número de condición de x
j
. ¿Qué componentes de x
se puede esperar a ser sensibles a las perturbaciones?
3. Condición estimación.
Si A es no singular. Mostrar cómo determinar un límite inferior para κ
p
(A) con
una solución del sistema lineal que implica A.
3.3 Solución de Sistemas triangulares
Sistemas lineales con matrices triangulares son fáciles de resolver. En el algoritmo
siguiente
se utiliza el símbolo "≡" para representar una asignación de un valor.
Algoritmo 3.1. Solución Sistema triangular superior.
Entrada: no singular matriz triangular superior A ∈ C
n × n
, Vector b ∈ C
n
Salida: x = A
-1
b
1. Si n = 1, entonces x ≡ b / A.
2. Si n> 1 partición
A =
(
n - 1
1
n - 1A
un
1
0
un
nn
),
x =
(
n - 1x
1
x
n
),
b =
(
n - 1b
1
b
n
)
(I) el conjunto X
n
≡ b
n
/ A
nn
.
(Ii) Repita el proceso en el menor SYSTEMAX = b - x
n
un.
El proceso de resolución de un sistema triangular superior también se llama
backsubstitu-
ción, y el proceso de resolución de un sistema triangular inferior se llama adelante
eliminación
ción.
Ejercicios
(I) describen un algoritmo para resolver un sistema triangular inferior no singular.
(Ii) Solución de Sistemas de bloque triangular superior.
Página 10
58
Capítulo 3. Sistemas lineales
Incluso si A no es triangular, puede tener una estructura más gruesa triangular de los
cuales
uno aprovechar. Por ejemplo, vamos a
A = (
La
11
La
12
0
La
22
)
donde A
11
y A
22
son no singular. Mostrar cómo resolver Ax = b mediante la resolución de dos
sistemas más pequeños.
(Iii) Acondicionamiento de Sistemas triangulares.
Este problema se ilustra que una matriz triangular no singular es mal condicionado,
si un elemento de la diagonal es pequeña en magnitud en comparación con el otro no-
cero
elementos de matriz.
Sea A ∈ C
n × n
ser triangular superior y no singular. Show:
κ
∞
(A) ≥
La
∞
min
1 ≤ j ≤ n
| Un
jj
|
.
3.4 Estabilidad de los métodos directos
Nosotros no resolvemos los sistemas generales no singulares Ax = b, formando primero
un
-1
y
luego multiplicar por b (del mismo modo, usted no computar 2/4 formando primero un
cuarto
y luego multiplicando por 2). Es demasiado caro y numéricamente menos precisa,
consulte
Ejercicio 4.
A más eficientes factores de aproximación A en un producto de matrices más simples y
a continuación, resuelve una secuencia de sistemas lineales simples. Ejemplos de tales
factorizaciones
incluir:
• factorización LU: A = LU (si existe), donde L es triangular inferior y U es
triangular superior.
• factorización Cholesky: A = LL
*
(Si existe), donde L es triangular inferior.
• factorización QR: A = QR, donde Q es unitaria y R es triangular superior. Si
A es real, entonces Q es real ortogonal.
Los métodos que resuelven sistemas lineales por primera factoring una matriz se
llaman directa
métodos. En general, un método de factores directos A = S
1
S
2
(Donde "S" significa
"Matriz simple" y) calcula entonces la solución x = A
-1
b = S
-1
2
S
-1
1
b resolviendo
dos sistemas lineales.
Algoritmo 3.2. Método Directo.
Entrada: matriz no singular A ∈ C
n × n
, Vector b ∈ C
n
Salida: solución de Ax = b
1. Factor A = S
1
S
2
.
2. Resuelve el sistema S
1
y = b.
3. Resuelve el sistema S
2
x = y.
Página 11
3.4. Estabilidad de los métodos directos
59
Cada paso del algoritmo anterior es en sí misma un problema computacional que puede
ser sensible a las perturbaciones. Tenemos que asegurarnos de que el algoritmo no
introducir la sensibilidad adicional que contiene los pasos innecesarios mal
condicionados. Para
un método directo, esto significa que los factores S
1
y S
2
debe estar bien acondicionado
con respecto a la inversión. El siguiente ejemplo ilustra que esta no puede ser tomada
por sentado. Es decir, incluso si A es bien acondicionado con respecto a la inversión, S
1
o
S
2
puede ser mal condicionado.
Ejemplo 3.12 El sistema lineal Ax = b con
A = (
ǫ 1
1 0)
,
b = (
1 + ǫ
1)
,
0 <ǫ ≤ 1/2,
tiene la solución x = (1 1)
T
. El sistema lineal está bien condicionada por
La
-1
= (
0
1
1-ǫ)
,
κ
∞
(A) = (1 + ǫ)
2
≤ 9.4.
Podemos factor A = S
1
S
2
donde
S
1
= (
1 0
1
ǫ
1)
,
S
2
= (
ǫ
1
0 -
1
ǫ
)
y luego resolver los sistemas triangulares S
1
y = b y S
2
x = y. Supongamos que calculamos
la factorización y la primera solución de sistema exactamente lineal, es decir,
A = S
1
S
2
,
S
1
y = b,
y = (
1 + ǫ
-
1
ǫ
),
y que hacemos errores sólo en la solución del segundo sistema, es decir,
S
2
z = y + r
2
= (
1
-
1
ǫ
),
r
2
= (
-Ǫ
0)
.
A continuación, la solución calculada satisface
z = (
0
1)
,
z - x
∞
x
∞
= 1.
El error relativo es grande debido a que el componente principal de z es completamente
erróneo
- A pesar de está muy bien acondicionado. ¿Qué ha pasado? Las matrices triangulares
S
1
y S
2
contener elementos que son mucho mayores en magnitud que los elementos
de A,
La
∞
= 1 + ǫ,
S
1 ∞
=
1 + ǫ
ǫ
,
S
2 ∞
=
1
ǫ
,
y lo mismo es cierto para las inversas
La
-1
∞
= 1 + ǫ,
S
-1
1
∞
= S
-1
2
∞
=
1 + ǫ
ǫ
.
Página 12
60
Capítulo 3. Sistemas lineales
Los números de condición de S
1
y S
2
son
κ
∞
(S
1
) = (
1 + ǫ
ǫ)
2
≈
1
ǫ
2
,
κ
∞
(S
2
) =
1 + ǫ
ǫ
2
≈
1
ǫ
2
.
Como consecuencia, S
1
y S
2
son mal condicionada con respecto a la inversión. Aunque
el sistema lineal original de Ax = b está bien acondicionado, el algoritmo contiene
pasos
que están enfermos acondicionado, a saber, la solución de los sistemas lineales S
1
y = b y
S
2
x = y.
Queremos evitar métodos, como la de arriba, que el factor de un bien acondicionado
matriz en dos matrices mal acondicionado. Tales métodos se denominan
numéricamente un-
estable.
Definición 3.13. Un algoritmo es (muy informal) numéricamente estable en exacta
aritmética, si cada paso en el algoritmo no es mucho peor que el acondicionado
problema original.
Si un algoritmo contiene pasos que son mucho peores acondicionado que el orig-
inal problema, el algoritmo se llama numéricamente inestable.
Las conversaciones definición anterior sobre "la estabilidad en aritmética exacta"
porque en este
libro que no tienen en cuenta los errores causados por las operaciones aritméticas
flotantes
(Análisis que estiman estos errores pueden ser bastante aburrido). Sin embargo, si un
problema
es numéricamente inestable en aritmética exacta, entonces también es numéricamente
inestable en
aritmética de precisión finita, de modo que una distinción no es necesario en este caso.
A continuación se analiza cómo el condicionamiento de los factores S
1
y S
2
afecta a la
la estabilidad del algoritmo 3.2. Los límites se expresan en términos de residual
relativa
normas de los sistemas lineales.
Hecho 3.14 (Estabilidad en aritmética exacta de los métodos directos) Sea A ∈ C
n × n
ser no singular, Ax = b, b = 0, y
A + E = S
1
S
2
,
ǫ
La
=
E
p
La
p
S
1
y = b + r
1
,
ǫ
1
=
r
1 p
b
p
S
2
z = y + r
2
,
ǫ
2
=
r
2 p
y
p
.
Si A
-1
p
E
p
≤ 1/2, entonces
z - x
p
x
p
≤ 2κ
p
(A)
{} {}
condición
(Ǫ
La
+ Ǫ
1
+ Ǫ),
donde
ǫ =
S
-1
2
p
S
-1
1
p
(A + E)
-1
p
}
{{
}
estabilidad
ǫ
2
(1 + ǫ
1
).
Página 13
3.4. Estabilidad de los métodos directos
61
Prueba. Ampliación de la mano derecha da
(A + E) z = S
1
S
2
z = S
1
(Y + r
2
) = S
1
y + S
1
r
2
= B + r
1
+ S
1
r
2
.
El enfoque obvio sería aplicar Hecho 3.9 para el sistema lineal perturbado
(A + E) z = b + r
1
+ S
1
r
2
. Sin embargo, el resultado obligado sería demasiado pesimista,
porque no explotamos la relación entre la matriz y el lado derecho. En su lugar,
podemos explotar esta relación mediante la sustracción (A + E) x = b + Ex para obtener
(A + E) (z - x) =-Ex + r
1
+ S
1
r
2
.
Corolario 2.24 implica que A + E es no singular, por lo que
z - x = (A + E)
-1
(Ex + r
1
) + S
-1
2
r
2
.
Tomando normas da
z - x
p
≤ (A + E)
-1
p
(E
p
x
p
+ R
1 p
) + S
-1
2
p
r
2 p
.
Sustituyendo r
1 p
= Ǫ
1
b
p
≤ ǫ
1
La
p
x
p
da
z - x
p
≤ (A + E)
-1
p
La
p
(Ǫ
La
+ Ǫ
1
) X
p
+ S
-1
2
p
r
2 p
.
Queda r encuadernado
2 p
. De r
2 p
= Ǫ
2
y
p
e y = S
-1
1
(B + r
1
) Sigue
r
2 p
= Ǫ
2
y
p
≤ S
-1
1
p
(B
p
+ R
1 p
).
Condiciones de selección r
1 p
ya que los rendimientos por encima de
r
2 p
≤ S
-1
1
p
La
p
x
p
ǫ
2
(1 + ǫ
1
).
Sustituimos esta cota para r
2 p
en lo anterior con destino a z - x
p
,
z - x
p
≤ A
p
x
p
((A + E)
-1
p
(Ǫ
La
+ Ǫ
1
) + S
-1
2
p
S
-1
1
p
ǫ
2
(1 + ǫ
1
)).
Factoring out (A + E)
-1
p
y aplicando el Corolario 2.24 da el destino deseado.
Observación 3.15.
• La estabilidad numérica en aritmética exacta de un método directo puede ser repre-
representada por el número de condición para la multiplicación de las dos matrices S
-1
2
y S
-1
1
,
véase Hechos 2.22, ya que
S
-1
2
p
S
-1
1
p
(A + E)
-1
p
=
S
-1
2
p
S
-1
1
p
S
-1
2
S
-1
1
p
.
• Si S
-1
2
p
S
-1
1
p
≈ (A + E)
-1
p
a continuación, la multiplicación de la matriz S
-1
2
S
-1
1
está bien acondicionado. En este caso, el límite en el Hecho 3,14 es aproximadamente
2κ
p
(A) (ǫ
La
+ Ǫ
1
+ Ǫ
2
(1 + ǫ
1
)), Y el algoritmo 3.2 es numéricamente estable en exacta
aritmética.
Página 14
62
Capítulo 3. Sistemas lineales
• Si S
-1
2
p
S
-1
1
p
»(A + E)
-1
p
a continuación, Algoritmo 3.2 es inestable.
Ejemplo 3.16 Volviendo al ejemplo 3.12, vemos que
κ
∞
(A) = (1 + ǫ)
2
,
S
-1
1
∞
S
-1
2
∞
La
-1
∞
=
1 + ǫ
ǫ
2
,
r
2 ∞
y
∞
= Ǫ
2
.
Por lo tanto el límite de Fact 3.14 es igual a 2 (1 + ǫ)
3
e indica correctamente la inexactitud
de z.
El siguiente destino es similar a la de la Realidad 3,14, pero delimita el
error relativo con respecto a la solución calculada.
Hecho 3.17 (A Segunda Estabilidad Bound) Sea A ∈ C
n × n
ser no singular, Ax = b,
y
A + E = S
1
S
2
,
ǫ
La
=
E
p
La
p
S
1
y = b + r
1
,
ǫ
1
=
r
1 p
S
1 p
y
p
S
2
z = y + r
2
,
ǫ
2
=
r
2 p
S
2 p
z
p
donde y = 0 y z = 0. Entonces
z - x
p
z
p
≤ κ
p
(A)
{} {}
condición
(Ǫ
La
+ Ǫ),
donde
ǫ =
S
1 p
S
2 p
La
p
}
{{
}
estabilidad
(Ǫ
2
+ Ǫ
1
(1 + ǫ
2
)).
Prueba. Al igual que en la prueba de 3.14 Fact empezamos por la ampliación de la
parte derecha,
(A + E) z = S
1
S
2
z = S
1
(Y + r
2
) = S
1
y + S
1
r
2
= B + r
1
+ S
1
r
2
.
El residuo es r = Az - b =-Ez + S
1
y + S
1
r
2
= B + r
1
+ S
1
r
2
. Tome las normas y
sustituir las expresiones para r
1 p
y r
2 p
para obtener
r
p
≤ E
p
z
p
+ Ǫ
1
S
1 p
y
p
+ Ǫ
2
S
1 p
S
2 p
z
p
.
To y destino
p
escribir y = S
2
z - r
2
, Tener normas y reemplazar r
2 p
= Ǫ
2
S
2 p
z
p
a
conseguir
y
p
≤ S
2 p
y
p
+ R
2 p
= S
2 p
z
p
(1 + ǫ
2
).
Sustituyendo esto en la cota de r
p
da
r
p
≤ z
p
(E
p
+ S
1 p
S
2 p
ǫ
1
(1 + ǫ
2
) + S
1 p
S
2 p
ǫ
2
) = Un
p
z
p
(Ǫ
La
+ Ǫ).
Página 15
3.4. Estabilidad de los métodos directos
63
El error relativo unido ahora sigue de hecho 3.7.
En Realidad 3,17, la estabilidad numérica está representado por el factor S
1 p
S
2 p
/ A
p
.
Si S
1 p
S
2
»A
p
a continuación, Algoritmo 3.2 es inestable.
Ejercicios
1. El siguiente destino es ligeramente más estrecho que el de Hechos 3.14.
Bajo las condiciones de Hecho 3.14 muestran que
z - x
p
x
p
≤ 2κ
p
(A) [ǫ
La
+ Ρ
p
(A, B) ǫ]
donde
ρ
p
(A, b) =
b
p
La
p
x
p
,
ǫ =
S
-1
2
p
S
-1
1
p
(A + E)
-1
p
ǫ
2
(1 + ǫ
1
) + Ǫ
1
.
2. El siguiente unido sugiere que el algoritmo 3.2 es inestable si el primer factor
está mal condicionada con respecto a la inversión.
Bajo las condiciones de Hecho 3.14 muestran que
z - x
p
x
p
≤ 2κ
p
(A) [ǫ
La
+ Ǫ
1
+ Κ
p
(S
1
) Ǫ
2
(1 + ǫ
1
)].
3. El siguiente unido sugiere que el algoritmo 3.2 es inestable si la segunda
factor es mal condicionado con respecto a la inversión.
Vamos Ax = b, donde A es no singular. También vamos a
A = S
1
S
2
,
S
1
y = b,
S
2
z = y + r
2
,
donde ǫ
2
=
r
2 p
S
2 p
z
p
y z = 0. Demuestre que
z - x
p
z
p
≤ κ
p
(S
2
) Ǫ
2
.
4. ¿Cómo no para resolver sistemas lineales.
Se podría resolver un sistema lineal Ax = b, formando un
-1
, Y luego multiplicando
La
-1
con b. El abajo unido sugiere que este planteamiento es probable que sea
numéricamente menos preciso que el método directo.
Sea A ∈ C
n × n
ser no singular, y Ax = b con b = 0. Sea A + E ∈ C
n × n
con A
-1
p
E p ≤ 1/2. Calcular Z = (A + E)
-1
y z = Z (b + f). Mostrar
que
z - x
p
x
p
≤ κ
p
(A) (2
La
-1
p
b
p
La
-1
b
p
ǫ
La
+ Ǫ
F
),
donde
ǫ
La
=
E
p
La
p
,
ǫ
F
=
F
p
La
p
x
p
,
y compararlo con el límite de Datos 3.9.
Sugerencia: Utilice los límites de perturbación para la multiplicación de la matriz y de
la matriz in-
versión en Hechos 2,22 y 2,25.
Página 16
64
Capítulo 3. Sistemas lineales
3.5 Factorización LU
La factorización LU de una matriz es la base para la eliminación de Gauss.
Definición 3.18. Sea A ∈ C
n × n
. Una factorización A = LU, donde L es la unidad inferior
triangular y U es la matriz triangular superior se llama factorización LU de A.
La factorización LU de una matriz no singular, si existe, es único, consulte la
Ejercicio 5 del § 1.13. Por desgracia, hay matrices que no tienen una LU fac-
torizations, como el ejemplo a continuación ilustra.
Ejemplo 3.19 La matriz no singular
A = (
0 1
1 0)
no puede tenerse en cuenta en A = LU, donde L es triangular inferior y U es superior
triangular. Supongamos por el contrario que sí. Entonces
(0 1
1 0)
= (
1 0
l 1) (
u
1
u
1
0
u
3
).
La primera columna de la igualdad implica u
1
= 0, y lu
1
= 1 por lo que u
1
= 0, a contra-
dicción.
Ejemplo 3.12 ilustra que una matriz A que está bien condicionada con respecto
a la inversión puede tener factores de LU que son mal condicionada con respecto a la
inversión.
Algoritmo 3.3 muestra cómo permutar las filas de una matriz no singular para
que la matriz permutada tiene una factorización LU. Permutando las filas de A se
llama
pivotante parcial - a diferencia de completar pivotante en filas y columnas son
permutado. Con el fin de evitar que los factores de ser demasiado enfermo
acondicionado, Algoritmo
3,3 elige una matriz de permutación de manera que los elementos de L están acotadas.
Algoritmo 3.3. Factorización LU con pivoteo parcial.
Entrada: matriz no singular A ∈ C
n × n
Salida: matriz de permutación P, la unidad matriz triangular inferior L,
matriz triangular superior U tal que PA = LU
1. Si n = 1 entonces P ≡ 1, L ≡ 1 y U ≡ A.
2. Si n> 1, entonces elegir una matriz de permutación P
n
de tal manera que
P
n
A =
(
1 n - 1
1
α
un
n - 1
d A
n-1
),
donde α tiene la magnitud más grande entre todos los elementos de la columna
principal,
es decir, | α | ≥ d
∞
, Y el factor
P
n
A = (
1
0
l I
n-1
) (Α un
0 S)
,
Página 17
3.5. LU Factorización
65
donde l ≡ dα
-1
y S ≡ Un
n-1
- La.
3. Calcule P
n-1
S = L
n-1
U
n-1
, Donde P
n-1
es una matriz de permutación, L
n-1
es
unidad triangular inferior y U
n-1
es triangular superior.
4. Entonces
P ≡ (
1
0
0 P
n-1
) P
n
,
L ≡ (
1
0
P
n-1
l de L
n-1
),
U ≡ (
α
un
0 U
n-1
).
Observación 3.20.
• Cada iteración de la etapa 2 en el algoritmo 3.3 determina una columna de L y uno
fila de U.
• Asegura pivotantes parciales que la magnitud de los multiplicadores es limitado por
uno, es decir, l
∞
≤ 1 en el paso 2 del algoritmo 3.3. Por lo tanto todos los elementos de L
tener una magnitud menor o igual a uno.
• El α escalar se llama un pivote, y la matriz S = A
n-1
- Dα
-1
a es un Schur
complementar. Ya encontramos Schur complementa en el Hecho 1.14, en el marco
de la inversa de una matriz particionada. En este particular, Schur complemento S
la matriz dα
-1
a es un producto externo.
• Los multiplicadores se pueden recuperar fácilmente a partir de L, ya que son
elementos de
L. Paso 4 del algoritmo 3.3 muestra que la primera columna de L contiene los
multiplicadores P
n-1
l que cero elementos fuera de la primera columna. Del mismo modo, la columna
i de L que los efectos multiplicadores que el cero a los elementos de la columna i. Sin
embargo,
los multiplicadores no se pueden recuperar fácilmente a partir de L
-1
.
• Paso 4 del algoritmo 3.3 De S = P
T
n-1
L
n-1
U
n-1
, La extracción de la por-
matriz de mutación,
P
n
A = (
1
0
0 P
T
n-1
) (1
0
P
n-1
l I
n-1
) (Α
un
0 L
n-1
U
n-1
)
y la separación de las partes triangulares inferiores y superiores
(1
0
P
n-1
l I
n-1
) (Α
un
0 L
n-1
U
n-1
) = (1
0
P
n-1
l de L
n-1
) (Α
un
0 U
n-1
).
• En el vector P
n-1
l, la permutación P
n-1
reordena los multiplicadores de l, pero
No cambie sus valores. Para combinar todas las permutaciones en una sola permuta-
ción matriz P, tenemos que tirar de todas las matrices de permutación delante de la
menor
matriz triangular. Esto, a su vez, requiere reordenamiento en los multiplicadores
anterior
pasos.
Hecho 3.21 (LU Factorización con pivotante parcial) Cada singular ma-
matriz A tiene una factorización PA = LU, donde P es una matriz de permutación, L es
la unidad
triangular inferior, y U es no singular triangular superior.
Página 18
66
Capítulo 3. Sistemas lineales
Prueba. Realizar una prueba de inducción basado en el algoritmo 3.3.
Un factorización PA = LU es, en general, no es única, porque hay muchos
opciones para la matriz de permutación.
Con una factorización PA = LU, las filas del sistema lineal Ax = b son
reorganizado, y el sistema que hay que resolver es PAx = Pb. El proceso de la solución
de este
sistema lineal se denomina eliminación de Gauss con pivotamiento parcial.
Algoritmo 3.4. Eliminación gaussiana con pivoteo parcial.
Entrada: matriz no singular A ∈ C
n × n
, Vector b ∈ C
n
Salida: solución de Ax = b
1. Factor PA = LU con el Algoritmo 3.3.
2. Resolver el sistema Ly = Pb.
3. Resuelve el sistema Ux = y.
El siguiente límite implica que la eliminación gaussiana con pivoteo parcial es
estable en aritmética exacta, si los elementos de U no son mucho más grandes en
magnitud
que las de A.
Corolario 3.22 (Estabilidad en aritmética exacta de Gauss eliminación
con pivoteo parcial). Si A ∈ C
n × n
es no singular, Ax = b,
P (A + E) = LU,
ǫ
La
=
E
∞
La
∞
Ly = Pb + r
L
,
ǫ
L
=
r
L ∞
L
∞
y
∞
Uz = y + r
U
,
ǫ
U
=
r
U ∞
U
∞
z
∞
.
donde y = 0 y z = 0, entonces
z - x
∞
z
∞
≤ κ
∞
(A) (ǫ
La
+ Ǫ),
donde ǫ = n
U
∞
La
∞
(Ǫ
U
+ Ǫ
L
(1 + ǫ
U
)).
Prueba. Aplicar Fact 3.17 a A + E = S
1
S
2
, Donde S
1
= P
T
L y S
2
= U. Per-
matrices de mutaciones no cambian p-normas, consulte el Ejercicio (iv) en el § 2.6, de
modo que
P
T
L
∞
= L
∞
. Debido a que los multiplicadores son los elementos de L, y | l
ij
| ≤ 1 con
pivoteo parcial, obtenemos L
∞
≤ n.
La relación U
∞
/ A
∞
representa el elemento de crecimiento durante Gaussian elimina-
minación. En la práctica, U
∞
/ A
∞
tiende a ser pequeña, pero hay n × n matrices
para la que U
∞
/ A
∞
= 2
n-1
/ N es posible, véase el Ejercicio 2. Si U
∞
»A
∞
a continuación, la eliminación gaussiana es inestable.
Página 19
3.5. LU Factorización
67
Ejercicios
(I) Determinar la factorización LU de un no-singular triangular inferior matriz A.
Expresar los elementos de L y U en términos de los elementos de A.
(Ii) Determinar una factorización A = LU cuando A es triangular superior.
(Iii) En el caso
A = (
0
0
La
1
0)
,
con A
1
no singular, determine una factorización PA = LU, donde L es la unidad
triangular inferior y U es triangular superior.
(Iv) factorización LDU.
Uno puede hacer una factorización LU más simétrica, al exigir que tanto
matrices triangulares tienen unos en la diagonal, y la factorización A = LD
~
U, donde
L es la unidad inferior triangular, D es diagonal, y
~
U es la unidad triangular superior.
Dada una factorización LU A = LU, expresa los elementos de la diagonal d
ii
de D y
los elementos de u ~
ij
en términos de elementos de U.
(V) Bloquear factorización LU.
Supóngase que se puede dividir la matriz invertible A como
A = (
La
11
La
12
La
21
La
22
),
donde A
11
es invertible. Compruebe que A tiene la factorización bloque A = LU
donde
L = (
Yo
0
La
21
La
-1
11
I)
,
U = (
La
11
La
12
0
S)
,
y S ≡ Un
22
- Un
21
La
-1
11
La
12
es un complemento de Schur. Tenga en cuenta que L es la unidad inferior
triangular. Sin embargo U sólo se bloquee triangular superior, debido a que A
11
y S son
en general no triangular. Por lo tanto una factorización LU bloque no es el mismo que
una factorización LU.
Determine un bloque LDU factorización A = LDU, donde L es la unidad inferior trian-
gular, U es la unidad triangular superior, y D es diagonal por bloques.
(Vi) La matriz
A =
0 1 1 2
1 0 3 4
1 2 1 2
3 4 3 4
no tiene una factorización LU. Sin embargo, tiene un factor de bloque LU-
zación A = LU con
La
11
= (
0 1
1 0)
.
Determinar L y U.
(Vii) Factorización UL.
Página 20
68
Capítulo 3. Sistemas lineales
Análogo al algoritmo 3.3, presentar un algoritmo que los factores de cualquier
cuadrados
la matriz A en PA = UL, donde P es una matriz de permutación, U es la unidad superior
triangular, y L es triangular inferior.
1. Sea A ∈ C
n × n
ser no singular y P una matriz de permutación tal que
PA = (
La
11
La
12
La
21
La
22
)
con A
11
no singular. Mostrar: Si todos los elementos de A
21
La
-1
11
son menos de uno de cada
magnitud continuación
κ
∞
(Un
22
- Un
21
La
-1
11
La
12
) ≤ n
2
κ
∞
(A).
2. Calcula la factorización LU de la matriz n × n
A =
1
1
-1
1
1
-1 -1
1
1
.
.
.
.
.
.
.
.
.
.
.
.
-1. . . . . . -1 1
.
Demostrar que giro no es necesario. Determinar las normas de uno de A y U.
3. Sea A ∈ C
n × n
y A + UV
*
ser no singular, donde u, v ∈ C
n
. Mostrar cómo
resolver (A + uv
*
) X = b usando dos sistemas lineales resuelve con A, dos productos internos,
un vector de multiplicación escalar, y una suma de vectores.
4. Este problema muestra que si la eliminación de Gauss con pivote parcial encon-
tros un pequeño giro, entonces A debe ser mal condicionado.
Sea A ∈ C
n × n
ser no singular, y PA = LU, donde P es una permutación
matriz, L es la unidad triangular con elementos | l
ij
| ≤ 1 y U es triangular superior
con elementos u
ij
. Demuestre que κ
∞
(A) ≥ A
∞
/ Min
j
| U
jj
|.
5. Las siguientes matrices G son generalizaciones de las matrices triangulares
inferiores
en la factorización LU. El propósito de G es para transformar todos los elementos de
un
vector columna a a cero, excepto para el elemento k-ésimo.
Sea G = I
n
- Ge
T
k
, Donde g ∈ C
n
y 1 ≤ k ≤ n. ¿Qué condiciones hacen el
elementos de G tienen que satisfacer para que G es invertible? Determine T
-1
cuando se
existe.
Dado un índice k y un vector x ∈ C
n
, Qué condiciones los elementos de x
tienen que satisfacer para que Gx = e
k
? Determine el vector g cuando existe.
3.6 Factorización de Cholesky
Parece natural que una matriz hermitiana debe tener una factorización que
refleja la simetría de la matriz. Para una matriz n × Hermitian, necesitamos
tienda solamente n (n + 1) / 2 elementos, y sería eficiente si el mismo fuera cierto de
la factorización. Desafortunadamente esto no es posible en general. Por ejemplo, la
matriz
A = (
0 1
1 0)
Página 21
3.6. Factorización Cholesky
69
es no singular y Hermite. Pero no puede tenerse en cuenta en las épocas más bajas
hasta-
por matriz triangular, como se ilustra en el Ejemplo 3.19. Afortunadamente, una cierta
clase
de matrices, así llamados hermitianos matrices definidas positivas no admiten una
simétrica
factorización.
Definición 3.23. Una matriz hermitiana A ∈ C
n × n
es definida positiva si x
*
Ax> 0
para todo x ∈ C
n
con x = 0.
Una matriz hermitiana A ∈ C
n × n
es positiva semi-definida si x
*
Ax ≥ 0 para todo
x ∈ C
n
.
Una matriz simétrica A ∈ R
n × n
es definida positiva si x
T
Ax> 0 para todo x ∈ R
n
con x = 0, y positiva semi-definida si x
T
Ax ≥ 0 para todo x ∈ R
n
.
Una matriz semi-definida positiva A puede tener x
*
Ax = 0 para x = 0.
Ejemplo. El 2 × Hermitian matriz 2
A = (
1 β
β 1)
es definitivo si es positivo | β | <1, y positiva semi-definida si | β |
2
= 1.
Derivamos varias propiedades de hermitianas matrices definidas positivas. Partimos
mostrando que todas las matrices definidas positivas hermitianas son no singulares.
Hecho 3.24 Si A ∈ C
n × n
se Hermitian definida positiva, entonces A es no singular.
Prueba. Supongamos por el contrario que A era singular. Entonces Ax = 0 para algún
x = 0,
implicando x
*
Ax = 0 para algún x = 0, lo que contradice lo definitivo positivo de
A, es decir x
*
Ax> 0 para todo x = 0.
Hermitianas matrices definidas positivas tienen elementos diagonales positivas.
Hecho 3.25 Si A ∈ C
n × n
es definido entonces sus elementos diagonales hermitianas positivos
son positivos.
Prueba. Puesto que A es definida positiva, tenemos x
*
Ax> 0 para cualquier x = 0, y en
particular, 0 <e
*
j
Ae
j
= A
jj
, 1 ≤ j ≤ n.
A continuación se muestra una transformación que preserva definiteness positivo
Hermite.
Hecho 3.26 Si A ∈ C
n × n
es Hermitian definida positiva y B ∈ C
n × n
es no singular
entonces B
*
AB es también hermitiana definida positiva.
Prueba. La matriz B
*
AB es hermitiana porque A es hermitiana. Puesto que B no es
singular, y = Bx = 0 si y sólo si x = 0. Por lo tanto
x
*
B
*
ABx = (Bx)
*
A (Bx) = y
*
Ay> 0
Página 22
70
Capítulo 3. Sistemas lineales
para cualquier vector y = 0, por lo que B
*
AB es definida positiva.
Finalmente mostramos que submatrices principales y Schur complementa heredar
Definiteness positivo Hermite.
Hecho 3.27 Si A ∈ C
n × n
es Hermitian definida entonces su director líder positivo
submatrices y Schur complementa también Hermitian definida positiva.
Prueba. Sea B k × k submatriz principal de A, por algún 1 ≤ k ≤ n - 1.
La submatriz B es hermitiana porque es una submatriz principal de una hermitiana
matriz. Para mantener la simple notación, permutamos las filas y columnas de A de
modo
que la submatriz B ocupa los principales filas y columnas. Es decir, sea P un
matriz de permutación y partición
A = P
T
AP = (
B
La
12
La
*
12
La
22
).
Hecho 3.26 implica Thata también Hermitian definida positiva. Por lo tanto x
*
Âx> 0 para cualquier
vector x = 0. En particular, sea x = (
y
0)
para y ∈ C
k
. Entonces para cualquier y = 0 tenemos
0 <x
*
Âx = (y
*
0)
(B
La
12
La
*
12
La
22
) (Y0) = y
*
Por.
Esto significa que Y
*
Por> 0 para y = 0, por lo que B es definida positiva. Dado que la submatriz
B es una submatriz principal de una matriz hermitiana, B también Hermite. Por lo
tanto
cualquier principal submatriz B de A es hermitiana definida positiva.
Ahora probamos definiteness positivo Hermitian de Schur complementa. Hecho
3.24 implica que B es no singular. Por lo tanto podemos establecer
L = (
Yo
k
0
-Un
*
12
B
-1
Yo
n-k
)
de modo que
LA L
*
= (
B 0
0 S)
,
donde S = A
22
- Un
*
12
B
-1
La
12
.
Desde L es la unidad triangular inferior, es no singular. De hecho 3.26 sigue entonces
que
LAL
*
es Hermitian definida positiva. A principios de esta prueba se demostró que el capital
submatrices de hermitianas matrices definidas positivas son Hermitian definida positiva,
por lo tanto el complemento de Schur S debe ser hermitiana definida positiva.
Ahora tenemos todas las herramientas que necesitamos para factorizar Hermitian
definida positiva ma-
trices. El siguiente algoritmo produce una factorización simétrica A = LL
*
para una
Hermitiana definida positiva matriz A. El algoritmo aprovecha el hecho de que el diag-
onal elementos de A son positivos y los complementos de Schur es hermitiana positiva
definitiva.
Página 23
3.6. Factorización Cholesky
71
Definición 3.28. Sea A ∈ C
n × n
hermitiana ser definida positiva. Una factorización
A = LL
*
, Donde L es (inferior o superior) triangular con elementos de la diagonal es positivos
llamado factorización Cholesky de A.
A continuación se calcula una factorización Cholesky inferior superior A = LL
*
donde L es
una matriz triangular inferior.
Algoritmo 3.5. Factorización Cholesky.
Entrada: Hermitian matriz definida positiva A ∈ C
n × n
Salida: matriz triangular inferior L con elementos de la diagonal positivos
tal que A = LL
*
1. Si n = 1 entonces L ≡
√ A.
2. Si n> 1 y el factor de partición
A =
(
1 n - 1
1
α
un
*
n - 1
una A
n-1
) = (Α
1/2
0
aα
-1 / 2
Yo
n-1
) (1 0
0 S) (
α
1/2
α
-1 / 2
un
*
0
Yo
n-1
),
donde S ≡ Un
n-1
- Aα
-1
un
*
.
3. Compute S = L
n-1
L
*
n-1
, Donde L
n-1
es triangular inferior con positivo diago-
elementos nales.
4. Entonces
L ≡ (
α
1/2
0
aα
-1 / 2
L
n-1
).
Un factorización de Cholesky de una matriz positiva es único.
Hecho 3.29 (Unicidad de factorización Cholesky) Sea A ∈ C
n × n
ser Hermi-
tian definida positiva. Si A = LL
*
donde L es triangular inferior con diagonal positiva
entonces L es único. Similares, y, si A = LL
*
donde L es triangular superior con positivo
elementos de la diagonal entonces L es único.
Prueba. Esto se puede demostrar de la misma manera como la unicidad de la
factorización LU-
ción.
El siguiente resultado muestra que se puede usar una factorización de Cholesky para
determinar
nar si una matriz hermitiana es definida positiva.
Hecho 3.30 Sea A ∈ C
n × n
ser Hermitian. A es definida positiva si y sólo si A = LL
*
donde L es triangular con elementos de la diagonal positivos.
Prueba. Algoritmo 3.5 muestra que si A es definida positiva, entonces A = LL
*
. Ahora
suponer que A = LL
*
. Puesto que L es triangular con elementos de la diagonal positivos, es
no singular. Por lo tanto Lx = 0 para x = 0 y x
*
Ax = L
*
x
2
2
> 0.
Página 24
72
Capítulo 3. Sistemas lineales
Los próximos enlazados muestra que un solucionador de Cholesky es numéricamente
estable en exacta
aritmética.
Corolario 3.31 (Estabilidad de Cholesky Solver). Sea A ∈ C
n × n
y A + E será
Hermitianas matrices definidas positivas, Ax = b, b = 0, y
A + E = LL
*
,
ǫ
La
=
E
2
La
2
Ly = b + r
1
,
ǫ
1
=
r
1 2
b
2
L
*
z = y + r
2
,
ǫ
2
=
r
2 2
y
2
.
Si A
-1
2
E
2
≤ 1/2, entonces
z - x
2
x
2
≤ 2κ
2
(A) (ǫ
La
+ Ǫ
1
+ Ǫ
2
(1 + ǫ
1
)).
Prueba. Aplicar Fact 3.14 a A + E, donde S
1
= L y S
2
= L
*
. El factor de estabilidad
es L
- *
2
L
-1
2
/ (A + E)
-1
2
= 1 porque Hecho 2.19 implica
(A + E)
-1
2
= L
- *
L
-1
2
= L
-1 2
2
= L
- *
2
L
-1
2
.
Ejercicios
(I) La magnitud de un elemento offdiagonal de una definida positiva Hermitian ma-
matriz está limitado por la media geométrica de los elementos diagonales
correspondientes.
Sea A ∈ C
n × n
hermitiana ser definida positiva. Mostrar: | a
ij
| <
√ a
ii
un
jj
para i = j.
Sugerencia: Utilice el definiteness positiva del complemento de Schur.
(Ii) La magnitud de un elemento offdiagonal de una definida positiva hermitiana ma-
matriz está limitado por la media aritmética de los elementos diagonales
correspondientes.
Sea A ∈ C
n × n
hermitiana ser definida positiva. Mostrar: | a
ij
| ≤ (a
ii
+ Un
jj
) / 2 para los
i = j.
Sugerencia: Utilice la relación entre la aritmética y la media geométrica.
(Iii) El elemento más grande en magnitud de una matriz definida positiva es hermitiana
en la diagonal.
Sea A ∈ C
n × n
hermitiana ser definida positiva. Mostrar: max
1 ≤ i, j ≤ n
| Un
ij
| =
max
1 ≤ i ≤ n
un
ii
.
(Iv) Sea A ∈ C
n × n
hermitiana ser definida positiva. Show: A
-1
También es positivo
definitiva.
(V) Modificar Algoritmo 3.5 por lo que calcula una factorización A = LDL
*
para un Su-
matriz definida positiva mitian A, donde D es diagonal y L es la unidad inferior
triangular.
Página 25
3.7. Factorización QR
73
(Vi) factorización Cholesky superior-inferior. Modificar Algoritmo de 3,5 por lo que
calcula un
factorización A = L
*
L para una matriz definida positiva hermitiana A, donde L es
triangular inferior con elementos diagonales positivas.
(Vii) Bloquear factorización Cholesky.
Partición de la matriz definida positiva Hermitian A como
A = (
La
11
La
12
La
21
La
22
).
Análoga a la factorización LU bloque en el Ejercicio (v) de la Sección 3.5 deter-
extraer una factorización A = LL
*
, Donde L es un bloque triangular inferior. Es decir, L
es de la forma
L = (
L
11
0
L
21
L
22
),
donde L
11
y L
22
son, en general, no inferior triangular.
(Viii) Que
A = (
La
11
La
12
La
21
La
22
)
hermitiana ser definida positiva. Show:
La
22
- Un
21
La
-1
11
La
12 2
≤ A
2
,
y
κ
2
(Un
22
- Un
21
La
-1
11
La
12
) ≤ κ
2
(A).
(Ix) Demostrar: A = MM
*
para alguna matriz no singular M si y sólo A es hermitiana
definida positiva.
(X) Generalizado factorización Cholesky.
Sea M ∈ C
n × n
ser Hermitian definida positiva. Demostrar: Si M = M
*
1
M
1
=
M
*
2
M
2
para matrices cuadrada M
1
y M
2
entonces existe una matriz Q unitaria
tal que M
2
= QM
1
.
(Xi) Sea M = A + ib Hermitian ser definida positiva, donde
2
= -1, Y A y B
son verdaderas matrices cuadradas. Demuestre que la matriz
C = (
A-B
B
Una)
es real simétrica definida positiva.
3.7 Factorización QR
La factorización QR es una matriz de factorización donde uno de los factores es
unitaria,
y el otro es triangular. Se deriva de la existencia de una factorización QR de
la factorización de Cholesky.
Hecho 3,32 Cada matriz no singular A ∈ C
n × n
tiene una factorización única A = QR,
donde Q es unitaria y R es triangular superior con elementos de la diagonal positivos.
Página 26
74
Capítulo 3. Sistemas lineales
Prueba. Puesto que A es no singular, Ax = 0 para x = 0 y x
*
La
*
Ax = Ax
2
2
> 0, la cual
implica que M = A
*
A es hermitiana definida positiva. Sea M = LL
*
ser una de Cholesky
factorización de M, donde L es triangular inferior con elementos de la diagonal
positivos.
Entonces M = A
*
A = LL
*
. Multiplicando por A
- *
a la izquierda da A = QR, donde
Q = A
- *
L, y donde R = L
*
es triangular superior con elementos de la diagonal positivos.
Ejercicio (ix) en la sección 3.6 muestra que Q es unitaria.
La unicidad de la factorización QR desprende de la singularidad de la
Factorización de Cholesky, así como de ejercicio 6 en la Sección 1.13.
El obligado a continuación muestra que un solucionador QR es numéricamente estable
en aritmética exacta-
hermético.
Corolario 3.33 (Estabilidad de Solver QR). Sea A ∈ C
n × n
ser no singular, Ax =
b, b = 0, y
A + E = QR,
ǫ
La
=
E
2
La
2
Qy = b + r
1
,
ǫ
1
=
r
1 2
b
2
Rz = y + r
2
,
ǫ
2
=
r
2 2
y
2
.
Si A
-1
2
E
2
≤ 1/2, entonces
z - x
2
x
2
≤ 2κ
2
(A) (ǫ
La
+ Ǫ
1
+ Ǫ
2
(1 + ǫ
1
)).
Prueba. Aplicar Fact 3.14 a A + E, donde S
1
= Q y S
2
= R. El factor de estabilidad
es R
-1
2
Q
*
2
/ (A + E)
-1
2
= 1 porque Ejercicio (v) en la sección 2.6 implica
Q
*
2
= 1 y (A + E)
-1
2
R =
-1
2
.
Hay muchas maneras de calcular una factorización QR. Aquí se presenta un
algoritmo que se basa en rotaciones de Givens, ver Definición 1.17. Rotaciones de
Givens
son unitarias, véase el ejemplo 1.16, y que a menudo se utilizan para introducir ceros en
matrices. Vamos a empezar con una rotación de Givens para introducir un cero en una
vectorial.
Ejemplo. Sean x, y ∈ C.
(C
s
-Sc) (
x
y)
= (
d
0)
,
donde d = √ | x |
2
+ | Y |
2
.
Si x = y = 0, entonces c = 1 y s = 0, en caso contrario x = c / d y s = a / d. Es decir, si
ambos componentes del vector son cero, entonces no hay nada que hacer y los Estados
unitarios
matriz es la identidad. Tenga en cuenta que d ≥ 0 y | c |
2
+ | S |
2
= 1.
Página 27
3.7. Factorización QR
75
Al introducir ceros en un vector más, nos integramos cada rotación Givens
en una matriz de identidad.
Ejemplo. Supongamos que queremos poner a cero los elementos 2, 3 y 4 en un 4 × 1
vector con
una matriz unitaria. Podemos aplicar tres rotaciones de Givens en el siguiente orden.
1. Aplicar una rotación de Givens a las filas 3 y 4 a cero a 4 elementos,
1 0
0
0
0 1
0
0
0 0
c
4
s
4
0 0-s
4
c
4
x
1
x
2
x
3
x
4
=
x
1
x
2
y
3
0
donde y
3
= √ | x
3
|
2
+ | X
4
|
2
≥ 0. Si x
4
= X
3
= 0, entonces c
4
= 1 y s
4
= 0,
de otro modo c
4
= X
3
/ Año
3
y s
4
= X
4
/ Año
3
.
2. Aplicar una rotación de Givens a las filas 2 y 3 a cero a cabo elemento 3,
1
0
0 0
0
c
3
s
3
0
0-s
3
c
3
0
0
0
0 1
x
1
x
2
y
3
0
=
x
1
y
2
0
0
donde y
2
= √ | x
2
|
2
+ | Y
3
|
2
≥ 0. Si y
3
= X
2
= 0, entonces c
3
= 1 y s
3
= 0,
de otro modo c
3
= X
2
/ Año
2
y s
3
= Y
3
/ Año
2
.
3. Aplicar una rotación de Givens a las filas 1 y 2 a cero a cabo elemento 2,
c
2
s
2
0 0
-S
2
c
2
0 0
0
0
1 0
0
0
0 1
x
1
y
2
0
0
=
y
1
0
0
0
donde y
1
= √ | x
1
|
2
+ | Y
2
|
2
≥ 0. Si y
2
= X
1
= 0, entonces c
2
= 1 y s
2
= 0,
de otro modo c
2
= X
1
/ Año
1
y s
2
= Y
2
/ Año
1
.
Por lo tanto Qx = y
1
e
1
, Donde y
1
= Qx
2
y
Q =
c
2
s
2
0 0
-S
2
c
2
0 0
0
0
1 0
0
0
0 1
1
0
0
0
0
c
3
s
3
0
0-s
3
c
3
0
0
0
0
1
1 0
0
0
0 1
0
0
0 0
c
4
s
4
0 0-s
4
c
4
.
Hay muchas órdenes posibles en las que aplicar rotaciones de Givens y Givens
rotaciones no tienen que operar en cualquiera de las filas adyacentes. El siguiente
ejemplo ilustra-
este aborda en este capítulo.
Ejemplo. Aquí hay otra manera de poner a cero los elementos 2, 3 y 4 en un 4 × 1
vector.
Podemos aplicar tres rotaciones de Givens que todos implican la fila principal.
Página 28
76
Capítulo 3. Sistemas lineales
1. Aplicar una rotación de Givens a las filas 1 y 4 a cero a cabo elemento 4,
c
4
0 0 s
4
0
1 0
0
0
0 1
0
-S
4
0 0 c
4
x
1
x
2
x
3
x
4
=
y
1
x
2
x
3
0
donde y
1
= √ | x
1
|
2
+ | X
4
|
2
≥ 0. Si x
4
= X
1
= 0, entonces c
4
= 1 y s
4
= 0,
de otro modo c
4
= X
1
/ Año
1
y s
4
= X
4
/ Año
1
.
2. Aplicar una rotación de Givens a las filas 1 y 3 a cero a cabo elemento 3,
c
3
0 s
3
0
0
1
0
0
-S
3
0 c
3
0
0
0
0
1
y
1
x
2
x
3
0
=
z
1
x
2
0
0
donde z
1
= √ | y
1
|
2
+ | X
3
|
2
≥ 0. Si x
3
= Y
1
= 0, entonces c
3
= 1 y s
3
= 0,
de otro modo c
3
= Y
1
/ Z
1
y s
3
= X
3
/ Z
1
.
3. Aplicar una rotación de Givens a las filas 1 y 2 a cero a cabo elemento 2,
c
2
s
2
0 0
-S
2
c
2
0 0
0
0 1 0
0
0 0 1
x
1
y
2
0
0
=
u
1
0
0
0
donde u
1
= √ | z
1
|
2
+ | X
2
|
2
≥ 0. Si x
2
= Z
1
= 0, entonces c
2
= 1 y s
2
= 0,
de otro modo c
2
= Z
1
/ U
1
y s
2
= X
2
/ U
1
.
Por lo tanto Qx = u
1
e
1
, Donde u
1
= Qx
2
y
Q =
c
2
s
2
0 0
-S
2
c
2
0 0
0
0
1 0
0
0
0 1
c
3
0 s
3
0
0
1
0
0
-S
3
0 c
3
0
0
0
0
1
c
4
0 0 s
4
0
1 0
0
0
0 1
0
-S
4
0 0 c
4
Los ejemplos anteriores demuestran que si una rotación de Givens opera en
filas i y j, entonces los elementos c y s ocupo posiciones (i, i), (i, j), (j, i) y
(J, j).
Por fin aquí es un bosquejo de cómo se puede reducir una matriz cuadrada a la parte
superior
forma triangular por medio de rotaciones de Givens
Ejemplo. Introducimos ceros una columna a la vez, de izquierda a derecha, y dentro de
una columna de abajo hacia arriba. Las rotaciones de Givens operan en filas adyacentes.
Elementos que pueden ser distinto de cero están representados por *. Los elementos que
se vieron afectados por
Página 29
3.7. Factorización QR
77
la rotación de Givens ith tenga la etiqueta i. Comenzamos introduciendo ceros en la
columna
1,
****
****
****
****
1
→
****
****
1 1 1 1
0 1 1 1
2
→
****
2 2 2 2
0 2 2 2
0 1 1 1
3
→
3 3 3 3
0 3 3 3
0 2 2 2
0 1 1 1
Ahora introducimos ceros en la columna 2, a continuación, en la columna 3,
3 3 3 3
0 3 3 3
0 2 2 2
0 1 1 1
4
→
3 3 3 3
0 3 3 3
0 4 4 4
0 0 4 4
5
→
3 3 3 3
0 5 5 5
0 0 5 5
0 0 4 4
6
→
3 3 3 3
0 5 5 5
0 0 6 6
0 0 0 6
A continuación se muestra el algoritmo general.
Algoritmo 3.6. Factorización QR de matrices no singulares.
Entrada: matriz no singular A ∈ C
n × n
Salida: matriz unitaria Q ∈ C
n × n
y la matriz triangular superior R ∈
C
n × n
con elementos de la diagonal positivos tales que A = QR
1. Si n = 1, entonces Q ≡ A / | A | y R ≡ | A |
2. Si n> 1 elementos cero fuera n, n - 1,. . ., 2 en la columna 1 de A de la siguiente
manera.
(I) Set (b
n1
b
n2
. . . b
nn
) = (Un
n1
un
n2
. . . un
nn
).
(Ii) Para i = n, n - 1,. . ., 2
Cero a cabo elemento (i, 1) mediante la aplicación de una rotación a las filas i e i - 1
(C
yo
s
yo
-S
yo
c
yo
) (Un
i-1, 1
un
i-1, 2
. . . un
i-1, n
b
i1
b
i2
. . .
b
en
) = (B
i-1, 1
b
i-1, 2
. . . b
i-1, n
0a
i2
. . . Un
en
)
donde b
i-1, 1
≡ √ | b
i1
|
2
+ | A
i-1, 1
|
2
. Si b
i1
= A
i-1, 1
= 0, entonces c
yo
≡ 1 y
s
yo
≡ 0, de lo contrario c
yo
≡ a
i-1, 1
/ B
i-1, 1
y s
yo
≡ b
i1
/ B
i-1, 1
.
(Iii) Multiplicar todos los n - 1 rotaciones
Q
*
n
≡
c
2
s
2
0
-S
2
c
2
0
0
0
n-2
· · ·
Yo
n-2
0
0
0
c
n
s
n
0
-S
n
c
n
(Iv) la partición de la matriz transformada
Q
*
n
A = (
r
11
r
*
0A)
,
wherea ≡
â
22
. . . Un
2n
.
.
.
.
.
.
un
n2
. . . Un
nn
,
r
*
≡ (b
12
. . . b
1n
), Y r
11
≡ b
11
> 0.
Página 30
78
Capítulo 3. Sistemas lineales
3. ComputeA = Q
n-1
R
n-1
, Donde Q
n-1
es unitario y R
n-1
es triangular superior
con elementos de la diagonal positivos.
4. Entonces
Q ≡ Q
n
(1
0
0 Q
n-1
),
R ≡ (
r
11
r
*
0
R
n-1
).
Ejercicios
(I) Determinar la factorización QR de una matriz triangular superior real.
(Ii) factorización QR de producto exterior.
Sean x, y ∈ C
n
, Y aplicar Algoritmo de 3,6 a xy
*
. ¿Cuántos Givens rotaciones
Cómo se tiene que aplicar como máximo? ¿Qué es la matriz triangular superior R
parece?
(Iii) Sea A ∈ C
n × n
ser una matriz tridiagonal, es decir, sólo los elementos de una
ii
, Una
i +1, i
y
un
i, i +1
puede ser distinto de cero, todos los demás elementos son cero. Queremos calcular una
Factorización QR A = QR con n - 1 Givens rotaciones. ¿En qué orden hacer la
elementos tienen que ser llevado a cero, en la que las filas hacer el acto rotaciones, y
que
elementos de R puede ser distinto de cero?
(Iv) factorización QL.
Mostrar: Todas matriz no singular A ∈ C
n × n
tiene una factorización única A =
QL, en donde Q es unitaria, y L es triangular inferior con diagonal positiva
elementos.
(V) Cálculo de la factorización QL.
Supongamos que queremos calcular la factorización LQ de una matriz no singular
A ∈ C
n × n
con rotaciones de Givens. En el orden de los elementos no tienen que ser
llevado a cero, y en la que las filas hacen acto rotaciones?
(Vi) Los elementos en una rotación de Givens
G = (
c
s
-Sc)
se nombran para invocar una asociación con seno y el coseno, porque | c |
2
+ | S |
2
= 1.
También se puede expresar los elementos en términos de tangentes o cotangentes. Dejar
G (
x
y)
= (
d
0)
,
donde d = √ | x |
2
+ | Y |
2
.
Mostrar lo siguiente: Si | y |> | x | y luego
τ =
x
y
,
s =
y
| Y |
1
√ 1 + | τ |
2
,
c = τs,
y si | x |> | y | entonces
τ =
y
x
,
c =
x
| X |
1
√ 1 + | τ |
2
,
s = τc.
Page 31
3.8. Factorización QR de matrices de alto y flaco
79
(Vii) Reflexiones Householder.
Aquí es otra manera de introducir ceros en un vector sin cambiar sus dos
norma. Sea x ∈ C
n
y x
1
= 0. Definir Q = I - 2vv
*
/ V
*
v, donde v = x +
α x
2
e
1
y α = x
1
/ | X
1
|. Demostrar que Q es unitaria y que Qx =-α x
2
e
1
.
La matriz Q se llama un reflejo Householder.
(Viii) Householder Reflexiones de vectores reales.
Sean x, y ∈ R
n
con x
2
= Y
2
. Mostrar cómo elegir un vector v en el
Reflexión Householder para que Qx = y.
3.8 factorización QR de matrices alto y flaco
Nos fijamos en matrices rectangulares A ∈ C
m × n
con al menos tantas filas como columnas,
es decir, m ≥ n. Si A está implicado en un sistema lineal Ax = b, entonces debemos
tener b ∈ C
m
y x ∈ C
n
. Tales sistemas lineales no siempre tienen una solución, y si lo hacen
sucede que tiene una solución a continuación, la solución no puede ser única.
Ejemplo. Si
A =
1
1
1
,
b =
b
1
b
2
b
3
entonces el sistema lineal Ax = b tiene una solución única para aquellos que b todos
cuyos elementos
son los mismos, es decir, β = b
1
= B
2
= B
3
. En este caso la solución es x = β.
Afortunadamente hay una parte derecha para que un sistema lineal Ax = b
siempre tiene una solución, es decir, b = 0. Esto es, Ax = 0 siempre tiene la solución x =
0.
Sin embargo, x = 0 no puede ser la única solución.
Ejemplo. Si
A =
1
-1
-1
1
1
-1
entonces Ax = 0 tiene infinitas soluciones x = (x
1
x
2
)
T
con x
1
= X
2
.
Distinguimos matrices A donde x = 0 es la solución única para Ax = 0.
Definición 3.34. Sea A ∈ C
m × n
. Las columnas de A son linealmente independientes si
Ax = 0 implica x = 0. Si Ax = 0 tiene infinitas soluciones, entonces las columnas
de A son linealmente dependientes.
Ejemplo.
• Las columnas de una matriz no singular A son linealmente independientes.
• Si A es no singular entonces la matriz (
La
0)
tiene columnas linealmente independientes.
Página 32
80
Capítulo 3. Sistemas lineales
• Sea x ∈ C
n
. Si x = 0, entonces x se compone de una sola columna, linealmente independientes.
Si x = 0, entonces x es linealmente dependiente.
• Si A ∈ C
m × n
con A
*
A = I
n
entonces A tiene columnas linealmente independientes. Este
se debe multiplicar Ax = 0 a la izquierda por la A
*
implica x = 0.
• Si el sistema lineal Ax = b tiene una solución x, entonces la matriz B = (A b) tiene
columnas linealmente dependientes. Esto se debe a B (
x
-1)
= 0.
¿Cómo podemos saber si una matriz de alto y flaco tiene linealmente independientes
columnas? Podemos utilizar una factorización QR.
Algoritmo 3.7. Factorización QR de matrices de alto y flaco.
Entrada: Matriz A ∈ C
m × n
con m ≥ n
Salida:
Matriz unitaria Q ∈ C
m × m
y la matriz triangular superior
R ∈ C
n × n
con elementos de la diagonal no negativos tales que A = Q (
R
0)
1. Si n = 1 entonces Q es una matriz unitaria que ceros fuera elementos 2,. . ., M de A,
y
R ≡ A
2
.
2. Si n> 1, entonces, como en el algoritmo 3.6, determinar una matriz unitaria Q
m
∈ C
m × m
para poner en cero los elementos 2,. . ., M en la columna 1 de A, de modo que
Q
*
m
A = (
r
11
r
*
0A)
,
donde r
11
≥ 0 ANDA ∈ C
(M-1) × (n-1)
.
3. ComputeA = Q
m-1
(R
n-1
0)
, Donde Q
m-1
∈ C
(M-1) × (m-1)
es unitario, y
R
n-1
∈ C
(N-1) × (n-1)
es triangular superior con elementos diagonales no negativos.
4. Entonces
Q ≡ Q
m
(1
0
0 Q
m-1
),
R ≡ (
r
11
r
*
0
R
n-1
).
Hecho 3.35 Sea A ∈ C
m × n
con m ≥ n, y A = Q (
R
0)
donde Q ∈ C
m × m
es
unitario, y R ∈ C
n × n
es triangular superior. Entonces A tiene linealmente independientes
columnas si y sólo si R tiene elementos de la diagonal distintos de cero.
Prueba. Desde Q es no singular, Ax = Q (
R
0)
0 ⇒ x = 0 si y sólo si Rx = 0 ⇒
x = 0. Este es el caso si y sólo si R ha es no singular y tiene distinto de cero en diagonal
elementos.
Página 33
3.8. Factorización QR de matrices de alto y flaco
81
Uno puede hacer una factorización QR más económico al reducir el almacenamiento
y omitiendo parte de la matriz unitaria.
Hecho 3.36 (Thin factorización QR) Si A ∈ C
m × n
con m ≥ n entonces existe
una matriz Q
1
∈ C
m × n
con Q
*
1
Q
1
= I
n
Y una matriz triangular superior R ∈ C
n × n
con elementos de la diagonal no negativos de modo que A = Q
1
R.
Prueba. Sea A = Q (
R
0)
ser una factorización QR, como en Hechos 3.35. Partición Q =
(Q
1
Q
2
), Donde Q
1
tiene n columnas. Entonces A = Q
1
R.
Definición 3.37. Si A ∈ C
m × n
y A
*
A = I
n
a continuación, las columnas de A son orthonor-
mal.
Para una matriz cuadrada de la descomposición QR delgada es idéntica a la plena QR
descomposición.
Ejemplo 3.38 Las columnas de un unitaria o una matriz ortogonal Un ∈ C
n × n
son
ortonormal porque A
*
A = I
n
, Y también lo son las filas, porque AA
*
= I
n
. Este
medios, una matriz cuadrada con columnas ortonormales deben ser una matriz unitaria.
La
matriz cuadrada real con columnas ortonormales es una matriz ortogonal.
Ejercicios
(I) Sea A ∈ C
m × n
, M ≥ n, con fina factorización QR A = QR. Show: A
2
=
R
2
.
(Ii) Singularidad de Thin factorización QR.
Sea A ∈ C
m × n
tener columnas linealmente independientes. Mostrar: Si A = QR, donde
Q ∈ C
m × n
satisface Q
*
Q = I
n
y R es triangular superior con diagonal positiva
elementos, entonces Q y R son únicos.
(Iii) Generalización de Datos 3.35.
Sea A ∈ C
m × n
, M ≥ n, y A = B (
C
0)
, Donde B ∈ C
m × n
tiene linealmente
columnas independientes, y C ∈ C
n × n
. Show: A tiene linealmente independientes
columnas si y sólo si C es no singular.
(Iv) Sea A ∈ C
m × n
donde m> n. Mostrar: Existe una matriz Z ∈ C
m × (m-n)
de tal manera que Z
*
A = 0.
(V) Sea A ∈ C
m × n
, M ≥ n, tiene una delgada factorización QR A = QR. Expresar el
la columna k-ésima de A como una combinación lineal de las columnas de Q y
elementos de R.
¿Cuántas columnas de Q están involucrados?
(Vi) Sea A ∈ C
m × n
, M ≥ n, tiene una delgada factorización QR A = QR. Determine un
Factorización QR de A - Qe
1
e
*
1
R de la factorización QR de A.
(Vii) Sea A = (a
1
. . . un
n
) Tienen columnas linealmente independientes una
j
, 1 ≤ j ≤ n.
Sea A = QR ser una delgada factorización QR, donde Q = (q
1
. . . q
n
) Y R es
Página 34
82
Capítulo 3. Sistemas lineales
triangular superior con elementos de la diagonal positivos. Expresar los elementos de R
en términos de las columnas de un
j
de las columnas A y q
j
de Q.
(Viii) Sea A una matriz con columnas linealmente independientes. Mostrar cómo
calcular
la parte inferior superior factorización Cholesky de A
*
Un sin formar el producto
La
*
A.
(Ix) La desigualdad de Bessel.
Sea V ∈ C
m × n
con V = (V
1
. . . v
n
) Tiene columnas ortonormales, y dejar
x ∈ C
m
. Mostrar
n
Σ
j = 1
| V
*
j
x |
2
≤ x
*
x.
1. Factorización QR con la columna pivotante.
Este problema se presenta un método para calcular la factorización QR de arbitraria
matrices. Sea A ∈ C
m × n
con rango (A) = r. Entonces existe una permutación
matriz de P, de manera que
AP = Q (
R
1
R
2
0
0)
,
en la que R
1
es una matriz triangular superior no singular.
(A) Muestre cómo modificar el algoritmo 3.7 para que se calcula como una
factorización-
ción. En el primer paso, elegir una matriz de permutación P
n
que lleva el
con la columna más grande de dos norma a la parte delantera, es decir,
AP
n
e
1 2
= Máx
1 ≤ j ≤ n
AP
n
e
j 2
.
(B) Demostrar que los elementos diagonales de R
1
tienen magnitudes decrecientes, es decir,
(R
1
)
11
≥ (R
1
)
22
≥. . . ≥ (R
1
)
rr
.