Cap.3linear System

105
Page 1 Capítulo 3 Sistemas lineales Se presentan algoritmos para resolver sistemas de ecuaciones lineales cuyos coeficientes ma- matriz es singular, y se discute la exactitud de estos algoritmos. 3.1 El significado de Ax = b En primer lugar, examinar si un sistema lineal tiene una solución. Realidad 3.1 (Dos vistas de un sistema lineal) Sea A C m × n Y b C m × 1 . 1. El sistema lineal Ax = b tiene una solución si y sólo si existe un vector x que resuelve las ecuaciones m r 1 x = b 1 . . . r m x = b m , donde A = r 1 . . . r m , b = b 1 . . .

Transcript of Cap.3linear System

Page 1: Cap.3linear System

Page 1

Capítulo 3

Sistemas lineales

Se presentan algoritmos para resolver sistemas de ecuaciones lineales cuyos

coeficientes ma-

matriz es singular, y se discute la exactitud de estos algoritmos.

3.1 El significado de Ax

=

b

En primer lugar, examinar si un sistema lineal tiene una solución.

Realidad 3.1 (Dos vistas de un sistema lineal) Sea A ∈ C

m × n

Y b ∈ C

m × 1

.

1. El sistema lineal Ax = b tiene una solución si y sólo si existe un vector x que

resuelve las ecuaciones m

r

1

x = b

1

. . .

r

m

x = b

m

,

donde

A =

r

1

.

.

.

r

m

,

b =

b

1

.

.

.

Page 2: Cap.3linear System

b

m

.

2. El sistema lineal Ax = b tiene una solución si y sólo si b es una combinación lineal

de columnas de A,

b = a

1

x

1

+ · · · + A

n

x

n

,

donde

A = (a

1

. . . un

n

),

x =

x

1

.

.

.

x

n

.

Cuando la matriz es no singular, el sistema lineal tiene una solución para cualquier

lado derecho, y la solución se pueden representar en términos de la inversa de A.

Corolario 3.2 (Existencia y unicidad). Si A ∈ C

n × n

a continuación, es no singular

Ax = b tiene la solución única x = A

-1

b para cada b ∈ C

n

.

49

Página 2

50

Page 3: Cap.3linear System

Capítulo 3. Sistemas lineales

Antes de hablar de algoritmos para la resolución de sistemas lineales tenemos que tener

en

cuenta, como se explica en el capítulo 2, que la matriz y la derecha pueden ser con-

contaminado por la incertidumbre. Esto significa que, en lugar de resolver Ax = b, que

resolver un

sistema perturbado (A + E) z = b + f. Queremos determinar la sensibilidad del

solución es el perturbaciones f y E.

Aunque no sabemos la perturbaciones E y F, se puede estimar a partir de

la solución aproximada z. Para este fin definir el residuo r = Az - b. Podemos

ver la z como la solución a un sistema con perturbado lado derecho, Az = b + r. Si

z = 0, entonces podemos también ver la z como la solución a un sistema con matriz

perturbada,

(A + E) z = b,

donde E = -

rz

*

z

2

2

,

véase el ejercicio 1.

Ejercicios

(I) Determinar la solución de Ax = b cuando A es unitaria (ortogonal).

(Ii) Determinar la solución de Ax = b cuando A es involutivo.

(Iii) Sea A consta de varias columnas de una matriz unitaria, y b ser tal que los

sistema lineal Ax = b tiene una solución. Determine una solución de Ax = b.

(Iv) Si A es idempotente. ¿Cuándo empieza el sistema lineal Ax = b tiene una solución

para cada b?

(V) Si A es una matriz triangular. ¿Cuándo el sistema lineal Ax = b tiene una

solución para cualquier lado derecho b?

(Vi) Sean A = uv

*

ser un producto externo, donde u y v son vectores columna. Para

b que hace el sistema lineal Ax = b tiene una solución?

(Vii) Determinar una solución para el sistema lineal (AB)

(X

1

x

2

) = 0 cuando A es no-

singular. Es la única solución?

1. Las perturbaciones matriz de residuos.

Este problema se muestra cómo construir una matriz de perturbación de la residual.

Sea A ∈ C

n × n

ser no singular, Ax = b, z ∈ C

n

una aproximación diferente de cero

a x. Demuestre que (A + E

Page 4: Cap.3linear System

0

) Z = b, donde E

0

= (B - Az) z

y z

= (Z

*

z)

-1

z

*

;

y que (A + E) z = b, donde E = E

0

+ G (I - zz

) Y G ∈ C

n × n

es cualquier

matriz.

2. En el problema 1 anteriormente muestran que, entre todas las matrices F que

satisface (A + F) z = b,

la matriz E

0

es uno con los más pequeños de dos normas, es decir, E

0 2

≤ F

2

.

3.2 Acondicionamiento de Sistemas Lineales

Derivamos límites normwise para el acondicionamiento de sistemas lineales. El

siguiente

dos ejemplos demuestran que no es obvio cómo estimar la exactitud de

una solución aproximada z para un sistema lineal Ax = b. En particular, se ilustran

Página 3

3.2. Acondicionamiento de Sistemas Lineales

51

que el residuo r = Az - b puede dar información engañosa sobre lo cerca que z es

a x.

Ejemplo 3.3 Se ilustrar que una solución aproximada totalmente equivocado puede

tener un

pequeña norma residual.

Considere el sistema lineal Ax = b con

A = (

1

1

1 1 + ǫ)

Page 5: Cap.3linear System

,

b = (

2

2 + ǫ)

,

0 <ǫ «1,

x = (

1

1)

,

cuya solución x se aproxima por z = (2 0)

T

. El residuo

r = Az - b = (

0

-Ǫ)

tiene pequeña norma, r

p

= Ǫ, ǫ porque es pequeño. Esto parece sugerir que z hace un

buen trabajo de la solución del sistema lineal. Sin embargo, la comparación de z para

la solución exacta,

z - x = (

-1

1)

.

muestra que z es una mala aproximación a x. Por lo tanto, una pequeña norma residual

hace

no implica que z está cerca de x.

Lo mismo puede suceder incluso para matrices triangulares, como el siguiente ejemplo

shows.

Ejemplo 3.4 Para el sistema lineal Ax = b con

A = (

1 10

8

0

1)

,

b = (

1 + 10

8

1

),

x = (

1

1)

considerar la solución aproximada

z = (

0

1 + 10

-8

Page 6: Cap.3linear System

),

r = Az - b = (

0

10

-8

).

Como en el ejemplo anterior, el residuo tiene pequeña norma, es decir, r

p

= 10

-8

, Pero z es

totalmente inexacta,

z - x = (

-1

10

-8

).

Una vez más, la norma residual es engañosa. Es pequeño, a pesar de que z es una mala

aproxi-

mación.

El siguiente destino explica por qué aproximaciones inexactas pueden tener residuos

con pequeña norma.

Página 4

52

Capítulo 3. Sistemas lineales

Realidad 3.5 (Residual Bound) Sea A ∈ C

n × n

ser no singular, Ax = b y b = 0. Si

r = Az - b a continuación

z - x

p

x

p

≤ κ

p

(A)

r

p

La

p

x

p

,

Prueba. Si b = 0 y A es no singular, entonces x = 0, véase la Realidad 1,10. La

deseada obligado

sigue inmediatamente de la perturbación con destino a la multiplicación de matrices:

Aplicar

Hecho 2,22 a U =

~

Page 7: Cap.3linear System

U = A

-1

, V = b,

~

V = b + r, ǫ

U

= 0 y ǫ

V

= R

p

/ B

p

para obtener

z - x

p

x

p

La

-1

p

b

p

La

-1

b

p

r

p

b

p

= Un

p

La

-1

p

r

p

La

p

x

p

.

La cantidad κ

p

(A) es el número de condición normwise relativa de A con re-

respeto a la inversión, consulte Definición 2.27. El límite en el Hecho 3.5 implica que

el lineal

sistema Ax = b está bien acondicionado si κ

p

Page 8: Cap.3linear System

(A) es pequeña. En particular, si κ

p

(A) es pequeña

y la norma residual relativa

r

p

La

p

x

p

también es pequeño, entonces la solución aproximada

z tiene un pequeño error (en el sentido relativo normwise). Sin embargo, si κ

p

(A) es grande, entonces

el sistema lineal es mal condicionado. Volvamos a los ejemplos 3.3 y 3.4 para ilustrar

el atado en el hecho 3.5.

Ejemplo. El sistema lineal Ax = b en el ejemplo 3.3 es

A = (

1

1

1 1 + ǫ)

,

b = (

2

2 + ǫ)

,

0 <ǫ «1,

x = (

1

1)

,

y una solución aproximada z = (2 0)

T

con residual

r = Az - b = (

0

-Ǫ)

.

El error relativo en la norma infinito es z - x

/ X

= 1, lo que indica que z tiene

sin precisión alguna. Para ver cuál es el límite en el Hecho 3.5 predice, determinamos

la inversa

La

-1

=

1

ǫ (

Page 9: Cap.3linear System

1 + ǫ -1

-1

1)

,

las normas de la matriz

La

= 2 + ǫ,

La

-1

=

2 + ǫ

ǫ

κ

(A) =

(2 + ǫ)

2

ǫ

,

así como los ingredientes para la norma residual relativa

r

= Ǫ,

x

= 1,

r

La

x

=

ǫ

2 + ǫ

.

Página 5

3.2. Acondicionamiento de Sistemas Lineales

53

Desde κ

(A) ≈ 4 / ǫ, el sistema Ax = b es mal condicionado. El encuadernado en Realidad 3.5

iguales

z - x

x

Page 10: Cap.3linear System

≤ κ

(A)

r

La

x

= 2 + ǫ,

y así predice correctamente la inexactitud total de z. La pequeña norma residual

relativa

de unos ǫ / 2 aquí es engañosa ya que el sistema lineal es mal condicionado.

Incluso los sistemas triangulares no son inmunes al mal acondicionado.

Ejemplo 3.6 El sistema lineal Ax = b en el ejemplo 3.4 es

A = (

1 10

8

0

1)

,

b = (

1 + 10

8

1

),

x = (

1

1)

,

y una solución aproximada z = (1 + 0 10

-8

)

T

con residual

r = Az - b = (

0

10

-8

).

El error relativo normwise en la norma infinito es z-x

/ X

= 1 e indica

que z no tiene precisión. De

La

-1

= (

1 -10

Page 11: Cap.3linear System

8

0

1)

se determina el número de condición de Ax = b como κ

(A) = (1 10

8

)

2

≈ 10

16

. Nota

que el condicionamiento de sistemas triangulares no se puede detectar con sólo mirar la

elementos de la diagonal, y los elementos diagonales de A son iguales a 1 y lejos de

cero, pero

sin embargo, A es mal condicionado con respecto a la inversión.

La norma residual relativa es

r

La

x

=

10

-8

1 + 10

8

≈ 10

-16

.

Como consecuencia, el límite en el Hecho 3,5 es igual a

z - x

x

≤ κ

(A)

r

La

x

= (1 + 10

8

) 10

-8

≈ 1,

Page 12: Cap.3linear System

y predice correctamente que z no tiene precisión en absoluto.

El siguiente límite residual no requiere conocimiento de la solución exacta.

El límite es análoga a la de la Realidad 3.5, pero fuera El error relativo con

respecto a la solución perturbado.

Realidad 3.7 (Computable Residual Bound) Sea A ∈ C

n × n

ser no singular y

Ax = b. Si z = 0 y r = Az - b a continuación

z - x

p

z

p

≤ κ

p

(A)

r

p

La

p

z

p

,

Página 6

54

Capítulo 3. Sistemas lineales

Ahora vamos a derivar límites que separan a las perturbaciones en la matriz de

aquellos en el lado derecho. Primero presentamos un límite con respecto a la relativa

error en el perturbado solución, ya que es más fácil de obtener.

Realidad 3.8 (Matrix y derecha Perturbación Side) Sea A ∈ C

n × n

ser no-

singular y Ax = b. Si (A + E) z = b + f con z = 0, entonces

z - x

p

z

p

≤ κ

p

(A) (ǫ

La

+ Ǫ

F

),

donde

ǫ

La

=

E

p

Page 13: Cap.3linear System

La

p

,

ǫ

F

=

F

p

La

p

z

p

.

Prueba. En el límite en el Hecho 3.7, las cuentas r residuales para ambos

perturbaciones,

porque si (A + E) z = b + f entonces r = Az - b = f - Ez. Sustitución r

p

E

p

z

p

+ F

p

Hecho en 3,7 da el destino deseado.

A continuación es un análogo unido por el error con respecto a la solución exacta.

En contraste con Realidad 3.8, por debajo de la envolvente requiere la matriz

perturbado a ser no-

singular.

Realidad 3.9 (Matrix y derecha Perturbación Side) Sea A ∈ C

n × n

ser no-

singular y Ax = b con b = 0. Si (A + E) z = b + f con A

-1

p

E

p

≤ 1/2

entonces

z - x

p

x

p

≤ 2κ

p

(A) (ǫ

La

+ Ǫ

F

)

Page 14: Cap.3linear System

donde

ǫ

La

=

E

p

La

p

,

ǫ

F

=

F

p

La

p

x

p

.

Prueba. Podríamos deducir el destino deseado de la perturbación con destino a la

matriz

multiplicación in Fact 2.22 y inversión de la matriz en el Hecho 2.25. Sin embargo, la

resultante

unida no sería apretado, ya que no se aprovecha de cualquier relación entre la matriz

y derecha lado. Por eso partimos de cero.

Restando (A + E) x = b + Ex de (A + E) z = b + f da (A + E) (z - x) =

f - Ex. Corolario 2.24 implica que A + E es no singular. Por lo tanto podemos escribir

z - x = (A + E)

-1

(Ex + f). Tomando las normas y la aplicación de los rendimientos Corolario 2.24

z - x

p

≤ 2 A

-1

p

(E

p

x

p

+ F

p

) = 2κ

p

(A) (ǫ

La

+ Ǫ

F

) X

p

.

Page 15: Cap.3linear System

Podemos simplificar la cota de Hecho 3.9 y obtener una versión más débil.

Corolario 3.10. Vamos Ax = b con A ∈ C

n × n

no singular y b = 0. Si (A + E) z =

b + f con A

-1

p

E

p

<1/2, entonces

z - x

p

x

p

≤ 2κ

p

(A) (ǫ

La

+ Ǫ

b

),

donde ǫ

La

=

E

p

La

p

, Ǫ

b

=

F

p

b

p

.

Page 7

3.2. Acondicionamiento de Sistemas Lineales

55

Prueba. En Realidad 3.9 obligado b

p

≤ A

p

x

p

.

Efecto del Lado Derecho. Hasta ahora nos hemos centrado casi exclusivamente en la

efecto que la matriz tiene en el acondicionamiento del sistema lineal, y tenemos

ignorado el lado derecho. La ventaja de este enfoque es que la resultante

Page 16: Cap.3linear System

límites de perturbación son válidas para todos los lados derechos. Sin embargo de los

límites pueden ser demasiado

pesimista para algunos lados derechos, como demuestra el siguiente ejemplo.

Ejemplo 3.11 Nos ilustran que una derecha favorable puede mejorar la

acondicionado de un sistema lineal. Vamos a cambiar el lado derecho en el ejemplo

3.6

y considerar el sistema lineal Ax = b con

A = (

1 10

8

0

1)

,

b = (

1

1)

,

x = (

1 - 10

8

1

),

y la solución aproximada

z = (

-10

8

- 9

1 + 10

-7

),

r = Az - b = (

0

10

-7

).

Aunque κ

(A) ≈ 10

16

implica que A es mal condicionado con respecto a la inversión,

el error relativo de z es sorprendentemente pequeña,

z - x

x

=

10

1 - 10

8

≈ 10

Page 17: Cap.3linear System

-7

.

El límite en el Hecho 3.5 reconoce esto, también. De

κ

(A) = (1 + 10

8

)

2

,

r

La

x

=

10

-7

(10

8

- 1) (10

8

+ 1)

obtenemos

z - x

x

≤ κ

(A)

r

La

x

=

10

8

+ 1

10

8

- 1

10

-7

≈ 10

-7

.

Page 18: Cap.3linear System

Entonces, ¿qué está pasando aquí? Observe que la norma residual relativa es muy

pequeña,

r

La

x

≈ 10

-23

, Y que las normas de la matriz y en el costado derecho

son grandes en comparación con la norma de la parte derecha, es decir, un

x

≈ 10

16

»

b

= 1. Podemos representar esta situación por escrito el límite de Realidad 3.5 como

z - x

x

La

-1

b

La

-1

b

r

b

,

Debido A

-1

b

/ A

-1

b

≈ 1, la multiplicación de la matriz de A

Page 19: Cap.3linear System

-1

con b es

bien acondicionado, con respecto a los cambios en b. Por lo tanto el sistema lineal Ax

= b es

bien acondicionado para este muy particular de la derecha lado b.

Página 8

56

Capítulo 3. Sistemas lineales

Ejercicios

(I) límites residuales absolutos.

Sea A ∈ C

n × n

ser no singular, Ax = b, y r = Az-b para algunos z ∈ C

n

. Mostrar

r

p

/ A

p

≤ z - x

p

≤ A

-1

p

r

p

.

(Ii) Baje límites de error relativo normwise.

Sea A ∈ C

n × n

ser no singular, Ax = b, b = 0, yr = Az-b para algunos z ∈ C

n

.

Mostrar

r

p

La

p

x

p

z - x

p

x

p

,

1

κ

p

Page 20: Cap.3linear System

(A)

r

p

b

p

z - x

p

x

p

.

(Iii) Relación entre las normas residuales relativos.

Sea A ∈ C

n × n

ser no singular, Ax = b, b = 0, yr = Az-b para algunos z ∈ C

n

.

Mostrar

r

p

La

p

x

p

r

p

b

p

≤ κ

p

(A)

r

p

La

p

x

p

.

(Iv) Si un sistema lineal es bien acondicionado, y la norma residual relativa es pequeña,

a continuación, la aproximación tiene aproximadamente la misma norma como la

solución.

Sea A ∈ C

n × n

ser no singular, y b = 0. Demostrar: Si

ρκ <1,

donde κ κ =

p

(A),

ρ =

Page 21: Cap.3linear System

b - Az

p

b

p

entonces

1 - κρ ≤

z

p

x

p

≤ 1 + κρ.

(V) Para este lado especial derecha, el sistema lineal está bien condicionada con

refiere a las modificaciones en el lado derecho.

Sea A ∈ C

n × n

ser no singular, Ax = b, y Az = b + f. Mostrar: Si A

-1

p

=

La

-1

b

p

/ B

p

entonces

z - x

p

x

p

F

p

b

p

.

1. Sea A ∈ C

n × n

ser la matriz bidiagonal

A =

1-α

1

Page 22: Cap.3linear System

.

.

.

.

.

.

1

1

.

a) Demostrar que

κ

(A) = {

| Α | 1

| Α | -1

(| Α |

n

- 1)

si | α | = 1

2n

si | α | = 1.

Sugerencia: Consulte el ejercicio 4 en el § 1.13.

Página 9

3.3. Solución de Sistemas triangulares

57

b) Supongamos que queremos calcular una aproximación a la solución de Ax = e

n

cuando α = 2 y n = 100. ¿Qué tan pequeño, aproximadamente, es necesario que el

residual

norma sea, de modo que el error relativo normwise unido es menor que 0,1?

2. Componentwise números de condición.

Sea A ∈ C

n × n

ser no singular, b = 0, y Ax = b. Demostrar: Si x

j

= 0 entonces

| Z

j

- X

j

|

Page 23: Cap.3linear System

| X

j

|

≤ κ

j

b - Az

p

b

p

,

donde κ

j

=

x

p

| X |

j

e

*

j

La

-1

p

La

p

.

Podemos interpretar κ

j

como el número de condición de x

j

. ¿Qué componentes de x

se puede esperar a ser sensibles a las perturbaciones?

3. Condición estimación.

Si A es no singular. Mostrar cómo determinar un límite inferior para κ

p

(A) con

una solución del sistema lineal que implica A.

3.3 Solución de Sistemas triangulares

Sistemas lineales con matrices triangulares son fáciles de resolver. En el algoritmo

siguiente

se utiliza el símbolo "≡" para representar una asignación de un valor.

Algoritmo 3.1. Solución Sistema triangular superior.

Entrada: no singular matriz triangular superior A ∈ C

n × n

, Vector b ∈ C

n

Salida: x = A

-1

b

1. Si n = 1, entonces x ≡ b / A.

Page 24: Cap.3linear System

2. Si n> 1 partición

A =

(

n - 1

1

n - 1A

un

1

0

un

nn

),

x =

(

n - 1x

1

x

n

),

b =

(

n - 1b

1

b

n

)

(I) el conjunto X

n

≡ b

n

/ A

nn

.

(Ii) Repita el proceso en el menor SYSTEMAX = b - x

n

un.

El proceso de resolución de un sistema triangular superior también se llama

backsubstitu-

ción, y el proceso de resolución de un sistema triangular inferior se llama adelante

eliminación

ción.

Ejercicios

(I) describen un algoritmo para resolver un sistema triangular inferior no singular.

(Ii) Solución de Sistemas de bloque triangular superior.

Página 10

58

Capítulo 3. Sistemas lineales

Incluso si A no es triangular, puede tener una estructura más gruesa triangular de los

cuales

Page 25: Cap.3linear System

uno aprovechar. Por ejemplo, vamos a

A = (

La

11

La

12

0

La

22

)

donde A

11

y A

22

son no singular. Mostrar cómo resolver Ax = b mediante la resolución de dos

sistemas más pequeños.

(Iii) Acondicionamiento de Sistemas triangulares.

Este problema se ilustra que una matriz triangular no singular es mal condicionado,

si un elemento de la diagonal es pequeña en magnitud en comparación con el otro no-

cero

elementos de matriz.

Sea A ∈ C

n × n

ser triangular superior y no singular. Show:

κ

(A) ≥

La

min

1 ≤ j ≤ n

| Un

jj

|

.

3.4 Estabilidad de los métodos directos

Nosotros no resolvemos los sistemas generales no singulares Ax = b, formando primero

un

-1

y

luego multiplicar por b (del mismo modo, usted no computar 2/4 formando primero un

cuarto

y luego multiplicando por 2). Es demasiado caro y numéricamente menos precisa,

consulte

Ejercicio 4.

A más eficientes factores de aproximación A en un producto de matrices más simples y

a continuación, resuelve una secuencia de sistemas lineales simples. Ejemplos de tales

factorizaciones

incluir:

• factorización LU: A = LU (si existe), donde L es triangular inferior y U es

Page 26: Cap.3linear System

triangular superior.

• factorización Cholesky: A = LL

*

(Si existe), donde L es triangular inferior.

• factorización QR: A = QR, donde Q es unitaria y R es triangular superior. Si

A es real, entonces Q es real ortogonal.

Los métodos que resuelven sistemas lineales por primera factoring una matriz se

llaman directa

métodos. En general, un método de factores directos A = S

1

S

2

(Donde "S" significa

"Matriz simple" y) calcula entonces la solución x = A

-1

b = S

-1

2

S

-1

1

b resolviendo

dos sistemas lineales.

Algoritmo 3.2. Método Directo.

Entrada: matriz no singular A ∈ C

n × n

, Vector b ∈ C

n

Salida: solución de Ax = b

1. Factor A = S

1

S

2

.

2. Resuelve el sistema S

1

y = b.

3. Resuelve el sistema S

2

x = y.

Página 11

3.4. Estabilidad de los métodos directos

59

Cada paso del algoritmo anterior es en sí misma un problema computacional que puede

ser sensible a las perturbaciones. Tenemos que asegurarnos de que el algoritmo no

introducir la sensibilidad adicional que contiene los pasos innecesarios mal

condicionados. Para

un método directo, esto significa que los factores S

1

Page 27: Cap.3linear System

y S

2

debe estar bien acondicionado

con respecto a la inversión. El siguiente ejemplo ilustra que esta no puede ser tomada

por sentado. Es decir, incluso si A es bien acondicionado con respecto a la inversión, S

1

o

S

2

puede ser mal condicionado.

Ejemplo 3.12 El sistema lineal Ax = b con

A = (

ǫ 1

1 0)

,

b = (

1 + ǫ

1)

,

0 <ǫ ≤ 1/2,

tiene la solución x = (1 1)

T

. El sistema lineal está bien condicionada por

La

-1

= (

0

1

1-ǫ)

,

κ

(A) = (1 + ǫ)

2

≤ 9.4.

Podemos factor A = S

1

S

2

donde

S

1

= (

1 0

1

ǫ

1)

,

S

2

Page 28: Cap.3linear System

= (

ǫ

1

0 -

1

ǫ

)

y luego resolver los sistemas triangulares S

1

y = b y S

2

x = y. Supongamos que calculamos

la factorización y la primera solución de sistema exactamente lineal, es decir,

A = S

1

S

2

,

S

1

y = b,

y = (

1 + ǫ

-

1

ǫ

),

y que hacemos errores sólo en la solución del segundo sistema, es decir,

S

2

z = y + r

2

= (

1

-

1

ǫ

),

r

2

= (

0)

.

A continuación, la solución calculada satisface

z = (

0

1)

,

z - x

Page 29: Cap.3linear System

x

= 1.

El error relativo es grande debido a que el componente principal de z es completamente

erróneo

- A pesar de está muy bien acondicionado. ¿Qué ha pasado? Las matrices triangulares

S

1

y S

2

contener elementos que son mucho mayores en magnitud que los elementos

de A,

La

= 1 + ǫ,

S

1 ∞

=

1 + ǫ

ǫ

,

S

2 ∞

=

1

ǫ

,

y lo mismo es cierto para las inversas

La

-1

= 1 + ǫ,

S

-1

1

= S

-1

2

=

1 + ǫ

ǫ

.

Página 12

60

Capítulo 3. Sistemas lineales

Los números de condición de S

Page 30: Cap.3linear System

1

y S

2

son

κ

(S

1

) = (

1 + ǫ

ǫ)

2

1

ǫ

2

,

κ

(S

2

) =

1 + ǫ

ǫ

2

1

ǫ

2

.

Como consecuencia, S

1

y S

2

son mal condicionada con respecto a la inversión. Aunque

el sistema lineal original de Ax = b está bien acondicionado, el algoritmo contiene

pasos

que están enfermos acondicionado, a saber, la solución de los sistemas lineales S

1

y = b y

S

2

x = y.

Queremos evitar métodos, como la de arriba, que el factor de un bien acondicionado

matriz en dos matrices mal acondicionado. Tales métodos se denominan

numéricamente un-

estable.

Definición 3.13. Un algoritmo es (muy informal) numéricamente estable en exacta

aritmética, si cada paso en el algoritmo no es mucho peor que el acondicionado

problema original.

Page 31: Cap.3linear System

Si un algoritmo contiene pasos que son mucho peores acondicionado que el orig-

inal problema, el algoritmo se llama numéricamente inestable.

Las conversaciones definición anterior sobre "la estabilidad en aritmética exacta"

porque en este

libro que no tienen en cuenta los errores causados por las operaciones aritméticas

flotantes

(Análisis que estiman estos errores pueden ser bastante aburrido). Sin embargo, si un

problema

es numéricamente inestable en aritmética exacta, entonces también es numéricamente

inestable en

aritmética de precisión finita, de modo que una distinción no es necesario en este caso.

A continuación se analiza cómo el condicionamiento de los factores S

1

y S

2

afecta a la

la estabilidad del algoritmo 3.2. Los límites se expresan en términos de residual

relativa

normas de los sistemas lineales.

Hecho 3.14 (Estabilidad en aritmética exacta de los métodos directos) Sea A ∈ C

n × n

ser no singular, Ax = b, b = 0, y

A + E = S

1

S

2

,

ǫ

La

=

E

p

La

p

S

1

y = b + r

1

,

ǫ

1

=

r

1 p

b

p

S

2

z = y + r

2

Page 32: Cap.3linear System

,

ǫ

2

=

r

2 p

y

p

.

Si A

-1

p

E

p

≤ 1/2, entonces

z - x

p

x

p

≤ 2κ

p

(A)

{} {}

condición

La

+ Ǫ

1

+ Ǫ),

donde

ǫ =

S

-1

2

p

S

-1

1

p

(A + E)

-1

p

}

{{

}

estabilidad

ǫ

2

(1 + ǫ

1

Page 33: Cap.3linear System

).

Página 13

3.4. Estabilidad de los métodos directos

61

Prueba. Ampliación de la mano derecha da

(A + E) z = S

1

S

2

z = S

1

(Y + r

2

) = S

1

y + S

1

r

2

= B + r

1

+ S

1

r

2

.

El enfoque obvio sería aplicar Hecho 3.9 para el sistema lineal perturbado

(A + E) z = b + r

1

+ S

1

r

2

. Sin embargo, el resultado obligado sería demasiado pesimista,

porque no explotamos la relación entre la matriz y el lado derecho. En su lugar,

podemos explotar esta relación mediante la sustracción (A + E) x = b + Ex para obtener

(A + E) (z - x) =-Ex + r

1

+ S

1

r

2

.

Corolario 2.24 implica que A + E es no singular, por lo que

z - x = (A + E)

-1

(Ex + r

1

) + S

Page 34: Cap.3linear System

-1

2

r

2

.

Tomando normas da

z - x

p

≤ (A + E)

-1

p

(E

p

x

p

+ R

1 p

) + S

-1

2

p

r

2 p

.

Sustituyendo r

1 p

= Ǫ

1

b

p

≤ ǫ

1

La

p

x

p

da

z - x

p

≤ (A + E)

-1

p

La

p

La

+ Ǫ

1

) X

p

Page 35: Cap.3linear System

+ S

-1

2

p

r

2 p

.

Queda r encuadernado

2 p

. De r

2 p

= Ǫ

2

y

p

e y = S

-1

1

(B + r

1

) Sigue

r

2 p

= Ǫ

2

y

p

≤ S

-1

1

p

(B

p

+ R

1 p

).

Condiciones de selección r

1 p

ya que los rendimientos por encima de

r

2 p

≤ S

-1

1

p

La

p

x

p

ǫ

Page 36: Cap.3linear System

2

(1 + ǫ

1

).

Sustituimos esta cota para r

2 p

en lo anterior con destino a z - x

p

,

z - x

p

≤ A

p

x

p

((A + E)

-1

p

La

+ Ǫ

1

) + S

-1

2

p

S

-1

1

p

ǫ

2

(1 + ǫ

1

)).

Factoring out (A + E)

-1

p

y aplicando el Corolario 2.24 da el destino deseado.

Observación 3.15.

• La estabilidad numérica en aritmética exacta de un método directo puede ser repre-

representada por el número de condición para la multiplicación de las dos matrices S

-1

2

y S

-1

1

,

véase Hechos 2.22, ya que

S

Page 37: Cap.3linear System

-1

2

p

S

-1

1

p

(A + E)

-1

p

=

S

-1

2

p

S

-1

1

p

S

-1

2

S

-1

1

p

.

• Si S

-1

2

p

S

-1

1

p

≈ (A + E)

-1

p

a continuación, la multiplicación de la matriz S

-1

2

S

-1

1

está bien acondicionado. En este caso, el límite en el Hecho 3,14 es aproximadamente

p

(A) (ǫ

La

+ Ǫ

Page 38: Cap.3linear System

1

+ Ǫ

2

(1 + ǫ

1

)), Y el algoritmo 3.2 es numéricamente estable en exacta

aritmética.

Página 14

62

Capítulo 3. Sistemas lineales

• Si S

-1

2

p

S

-1

1

p

»(A + E)

-1

p

a continuación, Algoritmo 3.2 es inestable.

Ejemplo 3.16 Volviendo al ejemplo 3.12, vemos que

κ

(A) = (1 + ǫ)

2

,

S

-1

1

S

-1

2

La

-1

=

1 + ǫ

ǫ

2

,

r

2 ∞

y

= Ǫ

Page 39: Cap.3linear System

2

.

Por lo tanto el límite de Fact 3.14 es igual a 2 (1 + ǫ)

3

e indica correctamente la inexactitud

de z.

El siguiente destino es similar a la de la Realidad 3,14, pero delimita el

error relativo con respecto a la solución calculada.

Hecho 3.17 (A Segunda Estabilidad Bound) Sea A ∈ C

n × n

ser no singular, Ax = b,

y

A + E = S

1

S

2

,

ǫ

La

=

E

p

La

p

S

1

y = b + r

1

,

ǫ

1

=

r

1 p

S

1 p

y

p

S

2

z = y + r

2

,

ǫ

2

=

r

2 p

S

2 p

Page 40: Cap.3linear System

z

p

donde y = 0 y z = 0. Entonces

z - x

p

z

p

≤ κ

p

(A)

{} {}

condición

La

+ Ǫ),

donde

ǫ =

S

1 p

S

2 p

La

p

}

{{

}

estabilidad

2

+ Ǫ

1

(1 + ǫ

2

)).

Prueba. Al igual que en la prueba de 3.14 Fact empezamos por la ampliación de la

parte derecha,

(A + E) z = S

1

S

2

z = S

1

(Y + r

2

) = S

1

y + S

1

r

2

Page 41: Cap.3linear System

= B + r

1

+ S

1

r

2

.

El residuo es r = Az - b =-Ez + S

1

y + S

1

r

2

= B + r

1

+ S

1

r

2

. Tome las normas y

sustituir las expresiones para r

1 p

y r

2 p

para obtener

r

p

≤ E

p

z

p

+ Ǫ

1

S

1 p

y

p

+ Ǫ

2

S

1 p

S

2 p

z

p

.

To y destino

p

escribir y = S

2

Page 42: Cap.3linear System

z - r

2

, Tener normas y reemplazar r

2 p

= Ǫ

2

S

2 p

z

p

a

conseguir

y

p

≤ S

2 p

y

p

+ R

2 p

= S

2 p

z

p

(1 + ǫ

2

).

Sustituyendo esto en la cota de r

p

da

r

p

≤ z

p

(E

p

+ S

1 p

S

2 p

ǫ

1

(1 + ǫ

2

) + S

1 p

S

2 p

ǫ

2

Page 43: Cap.3linear System

) = Un

p

z

p

La

+ Ǫ).

Página 15

3.4. Estabilidad de los métodos directos

63

El error relativo unido ahora sigue de hecho 3.7.

En Realidad 3,17, la estabilidad numérica está representado por el factor S

1 p

S

2 p

/ A

p

.

Si S

1 p

S

2

»A

p

a continuación, Algoritmo 3.2 es inestable.

Ejercicios

1. El siguiente destino es ligeramente más estrecho que el de Hechos 3.14.

Bajo las condiciones de Hecho 3.14 muestran que

z - x

p

x

p

≤ 2κ

p

(A) [ǫ

La

+ Ρ

p

(A, B) ǫ]

donde

ρ

p

(A, b) =

b

p

La

p

x

p

Page 44: Cap.3linear System

,

ǫ =

S

-1

2

p

S

-1

1

p

(A + E)

-1

p

ǫ

2

(1 + ǫ

1

) + Ǫ

1

.

2. El siguiente unido sugiere que el algoritmo 3.2 es inestable si el primer factor

está mal condicionada con respecto a la inversión.

Bajo las condiciones de Hecho 3.14 muestran que

z - x

p

x

p

≤ 2κ

p

(A) [ǫ

La

+ Ǫ

1

+ Κ

p

(S

1

) Ǫ

2

(1 + ǫ

1

)].

3. El siguiente unido sugiere que el algoritmo 3.2 es inestable si la segunda

factor es mal condicionado con respecto a la inversión.

Vamos Ax = b, donde A es no singular. También vamos a

A = S

1

S

2

,

Page 45: Cap.3linear System

S

1

y = b,

S

2

z = y + r

2

,

donde ǫ

2

=

r

2 p

S

2 p

z

p

y z = 0. Demuestre que

z - x

p

z

p

≤ κ

p

(S

2

) Ǫ

2

.

4. ¿Cómo no para resolver sistemas lineales.

Se podría resolver un sistema lineal Ax = b, formando un

-1

, Y luego multiplicando

La

-1

con b. El abajo unido sugiere que este planteamiento es probable que sea

numéricamente menos preciso que el método directo.

Sea A ∈ C

n × n

ser no singular, y Ax = b con b = 0. Sea A + E ∈ C

n × n

con A

-1

p

E p ≤ 1/2. Calcular Z = (A + E)

-1

y z = Z (b + f). Mostrar

que

z - x

p

Page 46: Cap.3linear System

x

p

≤ κ

p

(A) (2

La

-1

p

b

p

La

-1

b

p

ǫ

La

+ Ǫ

F

),

donde

ǫ

La

=

E

p

La

p

,

ǫ

F

=

F

p

La

p

x

p

,

y compararlo con el límite de Datos 3.9.

Sugerencia: Utilice los límites de perturbación para la multiplicación de la matriz y de

la matriz in-

versión en Hechos 2,22 y 2,25.

Página 16

64

Capítulo 3. Sistemas lineales

3.5 Factorización LU

La factorización LU de una matriz es la base para la eliminación de Gauss.

Definición 3.18. Sea A ∈ C

n × n

Page 47: Cap.3linear System

. Una factorización A = LU, donde L es la unidad inferior

triangular y U es la matriz triangular superior se llama factorización LU de A.

La factorización LU de una matriz no singular, si existe, es único, consulte la

Ejercicio 5 del § 1.13. Por desgracia, hay matrices que no tienen una LU fac-

torizations, como el ejemplo a continuación ilustra.

Ejemplo 3.19 La matriz no singular

A = (

0 1

1 0)

no puede tenerse en cuenta en A = LU, donde L es triangular inferior y U es superior

triangular. Supongamos por el contrario que sí. Entonces

(0 1

1 0)

= (

1 0

l 1) (

u

1

u

1

0

u

3

).

La primera columna de la igualdad implica u

1

= 0, y lu

1

= 1 por lo que u

1

= 0, a contra-

dicción.

Ejemplo 3.12 ilustra que una matriz A que está bien condicionada con respecto

a la inversión puede tener factores de LU que son mal condicionada con respecto a la

inversión.

Algoritmo 3.3 muestra cómo permutar las filas de una matriz no singular para

que la matriz permutada tiene una factorización LU. Permutando las filas de A se

llama

pivotante parcial - a diferencia de completar pivotante en filas y columnas son

permutado. Con el fin de evitar que los factores de ser demasiado enfermo

acondicionado, Algoritmo

3,3 elige una matriz de permutación de manera que los elementos de L están acotadas.

Algoritmo 3.3. Factorización LU con pivoteo parcial.

Entrada: matriz no singular A ∈ C

n × n

Salida: matriz de permutación P, la unidad matriz triangular inferior L,

matriz triangular superior U tal que PA = LU

1. Si n = 1 entonces P ≡ 1, L ≡ 1 y U ≡ A.

2. Si n> 1, entonces elegir una matriz de permutación P

n

Page 48: Cap.3linear System

de tal manera que

P

n

A =

(

1 n - 1

1

α

un

n - 1

d A

n-1

),

donde α tiene la magnitud más grande entre todos los elementos de la columna

principal,

es decir, | α | ≥ d

, Y el factor

P

n

A = (

1

0

l I

n-1

) (Α un

0 S)

,

Página 17

3.5. LU Factorización

65

donde l ≡ dα

-1

y S ≡ Un

n-1

- La.

3. Calcule P

n-1

S = L

n-1

U

n-1

, Donde P

n-1

es una matriz de permutación, L

n-1

es

unidad triangular inferior y U

n-1

Page 49: Cap.3linear System

es triangular superior.

4. Entonces

P ≡ (

1

0

0 P

n-1

) P

n

,

L ≡ (

1

0

P

n-1

l de L

n-1

),

U ≡ (

α

un

0 U

n-1

).

Observación 3.20.

• Cada iteración de la etapa 2 en el algoritmo 3.3 determina una columna de L y uno

fila de U.

• Asegura pivotantes parciales que la magnitud de los multiplicadores es limitado por

uno, es decir, l

≤ 1 en el paso 2 del algoritmo 3.3. Por lo tanto todos los elementos de L

tener una magnitud menor o igual a uno.

• El α escalar se llama un pivote, y la matriz S = A

n-1

- Dα

-1

a es un Schur

complementar. Ya encontramos Schur complementa en el Hecho 1.14, en el marco

de la inversa de una matriz particionada. En este particular, Schur complemento S

la matriz dα

-1

a es un producto externo.

• Los multiplicadores se pueden recuperar fácilmente a partir de L, ya que son

elementos de

L. Paso 4 del algoritmo 3.3 muestra que la primera columna de L contiene los

multiplicadores P

n-1

l que cero elementos fuera de la primera columna. Del mismo modo, la columna

i de L que los efectos multiplicadores que el cero a los elementos de la columna i. Sin

embargo,

Page 50: Cap.3linear System

los multiplicadores no se pueden recuperar fácilmente a partir de L

-1

.

• Paso 4 del algoritmo 3.3 De S = P

T

n-1

L

n-1

U

n-1

, La extracción de la por-

matriz de mutación,

P

n

A = (

1

0

0 P

T

n-1

) (1

0

P

n-1

l I

n-1

) (Α

un

0 L

n-1

U

n-1

)

y la separación de las partes triangulares inferiores y superiores

(1

0

P

n-1

l I

n-1

) (Α

un

0 L

n-1

U

n-1

) = (1

0

P

n-1

Page 51: Cap.3linear System

l de L

n-1

) (Α

un

0 U

n-1

).

• En el vector P

n-1

l, la permutación P

n-1

reordena los multiplicadores de l, pero

No cambie sus valores. Para combinar todas las permutaciones en una sola permuta-

ción matriz P, tenemos que tirar de todas las matrices de permutación delante de la

menor

matriz triangular. Esto, a su vez, requiere reordenamiento en los multiplicadores

anterior

pasos.

Hecho 3.21 (LU Factorización con pivotante parcial) Cada singular ma-

matriz A tiene una factorización PA = LU, donde P es una matriz de permutación, L es

la unidad

triangular inferior, y U es no singular triangular superior.

Página 18

66

Capítulo 3. Sistemas lineales

Prueba. Realizar una prueba de inducción basado en el algoritmo 3.3.

Un factorización PA = LU es, en general, no es única, porque hay muchos

opciones para la matriz de permutación.

Con una factorización PA = LU, las filas del sistema lineal Ax = b son

reorganizado, y el sistema que hay que resolver es PAx = Pb. El proceso de la solución

de este

sistema lineal se denomina eliminación de Gauss con pivotamiento parcial.

Algoritmo 3.4. Eliminación gaussiana con pivoteo parcial.

Entrada: matriz no singular A ∈ C

n × n

, Vector b ∈ C

n

Salida: solución de Ax = b

1. Factor PA = LU con el Algoritmo 3.3.

2. Resolver el sistema Ly = Pb.

3. Resuelve el sistema Ux = y.

El siguiente límite implica que la eliminación gaussiana con pivoteo parcial es

estable en aritmética exacta, si los elementos de U no son mucho más grandes en

magnitud

que las de A.

Corolario 3.22 (Estabilidad en aritmética exacta de Gauss eliminación

con pivoteo parcial). Si A ∈ C

n × n

es no singular, Ax = b,

Page 52: Cap.3linear System

P (A + E) = LU,

ǫ

La

=

E

La

Ly = Pb + r

L

,

ǫ

L

=

r

L ∞

L

y

Uz = y + r

U

,

ǫ

U

=

r

U ∞

U

z

.

donde y = 0 y z = 0, entonces

z - x

z

≤ κ

(A) (ǫ

La

+ Ǫ),

donde ǫ = n

U

La

U

Page 53: Cap.3linear System

+ Ǫ

L

(1 + ǫ

U

)).

Prueba. Aplicar Fact 3.17 a A + E = S

1

S

2

, Donde S

1

= P

T

L y S

2

= U. Per-

matrices de mutaciones no cambian p-normas, consulte el Ejercicio (iv) en el § 2.6, de

modo que

P

T

L

= L

. Debido a que los multiplicadores son los elementos de L, y | l

ij

| ≤ 1 con

pivoteo parcial, obtenemos L

≤ n.

La relación U

/ A

representa el elemento de crecimiento durante Gaussian elimina-

minación. En la práctica, U

/ A

tiende a ser pequeña, pero hay n × n matrices

para la que U

/ A

= 2

n-1

/ N es posible, véase el Ejercicio 2. Si U

»A

Page 54: Cap.3linear System

a continuación, la eliminación gaussiana es inestable.

Página 19

3.5. LU Factorización

67

Ejercicios

(I) Determinar la factorización LU de un no-singular triangular inferior matriz A.

Expresar los elementos de L y U en términos de los elementos de A.

(Ii) Determinar una factorización A = LU cuando A es triangular superior.

(Iii) En el caso

A = (

0

0

La

1

0)

,

con A

1

no singular, determine una factorización PA = LU, donde L es la unidad

triangular inferior y U es triangular superior.

(Iv) factorización LDU.

Uno puede hacer una factorización LU más simétrica, al exigir que tanto

matrices triangulares tienen unos en la diagonal, y la factorización A = LD

~

U, donde

L es la unidad inferior triangular, D es diagonal, y

~

U es la unidad triangular superior.

Dada una factorización LU A = LU, expresa los elementos de la diagonal d

ii

de D y

los elementos de u ~

ij

en términos de elementos de U.

(V) Bloquear factorización LU.

Supóngase que se puede dividir la matriz invertible A como

A = (

La

11

La

12

La

21

La

22

),

donde A

11

es invertible. Compruebe que A tiene la factorización bloque A = LU

Page 55: Cap.3linear System

donde

L = (

Yo

0

La

21

La

-1

11

I)

,

U = (

La

11

La

12

0

S)

,

y S ≡ Un

22

- Un

21

La

-1

11

La

12

es un complemento de Schur. Tenga en cuenta que L es la unidad inferior

triangular. Sin embargo U sólo se bloquee triangular superior, debido a que A

11

y S son

en general no triangular. Por lo tanto una factorización LU bloque no es el mismo que

una factorización LU.

Determine un bloque LDU factorización A = LDU, donde L es la unidad inferior trian-

gular, U es la unidad triangular superior, y D es diagonal por bloques.

(Vi) La matriz

A =

0 1 1 2

1 0 3 4

1 2 1 2

3 4 3 4

no tiene una factorización LU. Sin embargo, tiene un factor de bloque LU-

zación A = LU con

Page 56: Cap.3linear System

La

11

= (

0 1

1 0)

.

Determinar L y U.

(Vii) Factorización UL.

Página 20

68

Capítulo 3. Sistemas lineales

Análogo al algoritmo 3.3, presentar un algoritmo que los factores de cualquier

cuadrados

la matriz A en PA = UL, donde P es una matriz de permutación, U es la unidad superior

triangular, y L es triangular inferior.

1. Sea A ∈ C

n × n

ser no singular y P una matriz de permutación tal que

PA = (

La

11

La

12

La

21

La

22

)

con A

11

no singular. Mostrar: Si todos los elementos de A

21

La

-1

11

son menos de uno de cada

magnitud continuación

κ

(Un

22

- Un

21

La

-1

11

La

12

) ≤ n

Page 57: Cap.3linear System

2

κ

(A).

2. Calcula la factorización LU de la matriz n × n

A =

1

1

-1

1

1

-1 -1

1

1

.

.

.

.

.

.

.

.

.

.

.

.

-1. . . . . . -1 1

.

Demostrar que giro no es necesario. Determinar las normas de uno de A y U.

3. Sea A ∈ C

n × n

y A + UV

*

ser no singular, donde u, v ∈ C

n

. Mostrar cómo

Page 58: Cap.3linear System

resolver (A + uv

*

) X = b usando dos sistemas lineales resuelve con A, dos productos internos,

un vector de multiplicación escalar, y una suma de vectores.

4. Este problema muestra que si la eliminación de Gauss con pivote parcial encon-

tros un pequeño giro, entonces A debe ser mal condicionado.

Sea A ∈ C

n × n

ser no singular, y PA = LU, donde P es una permutación

matriz, L es la unidad triangular con elementos | l

ij

| ≤ 1 y U es triangular superior

con elementos u

ij

. Demuestre que κ

(A) ≥ A

/ Min

j

| U

jj

|.

5. Las siguientes matrices G son generalizaciones de las matrices triangulares

inferiores

en la factorización LU. El propósito de G es para transformar todos los elementos de

un

vector columna a a cero, excepto para el elemento k-ésimo.

Sea G = I

n

- Ge

T

k

, Donde g ∈ C

n

y 1 ≤ k ≤ n. ¿Qué condiciones hacen el

elementos de G tienen que satisfacer para que G es invertible? Determine T

-1

cuando se

existe.

Dado un índice k y un vector x ∈ C

n

, Qué condiciones los elementos de x

tienen que satisfacer para que Gx = e

k

? Determine el vector g cuando existe.

3.6 Factorización de Cholesky

Parece natural que una matriz hermitiana debe tener una factorización que

refleja la simetría de la matriz. Para una matriz n × Hermitian, necesitamos

tienda solamente n (n + 1) / 2 elementos, y sería eficiente si el mismo fuera cierto de

Page 59: Cap.3linear System

la factorización. Desafortunadamente esto no es posible en general. Por ejemplo, la

matriz

A = (

0 1

1 0)

Página 21

3.6. Factorización Cholesky

69

es no singular y Hermite. Pero no puede tenerse en cuenta en las épocas más bajas

hasta-

por matriz triangular, como se ilustra en el Ejemplo 3.19. Afortunadamente, una cierta

clase

de matrices, así llamados hermitianos matrices definidas positivas no admiten una

simétrica

factorización.

Definición 3.23. Una matriz hermitiana A ∈ C

n × n

es definida positiva si x

*

Ax> 0

para todo x ∈ C

n

con x = 0.

Una matriz hermitiana A ∈ C

n × n

es positiva semi-definida si x

*

Ax ≥ 0 para todo

x ∈ C

n

.

Una matriz simétrica A ∈ R

n × n

es definida positiva si x

T

Ax> 0 para todo x ∈ R

n

con x = 0, y positiva semi-definida si x

T

Ax ≥ 0 para todo x ∈ R

n

.

Una matriz semi-definida positiva A puede tener x

*

Ax = 0 para x = 0.

Ejemplo. El 2 × Hermitian matriz 2

A = (

1 β

β 1)

Page 60: Cap.3linear System

es definitivo si es positivo | β | <1, y positiva semi-definida si | β |

2

= 1.

Derivamos varias propiedades de hermitianas matrices definidas positivas. Partimos

mostrando que todas las matrices definidas positivas hermitianas son no singulares.

Hecho 3.24 Si A ∈ C

n × n

se Hermitian definida positiva, entonces A es no singular.

Prueba. Supongamos por el contrario que A era singular. Entonces Ax = 0 para algún

x = 0,

implicando x

*

Ax = 0 para algún x = 0, lo que contradice lo definitivo positivo de

A, es decir x

*

Ax> 0 para todo x = 0.

Hermitianas matrices definidas positivas tienen elementos diagonales positivas.

Hecho 3.25 Si A ∈ C

n × n

es definido entonces sus elementos diagonales hermitianas positivos

son positivos.

Prueba. Puesto que A es definida positiva, tenemos x

*

Ax> 0 para cualquier x = 0, y en

particular, 0 <e

*

j

Ae

j

= A

jj

, 1 ≤ j ≤ n.

A continuación se muestra una transformación que preserva definiteness positivo

Hermite.

Hecho 3.26 Si A ∈ C

n × n

es Hermitian definida positiva y B ∈ C

n × n

es no singular

entonces B

*

AB es también hermitiana definida positiva.

Prueba. La matriz B

*

AB es hermitiana porque A es hermitiana. Puesto que B no es

singular, y = Bx = 0 si y sólo si x = 0. Por lo tanto

x

*

B

*

Page 61: Cap.3linear System

ABx = (Bx)

*

A (Bx) = y

*

Ay> 0

Página 22

70

Capítulo 3. Sistemas lineales

para cualquier vector y = 0, por lo que B

*

AB es definida positiva.

Finalmente mostramos que submatrices principales y Schur complementa heredar

Definiteness positivo Hermite.

Hecho 3.27 Si A ∈ C

n × n

es Hermitian definida entonces su director líder positivo

submatrices y Schur complementa también Hermitian definida positiva.

Prueba. Sea B k × k submatriz principal de A, por algún 1 ≤ k ≤ n - 1.

La submatriz B es hermitiana porque es una submatriz principal de una hermitiana

matriz. Para mantener la simple notación, permutamos las filas y columnas de A de

modo

que la submatriz B ocupa los principales filas y columnas. Es decir, sea P un

matriz de permutación y partición

A = P

T

AP = (

B

La

12

La

*

12

La

22

).

Hecho 3.26 implica Thata también Hermitian definida positiva. Por lo tanto x

*

Âx> 0 para cualquier

vector x = 0. En particular, sea x = (

y

0)

para y ∈ C

k

. Entonces para cualquier y = 0 tenemos

0 <x

*

Âx = (y

*

0)

Page 62: Cap.3linear System

(B

La

12

La

*

12

La

22

) (Y0) = y

*

Por.

Esto significa que Y

*

Por> 0 para y = 0, por lo que B es definida positiva. Dado que la submatriz

B es una submatriz principal de una matriz hermitiana, B también Hermite. Por lo

tanto

cualquier principal submatriz B de A es hermitiana definida positiva.

Ahora probamos definiteness positivo Hermitian de Schur complementa. Hecho

3.24 implica que B es no singular. Por lo tanto podemos establecer

L = (

Yo

k

0

-Un

*

12

B

-1

Yo

n-k

)

de modo que

LA L

*

= (

B 0

0 S)

,

donde S = A

22

- Un

*

12

B

-1

La

12

.

Desde L es la unidad triangular inferior, es no singular. De hecho 3.26 sigue entonces

que

Page 63: Cap.3linear System

LAL

*

es Hermitian definida positiva. A principios de esta prueba se demostró que el capital

submatrices de hermitianas matrices definidas positivas son Hermitian definida positiva,

por lo tanto el complemento de Schur S debe ser hermitiana definida positiva.

Ahora tenemos todas las herramientas que necesitamos para factorizar Hermitian

definida positiva ma-

trices. El siguiente algoritmo produce una factorización simétrica A = LL

*

para una

Hermitiana definida positiva matriz A. El algoritmo aprovecha el hecho de que el diag-

onal elementos de A son positivos y los complementos de Schur es hermitiana positiva

definitiva.

Página 23

3.6. Factorización Cholesky

71

Definición 3.28. Sea A ∈ C

n × n

hermitiana ser definida positiva. Una factorización

A = LL

*

, Donde L es (inferior o superior) triangular con elementos de la diagonal es positivos

llamado factorización Cholesky de A.

A continuación se calcula una factorización Cholesky inferior superior A = LL

*

donde L es

una matriz triangular inferior.

Algoritmo 3.5. Factorización Cholesky.

Entrada: Hermitian matriz definida positiva A ∈ C

n × n

Salida: matriz triangular inferior L con elementos de la diagonal positivos

tal que A = LL

*

1. Si n = 1 entonces L ≡

√ A.

2. Si n> 1 y el factor de partición

A =

(

1 n - 1

1

α

un

*

n - 1

una A

n-1

) = (Α

1/2

0

Page 64: Cap.3linear System

-1 / 2

Yo

n-1

) (1 0

0 S) (

α

1/2

α

-1 / 2

un

*

0

Yo

n-1

),

donde S ≡ Un

n-1

- Aα

-1

un

*

.

3. Compute S = L

n-1

L

*

n-1

, Donde L

n-1

es triangular inferior con positivo diago-

elementos nales.

4. Entonces

L ≡ (

α

1/2

0

-1 / 2

L

n-1

).

Un factorización de Cholesky de una matriz positiva es único.

Hecho 3.29 (Unicidad de factorización Cholesky) Sea A ∈ C

n × n

ser Hermi-

tian definida positiva. Si A = LL

*

donde L es triangular inferior con diagonal positiva

entonces L es único. Similares, y, si A = LL

Page 65: Cap.3linear System

*

donde L es triangular superior con positivo

elementos de la diagonal entonces L es único.

Prueba. Esto se puede demostrar de la misma manera como la unicidad de la

factorización LU-

ción.

El siguiente resultado muestra que se puede usar una factorización de Cholesky para

determinar

nar si una matriz hermitiana es definida positiva.

Hecho 3.30 Sea A ∈ C

n × n

ser Hermitian. A es definida positiva si y sólo si A = LL

*

donde L es triangular con elementos de la diagonal positivos.

Prueba. Algoritmo 3.5 muestra que si A es definida positiva, entonces A = LL

*

. Ahora

suponer que A = LL

*

. Puesto que L es triangular con elementos de la diagonal positivos, es

no singular. Por lo tanto Lx = 0 para x = 0 y x

*

Ax = L

*

x

2

2

> 0.

Página 24

72

Capítulo 3. Sistemas lineales

Los próximos enlazados muestra que un solucionador de Cholesky es numéricamente

estable en exacta

aritmética.

Corolario 3.31 (Estabilidad de Cholesky Solver). Sea A ∈ C

n × n

y A + E será

Hermitianas matrices definidas positivas, Ax = b, b = 0, y

A + E = LL

*

,

ǫ

La

=

E

2

La

2

Ly = b + r

Page 66: Cap.3linear System

1

,

ǫ

1

=

r

1 2

b

2

L

*

z = y + r

2

,

ǫ

2

=

r

2 2

y

2

.

Si A

-1

2

E

2

≤ 1/2, entonces

z - x

2

x

2

≤ 2κ

2

(A) (ǫ

La

+ Ǫ

1

+ Ǫ

2

(1 + ǫ

1

)).

Prueba. Aplicar Fact 3.14 a A + E, donde S

1

= L y S

2

= L

*

. El factor de estabilidad

Page 67: Cap.3linear System

es L

- *

2

L

-1

2

/ (A + E)

-1

2

= 1 porque Hecho 2.19 implica

(A + E)

-1

2

= L

- *

L

-1

2

= L

-1 2

2

= L

- *

2

L

-1

2

.

Ejercicios

(I) La magnitud de un elemento offdiagonal de una definida positiva Hermitian ma-

matriz está limitado por la media geométrica de los elementos diagonales

correspondientes.

Sea A ∈ C

n × n

hermitiana ser definida positiva. Mostrar: | a

ij

| <

√ a

ii

un

jj

para i = j.

Sugerencia: Utilice el definiteness positiva del complemento de Schur.

(Ii) La magnitud de un elemento offdiagonal de una definida positiva hermitiana ma-

matriz está limitado por la media aritmética de los elementos diagonales

correspondientes.

Sea A ∈ C

n × n

hermitiana ser definida positiva. Mostrar: | a

ij

Page 68: Cap.3linear System

| ≤ (a

ii

+ Un

jj

) / 2 para los

i = j.

Sugerencia: Utilice la relación entre la aritmética y la media geométrica.

(Iii) El elemento más grande en magnitud de una matriz definida positiva es hermitiana

en la diagonal.

Sea A ∈ C

n × n

hermitiana ser definida positiva. Mostrar: max

1 ≤ i, j ≤ n

| Un

ij

| =

max

1 ≤ i ≤ n

un

ii

.

(Iv) Sea A ∈ C

n × n

hermitiana ser definida positiva. Show: A

-1

También es positivo

definitiva.

(V) Modificar Algoritmo 3.5 por lo que calcula una factorización A = LDL

*

para un Su-

matriz definida positiva mitian A, donde D es diagonal y L es la unidad inferior

triangular.

Página 25

3.7. Factorización QR

73

(Vi) factorización Cholesky superior-inferior. Modificar Algoritmo de 3,5 por lo que

calcula un

factorización A = L

*

L para una matriz definida positiva hermitiana A, donde L es

triangular inferior con elementos diagonales positivas.

(Vii) Bloquear factorización Cholesky.

Partición de la matriz definida positiva Hermitian A como

A = (

La

11

La

12

La

Page 69: Cap.3linear System

21

La

22

).

Análoga a la factorización LU bloque en el Ejercicio (v) de la Sección 3.5 deter-

extraer una factorización A = LL

*

, Donde L es un bloque triangular inferior. Es decir, L

es de la forma

L = (

L

11

0

L

21

L

22

),

donde L

11

y L

22

son, en general, no inferior triangular.

(Viii) Que

A = (

La

11

La

12

La

21

La

22

)

hermitiana ser definida positiva. Show:

La

22

- Un

21

La

-1

11

La

12 2

≤ A

2

,

y

κ

2

Page 70: Cap.3linear System

(Un

22

- Un

21

La

-1

11

La

12

) ≤ κ

2

(A).

(Ix) Demostrar: A = MM

*

para alguna matriz no singular M si y sólo A es hermitiana

definida positiva.

(X) Generalizado factorización Cholesky.

Sea M ∈ C

n × n

ser Hermitian definida positiva. Demostrar: Si M = M

*

1

M

1

=

M

*

2

M

2

para matrices cuadrada M

1

y M

2

entonces existe una matriz Q unitaria

tal que M

2

= QM

1

.

(Xi) Sea M = A + ib Hermitian ser definida positiva, donde

2

= -1, Y A y B

son verdaderas matrices cuadradas. Demuestre que la matriz

C = (

A-B

B

Una)

es real simétrica definida positiva.

3.7 Factorización QR

Page 71: Cap.3linear System

La factorización QR es una matriz de factorización donde uno de los factores es

unitaria,

y el otro es triangular. Se deriva de la existencia de una factorización QR de

la factorización de Cholesky.

Hecho 3,32 Cada matriz no singular A ∈ C

n × n

tiene una factorización única A = QR,

donde Q es unitaria y R es triangular superior con elementos de la diagonal positivos.

Página 26

74

Capítulo 3. Sistemas lineales

Prueba. Puesto que A es no singular, Ax = 0 para x = 0 y x

*

La

*

Ax = Ax

2

2

> 0, la cual

implica que M = A

*

A es hermitiana definida positiva. Sea M = LL

*

ser una de Cholesky

factorización de M, donde L es triangular inferior con elementos de la diagonal

positivos.

Entonces M = A

*

A = LL

*

. Multiplicando por A

- *

a la izquierda da A = QR, donde

Q = A

- *

L, y donde R = L

*

es triangular superior con elementos de la diagonal positivos.

Ejercicio (ix) en la sección 3.6 muestra que Q es unitaria.

La unicidad de la factorización QR desprende de la singularidad de la

Factorización de Cholesky, así como de ejercicio 6 en la Sección 1.13.

El obligado a continuación muestra que un solucionador QR es numéricamente estable

en aritmética exacta-

hermético.

Corolario 3.33 (Estabilidad de Solver QR). Sea A ∈ C

n × n

ser no singular, Ax =

b, b = 0, y

A + E = QR,

Page 72: Cap.3linear System

ǫ

La

=

E

2

La

2

Qy = b + r

1

,

ǫ

1

=

r

1 2

b

2

Rz = y + r

2

,

ǫ

2

=

r

2 2

y

2

.

Si A

-1

2

E

2

≤ 1/2, entonces

z - x

2

x

2

≤ 2κ

2

(A) (ǫ

La

+ Ǫ

1

+ Ǫ

2

(1 + ǫ

1

)).

Prueba. Aplicar Fact 3.14 a A + E, donde S

Page 73: Cap.3linear System

1

= Q y S

2

= R. El factor de estabilidad

es R

-1

2

Q

*

2

/ (A + E)

-1

2

= 1 porque Ejercicio (v) en la sección 2.6 implica

Q

*

2

= 1 y (A + E)

-1

2

R =

-1

2

.

Hay muchas maneras de calcular una factorización QR. Aquí se presenta un

algoritmo que se basa en rotaciones de Givens, ver Definición 1.17. Rotaciones de

Givens

son unitarias, véase el ejemplo 1.16, y que a menudo se utilizan para introducir ceros en

matrices. Vamos a empezar con una rotación de Givens para introducir un cero en una

vectorial.

Ejemplo. Sean x, y ∈ C.

(C

s

-Sc) (

x

y)

= (

d

0)

,

donde d = √ | x |

2

+ | Y |

2

.

Si x = y = 0, entonces c = 1 y s = 0, en caso contrario x = c / d y s = a / d. Es decir, si

ambos componentes del vector son cero, entonces no hay nada que hacer y los Estados

unitarios

matriz es la identidad. Tenga en cuenta que d ≥ 0 y | c |

2

Page 74: Cap.3linear System

+ | S |

2

= 1.

Página 27

3.7. Factorización QR

75

Al introducir ceros en un vector más, nos integramos cada rotación Givens

en una matriz de identidad.

Ejemplo. Supongamos que queremos poner a cero los elementos 2, 3 y 4 en un 4 × 1

vector con

una matriz unitaria. Podemos aplicar tres rotaciones de Givens en el siguiente orden.

1. Aplicar una rotación de Givens a las filas 3 y 4 a cero a 4 elementos,

1 0

0

0

0 1

0

0

0 0

c

4

s

4

0 0-s

4

c

4

x

1

x

2

x

3

x

4

Page 75: Cap.3linear System

=

x

1

x

2

y

3

0

donde y

3

= √ | x

3

|

2

+ | X

4

|

2

≥ 0. Si x

4

= X

3

= 0, entonces c

4

= 1 y s

4

= 0,

de otro modo c

4

= X

3

/ Año

3

y s

4

= X

4

/ Año

3

.

2. Aplicar una rotación de Givens a las filas 2 y 3 a cero a cabo elemento 3,

Page 76: Cap.3linear System

1

0

0 0

0

c

3

s

3

0

0-s

3

c

3

0

0

0

0 1

x

1

x

2

y

3

0

=

x

1

y

2

0

0

Page 77: Cap.3linear System

donde y

2

= √ | x

2

|

2

+ | Y

3

|

2

≥ 0. Si y

3

= X

2

= 0, entonces c

3

= 1 y s

3

= 0,

de otro modo c

3

= X

2

/ Año

2

y s

3

= Y

3

/ Año

2

.

3. Aplicar una rotación de Givens a las filas 1 y 2 a cero a cabo elemento 2,

c

2

s

2

0 0

-S

2

c

2

0 0

0

Page 78: Cap.3linear System

0

1 0

0

0

0 1

x

1

y

2

0

0

=

y

1

0

0

0

donde y

1

= √ | x

1

|

2

+ | Y

2

|

2

≥ 0. Si y

2

= X

1

= 0, entonces c

Page 79: Cap.3linear System

2

= 1 y s

2

= 0,

de otro modo c

2

= X

1

/ Año

1

y s

2

= Y

2

/ Año

1

.

Por lo tanto Qx = y

1

e

1

, Donde y

1

= Qx

2

y

Q =

c

2

s

2

0 0

-S

2

c

2

0 0

0

0

1 0

0

0

0 1

Page 80: Cap.3linear System

1

0

0

0

0

c

3

s

3

0

0-s

3

c

3

0

0

0

0

1

1 0

0

0

0 1

0

0

0 0

c

4

s

4

0 0-s

4

c

4

.

Page 81: Cap.3linear System

Hay muchas órdenes posibles en las que aplicar rotaciones de Givens y Givens

rotaciones no tienen que operar en cualquiera de las filas adyacentes. El siguiente

ejemplo ilustra-

este aborda en este capítulo.

Ejemplo. Aquí hay otra manera de poner a cero los elementos 2, 3 y 4 en un 4 × 1

vector.

Podemos aplicar tres rotaciones de Givens que todos implican la fila principal.

Página 28

76

Capítulo 3. Sistemas lineales

1. Aplicar una rotación de Givens a las filas 1 y 4 a cero a cabo elemento 4,

c

4

0 0 s

4

0

1 0

0

0

0 1

0

-S

4

0 0 c

4

x

1

x

2

x

3

x

4

Page 82: Cap.3linear System

=

y

1

x

2

x

3

0

donde y

1

= √ | x

1

|

2

+ | X

4

|

2

≥ 0. Si x

4

= X

1

= 0, entonces c

4

= 1 y s

4

= 0,

de otro modo c

4

= X

1

/ Año

1

y s

4

= X

4

/ Año

1

.

2. Aplicar una rotación de Givens a las filas 1 y 3 a cero a cabo elemento 3,

Page 83: Cap.3linear System

c

3

0 s

3

0

0

1

0

0

-S

3

0 c

3

0

0

0

0

1

y

1

x

2

x

3

0

=

z

1

x

2

0

0

Page 84: Cap.3linear System

donde z

1

= √ | y

1

|

2

+ | X

3

|

2

≥ 0. Si x

3

= Y

1

= 0, entonces c

3

= 1 y s

3

= 0,

de otro modo c

3

= Y

1

/ Z

1

y s

3

= X

3

/ Z

1

.

3. Aplicar una rotación de Givens a las filas 1 y 2 a cero a cabo elemento 2,

c

2

s

2

0 0

-S

2

c

2

0 0

0

0 1 0

Page 85: Cap.3linear System

0

0 0 1

x

1

y

2

0

0

=

u

1

0

0

0

donde u

1

= √ | z

1

|

2

+ | X

2

|

2

≥ 0. Si x

2

= Z

1

= 0, entonces c

2

= 1 y s

2

Page 86: Cap.3linear System

= 0,

de otro modo c

2

= Z

1

/ U

1

y s

2

= X

2

/ U

1

.

Por lo tanto Qx = u

1

e

1

, Donde u

1

= Qx

2

y

Q =

c

2

s

2

0 0

-S

2

c

2

0 0

0

0

1 0

0

0

0 1

Page 87: Cap.3linear System

c

3

0 s

3

0

0

1

0

0

-S

3

0 c

3

0

0

0

0

1

c

4

0 0 s

4

0

1 0

0

0

0 1

0

-S

4

0 0 c

4

Los ejemplos anteriores demuestran que si una rotación de Givens opera en

filas i y j, entonces los elementos c y s ocupo posiciones (i, i), (i, j), (j, i) y

(J, j).

Por fin aquí es un bosquejo de cómo se puede reducir una matriz cuadrada a la parte

superior

forma triangular por medio de rotaciones de Givens

Page 88: Cap.3linear System

Ejemplo. Introducimos ceros una columna a la vez, de izquierda a derecha, y dentro de

una columna de abajo hacia arriba. Las rotaciones de Givens operan en filas adyacentes.

Elementos que pueden ser distinto de cero están representados por *. Los elementos que

se vieron afectados por

Página 29

3.7. Factorización QR

77

la rotación de Givens ith tenga la etiqueta i. Comenzamos introduciendo ceros en la

columna

1,

****

****

****

****

1

****

****

1 1 1 1

0 1 1 1

2

****

2 2 2 2

0 2 2 2

0 1 1 1

Page 89: Cap.3linear System

3

3 3 3 3

0 3 3 3

0 2 2 2

0 1 1 1

Ahora introducimos ceros en la columna 2, a continuación, en la columna 3,

3 3 3 3

0 3 3 3

0 2 2 2

0 1 1 1

4

3 3 3 3

0 3 3 3

0 4 4 4

0 0 4 4

5

3 3 3 3

0 5 5 5

Page 90: Cap.3linear System

0 0 5 5

0 0 4 4

6

3 3 3 3

0 5 5 5

0 0 6 6

0 0 0 6

A continuación se muestra el algoritmo general.

Algoritmo 3.6. Factorización QR de matrices no singulares.

Entrada: matriz no singular A ∈ C

n × n

Salida: matriz unitaria Q ∈ C

n × n

y la matriz triangular superior R ∈

C

n × n

con elementos de la diagonal positivos tales que A = QR

1. Si n = 1, entonces Q ≡ A / | A | y R ≡ | A |

2. Si n> 1 elementos cero fuera n, n - 1,. . ., 2 en la columna 1 de A de la siguiente

manera.

(I) Set (b

n1

b

n2

. . . b

nn

) = (Un

n1

un

n2

. . . un

nn

).

(Ii) Para i = n, n - 1,. . ., 2

Cero a cabo elemento (i, 1) mediante la aplicación de una rotación a las filas i e i - 1

(C

yo

Page 91: Cap.3linear System

s

yo

-S

yo

c

yo

) (Un

i-1, 1

un

i-1, 2

. . . un

i-1, n

b

i1

b

i2

. . .

b

en

) = (B

i-1, 1

b

i-1, 2

. . . b

i-1, n

0a

i2

. . . Un

en

)

donde b

i-1, 1

≡ √ | b

i1

|

2

+ | A

i-1, 1

|

2

. Si b

i1

= A

i-1, 1

= 0, entonces c

yo

≡ 1 y

s

yo

≡ 0, de lo contrario c

Page 92: Cap.3linear System

yo

≡ a

i-1, 1

/ B

i-1, 1

y s

yo

≡ b

i1

/ B

i-1, 1

.

(Iii) Multiplicar todos los n - 1 rotaciones

Q

*

n

c

2

s

2

0

-S

2

c

2

0

0

0

n-2

· · ·

Yo

n-2

0

0

0

c

n

s

n

0

-S

n

c

n

Page 93: Cap.3linear System

(Iv) la partición de la matriz transformada

Q

*

n

A = (

r

11

r

*

0A)

,

wherea ≡

â

22

. . . Un

2n

.

.

.

.

.

.

un

n2

. . . Un

nn

,

r

*

≡ (b

12

. . . b

1n

), Y r

11

≡ b

11

> 0.

Página 30

78

Capítulo 3. Sistemas lineales

3. ComputeA = Q

Page 94: Cap.3linear System

n-1

R

n-1

, Donde Q

n-1

es unitario y R

n-1

es triangular superior

con elementos de la diagonal positivos.

4. Entonces

Q ≡ Q

n

(1

0

0 Q

n-1

),

R ≡ (

r

11

r

*

0

R

n-1

).

Ejercicios

(I) Determinar la factorización QR de una matriz triangular superior real.

(Ii) factorización QR de producto exterior.

Sean x, y ∈ C

n

, Y aplicar Algoritmo de 3,6 a xy

*

. ¿Cuántos Givens rotaciones

Cómo se tiene que aplicar como máximo? ¿Qué es la matriz triangular superior R

parece?

(Iii) Sea A ∈ C

n × n

ser una matriz tridiagonal, es decir, sólo los elementos de una

ii

, Una

i +1, i

y

un

i, i +1

puede ser distinto de cero, todos los demás elementos son cero. Queremos calcular una

Factorización QR A = QR con n - 1 Givens rotaciones. ¿En qué orden hacer la

elementos tienen que ser llevado a cero, en la que las filas hacer el acto rotaciones, y

que

elementos de R puede ser distinto de cero?

Page 95: Cap.3linear System

(Iv) factorización QL.

Mostrar: Todas matriz no singular A ∈ C

n × n

tiene una factorización única A =

QL, en donde Q es unitaria, y L es triangular inferior con diagonal positiva

elementos.

(V) Cálculo de la factorización QL.

Supongamos que queremos calcular la factorización LQ de una matriz no singular

A ∈ C

n × n

con rotaciones de Givens. En el orden de los elementos no tienen que ser

llevado a cero, y en la que las filas hacen acto rotaciones?

(Vi) Los elementos en una rotación de Givens

G = (

c

s

-Sc)

se nombran para invocar una asociación con seno y el coseno, porque | c |

2

+ | S |

2

= 1.

También se puede expresar los elementos en términos de tangentes o cotangentes. Dejar

G (

x

y)

= (

d

0)

,

donde d = √ | x |

2

+ | Y |

2

.

Mostrar lo siguiente: Si | y |> | x | y luego

τ =

x

y

,

s =

y

| Y |

1

√ 1 + | τ |

2

,

c = τs,

y si | x |> | y | entonces

τ =

Page 96: Cap.3linear System

y

x

,

c =

x

| X |

1

√ 1 + | τ |

2

,

s = τc.

Page 31

3.8. Factorización QR de matrices de alto y flaco

79

(Vii) Reflexiones Householder.

Aquí es otra manera de introducir ceros en un vector sin cambiar sus dos

norma. Sea x ∈ C

n

y x

1

= 0. Definir Q = I - 2vv

*

/ V

*

v, donde v = x +

α x

2

e

1

y α = x

1

/ | X

1

|. Demostrar que Q es unitaria y que Qx =-α x

2

e

1

.

La matriz Q se llama un reflejo Householder.

(Viii) Householder Reflexiones de vectores reales.

Sean x, y ∈ R

n

con x

2

= Y

2

. Mostrar cómo elegir un vector v en el

Reflexión Householder para que Qx = y.

3.8 factorización QR de matrices alto y flaco

Page 97: Cap.3linear System

Nos fijamos en matrices rectangulares A ∈ C

m × n

con al menos tantas filas como columnas,

es decir, m ≥ n. Si A está implicado en un sistema lineal Ax = b, entonces debemos

tener b ∈ C

m

y x ∈ C

n

. Tales sistemas lineales no siempre tienen una solución, y si lo hacen

sucede que tiene una solución a continuación, la solución no puede ser única.

Ejemplo. Si

A =

1

1

1

,

b =

b

1

b

2

b

3

entonces el sistema lineal Ax = b tiene una solución única para aquellos que b todos

cuyos elementos

son los mismos, es decir, β = b

1

= B

2

= B

3

. En este caso la solución es x = β.

Afortunadamente hay una parte derecha para que un sistema lineal Ax = b

siempre tiene una solución, es decir, b = 0. Esto es, Ax = 0 siempre tiene la solución x =

0.

Sin embargo, x = 0 no puede ser la única solución.

Ejemplo. Si

A =

1

-1

-1

1

1

Page 98: Cap.3linear System

-1

entonces Ax = 0 tiene infinitas soluciones x = (x

1

x

2

)

T

con x

1

= X

2

.

Distinguimos matrices A donde x = 0 es la solución única para Ax = 0.

Definición 3.34. Sea A ∈ C

m × n

. Las columnas de A son linealmente independientes si

Ax = 0 implica x = 0. Si Ax = 0 tiene infinitas soluciones, entonces las columnas

de A son linealmente dependientes.

Ejemplo.

• Las columnas de una matriz no singular A son linealmente independientes.

• Si A es no singular entonces la matriz (

La

0)

tiene columnas linealmente independientes.

Página 32

80

Capítulo 3. Sistemas lineales

• Sea x ∈ C

n

. Si x = 0, entonces x se compone de una sola columna, linealmente independientes.

Si x = 0, entonces x es linealmente dependiente.

• Si A ∈ C

m × n

con A

*

A = I

n

entonces A tiene columnas linealmente independientes. Este

se debe multiplicar Ax = 0 a la izquierda por la A

*

implica x = 0.

• Si el sistema lineal Ax = b tiene una solución x, entonces la matriz B = (A b) tiene

columnas linealmente dependientes. Esto se debe a B (

x

-1)

= 0.

¿Cómo podemos saber si una matriz de alto y flaco tiene linealmente independientes

Page 99: Cap.3linear System

columnas? Podemos utilizar una factorización QR.

Algoritmo 3.7. Factorización QR de matrices de alto y flaco.

Entrada: Matriz A ∈ C

m × n

con m ≥ n

Salida:

Matriz unitaria Q ∈ C

m × m

y la matriz triangular superior

R ∈ C

n × n

con elementos de la diagonal no negativos tales que A = Q (

R

0)

1. Si n = 1 entonces Q es una matriz unitaria que ceros fuera elementos 2,. . ., M de A,

y

R ≡ A

2

.

2. Si n> 1, entonces, como en el algoritmo 3.6, determinar una matriz unitaria Q

m

∈ C

m × m

para poner en cero los elementos 2,. . ., M en la columna 1 de A, de modo que

Q

*

m

A = (

r

11

r

*

0A)

,

donde r

11

≥ 0 ANDA ∈ C

(M-1) × (n-1)

.

3. ComputeA = Q

m-1

(R

n-1

0)

, Donde Q

m-1

∈ C

(M-1) × (m-1)

es unitario, y

R

Page 100: Cap.3linear System

n-1

∈ C

(N-1) × (n-1)

es triangular superior con elementos diagonales no negativos.

4. Entonces

Q ≡ Q

m

(1

0

0 Q

m-1

),

R ≡ (

r

11

r

*

0

R

n-1

).

Hecho 3.35 Sea A ∈ C

m × n

con m ≥ n, y A = Q (

R

0)

donde Q ∈ C

m × m

es

unitario, y R ∈ C

n × n

es triangular superior. Entonces A tiene linealmente independientes

columnas si y sólo si R tiene elementos de la diagonal distintos de cero.

Prueba. Desde Q es no singular, Ax = Q (

R

0)

0 ⇒ x = 0 si y sólo si Rx = 0 ⇒

x = 0. Este es el caso si y sólo si R ha es no singular y tiene distinto de cero en diagonal

elementos.

Página 33

3.8. Factorización QR de matrices de alto y flaco

81

Uno puede hacer una factorización QR más económico al reducir el almacenamiento

y omitiendo parte de la matriz unitaria.

Hecho 3.36 (Thin factorización QR) Si A ∈ C

m × n

con m ≥ n entonces existe

una matriz Q

1

Page 101: Cap.3linear System

∈ C

m × n

con Q

*

1

Q

1

= I

n

Y una matriz triangular superior R ∈ C

n × n

con elementos de la diagonal no negativos de modo que A = Q

1

R.

Prueba. Sea A = Q (

R

0)

ser una factorización QR, como en Hechos 3.35. Partición Q =

(Q

1

Q

2

), Donde Q

1

tiene n columnas. Entonces A = Q

1

R.

Definición 3.37. Si A ∈ C

m × n

y A

*

A = I

n

a continuación, las columnas de A son orthonor-

mal.

Para una matriz cuadrada de la descomposición QR delgada es idéntica a la plena QR

descomposición.

Ejemplo 3.38 Las columnas de un unitaria o una matriz ortogonal Un ∈ C

n × n

son

ortonormal porque A

*

A = I

n

, Y también lo son las filas, porque AA

*

= I

n

. Este

Page 102: Cap.3linear System

medios, una matriz cuadrada con columnas ortonormales deben ser una matriz unitaria.

La

matriz cuadrada real con columnas ortonormales es una matriz ortogonal.

Ejercicios

(I) Sea A ∈ C

m × n

, M ≥ n, con fina factorización QR A = QR. Show: A

2

=

R

2

.

(Ii) Singularidad de Thin factorización QR.

Sea A ∈ C

m × n

tener columnas linealmente independientes. Mostrar: Si A = QR, donde

Q ∈ C

m × n

satisface Q

*

Q = I

n

y R es triangular superior con diagonal positiva

elementos, entonces Q y R son únicos.

(Iii) Generalización de Datos 3.35.

Sea A ∈ C

m × n

, M ≥ n, y A = B (

C

0)

, Donde B ∈ C

m × n

tiene linealmente

columnas independientes, y C ∈ C

n × n

. Show: A tiene linealmente independientes

columnas si y sólo si C es no singular.

(Iv) Sea A ∈ C

m × n

donde m> n. Mostrar: Existe una matriz Z ∈ C

m × (m-n)

de tal manera que Z

*

A = 0.

(V) Sea A ∈ C

m × n

, M ≥ n, tiene una delgada factorización QR A = QR. Expresar el

la columna k-ésima de A como una combinación lineal de las columnas de Q y

elementos de R.

¿Cuántas columnas de Q están involucrados?

Page 103: Cap.3linear System

(Vi) Sea A ∈ C

m × n

, M ≥ n, tiene una delgada factorización QR A = QR. Determine un

Factorización QR de A - Qe

1

e

*

1

R de la factorización QR de A.

(Vii) Sea A = (a

1

. . . un

n

) Tienen columnas linealmente independientes una

j

, 1 ≤ j ≤ n.

Sea A = QR ser una delgada factorización QR, donde Q = (q

1

. . . q

n

) Y R es

Página 34

82

Capítulo 3. Sistemas lineales

triangular superior con elementos de la diagonal positivos. Expresar los elementos de R

en términos de las columnas de un

j

de las columnas A y q

j

de Q.

(Viii) Sea A una matriz con columnas linealmente independientes. Mostrar cómo

calcular

la parte inferior superior factorización Cholesky de A

*

Un sin formar el producto

La

*

A.

(Ix) La desigualdad de Bessel.

Sea V ∈ C

m × n

con V = (V

1

. . . v

n

) Tiene columnas ortonormales, y dejar

x ∈ C

m

. Mostrar

Page 104: Cap.3linear System

n

Σ

j = 1

| V

*

j

x |

2

≤ x

*

x.

1. Factorización QR con la columna pivotante.

Este problema se presenta un método para calcular la factorización QR de arbitraria

matrices. Sea A ∈ C

m × n

con rango (A) = r. Entonces existe una permutación

matriz de P, de manera que

AP = Q (

R

1

R

2

0

0)

,

en la que R

1

es una matriz triangular superior no singular.

(A) Muestre cómo modificar el algoritmo 3.7 para que se calcula como una

factorización-

ción. En el primer paso, elegir una matriz de permutación P

n

que lleva el

con la columna más grande de dos norma a la parte delantera, es decir,

AP

n

e

1 2

= Máx

1 ≤ j ≤ n

AP

n

e

j 2

.

(B) Demostrar que los elementos diagonales de R

1

tienen magnitudes decrecientes, es decir,

(R

1

Page 105: Cap.3linear System

)

11

≥ (R

1

)

22

≥. . . ≥ (R

1

)

rr

.