Algebra Lineal Avanzada

101
Universidad Mayor de San Sim´ on Facultad de Ciencias y Tecnolog´ ıa Carrera de Matem´ aticas Algebra Lineal Hans C. M¨ uller Santa Cruz Cochabamba, .

description

Texto guía de la Asignatura de Algebra Lineal Avanzada de la Carrera de Matemáticas de la UMSS.

Transcript of Algebra Lineal Avanzada

Page 1: Algebra Lineal Avanzada

Universidad Mayor de San SimonFacultad de Ciencias y Tecnologıa Carrera de Matematicas

Algebra Lineal

Hans C. Muller Santa Cruz

Cochabamba, .

Page 2: Algebra Lineal Avanzada
Page 3: Algebra Lineal Avanzada

Contenido

Prefacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iiiI.- Espacios Vectoriales y Aplicaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

1.- Preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.- Espacios de Generacion Finita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83.- Aplicaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134.- Anillo de Homomorfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205.- Matriz de una Aplicacion Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236.- Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287.- Operaciones Elementales sobre Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 338.- Signo de las Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 389.- Formas Multilineales Alternadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4210.- Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4711.- Matriz Adjunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

II.- Complemento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 571.- Espacios Vectoriales Cocientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 572.- Dual de un Espacio Vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 613.- Formas Bilineales Simetricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 654.- Espacios Euclidianos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 715.- Formas Hermıticas, Espacios Unitarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77

III.- Formas Normales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 811.- Vectores y Valores Propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 812.- Triangularizacion y Diagonalizacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 873.- Endomorfismos Normales de un Espacio Unitario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 904.- Descomposicon Canonica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 985.- Teorema de Hamilton Cayley . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1036.- Endomorfismos Nilpotentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1057.- Descomposicion de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112

Page 4: Algebra Lineal Avanzada
Page 5: Algebra Lineal Avanzada

Prefacio

El Algebra Lineal es una de las ramas fundamentales de las Matematicas; por un lado, porque es herramientade trabajo imprescindible en otras areas de las matematicas como el Analisis, la Geometrıa, el AnalisisNumerico, las Estadısticas y otras; por otro lado, las aplicaciones del Algebra Lineal en la solucion deproblemas de otras disciplinas y ciencias es moneda corriente.

El texto de Algebra Lineal esta inscrito dentro el desarrollo que pretende dar la Carrera de Matematicasen su nueva formulacion. Este texto contiene lo mas importante dentro lo que es el Algebra Lineal, dandoel vocabulario y conceptos de base para una buena utilizacion, presentando los razonamientos de manerarigurosa y en lo posible elegante, mostrando ejemplos donde el Algebra Lineal es un instrumento de soluciona los problemas presentados.

Para un buen asimilacion de los conocimientos y razonamientos de este texto; las definiciones y conceptosmas significativos estan escritos en negrillas, estos deberan ser memorizados y manipulados fluidamente.Los resultados mas importantes estan expresados en los teoremas, corolarios y proposiciones, estos deberantambien ser memorizados para manejarlos de manera fluida. Las demostraciones de este texto deberan sertrabajadas, con la finalidad de adquirir las diferentes tecnicas de demostracion que se emplean en el AlgebraLineal. Con fines pedagogicos, en algunos paragrafos se presentan los resultados fundamentales que serantratados en el paragrafo en cuestion, estos estan escritos en caracteres italicos.

La practica del curso, es una fuente para practicar los conocimientos adquiridos y ası mismo como unmedio de adquirir conocimientos adicionales. Por lo tanto, una resolucion en gran numero de estos ejercicios,podra medir el grado de asimilacion del estudiante.

Page 6: Algebra Lineal Avanzada

Capıtulo I

Espacios Vectoriales y Aplicaciones Lineales

I.1 Preliminares

Cuerpos Conmutativos

Tanto en el colegio, como en los primeros cursos universitarios, se ha tenido un contacto directo con:

Q el conjunto de los numeros racionales = {n/m|n,m enteros, m 6= 0};R el conjunto de los numeros reales;

C el conjunto de los numeros complejos.

Estos tres conjuntos estan dotados de:

una adicion: α+ β

una multiplicacion: α · β

que verifican las tres familias de axiomas:

I. Adicioni) la adicion es conmutativa, α+ β = β + α.ii) la adicion es asociativa, (α+ β) + γ = α+ (β + γ).iii) existe un elemento cero 0 tal que 0 + α = α+ 0 = α, ∀α.iv) ∀α existe un opuesto −α, tal que α+ (−α) = 0.

II. Multiplicacioni) la multiplicacion es conmutativa, α · β = β · α.ii) la multiplicacion es asociativa, (α · β) · γ = α · (β · γ).iii) existe el elemento uno 1, tal que 1 · α = α, ∀α.iv) ∀β 6= 0, β posee un inverso β−1 = 1/β, tal que β · β−1 = 1.

III. Distributividadi) α · (β + γ) = α · β + α · γ.ii) (α+ β) · γ = α · γ + β · γ.Un conjunto K, provisto de una adicion y de una multiplicacion se llama cuerpo conmutativo, si

satisface los tres grupos de axiomas mencionados mas arriba.Remarca.- Un conjunto K provisto de una adicion y de una multiplicacion que satisface las tres familias deaxiomas, quizas excepto el axioma II.i se llama cuerpo.

Proposicion I.1.1.- En un cuerpo conmutativo K, se tiene1) El elemento 0 es unico.2) El opuesto de α es unico.3) El elemento 1, ası como el inverso de β 6= 0 son unicos.4) Se tiene α+ α = α ⇐⇒ α = 0.

Page 7: Algebra Lineal Avanzada

2 I Espacios Vectoriales y Aplicaciones Lineales

5) Se tiene α · 0 = 0, ∀α.

Demostracion:1.- Supongase que 0 y 0′ son ceros, entonces

0′ = 0 + 0′ = 0′ + 0 = 0⇒ 0 = 0′.

2.- Sea α ∈ K, −α y −α′ opuestos de α. Se tiene

−α = −α+ 0 = −α+ (α+ (−α′)) = (−α+ α) + (−α′) = 0 + α′ = α′.

3.- Ejercicio.4.- ⇐ trivial,

α+ α = α,⇒(α+ α) + (−α) = α+ (−α),

α+ (α+ (−α)) = 0,

α+ 0 = 0 ⇒ α = 0.

5.- Utilizando el punto 4) de la proposicion, se tiene

α · 0 = α · (0 + 0),

α · 0 = α · 0 + α · 0⇒ α · 0 = 0. �

En lo que sigue del capıtulo K denotara un cuerpo conmutativo. Se convendra α − β = α + (−β) yαβ = α · β.

Espacios Vectoriales

Un espacio vectorial sobre K, K-espacio vectorial, es un conjunto V provisto de dos operaciones:

V × V → V

(x, y) 7→ x+ yadicion

K× V → V

(α, x) 7→ αxmultiplicacion por escalar

que verifican los dos sistemas de axiomas:I Adicion

i) la adicion es conmutativa x+ y = y + x, ∀x, y ∈ V .ii) la adicion es asociativa (x+ y) + z = x+ (y + z), ∀x, y, z ∈ V .iii) existe un cero, 0 ∈ V tal que 0 + x = x, ∀x ∈ V .iv) Todo x ∈ V posee un opuesto −x, tal que x+ (−x) = 0.

II Multiplicacion por escalari) α(βx) = (αβ)x, ∀α, β ∈ K, ∀x ∈ V .ii) (α+ β)x = αx+ βx, ∀α, β ∈ K, ∀x ∈ V .iii) α(x+ y) = αx+ αy, ∀αK, x, y ∈ V .

Definicion I.1.2.- Un subconjunto U 6= ∅ de V espacio vectorial, es un subespacio vectorial de V , si

x, y ∈ U ⇒ αx+ βy ∈ U, ∀α, β ∈ K.

Ejemplos

Page 8: Algebra Lineal Avanzada

I.1 Preliminares 3

1.- K es un espacio vectorial sobre K, para la adicion y la multiplicacion de K.2.- Sea Kn = {(α1, α2, . . . , αn)|αi ∈ K, i = 1, . . . , n}, con la adicion y la multiplicacion por escalar,

definidas:(α1, α2, . . . , αn) + (β1, β2, . . . , βn) = (α1 + β1, α2 + β2, . . . , αn + βn),

α(α1, α2, . . . , αn) = (αα1, αα2, . . . , ααn),

es un espacio vectorial sobre K.3.- {0} ⊂ V y V son subespacios vectoriales de V , si V es un espacio vectorial. Son conocidos como los

subespacios triviales de V.

Proposicion I.1.3.- En un espacio vectorial V , sobre un cuerpo K, se tiene:1.- El elemento 0 ∈ V es unico, ası como el opuesto −x.2.- y ∈ V , y + y = y ⇐⇒ y = 0.3.- α0 = 0, ∀α ∈ K.4.- 0x = 0, ∀x ∈ V .5.- Sean α ∈ K, x ∈ V , entonces

αx = 0⇒ α = 0 o x = 0.

Demostracion.- Los incisos 1,2,3,4 ejercicios. El punto 5, si α = 0 esta demostrado, sino α 6= 0, porconsiguiente

α−1(αx) =α−10,

1x = 0,

x = 0. �

Convencion.- Generalmente el elemento cero 0 de V espacio vectorial se lo denota tambien 0. En lo quesigue se utilizara esta notacion.

Ejemplos4.- Sea X un conjunto no nulo, se define

KX = {f : X → K}

el conjunto de las aplicaciones de X en K. KX es un espacio vectorial para

(f + g)(x) = f(x) + g(x)

(αf)(x) = α(f(x))(I.1.1)

El cero de KX es la aplicacion 0 : x 7→ 0.En particular RR = {f : R→ B} es un espacio vectorial con las operaciones (I.1.1).

5.- C0(R,R) = {f : R→ R, continua} es un espacio vectorial con las leyes (I.1.1).

6.- Se dice que p : R→ R es polinomial si

p(t) =

n∑

i=0

αiti, αi ∈ R, αn 6= 0;

n es el grado de p. Se denota P el conjunto de las funciones polinomiales y Pn el conjunto de lasfunciones polinomiales de grado ≤ n.Ejercicio.- Mostrar que P es un subespacio vectorial de C0(R,R) y Pn es un subespacio vectorial de P.Remarca.- Un subespacio vectorial es en si mismo es un espacio vectorial.

7.- Consideremos el sistema lineal homogeneo de n ecuaciones y m incognitas, dado por

a11ξ1 + a12ξ2 + · · · + a1mξm = 0...

...an1ξ1 + an2ξ2 + · · · + anmξm = 0

Page 9: Algebra Lineal Avanzada

4 I Espacios Vectoriales y Aplicaciones Lineales

donde los aik pertenecen a K.Ejercicio.- Mostrar que las soluciones de este sistema forman un subespacio vectorial de Km.

Proposicion I.1.4.- Sean V y W dos espacios vectoriales sobre un cuerpo K. El conjunto producto

V ×W = {(v, w)|v ∈ V, w ∈W}

es un K-espacio vectorial, para

(v1, w1) + (v2, w2) = (v1 + v2, w1 + w2),

α(v, w) = (αv, αw).

Demostracion.- Ejercicio.

Proposicion I.1.5.- Sea {Ui}i∈I una familia de subespacios de V . Entonces⋂

i∈I

Ui es un subespacio vectorial

de V , donde ⋂

i∈I

Ui = {x ∈ V |x ∈ Ui, ∀i ∈ I}.

Demostracion.- Ejercicio.

Remarca.-⋃

i∈I

Ui = {x ∈ V |∃i ∈ I, con x ∈ Ui} no es en general un subespacio vectorial de V .

Definicion I.1.6.- Sea A un subconjunto de V . El subespacio engendrado por A es el subespacio vectorialmas pequeno que contiene A, se lo denota por < A >.

Se tiene < ∅ >= {0}. Existen subespacios de V que contienen un subconjunto A de V , por ejemplo Vmismo. Por consiguiente se tendra

< A >=⋂

A⊂U subespacio

U.

En realidad < A > esta formado por el conjunto de las v ∈ V que se escriben bajo la forma

v =∑

suma finita

αiai, αi ∈ K, ai ∈ A.

Mostrar esta ultima afirmacion es un interesante ejercicio, hacerlo.Se dice que A ⊂ V engendra V si y solamente si < A >= V . Por la anterior observacion, esta definicion

significa que todo v ∈ V se escribe como

v =∑

suma finita

αiai, αi ∈ K, ai ∈ A.

Ejemplos8.- K espacio vectorial sobre K. Sea α 6= 0, entonces < {α} >= K. En efecto, sea β ∈ K, se tiene

β = (βα−1)α.9.- Kn. Introducimos los elementos

e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1).

{e1, e2, . . . , en} engendra V . En efecto sea (α1, . . . , αn) ∈ Kn, se tiene

α1, . . . , αn) =

n∑

i=1

αiei.

Page 10: Algebra Lineal Avanzada

I.1 Preliminares 5

10.- Ejercicio.- Mostrar que

< {t→ ti}i≥0 >= P y Pn =< {t→ ti}ni=0 >

11.- Sean U1, U2, . . . , Un subespacios vectoriales de V , se denota

U1 + U2 + · · ·+ Un

el subespacio engendrado por

n⋃

i=1

Ui.

Ejercicio.- Mostrar que los elementos den∑

i=1

son aquellos de V que se escriben bajo la forma

v =

n∑

i=1

ui, ui ∈ U.

Definicion I.1.7.- Se dice que la familia {v1, . . . , vm} de V es linealmente dependiente si y solamentesi existen α1, α2, . . . , αn ∈ K no todos nulos, tales que

n∑

i=1

αivi = 0.

Si {v1, . . . , vm} no es linealmente dependiente, se dice que es linealmente independiente; es decir,{v1, . . . , vm} es linealmente independiente si y solamente si

n∑

i=1

αivi = 0⇒ α1 = α2 = · · · = αm = 0.

Se dice que ∅ 6= A ⊂ V , no necesariamente finito, es linealmente dependiente, si existe {v1, . . . , vm} ⊂ Alinealmente dependiente.Se dice que ∅ 6= A ⊂ V , no necesariamente finito, es linealmente independiente si toda familia finita{v1, . . . , vm} ⊂ A es linealmente independiente. Se conviene que ∅ es linealmente independiente.

Ejemplos12.- A = {0}, entonces A es linealmente dependiente.13.- Los vectores ei, i = 1, . . . , n de Kn definidos en el ejemplo 9, forman una familia linealmente indepen-

diente.14.- Sea V 6= {0} un espacio vectorial, 0 6= x ∈ V , entonces {x} es linealmente independiente. En efecto,

utilizando la proposicion (I.1.3), punto 5, se tiene αx = 0⇒ α = 0.15.- Sea P el espacio de las funciones polinomiales reales.

Ejercicio.-Mostrar que el conjunto

A = {t 7→ ti}i≥0

es una familia linealmente independiente de P.

Definicion I.1.8.- Se dice que B ⊂ V es una base de V espacio vectorial si y solamente si B es linealmenteindependiente y B engendra V .

Ejemplos16.- V = K, sea α ∈ K, con α 6= 0, entonces {α} es una base de K.17.- V = Kn. El conjunto {e1, e2, . . . , en} es una base de Kn.18.- {t 7→ ti}ni=0 es una base de Pn.

Page 11: Algebra Lineal Avanzada

6 I Espacios Vectoriales y Aplicaciones Lineales

Proposicion I.1.9.- El subconjunto xii∈I del espacio vectorial V es una base de V , si y solamente si todoelemento v ∈ V se escribe de manera unica bajo la forma

v =∑

sumafinita

αivi, αi ∈ K.

Demostracion.- En los ejercicios propuestos de la practica.

Aplicacion a los Sistemas Lineales

a11ξ1 + a12ξ2 + · · · + a1mξm = 0...

...an1ξ1 + an2ξ2 + · · · + anmξm = 0

(I.1.2)

Planteandoa1 =(a11, a21, . . . , an1) ∈ Kn,

...

am =(a1m, a2m, . . . , anm) ∈ Kn,

b =(b1, b2, . . . , bn) ∈ Kn.

El sistema (I.1.2) es equivalente a resolver ξ1a1 + ξ2a2 + · · ·+ ξmam = b. Por consiguiente:i) El sistema (I.1.2) tiene una solucion, si y solamente si b ∈< {a1, . . . , am} >.ii) Si {a1, . . . , am} es linealmente independiente y (I.1.2) tiene solucion, entonces esta es unica.

Page 12: Algebra Lineal Avanzada

I.2 Espacios de Generacion Finita 7

I.2 Espacios de Generacion Finita

Se dice que el espacio vectorial V es de generacion finita si posee un sistema de generadores finito, esdecir si existe v1, v2, . . . , vn ∈ V , tales que todo v ∈ V , se escribe como

v =n∑

i=1

αivi, αi ∈ K.

Ejemplos1.- Kn es de generacion finita, porque es engendrado por {e1, e2, . . . , en}.2.- El espacio P de las funciones polinomiales no es de generacion finita. Esto se vera mas adelante.3.- Ejercicio.- Si V y W son espacios vectoriales sobre K cuerpo, mostrar que V ×W es de generacion

finita.En este paragrafo se vera como resultado principal que los espacios vectoriales de generacion finita

tienen bases finitas, ademas que todas las bases de un espacio vectorial de generacion finita tienen el mismonumero de elementos.

Teorema I.2.1.- Intercambio de Grassmann.- Sea V 6= {0} un espacio de generacion finita. Sea Gr ={y1, y2, . . . , yr} un sistema de generadores de V . Sea L = {x1, . . . , xs} un subconjunto linealmente indepen-diente en V . Entonces:

i) r ≥ s;ii) Existen (r − s) elementos yis+1

, yis+2, . . . , yir

de Gr tales que

{x1, . . . , xs, yis+1, yis+2

, . . . , yir} engendra V.

Demostracion.- Por induccion sobre s, donde s es el numero de elementos de L. Para s = 0, el enunciadoes cierto de manera trivial.

Supongamos cierto el teorema para s− 1, con s > 0. A demostrar que el teorema es cierto para s.Se utiliza la hipotesis de induccion para L′ = {x1, x2, . . . , xs−1}, obteniendo:i) r ≥ (s− 1),ii) existen yis

, yis+1, . . . , yir

en Gr tales que

{x1, . . . , xs−1, yis, yis+1

, . . . , yir} engendra V.

Si es necesario renumerar los yi, se puede suponer que yij= yj , es decir

{x1, . . . , xs−1, ys, . . . , yr} engendra V .Por lo tanto, el elemento xs se puede escribir como combinacion lineal de

x1, . . . , xs−1, ys, . . . , yr

xs =s−1∑

i=1

αixi +r∑

j=s

βjyj ,

los βj no son todos nulos, sino L′ serıa linealmente dependiente.De ahı, se deduce que r ≥ s, existe un j, con βj 6= 0. Si es necesario renumerar los yj , se puede suponer

que βs 6= 0. De donde

xs =s−1∑

i=1

αixi + βsys +r∑

j=s+1

βjyj . (I.2.1)

El siguiente paso, es mostrar que {x1, . . . , xs, ys+1, . . . , yr} engendra V . Sea v ∈ V , por hipotesis de induccion,se puede escribir

v =s−1∑

i=1

γixi + δsys +r∑

i=s+1

δjyj , (I.2.2)

Page 13: Algebra Lineal Avanzada

8 I Espacios Vectoriales y Aplicaciones Lineales

por otro lado, se tiene a partir de (I.2.1)

ys =

s−1∑

i=1

−αi

βs

xi +1

βs

xs +

r∑

j=s+1

−βj

βs

yj ,

introduciendo esta ultima expresion en (I.2.2) y efectuando los calculos necesarios se llega a

v =

s∑

i=1

α′ixi +

r∑

i=s+1

δ′jyj .

Corolario I.2.2.- Sea V un espacio vectorial de generacion finita y Gr un sistema de generadores de V .Entonces todo subconjunto linealmente independiente contiene a lo mas #(Gr).

Consecuencia.- Sea V un espacio vectorial, se supone que V contiene un subconjunto infinito linealmenteindependiente, entonces V no es de generacion finita. Por lo tanto P, no es de generacion finita.

Corolario I.2.3.- Sea V espacio vectorial de generacion finita y L un subconjunto linealmente independientede V . Entonces se puede completar L en un sistema finito de generadores de V .

Teorema I.2.4.- Un espacio vectorial de generacion finita, posee bases finitas. Mas precisamente, de todosistema de generacion finita, se puede extraer una base; es decir si Gr ⊂ V engendra V , existe una base Bde V con B ⊂ Gr. Si el espacio es V = {0}, se conviente que ∅ es la base de V .

Demostracion.- Supongamos que V 6= {0}, sino el teorema esta mostrado. Sea Gr = {y1, y2, . . . , yr} unsistema de generadores de V . Se elige B ⊂ Gr tal que B es linealmente independiente y B es maximal paraesta propiedad; es decir, si B & B′ ⊂ Gr, entonces B’ es linealmente dependiente. La existencia del conjuntoB esta asegurada por que todo subconjunto linealmente en V cuenta con un numero finito de elementos yademas este numero esta acotado por r, el numero de generadores de Gr.

Afirmamos que B es una base, con lo que el teorema estarıa demostrado. En efecto, B es linealmenteindependiente por construccion. Solo queda mostrar que B engendra V . Si es necesario renumerar, se puedesuponer que

B = {y1, y2, . . . , ys}.Si s = r, se tiene B = Gr y por consiguiente B es un sistema de generadores.Si s < r, por maximilidad de B, el subconjunto {y1, y2, . . . , ys, yi}, para i = s + 1, . . . , r es linealmentedependiente. Por lo tanto para cada i = s+1, . . . , r, existen α1, α2, . . . , αn y β ∈ K no todos nulos, tales que

s∑

k=1

αkyk + βyi = 0.

Se observa que β 6= 0, por que sino B no serıa linealmente independiente.Por consiguiente

yi =s∑

k=1

−αk

βyk, s < i ≤ r. (I.2.3)

Por otro lado, sea v ∈ V , como Gr es un sistema de generadores, se tiene tambien

v =

s∑

k=1

γkyk +

r∑

i=s+1

γiyi, γj ∈ K.

Introduciendo (I.2.3), en cada uno de los yi con s < i ≤ r, se tiene finalmente

v =s∑

k=1

δkyk. �

Page 14: Algebra Lineal Avanzada

I.2 Espacios de Generacion Finita 9

Proposicion I.2.5.- Sea V un espacio vectorial de generacion finita. Entonces, todas las bases de B sonfinitas y comportan el mismo numero de elementos. Este numero se llama dimension de V y se escribe

dimK V, dim(V ), dimV.

Se tiene que dimV es el numero maximo, respectivamente mınimo, de elementos de un subconjunto lineal-mente independiente en V , respectivamente que engendra V .

Demostracion.- a) Por el corolario I.2.2 del teorema de Grassman, todas las bases de V son finitas.b) Sean {v1, v2, . . . , vn} y {v′1, v′2, . . . , v′m} dos bases de V . Utilizando el teorema de Grassmann con:

Gr = {v1, v2, . . . , vn}, L = {v′1, v′2, . . . , v′m} ⇒ m ≤ n,Gr = {v′1, v′2, . . . , v′m}, L = {v1, v2, . . . , vn} ⇒ m ≤ m.

c) Se denota d la dimension de V . Sea L un subconjunto linealmente independiente de V . Por el teoremade Grassmann, con Gr una base y L, se tiene

d = #(Gr) ≥ #(L).

d) Sea Gr un subconjunto finito de V que engendra V y B una base de V , por el teorema de Grassmann, setiene

#(GR) ≥ #(B) = d. �

Ejemplos4.- dim(Kn) = n.5.- dim(Pn) = n+ 1.6.- Ejercicio.- Mostrar que si V y W son de generacion finita, entonces V ×W es de generacion finita y

ademasdim(V ×W ) = dim(V ) + dim(W ).

Remarca En general un espacio vectoria posee bases y todas sus bases tienen el mismo ”numero“ deelementos, o si V no es de generacion finita, se dice que V es de generacion infinita.

Proposicion I.2.6.- Sea V de dimension d y v1, v2, . . . , vn n elementos de V , entonces:i Si n > d, {v1, v2, . . . , vn} es linealmente dependiente.ii Si n < d, {v1, v2, . . . , vn} no engendra V .iii Si n = d, los enunciados siguientes son equivalentes:

a) {v1, v2, . . . , vn} es linealmente independiente,b) {v1, v2, . . . , vn} engendra V ,c) {v1, v2, . . . , vn} es una base de V .

Demostracion.- Los incisos i,ii como Ejercicio. Mostremos el inciso iii).a)⇒b) Sea B = {x1, . . . , xd} una base de B, utilizando Grassman con Gr = B y L = {v1, v2, . . . , vn}, setiene que {v1, v2, . . . , vn} engendra V .b)⇒c) De todo sistema de generadores se puede extraer una base.c)⇒a) trivial. �

Proposicion I.2.7.- Sea V un espacio vectorial de generacion finita. Entonces, todo conjunto linealmenteindependiente puede ser completado en una base de V .

Demostracion.- Sea L = {x1, . . . , xs} un subconjunto linealmente independiente. B = {y1, . . . , yd} unabase de V . Por el teorema de Grassmann, si es necesario renumerar los yi, el subconjunto

{x1, . . . , xs, ys+1, . . . , yd}

engendra V . De la proposicion I.2.6, se deduce que {x1, . . . , xs, ys+1, . . . , yd} es una base de V . �

Page 15: Algebra Lineal Avanzada

10 I Espacios Vectoriales y Aplicaciones Lineales

Proposicion I.2.8.- Sea V de generacion finita y U un subespacio de V . Entonces, U es de generacionfinita y se tiene dim(U) ≤ dim(V ). Ademas

dim(U) = dim(V ) ⇐⇒ U = V.

Demostracion.- Se observa que un subconjunto linealmente independiente de U es tambien un subconjuntolinealmente independiente de V .

Los subconjuntos linealmente independientes de V , tienen a lo sumo dim(V ) elementos. Por lo tanto,los subconjuntos linealmente independientes de U son finitos con a lo mas dim(V ) elementos.

Se elige B = {u1, u2, . . . , un} un subconjunto linealmente independiente maximal; es decir, si B & B′ ⊂U , entonces B′ es linealmente dependiente.

Afirmamos que B es una base de U , con lo que estarıa demostrado que U es de generacion finita ydim(U) ≤ dim(V ). En efecto, sea u ∈ U , a demostrar que existe α1, . . . , αn ∈ K, tales que

u =

n∑

i=1

αiui.

Si u ∈ {u1, u2, . . . , un} esta claro.Si u 6∈ {u1, u2, . . . , un}, se considera B′ = {u1, u2, . . . , un, u}, por maximilidad B′ es linealmente dependiente.Por consiguiente, existen β1, . . . , βn, β no todos nulos tales que

0 =n∑

i=1

βiui + βu.

beta 6= 0, sino B serıa linealmente dependiente, entonces

u =n∑

i=1

−βi

βui.

Falta probar que dim(U) = dim(V ) ⇒ U = V . Sea B = {u1, . . . , un} una base de U, es por lo tanto unsubconjunto linealmente independiente de U y por consiguiente de V , por la proposicion I.2.6 inciso iii), Bes una base de V . La implicacion del otro sentido es trivial �

Proposicion I.2.9.- (Formula de Dimension).- Sea V de generacion finita. P y Q subespacios de V .Entonces

dim(P +Q) = dim(P ) + dim(Q)− dim(P ∩Q).

Demostracion.- En los ejercicios de la Practica.

Ejemplo7.- La interseccion de dos planos vectoriales diferentes en R3 es una recta vectorial. En efecto, se tiene:

P +Q = R3, porque sino P = Q,aplicando la formula de dimension de subespacios, se deduce quedim(P ∩Q) = 1.

Page 16: Algebra Lineal Avanzada

I.3 Aplicaciones Lineales 11

I.3 Aplicaciones Lineales

Definicion I.3.1.- Sean V y W dos espacios vectoriales. Se dice que la aplicacion

f : V →W

es lineal, o homomorfismo de espacios vectoriales, si

f(v1 + v2) = f(v1) + f(v2), ∀v1, v2 ∈ V ;

f(αv) = αf(v), ∀α ∈ K, ∀v ∈ V.

Remarca.- f(0) = 0, en efecto f(0) = f(0 + 0) = f(0) + f(0).Se denota por Hom(V,W ) el conjunto de las aplicaciones lineales de V en W .

Proposicion I.3.2.- Hom(V,W ) es un espacio vectorial para las operaciones definidas por:

(f + g)(v) = f(v) + g(v),

(αf)(v) = αf(v).

Demostracion.- Ejercicio.

Definicion I.3.3.- Una aplicacion lineal biyectiva se llama isomorfismo, una aplicacion lineal f : V → Vse llama endomorfismo, End(V ) = Hom(V, V ). Un endomorfismo biyectivo se llama automorfismo,Gl(V ) = {automorfismos de V }.Ejemplos y/o Ejercicios1.- Sea U un subespacio de V espacio vectorial, entonces la inclusion

U → V

u 7→ u

es lineal.2.- La aplicacion definida por

Kn → Kn

(α1, . . . , αn) 7→ (α1, . . . , αp, 0, . . . , 0) p ≤ n

es lineal.3.- V = R2. Las siguientes aplicaciones, estudiadas en el curso de Geometrıa, son lineales:

rotacion de centro O,simetrıa de eje que pasa por 0,homotecia de centro 0.

4.- Si V = P espacio de las funciones polinomiales. Las siguientes aplicaciones son lineales:

D : P → Pp 7→ p′

Dn : P → Pp 7→ p(n)

5.- Consideremos V = C0([0, 1],R) = {f : [0, 1]→ R continua}. Las siguientes aplicaciones son lineales:

C0([0, 1],R)→ Rf 7→ f(a), a ∈ [0, 1]

f 7→∫ 1

0

f(t)dt.

Page 17: Algebra Lineal Avanzada

12 I Espacios Vectoriales y Aplicaciones Lineales

La aplicacion f → maxx∈[0,1]

|f(x)| no es lineal.

6.- Consideremos el sistema

a11ξ1 + a12ξ2 + · · · + a1mξm = b1...

...an1ξ1 + an2ξ2 + · · · + anmξm = bn

(I.3.1)

Planteandoa1 =(a11, a21, . . . , an1) ∈ Kn,

...

am =(a1m, a2m, . . . , anm) ∈ Kn,

b =(b1, b2, . . . , bn) ∈ Kn.

La escritura vectorial de (I.3.1) esta dada por ξ1a1 + ξ2a2 + · · ·+ ξmam = b.Se asocia a (I.3.1) la aplicacion lineal

a : Km → Km

(ξ1, . . . , ξm) 7→ ξ1a1 + ξ2a2 + · · ·+ ξmam

Resolver el sistema (I.3.1) es equivalente a encontrar ξ = (ξ1, . . . , ξm) ∈ Km tal que

a(ξ) = b.

7.- Sea f : V →W un isomorfismo, entonces f−1 : W → V es lineal.En efecto

f−1(w1 + w2) = f−1(f(v1) + f(v2)) = f−1(f(v1 + v2)) = v1 + v2 = f−1(w1) + f−1(w2),

f−1(αw) = f−1(αf(v)) = f−1(f(αv)) = αv = αf−1(w).

El resultado principal de este paragrafo, esta dado por: ”Si V y W son espacios vectoriales, {v1, . . . , vn}una base de V , entonces para toda sucesion (w1, w2, . . . , wn) de elementos de W , existe exactamente unaaplicacion lineal f : V →W tal que f(vi) = wi, para i = 1, 2, . . . , n.

Definicion I.3.4.- Sean P y Q dos subespacios de V . Si P ∩Q = {0}, en lugar de P +Q, se escribe P ⊕Qsuma directa de P y Q.

Proposicion I.3.5.- Si P ∩Q = {0}, la aplicacion

P ×Q→ P ⊕Q ⊂ V(x, y) 7→ x+ y

es un isomorfismo.

Demostracion.- Ejercicio.

Definicion I.3.6.- Sean P y Q dos subespacios de V . Se dice que P y Q son suplementarios, o bien P essuplementario de Q, si V = P ⊕Q.

Ejemplo8.- Consideremos el espacio de las funciones f : R→ R. Sean

P = {f |f(t) = f(−t)}Q = {f |f(−t) = −f(t)}

Page 18: Algebra Lineal Avanzada

I.3 Aplicaciones Lineales 13

subespacios vectoriales del espacio de las funciones reales. Se tiene que

V = P ⊕Q,

donde V es el espacio de las funciones reales. En efecto

p(t) =f(t) + f(−t)

2+ q(t) =

f(t)− f(−t)2

y f(t) = p(t) + q(t).

se tiene que V = P ⊕Q. �

Proposicion I.3.7.- Sea P ⊂ V un subespacio vectorial de V espacio vectorial de dimension finita, entoncesexiste al menos un suplementario de P .

Demostracion.- Sea {v1, . . . , vn} una base de P , la cual se la prolonga en{v1, . . . , vn, vn+1, . . . , vd} base de V . Planteamos

Q =< {vn+1, . . . , vd} >,

Definicion I.3.8.- (Vocabulario) Sea f : V → W una aplicacion lineal. Sea V1 un subespacio de V ,entonces

f(V1) = {w ∈W |∃v ∈ V1 tal que f(v) = w}.Si V1 = V , entonces f(V ) se llama la imagen de f y se denota Im(f).Sea W1 un subespacio de W , entonces

f−1(W1) = {v ∈ V |f(v) ∈W}.

Si W1 = {0}, f−1({0}) se llama nucleo de f se denota ker(f).

Proposicion I.3.9.- f(V1) y f−1(W1) de la definicion precedente son subespacios vectoriales de V y Wrespectivamente.

Demostracion.- Ejercicio.

Proposicion I.3.10.- Sea f : V →W lineal, entonces

f es sobreyectiva ⇐⇒ Im(f) = W,a)

f es inyectiva ⇐⇒ ker(f) = {0},b)

f es biyectiva ⇐⇒ ker(f) = {0} y Im(f) = W.c)

Demostracion.- El punto a) es evidente.b)⇒ Sea v ∈ ker(f), entonces

f(v) = 0 = f(0)⇒ v = 0.

⇐ Sean v1 y v2 tales que f(v1) = f(v2), por consiguiente

f(v1 − v2) = 0,

v1 − v2 ∈ ker(f)⇒ v1 − v2 = 0 ⇒ v1 = v2.

c) Consecuencia directa de a) y b). �

Teorema I.3.11.- Formula de Dimension.- Sea V espacio vectorial de dimension finita y f : V →W lineal.Entonces Im(f) es de generacion finita y se tiene

dimV = dim Im(f) + dim ker(f).

Page 19: Algebra Lineal Avanzada

14 I Espacios Vectoriales y Aplicaciones Lineales

Demostracion.- a) Sea {v1 . . . , vm} una base de V , entonces {f(v1), . . . , f(vm)} engendra Im(f), por loque Im(f) es de generacion finita.

En efecto, sea w ∈ Im(f), por definicion existe v ∈ V tal que f(v) = w. Se tiene

v =

m∑

i=1

αivi ⇒ f(v) =

m∑

i=1

αif(vi).

b)Sea {v1, . . . , vn} una base de ker(f) que se completa a{v1, . . . , vn, vn+1, . . . , vm} base de V .

Afirmamos que B = {f(vn+), . . . , f(vm)} es una base de Im(f), con lo que quedarıa demostrada laformula de dimension.

En efecto, B engendra Im(f), por a) se tiene que {f(v1), . . . , f(vm)} engendra Im(f), ahora bien f(v1) =· · · = f(vn) = 0.

B es linealmente independiente, sean αn+1, . . . , αm ∈ K tales que

m∑

i=n+1

αif(vi) = 0,

por consiguiente

0 = f

(m∑

i=n+1

αivi

)⇒

m∑

i=n+1

αivi ∈ ker(f).

Por lo tanto v ∈ ker(f), tambien se escribe como

n∑

i=1

βivi. De donde

n∑

i=1

βivi =

m∑

i=n+1

αivi,

por independencia lineal, se tiene necesariamente que los αi = 0. �

Corolario I.3.12.- Sea f : V →W lineal con V y W de dimension finita, entonces:a) Si dimV > dimW , entonces f no es inyectiva.b) Si dimV < dimW , entonces f no es sobrectiva.c) Si dimV = dimW , las tres condiciones siguientes son equivalentes:

i) f es inyectiva,ii) f es sobreyectiva,iii) f es biyectiva.

Demostracion.- Se utiliza la formula de dimension.a) dimker(f) = dimV − dim Im(f) ≥ dimV − dimW > 0, de donde ker(f) 6= {0}, por consiguiente f no esinyectiva.b)dim Im(f) = dimV−dimker(f) ≤ dimV < dimW , de donde Im(f) 6= W , por lo tanto f no es sobreyectiva.c) i)⇐⇒ ii)

dim ker(f) = 0 ⇐⇒ dimW = dim Im(f) ⇐⇒ f es sobreyectiva.

Por lo tanto una funcion inyectiva es sobreyectiva y por consiguiente biyectiva, con lo que esta mostradai)⇒iii). �

Remarca.- El corolario I.3.12 es falso si la dimension de los espacios no es finita. Consideremos P el espaciode las funciones polinomiales reales. La aplicacion

D : P → Pp 7→ p′

Page 20: Algebra Lineal Avanzada

I.3 Aplicaciones Lineales 15

es sobreyectiva, pero no inyectiva.

Teorema I.3.13.- Fundamental.- Sea {v1, . . . , vn} una base de V espacio vectorial. Entonces, para todasucesion w1, . . . , wn de elementos de W , existe exactamente una aplicacion lineal f : V →W , tal que

f(vi) = wi, i = 1, . . . , n.

“Una aplicacion lineal es enteramente determinada por el comportamiento de la imagen de su base”.

Demostracion.- a) Existencia.

Para todo v ∈ V , se tiene una escritura unica v =

n∑

i=1

αivi, αi ∈ K. Se plantea

f(v) =n∑

i=1

αiwi,

funcion bien determinada por que los αi son unicos. Por construccion se tiene f(vi) = wi para i = 1, . . . , n.Falta ver que f es lineal, sean v y v′ dos elementos de V , entonces

v =n∑

i=1

αivi, v′ =n∑

i=1

α′ivi ⇒ v + v′ =

n∑

i=1

(αi + α′i)vi.

Por consiguiente:

f(v) =n∑

i=1

αiwi f(v′) =n∑

i=1

α′iwi f(v + v′) =

n∑

i=1

(αi + α′i)vi.

Se constata que f(v + v′) = f(v) + f(v′), lo mismo para f(αv) = αf(v).b) Unicidad.Sean f y g aplicaciones lineales de V en W , tales que f(vi) = g(vi) para i = 1, . . . , n. Se tiene

f(v) = f(n∑

i=1

αivi) =n∑

i=1

αif(vi) =n∑

i=1

αig(vi) = g(n∑

i=1

αivi) = g(v). �

Proposicion I.3.14.- Si V y W dos espacios de dimension finita. Entonces, V y W son isomorfos, es decirexiste un isomorfismo V →W , si y solamente si dimV = dimW .

Demostracion.- Si V y W son isomorfos, entonces dimV = dimW , caracterıstica de la formula de di-mension.

Si dimV = dimW , sean {v1, . . . , vn} y {w1, . . . , wn} bases de V y W respectivamente. Por el teoremafundamental existe f : V → W lineal tal que f(vi) = wi. Utilizando la demostracion de la proposicionformula de dimension para aplicaciones lineales, se constata que Im f = W , por consiguiente la aplicacion esbiyectiva, consecuencia del corolario I.3.12.

Proposicion I.3.15.- Sea {v1, . . . , vn} una base de V , entonces la aplicacion

Hom(V,W )ϕ−→W ×W × · · · ×W = Wn

f 7→ (f(v1), f(v2), . . . , f(vn))

es un isomorfismo de espacios vectoriales.

Demostracion.- ϕ es lineal:

ϕ(αf) = ((αf)(v1), . . . , (αf)(vn))

= α(f(v1), . . . , f(vn)) = αϕ(f),

ϕ(f + g) = ((f + g)(v1), . . . , (f + g)(vn))

= (f(v1) + g(v1), . . . , f(vn) + g(vn))

= (f(v1), . . . , f(vn)) + (g(v1), . . . , g(vn)) = ϕ(f) + ϕ(g).

Page 21: Algebra Lineal Avanzada

16 I Espacios Vectoriales y Aplicaciones Lineales

El teorema fundamental indicara que ϕ es biyectiva. �

Aplicacion a los Sistemas Lineales

Consideremos el sistema de n ecuaciones a n incognitas

a11ξ1 + a12ξ2 + · · · + a1nξn = b1...

...an1ξ1 + an2ξ2 + · · · + annξn = b2

(I.3.2)

Proposicion I.3.16.- Los enunciados siguientes son equivalentes para el sistema (I.3.2).i) ∀(bi) ∈ K, existe a lo mas una solucion del sistema (I.3.2).ii) ∀(bi) ∈ K, existe al menos una solucion del sistema (I.3.2).iii) ∀(bi) ∈ K, existe exactamente una solucion del sistema (I.3.2).iv) El sistema homogeneo asociado a (I.3.2) admite (ξi = 0) como unica solucion.

Demostracion.- Al sistema (I.3.2), se asocia la aplicacion linel a, ver ejemplo 6 de este paragrafo. Porconsiguiente

Resolver (I.3.2) ⇐⇒ Encontrar todos los ξ ∈ Kn tal que a(ξ) = b.

Es decir encontrar, a−1({b}). Los enunciados de la proposicion se traduceni) ∀b ∈ Kn, a−1({b}) comporta a lo mas un elemento ⇐⇒ a es inyectiva.ii) ∀b ∈ Kn, a−1({b}) comporta al menos un elemento ⇐⇒ a es sobreyectiva.iii) ∀b ∈ Kn, a−1({b}) comporta exactamente un elemento ⇐⇒ a es biyectiva.iv) a−1({0}) = {0} ⇐⇒ ker a = {0}.Ahora bien, los cuatro puntos han sido ya mostrados en el corolario (I.3.12) �

Page 22: Algebra Lineal Avanzada

I.4 Anillo de Homomorfismos 17

I.4 Anillo de Homomorfismos

Proposicion I.4.1.- Sean f ∈ Hom(U, V ) y g ∈ Hom(V,W ), entonces g ◦ f ∈ Hom(U,W ), donde U, V,Wson espacios vectoriales.

Demostracion.- Se tiene:

g ◦ f(u1 + u2) = g(f(u1 + u2))

= g(f(u1) + f(u2))

= g(f(u1)) + g((u2)) = f ◦ g(u1) + f ◦ g(u2),

g ◦ f(αu) = g(f(αu))

= g(α(f(u))

= αg(f(u)) = αg ◦ f(u). �

Sobre End(V ), se tiene una adicion

(f + g)(v) = f(v) + g(v),

y una “ multiplicacion” que es la composicion de aplicaciones

(g ◦ f)(v) = g(f(v)).

Estas dos leyes de composicion interna o operaciones verifican los axiomas siguientes:I.- Adicion

i la adicion es asociativa;ii la adicion es conmutativa;iii existe un elemento cero 0 tal que 0 + f = f , para todo f ;iv Para todo f ∈ End(V ), existe un opuesto (−f), tal que f + (−f) = 0.

II.- Multiplicacioni la multiplicacion es asociativa;ii existe un uno 1, tal que 1 ◦ f = f ◦ 1 = f , para todo f .

1 = id : V → V

v 7→ v

I.- Distributividadi f ◦ (g + h) = f ◦ g + f ◦ h;ii (f + g) ◦ h = f ◦ h+ g ◦ h.

Un conjunto A con una adicion y una multiplicacion que satisface los tres sistemas de axiomas descritos,se llama anillo.

Se dice que A es una anillo conmutativo, si A es una anillo cuya multiplicacion es conmutativa.Por lo tanto, End(V ) con la adicion y la composicion de aplicaciones es un anillo.

Ejemplos1.- Z con la adicion y la multiplicacion usual es un anillo conmutativo.2.- Un cuerpo (conmutativo) es un anillo (conmutativo).3.- End(V ) no es un anillo conmutativo si dimV ≥ 2. En efecto, sea {v1, . . . , vn} una base de V y

consideremos los endomorfismos definidos por:

f : V →W

v1 7→ αv1

v2 7→ βv2

vi 7→ vi, i ≥ 3;

g : V →W

v1 7→ v1 + v2

v2 7→ v2

vi 7→ vi, i ≥ 3;

Page 23: Algebra Lineal Avanzada

18 I Espacios Vectoriales y Aplicaciones Lineales

entoncesg ◦ f : V →W

v1 7→ αv1 + βv2

v2 7→ βv2

vi 7→ vi, i ≥ 3;

f ◦ g :→W

v1 7→ α(v1 + v2)

v2 7→ βv2

vi 7→ vi, i ≥ 3;

Si α 6= β, se tiene f ◦ g(v1) 6= g ◦ f(v1) y por consiguiente f ◦ g 6= g ◦ f .

Definicion I.4.2.- Sea A y B dos anillos. Una aplicacion f : A→ B es un homomorfismo de anillos sii f(a1 + a2) = f(a1) + f(a2),ii f(a1a2) = f(a1)f(a2),iii f(1) = 1.

Definicion I.4.3.- Sea A un anillo, se dice que I ⊂ A diferente del conjunto vacio es un ideal por izquierda(por derecha), si

i ∀x, y ∈ I ⇒ x+ y ∈ I,ii x ∈ I, a ∈ A⇒ ax ∈ I (xa ∈ I).

Grupos

Un grupo G es un conjunto dotado de una ley de composicion interna o operacion

G×G→ G

(g1, g2) 7→ g1 ∗ g2

tal quei (g1 ∗ g2) ∗ g3 = g1 ∗ (g2 ∗ g3), ∀g1, g2, g3 ∈ G (Asociatividad);ii Existe un elemento neutro e tal que e ∗ g = g ∗ e = g, ∀g ∈ G;iii Todo elemento g ∈ G posee un inverso g′ tal que

g ∗ g′ = g′ ∗ g = e.

Se dice que G un grupo es conmutativo o abeliano si ademas

g1 ∗ g2 = g2 ∗ g1, ∀g1, g2 ∈ G.

Notacion Multiplicativa

Si G es un grupo y la operacion ∗ se la denota por ·, es decir

G×G→ G

(g1, g2) 7→ g1 · g2

el elemento neutro (uno) se denota por 1 y el inverso se denota por g−1.

Notacion Aditiva (Reservada a los grupos abelianos)

Si G es un grupo y la operacion ∗ se la denota por +, es decir

G×G→ G

(g1, g2) 7→ g1 + g2

el elemento neutro (cero) se denota por 0 y el elemento inverso (opuesto) se denota por −g.Ejemplos4.- (Z, adicion) es un grupo abeliano.5.- (Z,multiplicacion) no es grupo.6.- (V,+) donde V es un espacio vectorial es un grupo abeliano.

Page 24: Algebra Lineal Avanzada

I.4 Anillo de Homomorfismos 19

7.- Sea E un conjunto.SE = {f : E → E biyectiva}

con la composicion de aplicaciones es un grupo no conmutativo si #(E) ≥ 3.8.- Sea V un espacio vectorial, el grupo lineal

Gl(V ) = {f : V → V automorfismo}

con la composicion de aplicaciones es un grupo no conmutativo.

Definicion I.4.4.- Sean (G, ∗) y (H, ⋆) dos grupos. Un homomorfismo de grupos es una aplicacion talque

f(g1 ∗ g2) = f(g1) ⋆ f(g2).

Ejemplo9.- La aplicacion

(R,+)→ (R− {0}, ·)x 7→ ex

es un homorfismo de grupos.

Page 25: Algebra Lineal Avanzada

20 I Espacios Vectoriales y Aplicaciones Lineales

I.5 Matriz de una Aplicacion Lineal

Sea V un espacio vectorial y {v1, . . . , vn} una base de V , entonces existe un isomorfismo natural dado por

ϕ : V → Kn

vi 7→ ei, i = 1, . . . , n

donde {e1, . . . , en} es la base canonica de Kn. Por consiguiente, si v =n∑

i=1

αivi, se tiene

ϕ(v) = (α1, α2, . . . , αn) ∈ Kn.

El elemento de K, αi, se llama la i-sima componente de v respecto a la base {v1, . . . , vn} y v ∈ V puedeescribirse en forma de componentes respecto a la base {v1, . . . , vn} como

v = (α1 α2 · · · αn ) o bien v =

α1

α2...αn

;

la segunda escritura en vector columna sera muy util para lo que sigue en el curso.Una matriz A de n×m a coeficientes en K es un tablero de n filas y m columnas de elementos de K

A =

a11 a12 · · · a1m

a21 a2m...

...an1 an2 · · · anm

.

El conjunto de las matrices n×m a coeficientes en K, se lo denota por Mn,m(K).Sean V y W dos espacios de dimension m y n respectivamente,

{v1, . . . , vm} una base de V,

{w1, . . . , wn} una base de W ;

sea f : V →W lineal, se tiene para cada uno de los elementos de la base de V

f(vj) =

n∑

i=1

aijwi =

a1j

...anj

j = 1, . . . ,m;

donde los aij ∈ K. Por consiguiente, se puede asociar a f y a las bases {v1, . . . , vm} y {w1, . . . , wn}, la matriz

Mf =

a11 a12 · · · a1m

a21 a2m...

...an1 an2 · · · anm

∈Mn,m(K)

que se llama la matriz de f respecto a las bases {v1, . . . , vm} y {w1, . . . , wn}. Se observa inmediatamenteque el numero de filas es igual a la dimension del espacio destino W para f y el numero de columnas es iguala la dimension del espacio fuente V para f .

Page 26: Algebra Lineal Avanzada

I.5 Matriz de una Aplicacion Lineal 21

Receta.- Para construir la matriz de f respecto a las bases {vi} y {wj} disponer en vectores columnas lascomponentes de f(vj) respecto a la base {wj}.Remarca.- Mn,m(K) esta en biyeccion con Knm, pero con las nociones de fila y columna.

Proposicion I.5.1.- Resultado principal.- Sea {vi}mi=1 una base de V y {wj}ni=1 una base deW . La aplicacion

Hom(V,W )→Mn,m(K)

f 7→Mf respecto a las bases en cuestion,

es biyectiva.

Demostracion.- Recordamos que

Hom(V,W )→Wn

f 7→ (f(v1), . . . , f(vn))

es un isomorfismo de espacios vectoriales y que

W → Kn

w =n∑

i=1

wi 7→

α1...αn

es otro isomorfismo. De esta manera

Hom(V,W ) −→ Wn −→ Knm ∼= Mn,m(K)

f 7→ (f(v1), . . . , f(vn)) 7→

a11 a12 · · · a1m

a21 a2m...

...an1 an2 · · · anm

es biyectiva. �

Ejemplos1.- Consideremos la proyeccion del plano R2 sobre el eje x. La matriz de la proyeccion respecto a la base

canonica esta dada pore1 → e1

e2 → e2⇒Mf =

(1 00 0

)

2.- Ejercicio.- Determinar las matrices respecto a la base canonica de las aplicaciones lineales del curso deGeometrıa, es decir: rotaciones, homotecias, simetrıas, similitudes, etc.

Transcripcion de las Operaciones Lineales en Terminos de Matriz

Una vez determinada la relacion existente entre el conjunto de las matrices y el espacio de los homomorfismoses transcribir las operaciones de las aplicaciones lineales en terminos de operaciones de matrices.

Sean V espacio vectorial de base {v1, . . . , vm} y W espacio vectorial de base {w1, . . . , wn}. Consideremoslas aplicaciones lineales

f, g : V →W,

cuyas matrices respecto a las bases en cuestion son

A = (aij), B = (bij)

matrices pertenecientes a Mnm(K).

Page 27: Algebra Lineal Avanzada

22 I Espacios Vectoriales y Aplicaciones Lineales

Proposicion I.5.2.- Sea C = (cij) la matriz de f + g respecto a las mismas bases en cuestion, entonces

C = A+B

cij = aij + bij .

Sea D la matriz de αf respecto a las bases {vi} y {wj}, entonces

D = αA

dij = αdij

Demostracion.- Ejercicio.

Corolario I.5.3.- Se tiene

Hom(V,W )→Mn,m(K)

f 7→Mf respecto a las bases {vi} y {wj},

es un isomorfismo de espacios vectoriales, con la adicion y la multiplicacion por escalares.

El siguiente paso es determinar la matriz de la composicion de aplicaciones lineales. Sean:U espacio vectorial con {u1, . . . , ul} base;V espacio vectorial con {v1, . . . , vm} base;W espacio vectorial con {w1, . . . , wn} base;

los homomorfismos:f : U → V g : V →W.

¿Cual es la matriz de g ◦ f : U →W respecto a las bases {ui} y {wj}.?Sean:

A = (aik) la matriz de f respecto a las bases {ui} y {vk};B = (bkj) la matriz de g respecto a las bases {vk} y {wj};C = (cij) la matriz de g ◦ f respecto a las bases {ui} y {wj}.

Por lo tanto

g ◦ f(ui) =

n∑

i=1

cjiwj

||

g(f(ui)) = g

(m∑

k=1

akivk

)=

m∑

k=1

akig(vk)

=m∑

k=1

aki

n∑

j=1

bjkwj

=

n∑

j=1

(m∑

k=1

bjkaki

)wj ,

=⇒ cji =m∑

k=1

bjkaki.

Por consiguiente C es la matriz obtenida de multiplicar BA, es decir

C = BA.

Por el uso frecuente de algunas matrices, vale la pena citarlas:

I = Ir =

1 0 · · · 00 1 0

. . .

0 1

∈Mr,r(K) = Mr(K)

Page 28: Algebra Lineal Avanzada

I.5 Matriz de una Aplicacion Lineal 23

Se tiene IrA = A, ∀A ∈Mr,d(K); y BIr = B, ∀B ∈Ms,r(K). Ir se llama la matriz identidad.0 ∈Mp,q(K) es la matriz cuyos coeficientes son nulos.

Corolario I.5.4.- Mn,n(K) con la adicion y la multiplicacion es un anillo (no conmutativo si n ≥ 2). Ademasla aplicacion (dimV = n):

End(V )→Mn,n(K)

f 7→Mf

es un isomorfismo de anillos.Para el espacio V = Kn con la base canonica, se dispone de un isomorfismo canonico

Gl(Kn) −→ Gl(n,K) = {A ∈Mn,n(K)|A es inversible}∩

End(Kn)→Mn,n(K)

f 7→Mf matriz de f respecto a la base canonica de V.

Demostracion.- Ejercicio.

Remarca.- Sea f : V → W lineal, A = (aij) la matriz de f respecto a las bases {vi} y {wj}. Sea v ∈ V ,¿Como calcular f(v)?

Se escribe v =n∑

i=1

, entonces

f(v) =

m∑

i=1

αjf(vj) =

m∑

j=1

αj

(n∑

i=1

aijwi

)=

n∑

i=1

m∑

j=1

aijαj

wi,

lo que en notacion de componentes se traduce a

β1...βn

= α1

a11...an1

+ · · ·+ αm

a1m

...anm

=

a11 · · · a1m...

...an1 · · · anm

α1...αm

.

Page 29: Algebra Lineal Avanzada

24 I Espacios Vectoriales y Aplicaciones Lineales

I.6 Cambio de Base

Sean:V espacio vectorial, {v1, . . . , vm}, {v′1, . . . , v′m} dos bases de V ;W espacio vectorial, {w1, . . . , wn}, {w′

1, . . . , w′n} dos bases de W ;

Se tieneHom(V,W )

∼−→Mn,m(K)

f 7→ A(f): matriz de f respecto a {vi} y {wj},

Hom(V,W )∼−→Mn,m(K)

f 7→ A′(f): matriz de f respecto a {v′i} y {w′j},

Programa.- Explicitar la aplicacionMn,m(K)→Mn,m(K)

A(f) 7→ A′(f).

Nocion de Matriz de Pasaje

Sean {v1, . . . , vm} y {v′1, . . . , v′m} dos bases de V . Se escribe

vj =m∑

i=1

mijv′i, M = (mij) ∈Mm,m(K),

se llama la matriz de pasaje de {vi} a {v′i}.M es tambien la matriz de la aplicacion identidad de V respecto a {vi} en la fuente y {v′i} en el destino.De la misma manera se define N = (nij) ∈Mn,n por

wj =

n∑

i=1

nijw′i,

la matriz de pasaje de {wj} a {w′j}.

Proposicion I.6.1.- Sean {vi}, {v′i} y {v′′i }, tres bases de V espacio vectorial. Se denotaM = (mij) la matriz de pasaje de {vi} a {v′i},M ′ = (m′

ij) la matriz de pasaje de {v′i} a {v′′i }.Entonces M ′M es la matriz de pasaje de {vi} a {v′′i }.Demostracion.- Se tiene:

vj =m∑

k=1

mkjv′k, v′k =

m∑

i=1

m′ikv

′′i ,

obteniendo ası

vj =m∑

k=1

mkj

(m∑

i=1

m′ikv

′′i

),

de donde

vj =m∑

i=1

(m∑

k=1

m′ikmkj

)

︸ ︷︷ ︸m′′

ij

vi,

Page 30: Algebra Lineal Avanzada

I.6 Cambio de Base 25

por lo tanto M ′′ = M ′M . �

Proposicion I.6.2.- Sea A ∈ Mm,m(K), si existe B ∈ Mm,m(K) tal que AB = I o BA = I, entonces A esuna matriz inversible de inversa B.

Demostracion.- Ejercicio.

Proposicion I.6.3.- Para las matrices de pasaje se tiene:a) Las matrices de pasaje son inversibles.b) N y M como antes, se tiene

A(f) = N−1A′(f)M.

Demostracion.-a) Se utiliza la proposicion I.6.1 con M ′ la matriz de pasaje de {v′i} a {vi}. obteniendo deesta manera M ′M = I, por la proposicion I.6.2 se tiene que M es inversible.b) recordemos:

vj =m∑

k=1

mkjv′k,

w′j =

n∑

i=1

nijwi con (nij) = N−1,

f(vj) =

n∑

i=1

aijwi con A(f) = (aij),

f(v′j) =

n∑

i=1

a′ijwi con A′(f) = (a′ij).

Para mostrar el punto b), es suficiente mostrar que

aij = (N−1A′M)ij

Se tiene:

f(vj) = f

(∑

k

mkjv′k

)=∑

k

mkjf(v′k)

=∑

k

mkj

(∑

l

a′lkw′l

)=∑

l

(∑

k

a′lkmkj

)

︸ ︷︷ ︸(AM)lj = clj

w′l

=∑

l

clj

(∑

i

nilwi

)=∑

i

(∑

i

nilclj

)

︸ ︷︷ ︸(N−1A′M)ij

wi.

Por lo tanto aij = (N−1A′M)ij . �

Corolario I.6.4.- Sea V espacio vectorial con las bases {v1, . . . , vm} y {v′1, . . . , v′m}. Para f ∈ End(V ),se denota A(f), respectivamente A′(f), la matriz de f en la base {v1, . . . , vm}, respectivamente en la base{v′1, . . . , v′m}. Se denota M la matriz de pasaje de {vi} a {v′i}. Entonces

A(f) = M−1A′(f)M.

Aplicacion al Rango de una Matriz

Definicion I.6.5.- Sea f →W lineal. Se llama rango de f la dimension de Im(f).

Page 31: Algebra Lineal Avanzada

26 I Espacios Vectoriales y Aplicaciones Lineales

Proposicion I.6.6.- Sea f : V → W lineal de rango r. Entonces existe una base {v1, . . . , vm} de V y unabase {w1, . . . , wn} de W tales que

f(vi) = wi para i = 1, . . . , r;

f(vi) = 0 para i = r + 1, . . . ,m.

Dicho de otra forma, la matriz de f respecto a {vi} y {wj} es de la forma

(Ir 00 0

).

Demostracion.- La formula de dimension para aplicaciones lineales da

dimV︸ ︷︷ ︸m

= dim Im(f)︸ ︷︷ ︸r

+ dimker(f)︸ ︷︷ ︸m−r

.

Se elije una base {vr+1, . . . , vm} base de ker(f), se completa en{v1, . . . , vr, vr+1, . . . , vm} base de V . Se toma como base de Im(f) {f(v1), . . . , f(vr)} y luego se completaesta base en una base de W . �

Corolario I.6.7.- Sea B ∈Mn,m(K), entonces existe dos matrices N ∈ Gl(n,K) y M ∈ Gl(m,K), tales que

N−1BM =

(Ir 00 0

).

Demostracion.- Se aplica la proposicion I.6.6 a b : Km → Kn cuya matriz respecto a las bases canonicases B.

Por la proposicio precedente, existen {v1, . . . , vm} y {w1, . . . , wn} bases de Km y Kn respecto a las cualesla matriz asociada a b es

B′ =

(Ir 00 0

).

Sea M la matriz de pasaje de {vi} a la base canonica en Km,N la matriz de pasaje de {wi} a la base canonica en Kn, entonces por la proposicion I.6.3, se tiene B′ =N−1BM �

Definicion I.6.8.- Sea B ∈Mn,m(K)

B =

b11 . . . b1m...

...bn1 · · · bnm

Se considera las filas de B como elementos de Km y las columnas de B como elementos de Kn

El rango fila (columna) de B es la dimension del subespacio de Km (Kn) engendrado por las filas (colum-nas) de B.

El rango columna de B es igual al rango de la aplicacion b : Km → Kn cuya matriz respecto a lasbases canonicas es B. En efecto, se tiene que b(ei) es la i-sima columna de la matriz B, la imagen de b estaengendrada por b(e1), . . . , b(em).

Transpuesta de una Matriz

Sea B ∈Mn,m(K). Se llama transpuesta deB y se la denota Bt la matriz de Mm,n(K) definida por

(Bt)ij = Bji.

Page 32: Algebra Lineal Avanzada

I.6 Cambio de Base 27

De esta forma el rango fila de B es igual al rango columna de Bt. En efecto, el rango fila de B es igual alrango de la aplicacion bt : Kn → Km, cuya matriz respecto a las bases canonicas es Bt.

Proposicion I.6.9.- La transpuesta verifica las siguientes propiedades:i) (Bt)t = B.ii (AB)t = BtAt.iii A ∈ Gl(n,K)⇒ At ∈ Gl(n,K) y (At)−1 = (A−1)t.

Demostracion.- i) y ii) ejercicio. Para el punto iii), se tiene

At(A−1)t = (A−1A)t = It = I ⇒ (At)−1 = (A−1)t. �

Proposicion I.6.10.- El rango fila de B es igual al rango columna de B.

Demostracion.- Sea r = rango columna de B. Por el corolario 1.6.7, existen N ∈ Gl(n,K) y M ∈ Gl(m,K)tales que

B = N−1

(Ir 00 0

)M.

Se tiene aplicando las propiedades de la matriz transpuesta

Bt = M t

(Ir 00 0

)(M−1)t.

Se interpreta las matrices como aplicaciones lineales (respecto a las bases canonicas);

Bt bt : Kn → Km

M t mt : Km → Km

(N t)−1 (nt)−1 : Kn → Km

(Ir 00 0

) ir : Kn → Km

(x1, . . . , xn) 7→ (x1, . . . , xr, 0, . . . , 0).

Se tiene bt = mtir(nt)−1, ver el diagrama

Kn bt

−→ Km

(nt)−1 ↓ ↑ mt

Kn ir−→ Km

por lo tanto se tiene que rango(bt) = rango(ir) = r. �

Definicion I.6.11.- Sea B ∈Mn,m(K), el rango de de B es

rangB = rango columna de B = rango fila deB.

Page 33: Algebra Lineal Avanzada

28 I Espacios Vectoriales y Aplicaciones Lineales

I.7 Operaciones Elementales sobre las Matrices

Justificacion.- Sea

a11ξ1 + a12ξ2 + · · · + a1mξm = b1...

...an1ξ1 + an2ξ2 + · · · + anmξm = bn

Se introduce

A = (aij) ∈Mn,m,

ξ1...ξm

∈ Km = Mm,1(K), b =

(b1...bn

)∈ Kn.

Introduciendo la notacion matricial, el sistema de ecuaciones, se convierte en

Aξ = b.

Se observa que si A =

(Ir 00 0

), se encuentra la solucion a la vista.

En el paragrafo precedente, se mostro que existen M y N inversibles tales que

A = N−1

(Ir 00 0

)M ;

por consiguiente se tiene

Aξ = N−1

(Ir 00 0

)Mξ = b.

Planteando b′ = Nb y ζ = Mξ, se obtiene el sistema

(Ir 00 0

)ζ = b′.

Por lo tanto, conociendo N se deduce ζ y conociendo M−1 se deduce ξ.Programa.- Explicitar un procedimiento o algoritmo que permita calcular ξ.

Se denota Sn el conjunto de las biyecciones o permutaciones de {1, 2, . . . , n}. Es un grupo para lacomposicion de aplicaciones llamado grupo simetrico. Hay n! elementos en Sn.

Una permutacion σ de {1, 2, . . . , n} se representa mediante

(1 2 3 · · · n

σ(1) σ(2) σ(3) · · · σ(n)

)

Page 34: Algebra Lineal Avanzada

I.7 Operaciones Elementales sobre las Matrices 29

Ejemplo1.- Las 6 permutaciones de S3 tienen las representaciones siguientes:

id =

(1 2 31 2 3

) (1 2 31 3 2

) (1 2 32 1 3

)

(1 2 33 2 1

) (1 2 33 1 2

) (1 2 32 3 1

)

Para evitar una escritura pesada, en lugar denotar σ1 ◦σ2 la composicion de permutaciones, se utilizarala notacion σ1σ2.

A σ ∈ Sm, se asocia una aplicacion lineal mediante

ρ(σ) : Km → Km

ei 7→ eσ(i)

donde {e1, . . . , en} es la base canonica de Km. La matriz M(σ) de ρ(σ) respecto a la base canonica es dela forma, M(σ) tiene los coeficientes nulos, excepto que en cada fila y columna el coeficiente nonulo es 1. Esta matriz se llama matriz de permutacion.

Proposicion I.7.1.- La aplicacion

Smρ→ Gl(Km)

σ 7→ ρ(σ)

es un homomorfismo de grupo, representacion lineal de Sm.La aplicacion

Sm → Gl(m,K)

σ 7→M(σ)

es un homorfismo de grupos, representacion matricial de Sm.

Demostracion.- Ejercicio.Una vez conocidas las matrices de permutacion, se debe determinar como actua las matrices de per-

mutacion sobre una matriz. Esto esta dado en la:

Proposicion I.7.2.- a) Multiplicar a la derecha B por M(σ) es equivalente a efectuar las correspondientespermutaciones de las columnas de B.b) Multiplicar por la izquierda B por M(σ) es equivalenTe a efectuar las correspondientes permutaciones delas filas de B.

Demostracion.- Ejercicio

Matrices DiagonalesUna matriz A diagonal es de la forma

A =

a11 00 a22

. . .

0 amm

= diag(a11, a22, . . . , amm)

Proposicion I.7.3.- a) Multiplicar B por la derecha con diag(d1, d2, . . . , dm) es lo mismo que multiplicarla i-sima columna de B por di, para i = 1, . . . ,m.b) Multiplicar B por la izquierda con diag(d1, d2, . . . , dm) es lo mismo que multiplicar la i-sima fila de B pordi, para i = 1, . . . ,m.

Demostracion.- Ejercicio.

Resultado Principal

Page 35: Algebra Lineal Avanzada

30 I Espacios Vectoriales y Aplicaciones Lineales

Sea B ∈ Mn,m(K) de rango r. Se va encontrar un procedimiento para explicitar las matrices N−1 ∈Gl(n,K) y M ∈ Gl(m,K) tales que

N−1BM =

(Ir 00 0

).

Si B = 0, no hay nada que hacer.Si B 6= 0, entonces existe un coeficiente que no es nulo. Por consiguiente:

i) Multiplicando a la izquierda y derecha por matrices de permutacion, se lleva este coeficiente al lugar(1, 1).

ii) Multiplicando por diag(b−111 , 1, . . . , 1) se va al caso b11 = 1.

iii) Luego

1 0 · · · 0−b21

...−bn1

1 0. . .

0 1

1 b12 · · · b1m

b21...bn1 · · · bnm

=

1 b12 · · · b1m

0...0

B′

1 b12 · · · b1m

0...0

B′

1 −b12 · · · −b1m

0...0

1 0. . .

0 1

=

1 0 · · · 00...0

B′′

.

Ejemplo1.- Consideremos la matriz

B =

(0 1 41 1 3

).

Se tiene (0 11 0

)B =

(1 1 30 1 4

)= B(1),

(1 1 30 1 4

)

1 −1 −30 1 00 0 1

=

(1 0 00 1 4

)= B(2),

(1 0 00 1 4

)

1 0 00 1 −40 0 1

=

(1 0 00 1 0

).

De donde

M =

1 −1 −30 1 00 0 1

1 0 00 1 −40 0 1

y N−1 =

(0 11 0

).

Corolario I.7.4.- Una matriz A ∈ Gl(m,K) se escribe como producto de:i) matrices de permutacion;ii) matrices diagonales inversibles;iii) matrices del tipo I +Li o I +Rj , donde Li es la matriz cuyos coeficientes son nulos, excepto quizas loslki con k > i; Hj es la matriz cuyos coeficientes son nulos, excepto quizas los hjk con k > j.

Demostracion.- Se aplica el procedimiento de antes a A inversible. Finalmente se obtiene que

I = PAQ,

donde P es producto de matrices del tipo i), ii), iii); lo mismo Q. Entonces

A = P−1Q−1.

Solo hay que mostrar que las inversas de i) ii) y iii) son del mismo tipo. Para i) y ii) no hay problema. Paraiii) ejercicio 32 de la practica. �

Page 36: Algebra Lineal Avanzada

I.7 Operaciones Elementales sobre las Matrices 31

Mejora del Resultado

Definimos los siguientes subconjuntos de Gl(m,K):

U− =

1 0

∗ . . .

∗ ∗ 1

∈ Gl(m,K)

matrices triangulares con 1 sobre la diagonal.

B+

b11 ∗ ∗0

. . . ∗0 bmm

∈ Gl(m,K)

matrices triangulares superiores.Para σ ∈ Sm se plantea

U−M(σ)B+ = {XM(σ)Y |X ∈ U−, Y ∈ B+} .

Proposicion I.7.5.- Descomposicion de Bruhat. Gl(m,K) es la reunion disjunta de subconjuntos U−M(σ)B+,σ ∈ Sm.

Demostracion.- i) Sea A ∈ Gl(m,K), se debe mostrar que existe X ∈ U−, Y ∈ B+ y σ ∈ Sm tales que

A = XM(σ)Y.

La demostracion se la hara por induccion sobre m. El caso m = 1 es evidente. Supongamos cierto param− 1, con m > 1.

Sea A ∈ Gl(m,K), y sea ai,1 6= 0 el primer coeficiente no nulo de la primera columna de A. Se tiene:

0

0A12

ai1

am1

A22

︸ ︷︷ ︸A

diag(a−1i1 , 1, . . . , 1) =

0

0A12

1ai+1,1

am1

A22

;

1 0. . .

1

−ai+1,1. . .

−am,1 1

0

0A12

1 ai2 · · · aim

ai+1,1

am1

A22

1 −ai2 · · · −aim

1. . .

1

=

0 C11 C12

1 0 00 C21 C22

.

Por hipotesis de induccion existen U ∈ Gl(m−1,K) triangular inferior con 1 en la diagonal y B ∈ Gl(m−1,K)triangular superior, τ ∈ Sm−1, tales que

(C11 C22

C21 C22

)= UM(σ)B

Page 37: Algebra Lineal Avanzada

32 I Espacios Vectoriales y Aplicaciones Lineales

o todavıa

U−1

(C11 C22

C21 C22

)B−1 = M(τ )

(U11 0U21 U22

)(C11 C22

C21 C22

)(B11 B21

0 B22

)=

(T11 T12

T21 T22

).

Por consiguiente

A = U

0 C11 C12

1 0 00 C21 C22

B

U11 0 00 1 0U21 0 U22

0 C11 C12

1 0 00 C21 C22

1 0 00 B11 B12

0 0 B22

=

0 T11 T22

1 0 00 T21 T22

︸ ︷︷ ︸M(σ)

.

ii) A mostrar que si (U−M(σ)B+) ∩ (U−M(τ )B+)⇒ σ = τ , en clases. �

Page 38: Algebra Lineal Avanzada

38 I Espacios Vectoriales y Aplicaciones Lineales

I.8 Signo de las Permutaciones

Recordemos que

Sm ={σ : {1, . . . ,m} biy.−→ {1, . . . ,m}}

Sean a, b ∈ {1, . . . ,m}, a 6= 0, la permutacion definida por

a 7→ b;

b 7→ a;

i 7→ i, i 6= a y i 6= b

se llama transposicion y se denota (a, b). Por consiguiente,

(a, b) =

(1 2 · · · a · · · b · · · m1 2 · · · b · · · a · · · m

).

Proposicion I.8.1.- El grupo Sm es engendrado por las transposiciones, es decir para σ ∈ Sm, existenτ1, τ2, . . . , τp transposiciones, tales que

σ = τ1τ2 · · · τp.

Demostracion.- Por induccion sobre m.Para m = 2 el enunciado es cierto.Se supone cierto el enunciado para m− 1. Demostremos que se cumple para m.Sea σ ∈ Sm. Si σ(m) = m, se tiene que la restriccion de σ sobre {1, . . . ,m − 1} es una permutacion quepertenece a Sm−1 y por hipotesis de induccion σ es el producto de transposiciones.Si σ(m) 6= m, se considera σ′ = (σ(m),m)σ. Por construccion σ′(m) = (σ(m),m)σ(m)= m, de donde por el argumento del primer caso σ′ pertenece a Sm−1 y es producto de transposiciones,digamos σ′ = τ1τ2 · · · τp. Por lo tanto

σ = (m,σ(m))τ1τ2 · · · τp. �

Ejemplos

1.- (1 2 · · · m− 1 m2 3 · · · m 1

)= (1,m)(1,m− 1) · · · (1, 3)(1, 2).

2.- La escritura de σ como producto de transposiciones no es unica.

id = (a, b)(a, b) = (a, b)(a, b)(a, b)(a, b), (2, 3) = (1, 2)(1, 3)(1, 2).

Definicion de signo de una permutacion

Introducimos P ={Rm :

f−→ R| f polinomial}.

f : Rm → R es polinomial si

f(x1, . . . , xm) =∑

finita

ai1,i2,...,imxi1

1 xi22 · · ·xim

m .

P es un espacio vectorial sobre R y tambien es un anillo conmutativo para la adicion y multiplicacion depolinomios.

Page 39: Algebra Lineal Avanzada

I.8 Signo de las Permutaciones 39

A σ ∈ Sm se asocia la aplicacion

ϕ(σ) : P −→ P∑

finita

ai1,i2,...,imxi1

1 xi22 · · ·xim

m 7→∑

finita

ai1,i2,...,imxi1

σ(1)xi2σ(2) · · ·x

im

σ(m)

Ejemplo

3.- Consideremos

σ =

(1 2 3 42 3 4 1

), f(x1, x2, x3, x4) = x2

1 +3

2x1x3 + x12

4 .

Entonces

ϕ(σ)(f(x1, x2, x3, x4)) = x2σ(1) +

3

2xσ(1)xσ(3) + x12

σ(4) = x22 +

3

2x2x4 + x12

1 .

Proposicion I.8.2.- ϕ(σ) es un automorfismo de (espacios vectoriales y de anillo), es decir:i) ϕ(σ)(f + g) = ϕ(σ)(f) + ϕ(σ)(g),ii) ϕ(σ)(αf) = αϕ(σ)(f),iii) ϕ(σ)(f · g) = ϕ(σ)(f) · ϕ(σ)(g).Ademas ϕ(σ1σ2) = ϕ(σ1) ◦ ϕ(σ2).

Demostracion.- Ejercicio.

Ejemplo

4.- Los polinomios simetricos elementales a m variables son:

f1(x1, . . . , xm) = x1 + x2 + · · ·+ xm;

f2(x1, . . . , xm) =∑

i<j

xixj = x1x2 + · · ·+ xm−1xm;

f3(x1, . . . , xm) =∑

i<j<k

x1xjxk;

...

fm(x1, . . . , xm) = x1x2 · · ·xm.

Ejercicio.- Mostrar que ϕ(σ)(fi) = fi para i = 1, . . . ,m y σ ∈ Sm.

Definamos el polinomio d ∈ P, como

d =∏

1≤i<j≤m

(xi − xj) = (x1 − x2) · · · (x1 − xm) · · · (xm−1 − xm).

Si σ ∈ Sm, entonces ϕ(σ)(d) = ±d. Se plantea

sg(σ) = signo(σ) =

{1 si ϕ(σ)(d) = d,

−1 si ϕ(σ)(d) = −d.

Ejemplo

5.- En el espacio de las funciones polinomiales a 4 variables tenemos

d = (x1 − x2)(x1 − x3)(x1 − x4)(x2 − x3)(x2 − x4)(x3 − x4).

Tomando la permutacion del ejemplo 3, se tiene

ϕ(σ)(d) = (x2 − x3)(x2 − x4)(x2 − x1)(x3 − x1)(x3 − x4)(x4 − x1) = −d.

Page 40: Algebra Lineal Avanzada

40 I Espacios Vectoriales y Aplicaciones Lineales

Proposicion I.8.3.- Se tiene queSm

sg−→ {±1}es un homomorfismo de grupos.

Demostracion.-En efecto:

ϕ(σ1σ2)(d) = (ϕ(σ1) ◦ ϕ(σ2))(d) = ϕ(σ1)(ϕ(σ2))(d)) =

ϕ(σ1)(sg(σ2)d) = sg(σ2)ϕ(σ1)(d) = sg(σ2) sg(σ1),

Por consiguientesg(σ1σ2) = sg(σ1)sg(σ2). �

Proposicion I.8.4.- Sea τ una transposicion, entonces sg(τ ) = −1.

Demostracion.- Sea τ = (a, b) con a < b, se tiene

d =∏

i<j

(xi − xj)

= (xa − xb)∏

i<ji6=a,bj 6=a,b

(xi − xj)∏

i<j

(xi − xa)∏

a<jj 6=b

(xa − xj)∏

i<bi6=a

(xi − xb)∏

j>b

(xb − xj)

= (xa − xb)∏

i<a

[(xi − xa)(xi − xb)]∏

a<i<b

[(xa − xi)(xi − xb)]

b<i

[(xa − xi)(xb − xi)]∏

i<ji6=a,bj 6=a,b

(xi − xj);

ϕ(σ)(d) = (xb − xa)∏

i<a

[(xi − xb)(xi − xa)]∏

a<i<b

[(xb − xi)(xi − xa)]

b<i

[(xb − xi)(xa − xi)]∏

i<ji6=a,bj 6=a,b

(xi − xj);

ϕ(σ)(d) = −d. �

Corolario I.8.5.- i) Si σ = τ1 · · · τp, con τi transposicion, entonces

sg(σ) = (−1)p.

ii) Sea σ = τ1 · · · τp = τ ′1 · · · τ ′p′ donde τi y τ ′i transposiciones, se tiene por i) sg(σ) = (−1)p = (−1)p′

, entoncesp y p′ tienen la misma paridad.

Calculo Practico de sg(σ)

Sea σ ∈ Sm, la permutacion cuyo representacion es0B� 1 2 i j m�(1) j �(i) i �(j) m �(m)1CAPara determinar el signo de la permutacion, se debe contar el numero de intersecciones de los segmentos queunen el elemento i en la fila de arriba, con el elemento i en la fila de abajo. Este numero se lo denota porj(σ).

Page 41: Algebra Lineal Avanzada

I.8 Signo de las Permutaciones 41

Proposicion I.8.6.- j(σ) esj(σ) = #{(i, j)| i < j y σ(i) > σ(j)}

numero de inversiones.

Demostracion Mostraremos que g(i) > g(j) ⇐⇒ hay interseccion de los segmentos de extremidades σ(i)y σ(j). En efecto

σ(i) i σ(j) j

σ(i) σ(j)

.

Hay interseccion, el diagrama indicara que σ(i) > σ(j),

σ(j) i σ(i) j

σ(i) σ(j)

. �

Proposicion I.8.7.- Se tienesg(d) = (−1)j(σ).

Demostracion Se tiene que ϕ(σ)(d) = sg(d). Estudiemos la accion de ϕ(σ) sobre los factores de d, porconsiguiente

(xi − xj) 7→ (xσ(i) − xσ(j)) =

{un factor de d si σ(i) < σ(j),

(−1) · un factor de d si σ(i) > σ(j).

Page 42: Algebra Lineal Avanzada

42 I Espacios Vectoriales y Aplicaciones Lineales

I.9 Formas Multilineales Alternadas

Definicion I.9.1.- Sean V y W dos espacios vectoriales y m un entero positivo. Una aplicacion

F : V × V × · · · × V︸ ︷︷ ︸m veces

→W

es mulitilineal, si

F (v1, v2, . . . , α′v′i + α′′v′′i , . . . , vm) = α′F (v1, . . . , v

′i, . . . , vm) + α′′F (v1, . . . , v

′′i , . . . , vm),

∀i = 1, . . . ,m. Dicho de otra manera, se pide que F sea lineal en cada una de las variables separadamente.

Ejemplos

1.- La siguiente aplicacion es m-linealK× · · · ×K︸ ︷︷ ︸

m

→ K

(α1, . . . , αm) 7→m∏

i=1

αi.

2.- Sea A ∈Mn,n(K) una matriz, la aplicacion definida por

K×K→ K

(x, y) 7→ xtAy = (x1 · · · xn )

a11 · · · a1n...

...an1 · · · ann

y1...yn

es bilineal. En particularR3 × R3 → R

(x, y) 7→ xtIy = x1y1 + x2y2 + x3y3

producto escalar euclidiano en R3.3.- El producto vectorial o cruz en R3, definido por

R3 × R3 → Rx1

x2

x3

,

y1y2y3

7→

x2y3 − x3y3x3y1 − x1y3x1y2 − x2y1

es bilineal.4.- La aplicacion

Mn,n(K)×Mn,n(K)×Mn,n(K)→Mn,n(K)

(A,B,C) 7→ ABC

es trilineal.5.- La aplicacion

End(V )× End(V )→ End(V )

(f, g) 7→ f ◦ g − g ◦ fes bilineal.

Page 43: Algebra Lineal Avanzada

I.9 Formas Multilineales Alternadas 43

Definicion I.9.2.- Sea F : V × V × · · · × V →W multilineal. Se dice que F es multilineal alternada, si

F (v1, . . . , vi, . . . , vi, . . . , vn) = 0;

es decir, del momento en que existan vi = vj con i 6= j. F es multilineal simetrica, si

F (v1, . . . , vi, . . . , vj , . . . , vn) = F (v1, . . . , vj , . . . , vi, . . . , vn), ∀i 6= j.

F es multilineal antisimetrica, si

F (v1, . . . , vi, . . . , vj , . . . , vn) = −F (v1, . . . , vj , . . . , vi, . . . , vn), ∀i 6= j.

Ejemplo

6.- La aplicacion multilineal del ejemplo 1) es simetrica si K es un cuerpo conmutativo.

Definicion I.9.3.- Se dice que un cuerpo K es de caracterıstica 6= 2 si 1 6= −1 en K.

Ejemplos

7.- Los cuerpos Q, R y C son de caracterıstica 6= 2.8.- El cuerpo F2 es de caracterıstica = 2.

Proposicion I.9.4.- Sea F : V × · · · × V →W multilineal.i) F es alternada, entonces F es antisimetrica.ii) Si la caracterıstica de K 6= 2, entonces F antisimetrica es alternada.

Demostracion.- i) Supongamos F alternada. Se tiene

0 = F (v1, . . . , vi + vj , . . . , vi + vj , . . . vn) =

F (v1, . . . , vi, . . . , vj , . . . , vn) + F (v1, . . . , vj , . . . , vi, . . . , vn),

por consiguiente F es antisimetrica.ii) Supongamos F antisimetrica. Se tiene

F (v1, . . . , vi, . . . , vi, . . . , vn) = −F (v1, . . . , vi, . . . , vi, . . . , vn)

Por lo tanto(1 + 1)F (v1, . . . , vi, . . . , vi, . . . , vn) = 0,

F es alternada. �

Proposicion I.9.5.- Sea F : V × · · · × V →W multilineal alternada. Entoncesi) F (vσ(1), . . . , vσ(n)) = sg(σ)F (v1, . . . , vn), donde vi ∈ V y σ ∈ Sn.ii) F (v1, . . . , vi + αvj , . . . , vn) = F (v1, . . . , vi, . . . , vn).iii) Si v1, . . . , vn son linealmente dependientes, entonces F (v1, . . . , vn) = 0.

Demostracion.- i) σ = τ1 · τp con τi transposicion. Como F es alternada, F es antisimetrica. De donde

F (vτ(1), . . . , vτ(n)) = −F (v1, . . . , vn).

Por consiguiente, por antisimetrıa se obtiene i).ii) Verificacion inmediata.iii) Si es necesario efectuar una transposicion, se puede suponer que

v1 =

n∑

i=2

αivi,

Page 44: Algebra Lineal Avanzada

44 I Espacios Vectoriales y Aplicaciones Lineales

de donde

F (v1, . . . , vn) = F (

n∑

i=2

αivi, v2, . . . , vn) =

n∑

i=2

αiF (vi, v2, . . . , vn) = 0. �

Se denota An = {σ ∈ Sm|sg = 1}, llamado grupo alternado de orden n.

Proposicion I.9.6.- Se tiene

Sm = Am

·

Amτ, (union disjunta)

donde τ es una transposicion.

Demostracion.- Sea σ ∈ Sm, si sg(σ) = 1, entonces σ ∈ Am.Sino, sg(σ) = −1, se tiene (στ )τ = σ y στ ∈ Am.Veamos que la union es disjunta. En efecto, supongamos que existe un elemento σ ∈ Am ∩Amτ , se tendrıaque sg(σ) = 1 y sg(σ) = −1, lo que es absurdo. �

Teorema I.9.7.- Sea F : V × V × · · · × V︸ ︷︷ ︸m veces

→W multilineal alternada, con dimV = m. Sea {e1, e2, . . . , em}

una base de V . Sean v1, . . . , vm elementos de V , que pueden escribirse como

vj =

m∑

i=1

aijei.

Entonces

F (v1, . . . , vm) =

(∑

σ∈Sm

sg(σ)aσ(1),1aσ(2),2 · · · aσ(m),m

)F (e1, e2, . . . , em). (I.9.1)

Reciprocamente la formula (I.9.1) define F como aplicacion multilineal alternada.

Demostracion.- Para facilitar la demostracion, utilizemos la notacion

vj =

m∑

ij=1

aij ,jeij.

Por consiguiente, se tiene

F (v1, v2, . . . , vm) = F (∑

ai1,1ei1 ,∑

ai2,2ei2 , . . . ,∑

aim,meim

=m∑

i1,...,im=1

ai1,1ai2,2 · · · aim,m F (ei1 , ei2 , . . . , eim)︸ ︷︷ ︸

=0 si ik=ij con k 6=j

.

Por lo tanto, en esta suma es suficiente considerar las familias {i1, . . . , im} con ik 6 il. De esta manera

(1 2 · · · mi1 i2 · · · im

)

es una permutacion σ de {1, 2, . . . ,m}. De la proposicion I.9.5 punto i), se tiene el resultado deseado.Sea F : V × V × · · · × V︸ ︷︷ ︸

m veces

→W definida por (I.9.1)

a) F es multilineal; en efecto, sean

v′j

m∑

i=1

a′i,jei, v′′j

m∑

i=1

a′′i,jei,

Page 45: Algebra Lineal Avanzada

I.9 Formas Multilineales Alternadas 45

se tiene

α′v′j + α′′v′′j =

m∑

i=1

(a′i,j + a′′i,j)ej .

Por lo tanto

F (v1, . . . , α′v′j + α′′v′′j , . . . , vm)

=

(∑

σ∈Sm

sg(σ)aσ(1),1 · · · (α′a′σ(j),j + α′′a′′σ(j),j) · · · aσ(m),m

)F (e1, . . . , em)

= α′

(∑

σ∈Sm

sg(σ)aσ(1),1 · · · a′σ(j),j · · · aσ(m),m

)F (e1, . . . , em)

+α′′

(∑

σ∈Sm

sg(σ)aσ(1),1 · · · a′′σ(j),j · · · aσ(m),m

)F (e1, . . . , em)

= α′F (v1, . . . , v′j , . . . , vm) + α′′F (v1, . . . , v

′′j , . . . , vm).

Mostremos que F es alternada. Sean vi = vj =m∑

k=1

ak,iek =m∑

k=1

ak,jek. Aplicando la formula (I.9.1), se tiene

F (v1, . . . , vi, . . . , vj , . . . , vm) =

(∑

σ∈Sm

sg(σ)aσ(1),1 · · · aσ(m),m

)F (e1, . . . , em).

Utilizando la proposicion I.9.6 con τ = (i, j), podemos escribir

F (v1, . . . , vi, . . . , vj , . . . , vm) =

(∑

σ∈Am

♣)F (e1, . . . , em) +

((∑

σ∈Amτ

♣)F (e1, . . . , em)

=

(∑

σ∈Am

aσ(1),1 · · · aσ(i),i · · · aσ(j),j · · · aσ(m),m

)F (e1, . . . , em)

−(∑

σ∈Am

aστ(1),1 · · · aστ(i),i · · · aστ(j),j · · · aστ(m)m

)F (e1, . . . , em),

= 0.

Proposicion I.9.8.- Se escribe Altm(V,W ) el conjunto de las aplicaciones multilineales V × V × · · · × V︸ ︷︷ ︸m veces

W . Entonces Altm(V,W ) es un K-espacio vectorial para

(F +G)(v1, . . . , vm) = F (v1, . . . , vm) +G(v1, . . . , vm)

(αF )(v1, . . . , vm) = α(F (v1, . . . , vm))

con F,G ∈ Altm(V,W ) y α ∈ K.

Demostracion.- Ejercicio.

Corolario I.9.9.- Si dimV = m, entonces dim(Altm(V,W )) = dimW .

Demostracion.- Por el teorema precedente se tiene

Altm(V,W )→W

F 7→ F (e1, e2, . . . , em)

Page 46: Algebra Lineal Avanzada

46 I Espacios Vectoriales y Aplicaciones Lineales

es un isomorfismo de espacios vectoriales. �

Proposicion I.9.10.- Sea {x1, . . . , xm} una familia de elementos V , (dimV = m).Entonces {x1, . . . , xm} es una base de V ⇐⇒ F (x1, . . . , xn) 6= 0, ∀F 6= 0 ∈ Altm(V,W ).

Demostracion.- ⇒ {x1, . . . , xm} es una base de V y F 6= 0. Entonces existen v1, . . . , vm ∈ V , tales queF (v1, . . . , vm) 6= 0. Utilizando la formula (I.9.1) es necesario que F (x1, . . . , xn) 6= 0.⇐ Se procede por contraposicion, sea {x1, . . . , xm} una familia de V que no es base, entonces {x1, . . . , xm}es linealmente dependiente y por la proposicion I.9.5 punto iii), se tiene

F (x1, . . . , xn) = 0, ∀F ∈ Altm(V,W ). �

Page 47: Algebra Lineal Avanzada

I.10 Determinantes 47

I.10 Determinantes

Sea f : V1 → V2 lineal. Entonces f induce una aplicacion lineal definida por

f∗ : Altm(V2,W )→ Altm(V1,W )

F 7→ ((v1, . . . , vm) 7→ F (f(v1), . . . , f(vm)).

Analisemos el caso particular en el que V1 = V2 = V , con dimV = m y W = K. Por consiguiente f ∈ End(V )induce

f∗ : Altm(V,K)→ Altm(V,K).

Por el teorema del paragrafo precedente, se tiene que dimAltm(V,K) = 1. De esta forma f∗ es una homoteciade Altm(V,K). La razon de la homotecia se llama determinante de f ∈ End(V ). Es decir

f∗(D) = (det f)D para D ∈ Altm(V,K)

D(f(v1), . . . , f(vm)) = (det f)D(v1, . . . , vm).

Ejemplo

1.- Sea V = Km, recordamosρ(σ) : Km → Km

ei 7→ eσ(i)

Se tiene que det(ρ(σ)) = sg(σ). En efecto

D(ρ(σ)(e1), . . . , ρ(σ)(em)) = D(eσ(1), . . . , eσ(m)) = sgD(e1, . . . , em).

Proposicion I.10.1.- Se tiene:i) det(idV ) = 1.ii) det(f ◦ g) = det(f) det(g).iii) f ∈ End(V ), entonces

f ∈ Gl(V ) ⇐⇒ det(f) 6= 0.

Demostracion.- i) Trivialii) Se tiene

(f ◦ g)∗D(v1, . . . , vm) = D(f ◦ g(v1), . . . , f ◦ g(vm))

= D(f(g(v1)), . . . , f(g(vm)))

(det f)D(g(v1), . . . , g(vm))

(det f)(det g)D(v1, . . . , vm).

iii) Si f es inversible, existe f−1 ∈ End(V ), tal que f ◦ f−1 = idV ; por los puntos ii) y i) se tiene

(det f)(det f−1) = 1.

⇐ Se supone que det f 6= 0. Se elige una base {e1, . . . , em} de V . Sea D ∈ Altm(V,K), con D 6= 0; se tieneD(e1, . . . , em) 6= 0. Por otro lado

D(f(e1), . . . , f(em)) = (f∗D)(e1, . . . , em)

= (det f)D(e1, . . . , em) 6= 0,

de donde {f(e1), . . . , f(em)} es una base de V . Por consiguiente f es un isomorfismo.

Page 48: Algebra Lineal Avanzada

48 I Espacios Vectoriales y Aplicaciones Lineales

Determinante de una Matriz

Se dispone de un isomorfismo canonico

End(Km)≃←→Mmm(K)

f 7→ A(f) matriz de f respecto a las bases canonicas,

(Ax← x)ϕ←− A.

Se plantea

detA = det(ϕ(A)) =

∣∣∣∣∣∣

a11 · · · ∗ a1m...

...am1 · · · ∗ amm

∣∣∣∣∣∣.

Proposicion I.10.2.- Para A = (aij) ∈Mm,m, se tiene

detA =∑

σ∈Sm

sg(σ)aσ(1),1 · · · aσ(m),m.

Demostracion.- En efecto; Sean {e1, . . . , em} la base canonica de Km, D ∈ Altm(Km,K) no nula. Se tiene

det(ϕ(A)︸ ︷︷ ︸det A

D(e1, . . . , em) = ϕ(A)∗D(e1, . . . , em)

= D(ϕ(A)(e1), . . . , ϕ(A)em)

= D(∑

ai,1ei, . . . ,∑

ai,mei)

=

(∑

σ∈Sm

sg(σ)aσ(1),1 · · · aσ(m),m

)D(e1, . . . , em)

Page 49: Algebra Lineal Avanzada

I.10 Determinantes 49

Ejemplos

2.- Para m = 1, se tiene detA = a11.3.- Para m = 2, utilizando la proposicion precedente obtenemos

∣∣∣∣a11 a12

a21 a22

∣∣∣∣ = a11a22 − a21a12.

Proposicion I.10.3.- Tenemos:i) det I = 1ii) detAB = detA detB, donde A,B ∈Mm,m(K).iii) A es inversible ⇐⇒ detA 6= 0.iv) det(αA) = αm detA, si A ∈Mm,m(K).v) detA = detAt.

Demostracion.- Los puntos i), ii) y iii) son consecuencia de la proposicion analoga para las aplicacioneslineales.iv) Consecuencia de la formula de la proposicion I.10.2.Mostremos el punto v). Se tiene

aσ(1),1 · · · aσ(m),m = aσ(1),σ−1σ(1) · · · aσ(m),σ−1σ(m)

= a1,σ−1(1) · · · am,σ−1(m)

porque el cuerpo K es conmutativo.De esta manera

detA =∑

σ∈Sm

sg(σ)aσ(1),1 · · · aσ(m),m

=∑

σ∈Sm

sg(σ)a1,σ−1(1) · · · am,σ−1(m)

=∑

τ∈Sm

sg(τ )a1,τ(1) · · · am,τ(m)

detAt,

por que (At)τ(i),i) = ai,τ(i). �

Para facilitar la formulacion de proposiciones y resultados concernientes los determinantes de matrices,utilizemos la notacion

A = (A1 · · · Am ) ,

donde Ai denota la i-sima columna de la matriz A.

Proposicion I.10.4.- Se tiene

i) det (A1 · · · α′A′i + α′′A′′

i · · · Am ) =

α′ det (A1 · · · A′i · · · Am ) + α′′ det (A1 · · · A′′

i · · · Am ) ;

ii) det (A1 · · · Ai + αAj · · · Aj · · · Am ) =

det (A1 · · · Ai · · · Aj · · · Am ) ;

iii) det (Aσ(1) · · · Aσ(m) ) = sg det (A1 · · · Am ) .

Demostracion.- Se consideram veces︷ ︸︸ ︷

Km × · · · ×Km → K(A1, . . . , Am) 7→ detA.

Page 50: Algebra Lineal Avanzada

50 I Espacios Vectoriales y Aplicaciones Lineales

Esta aplicacion es multilineal, de donde i); la aplicacion es alternada, de donde ii) y iii).�

Remarca.- Se tiene un enunciado analogo para filas.

Ejemplos

4.- Se considera una matriz de 4 × 4, se calculara su determinante utilizando la formula de la proposicionI.10.2 y las propiedades de determinante de la proposicion precedente

∣∣∣∣∣∣∣

1 0 0 −12 3 4 7−3 4 5 9−4 −5 6 1

∣∣∣∣∣∣∣=

∣∣∣∣∣∣∣

1 0 0 02 3 4 9−3 4 5 6−4 −5 6 −3

∣∣∣∣∣∣∣.

Se ha sumado una vez la primera columna a la cuarta columna. Aplicando la formula deducimos que

∣∣∣∣∣∣∣

1 0 0 −12 3 4 7−3 4 5 9−4 −5 6 1

∣∣∣∣∣∣∣=

∣∣∣∣∣∣

3 4 94 5 6−5 6 −3

∣∣∣∣∣∣= 3

∣∣∣∣∣∣

3 4 34 5 2−5 6 −1

∣∣∣∣∣∣.

Se ha factorizado 3 de la ultima columna. Luego

3

∣∣∣∣∣∣

3 4 34 5 2−5 6 −1

∣∣∣∣∣∣= 3

∣∣∣∣∣∣

3 4 04 5 −2−5 6 4

∣∣∣∣∣∣= 6

∣∣∣∣∣∣

3 4 04 5 −1−5 6 2

∣∣∣∣∣∣

= 6

∣∣∣∣∣∣

3 4 04 5 −13 16 0

∣∣∣∣∣∣= −6

∣∣∣∣∣∣

3 4 03 16 04 5 −1

∣∣∣∣∣∣= 6

∣∣∣∣3 43 16

∣∣∣∣ = 6 · 3 · 4∣∣∣∣1 11 4

∣∣∣∣ = 216.

5.- Determinante de Vandermonde.

∣∣∣∣∣∣∣∣

1 a1 a21 · · · am−1

1

1 a2 a22 · · · am−1

3...1 am a2

m · · · am−1m

∣∣∣∣∣∣∣∣=∏

i>j

(ai − aj)

Ejercicio Mostrar este resultado.

Proposicion I.10.5.- Sean vj =

m∑

i=1

aijei j = 1, . . . , r; r ≤ m elementos de Km. Entonces, {v1, . . . , vr} son

linealmente independientes ⇐⇒ existen 1 ≤ i1 < i2 < · · · < ir ≤ m tales que

∣∣∣∣∣∣∣

ai1,1 · · · ai1,r

......

air,1 · · · air,r

∣∣∣∣∣∣∣6= 0.

Demostracion.- Caso r = m. La proposicion afirma que {v1, . . . , vm} es una base de Km ⇐⇒ si unaaplicacion lineal envıa una base sobre otra, es un isomorfismo ⇐⇒ la matriz (aij) es inversible ⇐⇒det(aij) 6= 0.Caso general. Se escribe

A =

a11 · · · a1r...

am1 · · · amn

.

Page 51: Algebra Lineal Avanzada

I.10 Determinantes 51

{v1, . . . , vr} linealmente independiente ⇐⇒ rango columna de A es igual a r ⇐⇒ rango fila de A es iguala r; es decir, el subespacio de Kr engendrado por las filas de A es Kr ⇐⇒ de las filas de A se puede extraeruna base de Kr ⇐⇒ existe una sucesion 1 ≤ i1 < i2 < · · · < ir ≤ m tal que las filas de ındice i1, . . . , irconstituyen una base de Kr

⇐⇒

∣∣∣∣∣∣∣

ai1,1 · · · ai1,r

......

air,1 · · · air,r

∣∣∣∣∣∣∣6= 0.

Corolario I.10.6.- Sea A ∈Mn,m(K). Entonces

rang(A) = max

{s

∣∣∣∣ existe una submatriz B de A con s filasy s columnas tal que detB 6= 0.

}.

Demostracion.-Se plantea

r =rang(A),

p =max

{s

∣∣∣∣∣existe una submatriz B de A con s filas y s columnas

tal que detB 6= 0.

}.

A de rango r ⇒ Existe r columnas de A que son linealmente independientes, si es necesario permutar lascolumnas, se puede suponer que son las primeras r columnas. La proposicion indica que r ≤ p.Supongamos que existe una submatriz Bp×p de A con detB 6= 0. Si es necesario renumerar (permutar), sesupone

A =

(B ∗∗ ∗

)

lo que implica por la proposicion precedente que las primeras p columnas son linealmente independientes,entonces p ≤ r.

Page 52: Algebra Lineal Avanzada

52 I Espacios Vectoriales y Aplicaciones Lineales

I.11 Matriz Adjunta

En este paragrafo se formulara un metodo para calcular la inversa de una matriz inversible.Sea

A = (aij) =

a11 · · · amm...

...am1 · · · amm

∈Mm,m(K).

Se plantea

Aij =

a11 · · · a1,j−1, a1,j+1 · · · a1m

......

......

ai−1,1 ai−1,j−1 ai−1,j+1 ai−1,m

ai+1,1 ai+1,j−1 ai+1,j+1 ai+1,m

......

......

am1 · · · am,j−1, am,j+1 · · · amm

∈Mm−1,m−1(K).

Aij se obtiene de A suprimiendo la fila i-sima y la columna j-va.Se define

Sij(A) =

a11 · · · a1,j−1, 0 a1,j+1 · · · a1m

......

...ai−1,1 ai−1,j−1 0 ai−1,j+1 ai−1,m

0 · · · 0 1 0 · · · 0ai+1,1 ai+1,j−1 0 ai+1,j+1 ai+1,m

......

...am1 · · · am,j−1, 0 am,j+1 · · · amm

∈Mm,m(K).

Definicion I.11.1.- La matriz adjunta de A, denotada por Adj(A), es la matriz definida por

(Adj (A))ij = (−1)i+j det(Aji).

Ejemplo

1.- Veamos el caso de m = 2.

Adj

(a11 a12

a21 a22

)=

(a22 −a12

−a21 a11

).

Proposicion I.11.2.- detSij(A) = (−1)i+jAij .

Demostracion.- Para demostrar esta proposicion, desarrollaremos el determinante de Sij utilizando propiedadesde determinante, vistas en el paragrafo precedente.

detSij(A) =

∣∣∣∣∣∣

α 0 β0 1 0γ 0 δ

∣∣∣∣∣∣= sg(σ)︸ ︷︷ ︸

(−1)i−1

∣∣∣∣∣∣

0 1 0α 0 βγ 0 δ

∣∣∣∣∣∣= (−1)i−1+j−1

∣∣∣∣∣∣

1 0 00 α β0 γ β

∣∣∣∣∣∣.

Proposicion I.11.3.-m∑

j=1

aji det(Sjk) = δik detA donde δik =

{0 si i 6= k,1 si i = k.

Page 53: Algebra Lineal Avanzada

I.11 Matriz Adjunta 53

Demostracion.- Denotando por Aj la j-va columna de A. Substiyendo la i-sima columna a la k-simacolumna, es decir planteando A′

k = Ai, se tiene

δik detA = det (A1 · · · A′k · · · Ai · · · Am ) (I.11.1)

Por otro lado la i-sima columna, es decir A′k se puede desarrollar como

a1i...ami

= a1i

10...0

+ a21

01...0

+ · · ·+ am1

00...1

.

De esta manera el determinante del lado derecho de (I.11.1), se escribe como

δik detAa1i

∣∣∣∣∣α10 β

∣∣∣∣∣︸ ︷︷ ︸detS1k(A)

+a2i

∣∣∣∣∣α010

β

∣∣∣∣∣︸ ︷︷ ︸detS2k(A)

+ · · ·+ ami

∣∣∣∣∣α 01

β

∣∣∣∣∣︸ ︷︷ ︸detSmk(A)

.

Teorema I.11.4.- Laplace. Se tiene:i) Desarrollo del determinante respecto a la i-sima columna.

detA =

m∑

j=1

aji(−1)i+j detAji.

ii) Desarrollo del determinante respecta a la j-sima fila.

detA =

m∑

k=1

ajk(−1)j+k detAjk.

Demostracion.- i) Utilizamos la proposicion I.11.3 con i = k y la proposicion I.11.2. De esta manera

detA =

m∑

j=1

aji det(Sji(A)) =∑

j = 1m(−1)i+j detAji.

ii) Se demuestra a partir de i) para At. �

Proposicion I.11.5.- Se tiene

AAdj(A) = Adj(A)A = diag(detA, . . . ,detA).

Demostracion.- Por la proposicion I.11.3, se tiene

δik detA =

m∑

j=1

aji detSjk(A) =

m∑

j=1

(Adj(A))kj︷ ︸︸ ︷(−1)i+k detAjk aji,

de dondeAdj(A)A = diag(detA, . . . ,detA).

Page 54: Algebra Lineal Avanzada

54 I Espacios Vectoriales y Aplicaciones Lineales

Se tiene tambienAdj(At)At = diag(detAt, . . . ,detAt),

transponiendo, se obtiene

AAdj(A) = diag(detA, . . . ,detA).

Corolario I.11.6.- Si A es inversible, entonces

A−1 =1

detAAdj(A).

Remarca.- Sea R un subanillo de K, por ejemplo Z ⊂ Q, entonces Mn,m(R) ⊂Mn,m(K).

Corolario I.11.7.- A ∈Mm,m(R). Entonces; A es inversible en Mm,m(R), es decir si existe B ∈Mm,m(R)con AB = BA = Im, si y solamente si detA es un elemento inversible de R.

En particular A ∈Mm,m(Z) es inversible ⇐⇒ detA = ±1.

Demostracion.- ⇒, Se tiene AB = I, por consiguiente detA detB = 1, lo que implica que detA esinversible en R.

⇐ detA inversible en R, entonces tiene sentido la expresion1

detAen R.

Formula de Cramer

Sea A ∈Mm,m(K). El sistemaAx = b,

tiene una unica solucion, si y solamente si detA 6= 0. Si este es el caso, se tiene

x = A−1b =1

detAAdj(A)b.

Por consiguiente, se obtiene

xi =1

detA

m∑

j=1

(Adj(A))ijbj ,

por lo tanto

xi =1

detA

m∑

j=1

(−1)i+j detAjibj

Denotando Ak la k-sima columna de A y utilizando la formula de Laplace del calculo de determinante en laversion columna, se obtiene

xi =1

detAdet (A1 · · · Ai−1 b Ai+1 · · · Am ) .

Page 55: Algebra Lineal Avanzada

Capıtulo II

Complemento

II.1 Espacios Vectoriales Cocientes

Sea E un conjunto, una relacion x ∼ y entre elementos de E es una relacion de equivalencia, si

a) x ∼ x, para todo x ∈ E (reflexividad);

b) x ∼ y ⇒ y ∼ x, (simetrıa);

c) x ∼ y, y ∼ z ⇒ x ∼ z, (transitividad).

Un conjunto C ⊂ E es una clase de equivalencia si existe x ∈ E tal que

C = {y ∈ E|y ∼ x},

C es la clase de x y se denota x.

El conjunto de las clases se llama cociente de E respecto a la relacion ∼ y se denota

E/ ∼ .

Por consiguiente, se dispone de una aplicacion canonica

Eπ−→ E/ ∼

x 7→ x

que es sobreyectiva.

Sea V un espacio vectorial, U un subespacio vectorial de V . Se introduce una relacion ≡ mod(U),definida por

x ≡ ymod(U) ⇐⇒ x− y ∈ U.

Proposicion II.1.1.- ≡ mod(U) es una relacion de equivalencia sobre E.

Demostracion.- i) Sea x ∈ V , x− x = 0 ∈ U , entoces x ∼ x.ii) x ∼ y ⇒ x− y ∈ U , por consiguiente (−1)(x− y) ∈ U , de donde y − x ∈ U , por lo tanto y ∼ x.iii) La transitividad la dejamos como ejercicio. �

Ejemplo

1.- Consideremos V = R2 y U un subespacio de dimension 1. En la figura puede verse las clases de

Page 56: Algebra Lineal Avanzada

56 II Complemento

equivalencia.

U

x+U =x−

Proposicion II.1.2.- Se tiene

x1 ≡ y1 mod(U)

x2 ≡ y2 mod(U)⇒ x1 + x2 ≡ y1 + y2 mod(U)

αx1 ≡ αx1 mod(U).

La adicion y la multiplicacion por los escalares son compatibles con la relacion ≡ mod(U)

Demostracion.- Se tiene xi ≡ y1 mod(U) ⇐⇒ xi − yi ∈ U i = 1, 2. Por lo tanto

(x1 − y1) + (x2 − y2) ∈ U ⇒ (x1 + x2)− (y1 + y2) ∈ U,⇒ x1 + x2 ≡ y1 + y2 mod(U).

La otra implicacion ejercicio. �

Introducimos una adicion en V/U = V/ ∼, de la manera siguiente

x1 + x2 = x1 + x2.

Esta definicion tiene sentido, si x1 = y1 y x2 = y2, por la proposicion II.1.2, se obtiene

x1 + x2 = y1 + y2.

Se introduce una multiplicacion por los elementos de K.

αx = αx.

La proposicion indica que esta definicion tiene un sentido.

Proposicion II.1.3.- El conjunto V/U con estas dos operaciones es un espacio vectorial. Ademas

π : V → V/U

es lineal.

Demostracion.- I. Adicion. Se tiene

x1 + (x2 + x3) = x1 + x2 + x3i)

= x1 + (x2 + x3)

= (x1 + x2) + x3

= x1 + x2 + x3

= (x1 + x2) + x3;

x+ y = x+ y = y + x+ y + x;ii)

Page 57: Algebra Lineal Avanzada

II.1 Espacios Vectoriales Cocientes 57

iii) el cero de V/U es 0;iv) el opuesto de x es −x.Se tiene

π(x+ y) = x+ y = x+ y = π(x) + π(x).

II. Multiplicacion. Lo mismo que para la adicion, ejercicio.�

Proposicion II.1.4.- Sea f : V → W una aplicacion lineal. Sea U un subespacio vectorial de V conU ⊂ ker(f). Entonces existe una y una sola aplicacion lineal f : V/U →W tal que el diagrama conmuta

Vf−→ W

πց րf

V/U

es decir f = f ◦ π.

Demostracion.- a) Existencia de f . Se plantea

f(x) = f(x).

Hay que verificar que si x = y, entonces f(x) = f(y). En efecto, x = y, se tiene x − y ∈ U ⊂ ker(f), porconsiguiente f(x− y) = 0 y por lo tanto f(x) = f(y).

Por construccion f ◦ π = f .f es lineal, en efecto

f(x+ y) = f(x+ y) = f(x+ y) = f(x) + f(y) = f(x) + f(y).

De la misma manera se tiene f(αx) = αf(x).b) Unicidad. Supongamos que existen f1 y f2 tales que

f1 ◦ π = f2 ◦ π = f,

por lo tanto

f1(x) = f(x) = f2(x), ∀x ∈ V/U.�

Proposicion II.1.5.- Si V es de generacion finita, entonces V/U lo es tambien. Ademas

dimV/U = dimV − dimU.

Demostracion.- π : V → V/U es sobreyectiva. Si V es de generacion finita, entonces π(V ) es de generacionfinita. La formula de dimension para aplicaciones lineales da

dimV = dimV/U + dimU.

Page 58: Algebra Lineal Avanzada

II.2 Dual de un Espacio Vectorial 61

II.2 Dual de un Espacio Vectorial

Sea V un espacio vectorial. Una forma lineal sobre V es una aplicacion lineal ε : V → K. El conjunto delas formas lineales sobre V, Hom(V,K), se llama dual de V y se denota V ∗.

Si V es de dimension finita, V ∗ lo es tambien y

dimV = dimV ∗.

Sea {x1, . . . , xn} una base de V , esto induce un isomorfismo

ϕ : V ∗ → Kn

ε 7→ (ε(x1), . . . , ε(xn)).

Introduciendo las formas ξi ∈ V ∗ por

ξi : V → K

xj 7→ δij =

{0 si i 6= j

1 si i = j.

Esto da ϕ(ξi) = (0, . . . , 0, 1, 0, . . . , 0) = ei.Se sigue que ϕ es un isomorfismo, que {ξ1, . . . , ξn} es una base de V ∗. La base {ξ1, . . . , ξn} se llama la

base de V ∗ dual de {x1, . . . , xn}.Proposicion II.2.1.- Sea V espacio vectorial de dimension finita,

i) Sea ε ∈ V ∗, ε 6= 0, entonces ker(ε) es de dimension dim(V )− 1.ii) Sea U ⊂ V un subespacio de dimension dim(V )− 1, entonces existe ε ∈ V ∗ tal que ker(ε) = U . Este ε

no es unico, pero si ε′ es otro con la misma propiedad, se tiene

ε′ = αε, α 6= 0.

iii)⋂

ε∈V ∗

ker(ε) = {0}.

Demostracion.- i) Si ε 6= 0, ε : V → K es sobreyectiva y aplicamos la formula de dimension.ii) Sea {u1, . . . , un−1} una base de U , que se completa en {u1, . . . , un−1, un} base de V . Se considera laforma

ε : V → Kui 7→ 0 si i = 1, . . . , n− 1

un 7→ 1,

que es una forma lineal de nucleo U . La segunda parte de este enunciado, ejercicio.

iii) Se tiene de manera trivial {0} ⊂⋂

ε∈V ∗

ker(ε). Sea v ∈ V , v 6= 0; vamos a mostrar que existe ε ∈ V ∗ tal

que ε(v) 6= 0, es decir que v 6∈ ker ε.Elegimos una base de la forma {v, v2, . . . , vn} y se considera

ε : V → Kv 7→ 1

vi 7→ 0 para i = 2, . . . ,m

Transpuesta de una Aplicacion Lineal

Page 59: Algebra Lineal Avanzada

62 II Complemento

Consideremos el diagramaV

f−→ Wη◦fց ↓η

K

Se obtiene entoncesf t : W ∗ → V ∗

η 7→ η ◦ fque es lineal y se llama la transpuesta de f . Ası

f t(η)(v) = η ◦ f(v) para η ∈W ∗, v ∈ V.

Ejemplo

1.- Sea V = C∞([0, 1],R) espacio vectorial real de las funciones indefinidamente derivables. Se denota

D : C∞([0, 1],R)→ C∞([0, 1],R)

f 7→ f ′, derivada de f.

Sea g ∈ C∞([0, 1],R), se define

εg : C∞([0, 1],R)→ R

f 7→∫ 1

0

f(t)g(t)dt.

Por consiguiente Dt(εg) = ε ◦D : V → R. Se tiene

Dt(εg)(f) = varepsilon ◦D(f) = εgf′ =

∫ 1

0

f ′(t)g(t)dt

= f(1)g(1)− f(0)g(0)−∫ 1

0

f(t)g′(t)dt

= g(1)δ1(f)− g(0)δ0(f)− εg′(f).

dondeδa : C∞([0, 1],R)→ R

f 7→ f(a).

Proposicion II.2.2.- Sean V y W espacios vectoriales de dimension finita. Entonces, la aplicacion

Hom(V,W )→ Hom(W ∗, V ∗)

f 7→ f t

es un isomorfismo.

Demostracion.- Veamos que la aplicacion f 7→ f t es lineal. Sean f, g ∈ Hom(V,W ), se tiene

(f + g)t(η) = η ◦ (f + g) = η ◦ f + η ◦ g= f t(η) + gt(η) = (f t + gt)(η).

Lo mismo para (αf)t = αf t.Utilizando resultados sobre dimensiones, se observa que

dimHom(V,W ) = dim Hom(W ∗, V ∗).

Page 60: Algebra Lineal Avanzada

II.2 Dual de un Espacio Vectorial 63

Por consiguiente, es suficiente mostrar que f 7→ f t es inyectiva. Supongamos que f t = 0, entonces

f t : W ∗ → V ∗

η 7→ 0.

Esto significa que f t(η) = η ◦ f = 0 ∀η ∈W ∗, entonces

Im(f) ⊂ ker(eta) ∀η ∈W ∗.

Utilizando el inciso iii) de la proposicion II.2.1, se tiene que Im(f) = {0}, por consiguiente f = 0.�

Proposicion II.2.3.- Sean f : U → V y g : V →W lineales, entonces

(g ◦ f)t = f t ◦ gt.

En diagramaU

f−→ Vg−→ W

U∗ ft

←− V ∗ gt

←− W ∗.

Demostracion.- Sea η ∈W ∗, se tiene

(g ◦ f)t(η) = η ◦ (g ◦ f) = (η ◦ g) ◦ f = gt(η) ◦ f= f t(gt(η)) = f t ◦ gt(η).

Proposicion II.2.4.- Si V y W son de dimension finita. Entonces, se tiene

rang(f) = rang(f t),

donde f : V →W lineal.

Demostracion.- Recordemos que rang(f) = dim Im(f). Elegimos una base {v1, . . . , vm} de V y otra{w1, . . . , wn} de W de tal manera que la matriz de f respecto a {vi} y {wj} sea

(Ir 00 0

), rang(f) = r.

Por otro lado,Im(f t) = {ε ∈ V ∗|∃η ∈W ∗ con ε = η ◦ f}.

La matriz de η : W → K respecto a {wj} y {1} es de la forma

( η1 · · · ηn ) .

La matriz de η ◦ f : V → K respecto a {vi} y {1} es

( η1 · · · ηn )

(Ir 00 0

)= ( η1 · · · ηr 0 · · · 0 ) ,

de dondeIm(f t) = {( η1 · · · ηr 0 · · · 0 )}

es de dimension r.�

Page 61: Algebra Lineal Avanzada

64 II Complemento

Proposicion II.2.5.- Sean {x1, . . . , xm} una base de V y {y1, . . . , yn} una base de W . {ξ1, . . . , ξm} basede V ∗ dual de {x1, . . . , xm} y {η1, . . . , ηn} base de W ∗ dual de {y1, . . . , yn}.Sea f : V →W lineal, se donota A la matriz de f respecto a las bases {xi} y {yj}.f t : W ∗ → V ∗, A∗ la matriz de f t respecto a las bases {ηj} y {ξi}, entonces

A∗ = At.

Demostracion.- Se tiene A = (aij) conn∑

i=1

aijyi. A∗ = (a∗kl) con f t(ηl) =

m∑

k=1

a∗klξk. Por consiguiente, de

un lado se obtiene

f(ηl)(xj) =

(m∑

k=1

a∗klξk

)(xj) = a∗jl;

del otro lado

f(ηl)(xj) = ηl ◦ f(xj) = ηl

(n∑

i=1

aijyi

)=

n∑

i=1

ηl(yj) = alj .

Corolario II.2.6.- Sea A ∈Mm,n(K), entonces

rango fila de A = rango columna de A.

Page 62: Algebra Lineal Avanzada

II.3 Formas Bilineales Simetricas 65

II.3 Formas Bilineales Simetricas

Sea V un espacio vectorial. Una forma bilineal simetrica sobre V es una aplicacion

f : V × V → K

tal que f es bilineal y ademas f es simetrica.Se denota Sym2(V,K) el conjunto de las formas bilineales simetricas sobre V . En el ejercicio 50 de la

practica se muestra que Sym2(V,K) es un espacio vectorial para las operaciones

(f + g)(v1, v2) = f(v1, v2) + g(v1, v2)

(αf)(v1, v2) = αf(v1, v2).

Sea {e1, . . . , em} una base de V . La matriz de f respecto a la base {e1, . . . , em} es la matriz

A(f) = (f(ei, ej))i,j con i, j = 1, . . . ,m;

A(f) es una matriz simetrica; es decir A(f) = At(f).

Proposicion II.3.1.- La aplicacion

ϕ : Sym2(V,K)→{

Matrices simetricas m ×m a coe-ficientes en K.

}

f 7→ A(f)

es un isomorfismo de espacios vectoriales.

Demostracion.- i) ϕ es lineal, ejercicio.ii) ϕ es inyectiva, si A(f) = 0, se tiene f(ei, ej) = 0, de donde

f(x, y) = f(∑

xiei,∑

yjej) =∑

ij

xiyjf(ei, ej) = 0,

por lo tanto f = 0.iii) ϕ es sobreyectiva. Sea A = (aij) una matriz simetrica. Planteamos

f(x, y) =∑

i,j

xiyjaij ,

se puede ver que f es bilineal y simetrica, de matriz A.�

Corolario II.3.2.- Si dimV = m, se tiene

dim Sym2(V,K) =m(m+ 1)

2.

Demostracion.- Ejercicio

Proposicion II.3.3.- Resultado Principal.- Sea f ∈ Sym2(V,K), supongamos que la caracterıstica de K esdiferente a 2. Entonces existe una base de V respecto a la cual, la matriz de f es diagonal.

Page 63: Algebra Lineal Avanzada

66 II Complemento

Demostracion.- Se elige una base {e1, . . . , em} de V .Caso 1.- Existe un ındice i tal que f(ei, ei) 6= 0. Si es necesario renumerar los elementos de esta base, sepuede suponer que i = 1; por consiguiente f(e1, e1) 6= 0. Introducimos una nueva base definida por

e′1 = e1,

e′2 = e2 −f(e1, e2)

f(e1, e1)e1,

...

e′m = em −f(e1, em)

f(e1, e1)e1.

Se tiene por consiguiente

f(e′1, e′j) = f(e1, ej −

f(e1, ej)

f(e1, e1)e1) = f(e1, ej)−

f(e1, ej)

f(e1, e1)f(e1, e1) = 0.

De esta manera, respecto a la base {e′1, . . . , e′m}, la matriz de f es de la forma

(f(e1, e1) 0

0 B′

)

con B′ matriz de m− 1×m− 1 simetrica.Caso 2.- Para todo i, f(ei, ei) = 0. Si f(ei, ej) = 0 para todo i, j, se tiene que A(f) = 0 y por lo tanto lamatriz es diagonal. En la otra situacion, existen i, j tales que f(ei, ej) 6= 0. Si es necesario renumerar loselementos de la base, se puede suponer que f(e1, e2) 6= 0. Introducimos la base

e′1 = e1 + e2,

e′2 = e2,

...

e′m = em.

Se tienef(e′1, e

′1) = f(e1 + e2, e1 + e2) = f(e1, e1) + 2f(e1, e2) + f(e2, e2) = 2f(e1, e2) 6= 0,

si la caracterıstica de K es diferente a 2.Por lo tanto nos encontramos en el primer caso.

Iteramos la construccion de la base, con B′ y las subsiguientes matrices que obtengamos.�

Ejemplo

1.- Cuando V = R2, se tiene que una forma bilineal simetrica es de la forma

f : R2 × R2 → R

(

(x1

x2

),

(y1y2

)) 7→ a11x1y1 + a12(x1y2 + x2y1) + a22x2y2.

Por consiguiente la matriz de f respecto a la base canonica es

A(f) =

(a11 a12

a12 a22

).

Esta forma bilineal induce la forma cuadratica definida por

ϕ : R2 → R

x 7→ f(x, x) = a11x21 + 2a12x1x2 + a22x

22.

Page 64: Algebra Lineal Avanzada

II.3 Formas Bilineales Simetricas 67

Esta forma cuadratica define una curva llamada conica por

Cϕ = {x ∈ R2|ϕ(x) = 1}.

La proposicion II.3.3 nos indica que existe un sistema de coordenadas (ξ, ζ), sobre R2 tal que la ecuacionde Cϕ es de la forma

αξ2 + βζ2 = 1.

x

y

ξ

ζ

Corolario II.3.4.- Se supone K = C, entonces existe una base de V respecto a la cual la matriz def ∈ Sym2(V,C) es de la forma

diag(1, . . . , 1︸ ︷︷ ︸p

, 0, . . . , 0︸ ︷︷ ︸q

).

Ademas los enteros p y q estan enteramente definidos por f .

Demostracion.- De la proposicion II.3.3, existe una base {e1, . . . , em} de V respecto a la cual, la matrizde f es

diag(a1, . . . , am), ai ∈ C.

Consideramos la base {e′1, . . . , e′m} definida por

e′i =

ei si ai = 0,ei√ai

si ai 6= 0.

No debe olvidarse que los numeros complejos poseen raiz cuadrada.Calculamos

f(e′i, e′j) =

0 si i 6= j,

f(ei√ai

,e1√ai

) = 1 si ai 6= 0,

f(ei, ei) = 0 si ai = 0.

Para la segunda parte del corolario, consideramos las bases {e1, . . . , em} y {e′1, . . . , e′m} respecto a las cuales

A(f) = diag(1, . . . , 1︸ ︷︷ ︸p

, 0, . . . , 0︸ ︷︷ ︸q

)

A′(f) = diag(1, . . . , 1︸ ︷︷ ︸p′

, 0, . . . , 0︸ ︷︷ ︸q′

)

Mostraremos que p = p′ y q = q′.Sea V0 = {x ∈ V |f(x, y) = 0, ∀y ∈ V }, se puede verificar facilmente que V0 es un subespacio vectorial

de V .

Page 65: Algebra Lineal Avanzada

68 II Complemento

Se observa que ei ∈ V0 para i > p; en efecto, para i > p se tiene

f(ei, ek) = 0 ∀k.

Sea x =

m∑

i=1

xiei ∈ V0, por definicion f(x, ek) = 0, para todo k. Ahora bien

m∑

i=1

xif(ei, ek) =

{xk para k ≤ p,0 para k > p.

Por lo tanto, x pertenece al subespacio generado por ep+1, . . . , em. Por consiguiente

dimV0 = q = m− p.

De la misma manera se hace el mismo razonamiento con la base {e′1, . . . , e′m} obteniendo dimV0 = q′. Dedonde p = p′ y q = q′.

Corolario II.3.5.- Supongamos K = R, entonces existe una base de V respecto a la cual la matriz de f es

diag(1, . . . , 1︸ ︷︷ ︸r

,−1, . . . ,−1︸ ︷︷ ︸s

, 0, . . . , 0︸ ︷︷ ︸t

).

Ademas los enteros r, s y t estan unicamente determinados por f .

Demostracion.- De la proposicion II.3.3, existe una base {e1, . . . , em} de V respecto a la cual, la matrizde f es

diag(a1, . . . , am), ai ∈ R.

Se introduce la base

e′i =

ei si ai = 0,ei√ai

si ai > 0,

ei√−ai

si ai < 0.

Como en la demostracion del corolario precedente, se muestra

f(e′i, e′i) =

0 si ai = 0,1 si ai > 0,−1 si ai < 0,

y f(e′i, e′j) = 0 si i 6= j.

Para la segunda parte del corolario consideramos las bases {ei} y {e′i} respecto a las cuales, la matrizde f es

A(f) = diag(1, . . . , 1︸ ︷︷ ︸r

,−1, . . . ,−1︸ ︷︷ ︸s

, 0, . . . , 0︸ ︷︷ ︸t

),

A′(f) = diag(1, . . . , 1︸ ︷︷ ︸r′

,−1, . . . ,−1︸ ︷︷ ︸s′

, 0, . . . , 0︸ ︷︷ ︸t′

).

Introduciendo V0 = {x ∈ V |f(x, y) = 0 ∀y ∈ V }, mostramos al igual que en el corolario II.3.4 que t = t′.

Afirmamos que e1, . . . , er,

s′+t︷ ︸︸ ︷er′+1, . . . , e

′m es una familia de elementos de V linealmente independiente. Si

esto es cierto, se tiene r + s′ + t ≤ m = r′ + s′ + t′, de donde r ≤ r′. Pro razonamiento simetrico, se tiener′ ≤ r, por lo tanto r′ = r y s′ = s.

Page 66: Algebra Lineal Avanzada

II.3 Formas Bilineales Simetricas 69

Mostremos la afirmacion, elegimos una combinacion lineal tal que

0 =

r∑

i=1

xiei +

r′+s′∑

j=r′+1

yje′j +

m∑

k=r′+s′+1

zke′k.

Plantemos v =

r∑

i=1

xiei, de donde por un lado

f(v, v) = f

(r∑

i=1

xiei,

r∑

i=1

xiei

)=

2∑

i=1

x2i ,

y del otro

f(v, v) = f

r′+s′∑

j=r′+1

yje′j −

m∑

k=r′+s′+1

zke′k,−

r′+s′∑

j=r′+1

yje′j −

m∑

k=r′+s′+1

zke′k

=

−r′+s′∑

j=r′+1

y2j .

Deducimos inmediatamente que xi = 0 para i = 1, . . . , r; yj = 0 para j = r′ + 1, . . . , r′ + s′. Puesto que {e′j}es una base, se tiene que zk = 0 para k = r′ + s′ + 1, . . . ,m.

Proposicion II.3.6.- Sea f ∈ Sym2(V,K). Sean {e1, . . . , em} y {e′1, . . . , e′m} dos bases de V . Se denotapor A la matriz de f respecto a la base {e1, . . . , em} y A′ la matriz de f respecto a la base {e′1, . . . , e′m}.Entonces

A = P tA′P,

donde P es la matriz de pasaje de {e1, . . . , em} a {e′1, . . . , e′m}.Demostracion.- Se tiene por definicion

(A)ij = f(ei, ej),

(A′)ij = f(e′i, e′j),

ej =m∑

i=1

pije′i.

Por consiguiente

f(ei, ej) = f

(m∑

k=1

pkje′k,

m∑

l=1

plje′l

)

=m∑

k,l=1

pkif(e′k, e′l)plj

=

m∑

k,l=1

(P t)ik(A′)kl(P )lj = (P tA′P )ij .

Corolario II.3.7.- Supongamos K de caracterıstica diferente a 2. Sea A′ una matriz simetrica de orden m,entonces existe P ∈ Gl(m,K) tal que

P tAP

es una matriz diagonal.

Demostracion.- Ejercicio.

Page 67: Algebra Lineal Avanzada

70 II Complemento

II.4 Espacios Euclidianos

En este paragrafo el cuerpo de base es R.Sea E un espacio vectorial. Un producto escalar sobre E es una forma bilineal

E × E → R(x, y) 7→ 〈x, y〉

que es definida positiva; es decir〈x, x〉 ≥ 0 ∀x ∈ E,〈x, x〉 = 0 ⇐⇒ x = 0.

Definimos la norma de x, como‖x‖ =

√〈x, x〉.

Un espacio vectorial provisto de un producto escalar se llama espacio euclidiano.

Ejemplos

1.- E = Rn es un espacio euclidiano provisto de

〈x, y〉 =n∑

i=1

xiyi

producto escalar estandar.

2.- El espacio de las funciones reales indefinidamente derivables definidas sobre el intervalo [a, b], C∞([a, b],R),es un espacio euclidiano con el producto escalar

〈f, g〉 =

∫ b

a

f(t)g(t)dt.

Nocion de Isomorfismo de Espacios Vectoriales

Sean E1, 〈 , 〉1 y E2, 〈 , 〉2 dos espacios euclidianos.Se dice que E1 y E2 son isomorfos, si existe ϕ : E → E lineal biyectiva, tal que

〈ϕ(x), ϕ(y)〉2 = 〈x, y〉1, ∀x, y ∈ E.

El resultado principal de este paragrafo es, Si E es un espacio euclidiano de dimension n. Entonces Ees isomorfo a Rn dotado del producto escalar estandar.

En lo que sigue E es de dimension finita.Se dice que x, y ∈ E son ortogonales si 〈x, y〉 = 0. Se dice que la familia {v1, . . . , vm} es ortogonal

si 〈vi, vj〉 cuando i 6= j. Se dice que {v1, . . . , vm} es ortonormal si {v1, . . . , vm} es una familia ortogonal y〈vi, vi〉 = 1 para i = 1, . . . ,m.

Proposicion II.4.1.- Sea E un espacio euclidiano, entonces existen bases ortonormales; es decir, existenbases respecto a las cuales, la matriz del producto escalar es I.

Demostracion.- Una demostracion de esta proposicion, puede realizarse utilizando el corolario II.3.5, elcual asegura que existe una base respecto a la cual, la matriz del producto escalar es de la forma

diag(1, . . . , 1︸ ︷︷ ︸r

,−1, . . . ,−1︸ ︷︷ ︸s

, 0, . . . , 0︸ ︷︷ ︸t

).

Page 68: Algebra Lineal Avanzada

II.4 Espacios Euclidianos 71

Puesto que 〈 , 〉 es definido positivo, se tiene s = t = 0.Esta demostracion muestra la existencia de una tal base, pero no nos da la forma de encontrar esta

base.Una segunda demostracion esta dada por el procedimiento de ortogonalizacion de Gramm-

Schmidt.Sea {e1, . . . , em} una base cualquiera de E. Se plantea f1 = e1 y buscamos f2 con 〈f1, f2〉 = 0 y

f2 = e2 + αf1. Se tiene〈f1, e2 + αf1〉 = 〈f1, e2〉+ α〈f1, f1〉 = 0,

de donde

α = −〈f1, e2〉〈f1, f1〉;

α existe y es unico.Se busca f3 con

〈f1, f3〉 = 〈f2, f3〉 = 0,

f3 = e3 + β1f1 + β2f2.

Obtenemos,〈f1, f3 = e3 + β1f1 + β2f2〉 = 〈f1, e3〉+ β1〈f1, f1〉 = 0,

〈f2, f3 = e3 + β1f1 + β2f2〉 = 〈f2, e3〉+ β2〈f2, f2〉 = 0.

β1 y β2 existen y son unicosSe procede de la misma manera, se construye f1, . . . , fm satisfaciendo

〈fi, fj〉, j < i;

fi = ei +

i−1∑

j=1

pjiej

De donde {f1, . . . , fm} es una base ortonormal y

{f1‖f1‖

, . . . ,fm

‖fm‖

}

es una base ortonormal.�

Ejemplos

3.- Rn con el producto escalar estandar, la base canonica es ortonormal.

4.- Sea E el subespacio de C∞(R,R) engendrado por{1, cos t, sin t, cos 2t, sin 2t, . . . cosnt, sinnt} polinomios trigonometricos de grado menor o igual a n conel producto escalar

〈f, g〉 =

∫ 2π

0

f(t)g(t)dt.

La base{1, cos t, sin t, . . . , cosnt, sinnt}

es una base ortogonal. {1√2π,cos t√π, . . . ,

cosnt√π,sinnt√π

}

es una base ortonormal

Proposicion II.4.2.- Sea E un espacio euclidiano de dimension n. Entonces E es isomorfo a Rn dotadodel producto escalar estandar.

Page 69: Algebra Lineal Avanzada

72 II Complemento

Demostracion.- Sea {f1, . . . , fn} una base ortonormal de E. Definimos

ϕ : E → Rn

fi 7→ ei,

donde los ei son los elementos de la base canonica de Rn.ϕ es biyectiva, porque envia base sobre base. Todo x, y ∈ E se escriben de manera unica, como

x =

n∑

i=1

xiei, y =

n∑

i=1

yiei,

de donde

〈ϕ(x), ϕ(y)〉 =⟨

n∑

i=1

xiei,n∑

i=1

yiei

⟩=

n∑

i=1

xiyi.

El Grupo Ortogonal de un Espacio Euclidiano

Definicion II.4.3.- Sea (G, ∗) un grupo, se dice que H es un subgrupo de G, si ∅ 6= H ⊂ G y

g1, g2 ∈ H ⇒ g1 ∗ g2 ∈ H,g ∈ H ⇒ g−1 ∈ H.

Remarca Se puede probar que un subgrupo H de un grupo G es un grupo para la operacion heredada deG.

Definicion II.4.4.- Un endomorfismo a : E → E, E espacio euclidiano, es una transformacion ortogonalo una isometrıa si

〈a(x), a(y)〉 = 〈x, y〉, ∀x, y ∈ E.Se denota O(E) el conjunto de las transformaciones de E.

Proposicion II.4.5.- Se tiene:i) a ∈ O(E), entonces a es un automorfismo de espacio euclidiano.ii) O(E) es un subgrupo de Gl(E).

Demostracion.- Ejercicio.

Proposicion II.4.6.- Sea a ∈ Gl(E), se denota A la matriz de a respecto a una base ortonormal. Entonces

a ∈ O(E) ⇐⇒ AtA = I.

Demostracion.- Se tiene, primero

a ∈ O(E) ⇐⇒ 〈a(x), a(y)〉 = 〈x, y〉 x, y ∈ E;

⇐⇒︸ ︷︷ ︸ejercicio

〈a(ei), a(ej)〉 1 ≤ i, j ≤ n.

segundo, por definicion A = (aij) y

a(ej) =

n∑

i=1

aijei.

Page 70: Algebra Lineal Avanzada

II.4 Espacios Euclidianos 73

Por lo tanto

a ∈ O(E) ⇐⇒n∑

k=1

akiakj = δij ⇐⇒ (AtA)ij = Iij .

Definicion II.4.7.- Una matriz A ∈Mn,n(R) es ortogonal si AtA = I.

Corolario II.4.8.- El conjunto O(n,R) de las matrices ortogonales es un subgrupo de Gl(n,R) isomorfo aO(E).

Proposicion II.4.9.- Descomposicion de Iwasawa de Gl(m,R).- Sea A ∈ Gl(m,R). Entonces A se escribede manera unica bajo la forma A = QT donde Q ∈ O(m,R), T ∈ T+(m,R) con

T+(m,R) =

t11 ∗t22 ∗

. . .

0 tnn

∣∣∣∣∣∣∣∣tii > 0

.

Demostracion.- a) Existencia. Se considera Rm con el producto escalar estandar, {e1, . . . , em} la basecanonica de Rm.

Se tiene que {Ae1, . . . , Aem} es una base de Rm. Sea {f1, . . . , fm} la base ortonormal obtenida de{Ae1, . . . , Aem} por el procedimiento de Gramm-Schmidt.

La matriz de pasaje de {Ae1, . . . , Aem} a {e1, . . . , em} es A.La matriz de pasaje de {f1, . . . , fm} a {Ae1, . . . , Aem} es T ∈ T+(m,R), repasar la demostracion donde

se utiliza el procedimiento de Gramm-Schmidt.La matriz de pasaje de {f1, . . . , fm} a {e1, . . . , em} es Q ∈ O(m,R).Por consiguiente, se tiene que

A = QR.

b) Unicidad. Se supone que A = Q1T1 = Q2T2 con Qi ∈ O(m,R) y Ti ∈ T+(m,R) para i = 1, 2.Ahora bien, como ejercicio mostrar que T+(m,R) es un subgrupo de Gl(m,R). De donde

Q2Q−11 = T2T

−11 ∈ O(m,R) ∩ T+(m,R).

Afirmamos que O(m,R) ∩ T+(m,R) = {I}. Si esto es cierto, se tiene que Q2Q−11 = T2T

−11 = I, de donde

Q1 = Q2 y T1 = T2.Probemos la afirmacion; sea T ∈ O(m,R) ∩ T+(m,R), entonces

T =

t11 ∗t22 ∗

. . .

0 tnn

y T tT = I.

Una verificacion dara que T = I.�

Sea F ⊂ E un subespacio vectorial, se plantea

F⊥ = {x ∈ E|〈x, y〉 = 0, ∀y ∈ F} .

Se prueba que F⊥ es un subespacio vectorial y se llama el subespacio ortogonal de E.

Proposicion II.4.10.- Se tienei) E = F ⊕ F⊥;

Page 71: Algebra Lineal Avanzada

74 II Complemento

ii)(F⊥)⊥

= F .

Demostracion.- i) Se elige una base ortonormal {f1, . . . , fm} de F . Se considera la aplicacion

ϕ : E → F

x 7→m∑

i=1

〈x, fi〉fi.

Esta aplicacion es lineal y sobreyectiva, por que los fk pertenecen a la imagen. Se tiene F⊥ = kerϕ; enefecto, x ∈ F⊥, se tiene ϕ(x) = 0; x ∈ kerϕ, 〈x, fk〉 para k = 1, . . . , k, por lo tanto x ∈ F⊥.

La formula de dimension dadimE = dimF + dimF⊥,

por consiguiente solo falta mostrar que F ∩ F⊥ = {0}. Esto es cierto, por que x ∈ F ∩ F⊥, implica que〈x, x〉 = 0 y por lo tanto x = 0.ii) Ejercicio.

Proposicion II.4.11.- La aplicacion

ϕ : E → E∗ = Hom(E,R)

y 7→ ϕ(y) : E → Rx 7→ 〈x, y〉.

es un isomorfismo

Demostracion.- Como dimE = dimE∗, es suficiente ver que kerϕ = {0}.Sea y ∈ kerϕ, se tiene 〈x, y〉 = 0, para todo x ∈ E, en particular para x = y, por lo tanto 〈y, y〉 = 0

implica que y = 0.�

Comentario.- En el caso euclidiano, se acaba de mostrar que se tiene un isomorfismo canonico entre E yE∗.

Page 72: Algebra Lineal Avanzada

II.5 Formas Hermıticas, Espacios Unitarios 75

II.5 Formas Hermıticas, Espacios Unitarios

El cuerpo de base en este paragrafo es C. Recordemos, la conjugacion de numeros complejos es la aplicaciondefinida por

C→ Cz 7→ z

x+ iy 7→ x− iy.

Sea V un espacio vectorial. Una forma sesquilineal sobre V es una aplicacion V × V f−→ C, tal que

f(α1x1 + α2x2, y) = α1f(x1, y) + α2f(x2, y),

f(x, β1y1 + β2y2) = β1f(x, y1) + β2f(x, y2).

Se dice que f sesquilineal es hermıtica si

f(x, y) = f(y, x), ∀x, y ∈ V.

Proposicion II.5.1.- Herm(V,C), el conjunto de los f hermıticas sobre V es un espacio vectorial sobre R.

Demostracion.- Ejercicio.Sea f ∈ Herm(V,C) y {e1, . . . , em} una base de V , la matriz de f respecto a {e1, . . . , em} es la matriz

(A(f))ij = f(ei, ej).

Si f es hermıtica, se tiene f(ei, ej) = f(ej , ei), obteniendo

A(f)t= A(f).

Se dice que la matriz B ∈ Mm,m(C) es hermıtica si Bt = B y el conjunto de tales matrices, se denotaHerm(m,C) y es un espacio vectorial real.

Proposicion II.5.2.- La aplicaciones

Herm(V,C)→ Herm(m,C)

f 7→ A(f)

g ← B

donde

g(x, y) =m∑

i,j=1

xibij yj .

son isomorfismos de espacios vectoriales reales y son inversas entre si. AdemasHerm(m,C) es de dimension m2.

Demostracion.- Ejercicio.

Ejemplo

1.- La aplicacion dada porCm × Cm → C

(x, y) 7→m∑

i=1

xiyi

es una forma hermıtica.

Page 73: Algebra Lineal Avanzada

76 II Complemento

Ejercicio.- Hallar una base de Herm(V,C).

Proposicion II.5.3.- Sea f ∈ Herm(V,C). Existe una base de V respecto a la cual, la matriz de f esdiagonal con coeficientes iguales a 0, 1 o −1.

Demostracion.- Ejercicio. Existe una proposicion similar para las formas bilineales simetricas.

Corolario II.5.4.- Sea B ∈ Herm(m,C), entonces existe P ∈ Gl(m,C), tal que

P tBP = diag(1, . . . , 1,−1, . . . ,−1, 0, . . . , 0).

Demostracion.- Ejercicio. Existe una proposicion similar para las matrices simetricas.

Si f es hermıtica, se tiene f(x, x) = f(x, x) ∈ R.Se dice que f hermıtica es definida positiva, (producto escalar hermıtico), si

f(x, x) ≥ 0, ∀x ∈ V ;

f(x, x) = 0 ⇐⇒ x = 0.

Una forma hermi tica definida positiva se la denota 〈 , 〉 al igual que el producto escalar euclidiano.E es un espacio unitario, si es un espacio vectorial sobre C provisto de un producto escalar hermıtico.Las definiciones de ortogonalidad y ortonormalidad en espacios unitatios es la misma que en espacios

euclidianos. Por lo tanto se tiene los siguientes resultados analogos:

i) Existen bases ortonormales, el procedimiento de Gramm-Schmidt funciona.ii) E espacio unitario de dimension n es isomorfo a Cn provisto del producto escalar hermıtico estandar

〈x, y〉 =

n∑

i=1

xiyi.

iii) Se dice que a ∈ Gl(E) es unitaria si

〈a(x), a(y)〉 = 〈x, y〉, ∀x, y ∈ E.

El conjunto de las transformaciones unitarias de E forman un subgrupo de Gl(E), es el grupo unitarionotado U(E).

iv) Sea {e1, . . . , em} una base ortonormal de E. Sea a ∈ Gl(E), se denota A la matriz de a respecto a{e1, . . . , em}. Entonces

a ∈ U(E) ⇐⇒ AtA = I.

Una matriz A ∈Mm,m(C) es unitaria si AtA = I.v) El conjunto U(m,C) de las matrices unitarias es un subgrupo de Gl(m,C) isomorfo a U(E).

Ejercicio.- Mostrar las afirmaciones de arriba.

Ejemplos

1.- diag(a1, . . . , am) ∈ U(m,C) ⇐⇒ aiai = 1, ∀i = 1, . . . ,m.2.- La matriz de la forma (

a ibib a

)

con a, b ∈ R, a2 + b2 = 1 es una matriz unitaria.

Proposicion II.5.5.- Descomposicion de Iwasawa para Gl(m,C). Sea A ∈ Gl(m,C). Entonces A se escribede manera unica como A = UT , donde U ∈ U(m,C) y T ∈ T+(m,C), con

T+(m,C) =

t11 ∗t22 ∗

. . .

0 tnn

∣∣∣∣∣∣∣∣tii ∈ R y tii > 0

.

Page 74: Algebra Lineal Avanzada

80 II Complemento

Demostracion.- Ejercicio.

Sea F ⊂ E un subespacio de E unitario. Se define el subespacio ortogonal de F como

F⊥ = {x ∈ E|〈x, y〉 = 0, ∀y ∈ E}.

Proposicion II.5.6.- La aplicacion

ϕ : E → E∗ = Hom(E,C)

y 7→ ϕ(y) : E → Cx 7→ 〈x, y〉.

es biyectiva, pero ϕ es solamente semilineal, es decir

ϕ(βy) = βϕ(y).

Demostracion.- Ejercicio

Remarcas1.- Rn 〈x, y〉 = ∑xiyi espacio euclidiano estandar. Serıa natural de generalizar esta situacion a los espacios

complejos, ası: Cn 〈x, y〉 =∑xiyi. Pero sucede un fenomeno nuevo, existe x 6= 0 tal que 〈x, x〉 = 0.

Por ejemplo para n = 2 x = (1, i).

2.- E unitario, sea {e1, . . . , en} una base ortonormal de E. Se introduce

ER = {x ∈ E|x =∑

xiei, xi ∈ R}.

ER es un espacio vectorial sobre R de misma dimension que E. La restriccion a ER del producto escalarhermıtico sobre E es un producto escalar euclidiano.

Page 75: Algebra Lineal Avanzada

Capıtulo III

Formas Normales

III.1 Vectores y Valores Propios

Sea V un espacio vectorial de dimension n. Sea f ∈ End(V ) y {v1, . . . , vn}, {v′1, . . . , v′n} dos bases de V .Recordando el primer capıtulo, se denota

A la matriz de f respecto a {vi},A′ la matriz de f respecto a {v′i},M la matriz de pasaje de {vi} a {v′i}.Se tiene

A′ = MAM−1.

Definicion III.1.1.- Sean A,B ∈ Mn,n(K). Se dice que A y B son conjugadas o semejantes, si existeM ∈ Gl(n,K) tal que B = MAM−1.

Ejercicio.- Mostrar que la semejanza de matrices es una relacion de equivalencia sobre Mn,n(K).La interpretacion geometrica que se puede dar: Si A es la matriz de f respecto a la base {vi}, la clase

de conjugacion de A, es decir el conjunto de las matrices MAM−1, coincide con el conjunto de las matricesde f respecto a las bases de V .

Definicion III.1.2.- Se dice que f, g ∈ End(V ) son semejantes o conjugados si existe h ∈ Gl(V ) tal queg = h ◦ f ◦ h−1.

Definicion III.1.3.- Sea f ∈ End(V ), se considera ker(f − λid) con λ ∈ K. Si ker(f − λid) 6= {0}, se diceque λ ∈ K es un valor propio de f .El subespacio ker(f − λid) 6= {0} se llama subespacio propio de f respecto al valor propio λ.dimker(f − λid) se la llama la multiplicidad geometrica del valor propio λ.Un elemento no nulo de ker(f − λid) se llama vector propio de f respecto a λ.

Por consiguiente, dicho de otra manera

λ ∈ K valor propio de f ⇐⇒ existe x ∈ V, x 6= 0 tal que f(x) = λx;

x ∈ V es vector propio de f ⇐⇒ x 6= 0 y existe λ ∈ K tal que f(x) = λx.

Sea A ∈ Mn,n(K), se denota por ρ(A) : Kn → Kn la aplicacion lineal cuya matriz respecto a la basecanonica es A.

Definicion III.1.4.- Se dice que λ es un valor propio de A, si λ es valor propio de ρ(A).Se dice que x ∈ Kn es un vector propio de A, si x es valor propio de ρ(A).

Ejemplo

1.- Consideremos la matriz identidad I, entonces todo x 6= 0 ∈ Kn es vector propio respecto a λ = 1.

Proposicion III.1.5.- Sean f, g ∈ End(V ), se supone que f y g son conjugados; entonces:i) λ es un valor propio de f ⇐⇒ λ es un valor propio de f .

Page 76: Algebra Lineal Avanzada

82 III Formas Normales

ii) Si g = hfh−1, se tienex es vector propio de f ⇐⇒ h(x) es vector propio de g.

Demostracion. Se tiene que λ es valor propio de f , si y solamente si existe x 6= 0 ∈ V tal que f(x) = λx,si y solamente si existe y = h(x) 6= 0 ∈ V tal que g(y) = hf(x) = λh(x) = λy.

Proposicion III.1.6.- Sean λ1, . . . , λp valores propios distintos de f . Se plantea Kj = ker(f − λjid).Entonces los Kj son linealmente independientes. (Se dice que los Kj son son linealmente independientes,

si xj ∈ Kj y

p∑

j=1

xj = 0⇒ xj = 0 para j = 1, . . . , p).

Demostracion.- Por induccion sobre p.Para p = 1 evidente.Se supone cierto la proposicion para p− 1 con p > 1.Mostremos que la proposicion es cierta para p. Sea

p∑

j=1

xj = 0 con xj ∈ Kj ,

se tiene

f(

p∑

i=1

xj) = 0 =

p∑

i=1

λjxj ,

ahora bien,p∑

j=1

λ1xj −p∑

j=1

λjxj =

p∑

j=2

(λ1 − λj)xj = 0,

por hipotesis de induccion (λ1 − λj)xj = 0 para j = 2, . . . , p, por lo tanto xj = 0 para j = 2, . . . , p y porconsiguiente x1 = 0.

Corolario III.1.7.- Mismas hipotesis que la proposicion precedente. Entonces la aplicacion

K1 ×K2 × · · ·Kpϕ−→ V

(x1, x2, . . . , xp) 7→ x1 + x2 + · · ·+ xp

es inyectiva. En este caso la imagen de ϕ es

p⊕

j=1

Kj .

Demostracion.- Ejercicio.

Proposicion III.1.8.- Sea f ∈ End(V ). Se supone que f posee m = dimV valores propios diferentesλ1, . . . , λm. Se elige vi un vector propio respecto a λi para i = 1, . . . ,m. Entonces:

i) ker(f − λjid) es de dimension igual a 1, para j = 1, . . . ,m.ii) {v1, . . . , vm} es una base de V .iii) La matriz de f respecto a {v1, . . . , vm} es diag(λ1, . . . , λm).

Demostracion.- Utilizando la notacion de la proposicion III.1.6, Kj = ker(f − λjid) 6= {0}, j = 1, . . . ,m.Por el corolario III.1.7, la aplicacion

K1 ×K2 × · · ·Kmϕ−→ V

(x1, x2, . . . , xm) 7→ x1 + x2 + · · ·+ xm

es inyectiva. Por lo tanto se tiene

m ≤∑

dim(Kj)︸ ︷︷ ︸≥1

≤ dimV = m;

Page 77: Algebra Lineal Avanzada

III.1 Vectores y Valores Propios 83

ϕ es por consiguiente un isomorfismo, V =

p⊕

j=1

Kj .

Sea vj ∈ Kj con vj 6= 0, entonces

{(v1, 0, . . . , 0), . . . , (0, . . . , 0, vm)}

es una base de K1 ×K2 × · · ·Km, de donde via el isomorfismo {v1, . . . , vm} es una base de V . La matriz def respecto a {v} es una matriz diagonal.

Polinomio Caracterıstico de una Matriz

Sea A ∈Mm,m(K), se plantea

PA(x) = det(xI −A) =

∣∣∣∣∣∣∣∣

x− a11 −a12 · · · −a1m

−a21 x− a22...

. . .

−am1 · · · −am,m−1 x− amm

∣∣∣∣∣∣∣∣∈ K[x]

polinomio de grado n y coeficiente dominante igual a 1.PA(x) es el polinomio caracterıstico de A.

Proposicion III.1.9.- Si A y B son semejantes, entonces PA(x) = PB(x).

Demostracion.- Por hipotesis, existe M ∈ Gl(m,K) tal que A = MBM−1, calculando los polinomioscaracterısticos se tiene

PA(x) = det(xI −A) = det(xMIM−1 −MBM−1) = det(M(xI −B)M−1)

= detM det(xI −B) detM−1 = det(xI −B) = PB(x).

Sea f ∈ End(V ). Sea {v1, . . . , vm} una base de V . Se nota A la matriz de f respecto a {vi}. Por laproposicion precedente, el polinomio PA no depende de la eleccion de la base, solamente de f .Se plantea Pf (x) = PA(x) el polinomio caracterıstico de f .

Definicion III.1.10.- Se dice que un cuerpo K es algebraicamente cerrado si todo polinomio p(x) ∈ K[x]no constante posee al menos una raiz. Es decir, si todo polinomio no constante a coeficientes en K se puedefactorizar en polinomios de grado igual a 1.

Ejemplo

2.- C es un cuerpo algebraicamente cerrado.

Teorema III.1.11.- Sea f ∈ End(V ), las raices del polinomio caracterıstico de f son exactamente los valorespropios de f . En particular, si K es algebraicamente cerrado, el endomorfismo f posee al menos un valorpropio y un vector propio.

Demostracion.- Sea λ ∈ K, A matriz de f respecto a una base de V . Se tiene

Pf (λ) = 0 ⇐⇒ PA(λI −A) = 0

⇐⇒ ker(λI − f) 6= {0}⇐⇒ λ es un valor propio de f.

Definicion III.1.12.- Sea λ un valor propio de f , la multiplicidad algebraica de λ es la multiplicidadde la raiz de Pf .

Page 78: Algebra Lineal Avanzada

84 III Formas Normales

Ejemplos

3.- La sucesion de Fibonacci (Fn)n≥0 definida por

Fn+1 = Fn + Fn−1,

F0 = 0, F1 = 1.

Puede escribirse de manera matricial como

A

(Fn

Fn−1

)=

(1 10 1

)(Fn

Fn−1

)=

(Fn+1

Fn

).

Se puede observar que (Fn+1

Fn

)= An

(10

).

Utilizando la proposicion III.1.8, la matriz A es semejante a la matriz diag(λ1, λ2), donde λ1 y λ2 sonvalores propios de A. Calculando estos por medio del polinomio caracterıstico de A, se obtiene

λ1 =1 +√

5

2, λ2 =

1−√

5

2.

Despues se obtiene

A =

(λ1 λ2

1 1

)(λ1 00 λ2

)(λ1 λ2

1 1

)−1

,

de donde

An =

(λ1 λ2

1 1

)(λ1 00 λ2

)n(λ1 λ2

1 1

)−1

Efectuando los calculos necesarios, se obtiene

(Fn+1

Fn

)=

1√5

(λn+1

1 − λn+12

λn1 − λn

2

),

por lo tanto

Fn =1√5(λn

1 − λn2 ) =

1√5

((1 +√

5

2

)n

−(

1−√

5

2

)n).

4.- Una matriz triangular superior

A =

a11 an1

a22

. . .

0 ann

tiene como polinomio caracterıstico

PA(x) =n∏

i=1

(x− aii).

5.- Ejercicio.- Mostrar que Pf (x) = Pft(x) o bien PA(x) = PAt(x).

6.- Si A y B son conjugadas, se tiene PA(x) = PB(x); la recıproca es falsa. En efecto, sean

A =

(0 00 0

), B =

(0 10 0

);

se tienePA(x) = x2, PB(x) = x2.

Page 79: Algebra Lineal Avanzada

III.1 Vectores y Valores Propios 85

6.- Sea f ∈ End(V ), sea W ⊂ V un subespacio invariante por f ; es decir, f(W ) ⊂W . Se denota

f|W : W →W

el endomorfismo restringido a W . Se tiene

Pf|W(x) divide Pf (x).

En efecto, se elige una base {v1, . . . , vp} de W que es completada en la base {v1, . . . , vp, vp+1, . . . , vm}de V .La matriz de f respecto a esta base es de la forma

A =

(A11 A12

0 A22

),

donde A11 es la matriz de f|W respecto a {v1, . . . , vp}. Se tiene

PA(x) =

∣∣∣∣xI −A11 −A12

0 xI −A22

∣∣∣∣ = det(xI −A11) det(xI −A22).

Proposicion III.1.13.- Sea A ∈Mm,m(K), entoncesi) El polinomio caracterıstico puede escribirse bajo la forma

PA(x) = xm − C1(A)Xm−1 + C2(A)Xm−2 + · · ·+ (−1)mCm(A).

Los Ci(A) son funciones polinomiales de los coeficientes de A de grado i; en particular, C1(A) es lineal,Cm(A) es de grado m.

ii) Ci(MAM−1) = Ci(A) para i = 1, . . . ,m y M ∈ GL(m,K).

iii) C1(A) =m∑

i=1

es la traza de A denotada por tr(A).

iv) Cm(A) = det(A).v) f, g ∈ End(V )⇒ Pf◦g(x) = Pg◦f (x).vi) A,B ∈Mm,m(K)⇒ PAB(x) = PBA(x).vii) A,B ∈Mm,m(K)⇒ Ci(AB) = Ci(BA) i = 1, . . . ,m.

Demostracion.- Ejercicio. Debe observarse que v), vi) y vii) son equivalentes.

Ejemplo

7.- Consideremos el caso m = 2,

A =

(a11 a12

a21 a22

),

PA(x) = x2 − (a11 + a22)︸ ︷︷ ︸C1(A)

x+ (a11a22 − a12a21)︸ ︷︷ ︸C2(A)

.

Page 80: Algebra Lineal Avanzada

86 III Formas Normales

III.2 Triangularizacion y Diagonalizacion

Sea A = (aij) ∈Mm,m(K), se dice que A es triangular superior si aij = 0 para i > j.

A =

a11 an1

a22

. . .

0 ann

Sea f ∈ End(V ). Se dice que f es triangularizable si existe una base de V respecto a la cual la matriz def es triangular superior.

Remarca.- Se A es la matriz respecto a {v1, . . . , vm}, la matriz de f respecto a {vm, . . . , v1} es

A′ =

amm · · · am1

......

a1m · · · a11

.

Si A es triangular superior, A′ es triangular inferior o viceversa. Por consiguiente la definicion de triangu-larizable puede remplazarse por inferior o superior.

Sea A ∈ Mm,m(K). Se dice que A estriangularizable si existe M ∈ Gl(m,K) tal que MAM−1 seatriangular superior o inferior.

Proposicion III.2.1.- Sea f ∈ End(V ), entonces

f es triangularizable ⇐⇒ el polinomio caracterıstico de fes producto de polinomios de grado1.

Demostracion.-⇒ B es triangularizable, existe M inversible tal que

MBM−1 =

a11 an1

a22

. . .

0 ann

y por lo tanto PB(x) = PA(x) =

m∏

i=1

(x− a11).

⇐ por induccion sobre m.m = 1 nada que hacer.Supongamos cierta la proposicion para m− 1, con m > 1.Sea λ1 valor propio de f y v1 un vector propio asociado a λ1, se tiene f(v1) = λ1v1 y v1 6= 0.Se elige v2, . . . , vm de manera que {v1, . . . , vm} sea una base de V . La matriz de f respecto a {v1, . . . , vm}es de la forma

A =

(λ1 ∗ ∗ ∗∗0 A′

);

se tiene PA(x) = (x− λ1)PA′(x).Aplicando la hipotesis de induccion a A′. Por consiguiente, existe M ′ ∈ Gl(m− 1,K) tal que M ′AM ′−1 estriangular. Se tiene

(1 00 M ′

)(λ1 ∗ ∗ ∗∗0 A′

)(1 00 M ′−1

)=

λ1 ∗ ∗λ2

. . .

0 λn

Page 81: Algebra Lineal Avanzada

III.2 Triangularizacion y Diagonalizacion 87

Proposicion III.2.2.- Si K es algebraicamente cerrado, entonces todo endomorfismo es triangularizable.

Ejemplo

1.- Una rotacion de R2 no es triangularizable.

Definicion III.2.3.- f ∈ End(V ) es diagonalizable si existe una base {v1, . . . , vm} de V respecto a la cualla matriz de f es una matriz diagonal. Dicho de otra manera: f es diagonalizable si existe una base de Vformada de vectores propios de f .A ∈Mm,m(K) es diagonalizable, si existe M ∈ Gl(m,K) tal que MAM−1 es una matriz diagonal.

Ejemplo

2.- A =

(0 10 0

)no es diagonalizable, sino existirıa una base v1 y v2 de K2 respecto a la cual, la matriz de

ρ(A) es la matriz nula, pero esto es imposible.

Proposicion III.2.4.- Sea f ∈ End(V ). Entonces

f es diagonalizable ⇐⇒

1) Pf =∏

j=1,...,r

(x− λj)mj

λi 6= λj para i 6= j y∑

1,...,r

mj = m = dimV .

2) dim ker(f − λjid) = mj para j = 1, . . . , r.

Demostracion.- ⇒ Supongamos que existe una base {v1, . . . , vm} con f(v1) = aivi, por lo tanto

Pf (x) =

m∏

i=1

(x− ai) =

m∏

i=1

(x− λj)mj .

Si es necesario renumerar los vi, la matriz de f respecto a {vi} es

diag(λ1, . . . , λ1︸ ︷︷ ︸m1

, . . . , λr, . . . , λr︸ ︷︷ ︸mr

).

Por lo tanto ker(f − λ1id) admite como base {v1, . . . , vm1y ası sucesivamente.

Se plantea Kj = ker(f − λjid). Por la proposicion III.1.6, los Kj son linealmente independientes y por elcorolario III.1.7

K1 ×K2 × · · ·Krϕ−→ V

(v1, v2, . . . , vr) 7→ v1 + v2 + · · ·+ vr

es un isomorfismo, consiguientemente V =⊕Kj . Sea Bj una base de KJ , de donde

B = ∪rj=1 es una base de V.

La matriz de f respecto a B es diagonal.�

Page 82: Algebra Lineal Avanzada

88 III Formas Normales

III.3 Endomorfismos Normales de un Espacio Unitario

Recordemos que E es un espacio unitario de dimension m sobre el cuerpo C, si esta provisto de un productoescalar hermıtico.

E × E → C(x, y) 7→ 〈x, y〉

sesquilineal y definido positivo.Ası mismo se dispone de una biyeccion

ϕ : E → E∗ = Hom(E,C)

y 7→ ϕ(y) : E → Cx 7→ 〈x, y〉.

Esta aplicacion es semilineal en el sentido que sigue

ϕ(y1 + y2) = ϕ(y1) + ϕ(y2),

ϕ(αy) = αϕ(y).

Sea a ∈ End(E). Porque ϕ es biyectiva, entonces existe una unica aplicacion a : E → E que vuelve elsiguiente diagrama conmutativo

Ea←−

99K

a

E

ϕ↓ ↑ ϕ−1

E∗ −→at E∗

es decir, a = ϕ−1atϕ.

Proposicion III.3.1.- a es lineal y se llama la adjunta de a.

Remarca.- No confundir con la matriz adjunta, diferente contexto.

Demostracion.- Por la adicion no hay problema; en efecto, ϕ, at y ϕ−1 son isomorfismos de grupo para laadicion.

Para la multiplicacion, tenemos

a(x) = ϕ−1(atϕ(αx)) = ϕ−1(αatϕ(x)) = ¯αϕ−1(atϕ(x)) = αa(x).

Proposicion III.3.2.- Sea a ∈ End(E), para todo x, y ∈ E se tiene la siguiente formula

〈a(x), y〉 = 〈x, a(y)〉.

Es decir, el producto escalar de la imagen de x con y es el mismo que producto escalar de x con la imagende la adjunta de y.

Demostracion.- Por definicion de a, se tiene

at ◦ ϕ = ϕ ◦ a.

Por lo tanto:

〈a(x), y〉 = ϕ(y)(a(x)) = at ◦ ϕ(y)(x)

= ϕ(a(y))(x) = 〈x, a(y)〉.�

Page 83: Algebra Lineal Avanzada

III.3 Endomorfismos Normales de un Espacio Unitario 89

Proposicion III.3.3.- Sea {f1, . . . , fm} una base ortonormal de E. Sea a ∈ End(E). Se denota A la matrizde a respecto a {f1, . . . , fm}. Sea A la matriz de a respecto a i = 1, . . . ,m. Entonces

A = At = At.

Demostracion.- Sean x =∑xifi y y =

∑yjfj . Se tiene

〈a(x), y〉 = (x1 · · · xm )At

y1...ym

.

Tambien

〈x, a(y)〉 = (x1 · · · xm ) ¯A

y1...ym

.

Deducimos por consiguiente

At = ¯A.

Proposicion III.3.4.- Sean a, b ∈ End(E). Entonces:

i) (ab) = ba;ii) ˜a = a;

iii) (a+ b) = a+ b;

iv) (αa) = αa.

Demostracion.- Consecuencia directa de A = At.�

Definicion III.3.5.- Sea a ∈ End(E), se dice que a es autoadjunto si a = a.Sea {f1, . . . , fm} una base ortonormal de E. Sea a ∈ End(E) y A la matriz de a respecto a la base {fi}.

Si a es un endomorfismo autoadjunto se tiene

A = A = At

lo que implica que A es una matriz hermıtica.

Proposicion III.3.6.- Sea a ∈ End(E), {f1, . . . , fm} una base ortonormal y A la matriz de a respecto a{f1, . . . , fm}; entonces

a es autoadjunto ⇐⇒ A ∈ Herm(m,C).

Si a es un endomorfismo autoadjunto, se tiene

〈a(x), y〉 = 〈x, a(y)〉,

por lo tanto〈x, a(x)〉 = 〈a(x), x〉 ∈ R.

Se dice que a es positivo ai a es autoadjunto y si

〈a(x), x〉 ≥ 0, ∀x ∈ E.

Page 84: Algebra Lineal Avanzada

90 III Formas Normales

Se dice que a es antiautoadjunto si −a = a y en forma matricial si la matriz de a respecto a una baseortonormal verifica

At = −A.Se dice que a es unitario si aa = id o a = a−1. En forma matricial AAt = I, A es unitaria.Se dice que a es normal si aa = aa y A es una matriz normal si AAt = AtA.En este paragrafo el resultado principal es: a es un endomorfismo normal, si y solamente si existe una

base ortonormal de E formada de vectores propios de a.

Caso Particular

Consideremos el caso en que E es de dimension igual a 1. En este caso E = C. Tenemos por lo tanto

〈z, w〉 = zw.

Puesto que dim End(C) = 1, se puede decir que End(C) = C. El endomorfismo adjunto de a es a. Lasdefiniciones dadas mas arriba tendran las siguientes equivalencias:

a es autoadjunto ⇐⇒ a ∈ R.es positivo ⇐⇒ a ∈ R y a > 0.antiautoadjunto ⇐⇒ a ∈ iR.unitario ⇐⇒ |a| = 1.

Todo endomorfismo a es normal, en efecto aa = aa.

Caso General

Volvamos al caso general donde E es un espacio unitario de dimension finita.

Remarcas

1.- El conjunto H = {a ∈ End(E)|a = a} es un subespacio real de End(E), es decir

a, b ∈ H ⇒ αa+ βb ∈ H, ∀α, β ∈ R.

2.- En conjunto de los endomorfismos positivos de E es un cono convexo de H. Se dice que un subconjuntoC de H es un cono convexo si

a, b ∈ C ⇒ αa+ βb ∈ C, ∀α, β ≥ 0.

3.- {a ∈ End(E)| − a = a} = iH = {ib|b ∈ H} es un subespacio real de End(E). Se tiene

End(E) = H ⊕ iH

suma directa de subespacios vectoriales reales.4.- El conjunto de los endomorfirmos unitarioses un grupo para la composicion de aplicaciones, se lo denotaU(E).

Proposicion III.3.7.- Sean a, b ∈ H, entonces

ab ∈ H ⇐⇒ ab = ba.

Demostracion.- ⇒ ab ∈ H, se tieneab = ab = ba = ba.

⇐ Se supone ab = ba, entonces

ab = ba = ba = ab.

Page 85: Algebra Lineal Avanzada

III.3 Endomorfismos Normales de un Espacio Unitario 91

Proposicion III.3.8.- Sea F un subespacio de E invariante por a. Entonces

F⊥ = {x ∈ E|〈x, y〉 = 0 ∀y ∈ F}

es invariante por a.

Demostracion.- Sea x ∈ F⊥ e y ∈ F , se tiene

〈a(x), y〉 = 〈x, a(y)〉 = 0.

Proposicion III.3.9.- Sea V un espacio vectorial sobre un cuerpo K algebraicamente cerrado. Sean ϕ, ψ ∈End(V ) tales que ϕψ = ψϕ. Entonces existe un vector propio comun a ϕ y ψ.

Demostracion.- Sea λ valor propio de ϕ. Esto significa que

W = ker(ϕ− λid) 6= {0}.

Se observa que W es invariante por ψ. En efecto, ψ(w) ∈W ⇐⇒ ϕ(ψ(w)) = λ(ψ(w)). Esto sucede por que

ϕ(ψ(w)) = ψ(ϕ(w)) = ψ(λw) = λψ(w).

Por que K es algebraicamente cerrado, el endomorfismo ψ|W de W posee un vector propio, es decir existev ∈W con ψ(v) = µv. Por otro lado, por definicion de W , se tiene ϕ(v) = λv.

Proposicion III.3.10.- Se tiene:i) a ∈ End(E) es normal ⇐⇒ existe una base ortonormal de E dada de vectores propios de a.ii) Sea {f1, . . . , fm} una base ortonormal de E tal que a(fj) = λjfj , λj ∈ C. Entonces

a(fj) = λjfj ;1)

a es autoadjunto ⇐⇒ λj ∈ R;2)

a es positivo ⇐⇒ λj ∈ R y λj > 0;3)

a es antiautoadjunto ⇐⇒ λj ∈ iR; 4)

a es unitario ⇐⇒ |λj | = 1.5)

Demostracion.- i) ⇐ Sea {f1, . . . , fm} una base ortonormal formada de vectores propios para a. Se tiene

a(fj) = λjfj .

La matriz A de a respecto a esta base es diag(λ1, . . . , λm).La matriz A de a respecto a esta base es diag(λ1, . . . , λm).Se tiene AA = AA, es decir aa = aa, a es normal. Observar que ii) 1) ha sido demostrado.⇒ Se demuestra por induccion sobre m = dimE que existe una base ortonormal de E formada de vectorespropios comunes a a y a.Para m = 1, trivial.Suponemos cierto para dimE < m. Por la proposicion III.3.9 existe f1 ∈ E con 〈f1, f1〉 = 1 y f1 vectorpropio de a y a. Se denota F1 el espacio engendrado por f1. Por la proposicion III.3.8, se tiene

a(F1) ⊂ F1 → a(F⊥1 ) ⊂ F⊥

1

a(F1) ⊂ F1 → a(F⊥1 ) ⊂ F⊥

1

lo que implica que F⊥1 es invariante por a y a.

Page 86: Algebra Lineal Avanzada

92 III Formas Normales

Por hipotesis de induccion, existe una base ortonormal {f2, . . . , fm} de F⊥1 , de vectores propios de a y

a. Entonces {f1, f2, . . . , fm} es una base ortonormal de E formada de vectores propios para a y a.

ii) 2,3,4 ejercicio.�

Corolario III.3.11.- Sea A ∈ Mm,m(C) una matriz normal, respectivamente unitaria, hermıtica, anti-hermıtica, positiva. Entonces existe U ∈ U(m,C) tal que

UAU−1 = diag(λ1, . . . , λm)

donde λj ∈ C, respectivamente |λj | = 1, λj ∈ R, λj ∈ iR, λj ≥ 0.

Demostracion.- Se interpreta A como la matriz de un endomorfismo normal de Cm, la proposicion III.3.10indica que existe una base ortonormal {f1, . . . , fm} de Cm formada de vectores propios de A. Se introducela matriz de pasaje U de {e1, . . . , em} a {f1, . . . , fm}, entonces U ∈ U(m,C) y

UAU−1 = diag(λ1, . . . , λm)

Dos Aplicaciones a las Matrices a Coeficientes Reales

Proposicion III.3.12.- Sea A ∈ Mm,m(R) una matriz simetrica. Los valores propios de A son reales.Ademas existe Q ∈ O(m,R) tal que QAQt = diag(λ1, . . . , λm).

Demostracion.- Se tiene Mm,m(R) ⊂ Mm,m(C), A es por consiguiente hermıtica. Por el corolario prece-dente, los valores propios de A son reales. Ası mismo A es diagonalizable en Mm,m(C).

Se tiene que C =⊕

λ

ker(A−λI), suma sobre los diferentes subespacios propios. Afirmamos que para la

estructura estandar de espacio unitario los subespacios Vλ son ortogonales dos a dos, donde Vλ = ker(A−λI).En efecto, se tiene

λ〈vλ, vµ〉 = 〈λvλ, vµ〉 = 〈Avλ, vµ〉 = 〈vλ, Avµ〉 = µ〈vλ, vµ〉 = µ〈vλ, vµ〉.

de donde 〈vλ, vµ〉 = 0 si λ 6= µ.Sea w = (w1, . . . , wm) ∈ Cm, se plantea w = (w1, . . . , wm). Sea W ⊂ Cm un subespacio vectorial, se

plante W = {w|w ∈W}.Ejercicio.- Si W = W , existe una base ortonormal de W compuesta de elementos de Rm ⊂ Cm.

Se tiene Vλ = Vλ. En efecto

v ∈ Vλ ⇐⇒ Av = λv ⇐⇒ Av = λv ⇐⇒ Av = λv ⇐⇒ v ∈ Vλ.

Utilizando el ejercicio, se elige una base ortonormal de Vλ constituida de elementos de Rm que la denotamosBλ. Planteamos B = ∪Bλ, B es una base ortonormal de Cm formada de elementos de Rm, por consiguienteB tambien es una base ortonormal de Rm formada de vectores propios de A.

Se introduce Q la matriz de pasaje de la base canonica a B. Se tiene

QAQt = diag(λ1, . . . , λm).

Ejercicio.-Estudiar en R2 la ecuacion

ax2 + 2bxy + cy2 = 1.

Page 87: Algebra Lineal Avanzada

III.3 Endomorfismos Normales de un Espacio Unitario 93

Sea E = Rm, el espacio euclidiano estandar. Sea ϕ ∈ O(E). Entonces existe una base ortonormal de Erespecto a la cual la matriz de ϕ es de la forma

Θ =

cosα − sinαsinα cosα

0 · · · 0

0cosβ − sinβsin β cosβ

. . .

0 · · · 0cosω − sinωsinω cosω

±1. . .

±1

La version matricial: Sea Φ ∈ O(m,R), entonces existe Q ∈ O(m,R) tal que QΦQt = Θ.

Demostracion.- Consideremos el diagrama siguiente

E = Rm → Cm

ϕ

y

y ϕC

Rm → CM

Sea Φ la matriz de ϕ respecto a la base canonica. ϕC la aplicacion lineal de Φ respecto a la base canonica.Por consiguiente ϕC es una transformacion unitaria de Cm. Dicho de otra manera Φ ∈ O(m,R) ⊂ U(m,C).

Por la proposicion III.3.10 ϕC es diagonalizable y sus valores propios son modulo igual a 1. Por con-siguiente

Cm =⊕

Kλ Kλ = ker(ϕC − λid).Se observa que los Kλ son ortogonales dos a dos; en efecto

λ〈vλ, vµ〉 = 〈ϕCvλ, vµ〉 = 〈vλ, ϕCvµ〉 =⟨vλ, ϕ

−1Cvµ

⟩= µ−1〈vλ, vµ〉 = µ〈vλ, vµ〉 = 0.

lo que implica que vλ ⊥ vµ si λ 6= µ.Se observa que Kλ = Kλ. Verificar como ejercicio.Ahora bien, si λ ∈ R, se tiene que λ = 1 o λ = −1, por lo tanto Kλ = Kλ = Kλ, por lo tanto exist una

base Bλ de Kλ ortogonal y formada de elementos de Rm.Si λ 6∈ R, se considera

Kλ ⊕Kλ = Kλ ⊕Kλ.

Sea {v1, . . . , vmλ} una base ortonormal deKλ, entonces {v1, . . . , vmλ

} es una base ortonormal deKλ. Mostraresta afirmacion como ejercicio.

Se plantea:

b2j−1 =1√2(vj + vj) ∈ Rm, j = 1, . . . ,mλ;

b2j =1√2i(vj − vj) ∈ Rmm, j = 1, . . . ,mλ.

Ahora bien {b1, . . . , b2mλ} = Bλ es una base ortonormal de Kλ ⊕ Kλ formada de vectores de Rm. La

verificacion de esta afirmacion la dejamos como ejercicio.Se considera B = ∪Bλ es una base ortonormal de Cm formada de elementos de Rm, entonces base de

Rm. El ultimo paso es verificar que la matriz de ϕC es de la forma de Φ.�

Page 88: Algebra Lineal Avanzada

94 III Formas Normales

III.4 Descomposicion Canonica

Definicion III.4.1.- Se dice que g ∈ End(V ) es nilpotente, si existe n > 0 tal que gn = 0.

Proposicion III.4.2.- Sea f ∈ End(V ). Entonces existe una unica descomposicion V = N ⊕R tal quea) f(N) ⊂ N y f|N es nilpotente.b) f(R) ⊂ R y f|R es inversible.

Demostracion.- Para la existencia, se considera la sucesion

{0} ⊂ ker(f) ⊂ ker(f2) ⊂ · · · ⊂ ker(fn) ⊂ ker(fn+1) ⊂ · · · .

Se observa que si ker(fn) = ker(fn+1), entonces ker(fn) = ker(fn+p) para p > 0. En efecto, sea x ∈ker(fn+p), se tiene fn+p(x) = 0 y

fn+1(fp−1(x)) = 0⇒ fp−1(x) ∈ ker(fn+1) = ker(fn),

de dondefn+p−1(x) = 0⇒ x ∈ ker(fn+p−1),

iterando las veces que sea necesario obtenemos x ∈ ker(fn).Tambien se puede observar que existe q > 0 tal que

{0} & ker(f) & · · · & ker(fq) = ker(fp+q).

Se planteaN = ker(fq),

R = Im(fq).

Estos dos subespacios verifican las condiciones a) y b) y V = N ⊕R.Se tiene N ∩ R = {0}, sea x ∈ N ∩ R ,se tiene fq(x) = 0 y x = fq(y) para cierto y ∈ V . Ası

fq(x) = f2q(y), se tieney ∈ ker(f2q) = ker(fq).

Se tiene V = N +R, esto sigue de la formula de dimension para aplicaciones lineales

dimV = dim ker(fq) + dim Im(fq).

La condicion a) se verifica porquef(ker(fq)) ⊂ ker(fq)

y(f| ker(fq))

q = 0.

f| ker(fq) es nilpotente.La condicion b) se cumple, por que f(Im(fq)) ⊂ Im(fq). Se tiene fIm(fq) es inversible, es suficiente ver

queker(f) ∩R = {0},

en efecto se tieneker(f) ∩R ⊂ N ∩R = {0}.

Unicidad. Se supone que V = ker(fq)⊕ Im(fq) = N ′ ⊕R′ con N ′ y R′ que verifican las condiciones a) y b).Se tiene f|N ′ nilpotente, N ′ ⊂ ker(fq

|N ′ ⊂ ker(fq) = N .

f|R′ inversible, entonces fq

|R′ inversible, entonces R′ ⊂ Im(fq) = R.

Por que V = N ⊕ R = N ′ ⊕R′, se tiene necesariamente N ′ = N y R′ = R.

Page 89: Algebra Lineal Avanzada

III.4 Descomposicion Canonica 95

Ejercicio.- Mostrar que si g ∈ End(V ) es nilpotente, entonces Pg(x) = xdim V .

Teorema III.4.3.- Se supone K algebraicamente cerrado. Sea f ∈ End(V ).

Pf (x) =

p∏

j=1

(x− λj)mj

con λi 6= λj para i 6= j y∑mj = m. Se tiene entonces

V =

p⊕

j=1

ker((f − λjid)mj)︸ ︷︷ ︸

Vj

.

Es la descomposicion canonica de V en subespacios invariantes de f . Ademas dimVj = mj , (f − λjid)|Vjes

nilpotente y Pf|Vj(x) = (x− λj)

mj .

Demostracion.- Sea λ1 un valor propio de f , sea m1 la multiplicidad algebraica de este valor propio. Seaplica la proposicion III.4.2 al endomorfismo f1 = f − λ1id, entonces se tiene V = N1 ⊕R1, cona) f1(N1) ⊂ N1 y f1|N1

nilpotente,b) f1(R1) ⊂ R1 y f1|R1

inversible.Deducimos por consiguiente que f(N1) ⊂ N y f(R1) ⊂ R1. Ahora bien, se tiene

Pf1(x) = det(x id− f1) = det(x id− f + λ1id) = det((x+ λ1)id− f) = Pf (x+ λ1).

De dondePf1

(x) = xm1

j≥2

(x+ λ1 − λj)mj ,

aplicando el ejercicio anterior al teorema y denotando n1 = dimN1, se tiene

Pf1|N1(x) = xn1 ,

por lo tanto n1 = m1 y

Pf|R1(x) =

j≥2

(x− λj)mj .

El siguiente paso es mostrar que N1 = ker(fm11 ). Se tiene

{0} & ker(f) & · · · & ker(fq) = ker(fp+q) = N1.

Observamos inmediatamente que q ≤ m1, por consiguiente

V = ker(f − λ1id)m1

︸ ︷︷ ︸V1

⊕R1,

con f(R1) ⊂ R1, dimV1 = m1, Pf|V1(x) = (x− λ1)

m1 y f|V1nilpotente.

Se recomienza el razonamiento con R1.�

Ejemplo1.- Consideremos la situacion en que dimV = 2. Se tiene dos casos:

i) Pf (x) = (x− λ1)(x− λ2) con λ1 6= λ2. Se tiene

V = ker(f − λ1id)⊕ ker(f − λ2id)

Page 90: Algebra Lineal Avanzada

96 III Formas Normales

y f es diagonalizable.ii) Pf (x) = (x− λ)2, se tiene

V = ker(f − λid)2,lo que implica que

f = λid︸︷︷︸homotecia

+ (f − λid)︸ ︷︷ ︸nilpotente

.

Conservando la notacion y las hipotesis del teorema, se introduce

fd : ⊕Vj = V → V∑

vj∈Vj

vj 7→∑

λjvj .

Dicho de otra manera fd(Vj) ⊂ Vj y fd|Vjes una homotecia de razon λj . Por construccion fd es diagonalizable

y ademas

Pfd(x) =

∏(x− λj)

mj = Pf (x).

Se puede observar que V = ⊕Vj es la descomposicion de V en suma directa de subespacios propios para fd.Se plantea

fn = f − dd.

Proposicion III.4.4.- Mismas hipotesis y notacion del teorema III.4.3. Entonces se tiene:i) f = fd + fn donde fd es diagonalizable, fn es nilpotente y que satisfacen fnfd = fdfn. AdemasPf (x) = ffd

(x).ii) Si f ′d diagonalizable y f ′n nilpotente como en i), entonces f ′d = fd y f ′n = fn¿

Demostracion i) Se tiene f = fd + fn por definicion. Sea vj ∈ Vj , entonces fd(vj) = λjvj ∈ Vj . Ahorabien,

fd(f(vj)︸ ︷︷ ︸∈Vj

= λjf(vj),

f(fd(vj)) = f(λvj) = λjf(vj),

de donde ffd = fdf , lo que un calculo simple dara fnfd = fdfn.fd es diagonalizable por construccion. Veamos que fn es nilpotente, sea vj ∈ Vj , se tiene

fmjn (vj) = (f − fd)

mj (vj) = (f − λjid)mj (vj) = 0,

porque Vj = ker(f − λjid)mj . Sea M = max{mj}, entonces se tiene

fMn (∑

vj) =∑

fMn (vj) = 0

y fn es nilpotente.Pf = Pfd

por construccion.ii) Sean f ′d diagonalizable y f ′n nilpotentes, tales que

f = f ′d + f ′n, f ′df′n = f ′nf

′d.

Por el teorema III.4.3 aplicado a f ′d, se tiene que

V =⊕

V ′j , Pf ′

d(x) =

∏(x− λ′j)nj , V ′

j = ker(f ′d − λ′jid)nj y f ′d(V′j ) ⊂ V ′

j .

Deber observarse que V ′j = ker(f ′d − λ′jid) por que f ′d es diagonalizable. Mostremos que f ′n(Vj) ⊂ Vj ; en

efecto, se tiene v′j ∈ Vj ⇐⇒ f ′d(vj) = λ′j(v′j). Ahora bien

f ′n(f ′d − λ′jid)(v′j) = f ′nf′d(vj)− λ′jf ′n(v′j) = 0,

⇒ f ′d(f′n) = λ′jfn(v′j).

Page 91: Algebra Lineal Avanzada

III.4 Descomposicion Canonica 97

De la misma manera se muestra que f(V ′j ) ⊂ V ′

j . Utilizando la proposicion III.3.9 para f , f ′n y f ′d restringidosen V ′

j , deducimos que λ′j = λk, para algun k, la verificacion la dejamos como un simple ejercicio. En resumentodo valor propio de f ′d es valor propio de f .

El siguiente paso es mostrar que f ′n(Vj) ⊂ Vj , para todo j. Se tiene que

f ′n(vj) = (fn + fd − f ′d)(vj) = fn(vj) + (λj − βj)vj ∈ Vj ,

por que vj ∈ V ′k para algun k. Ademas

fd(f′n(vj)) = λjf

′n(vj) = f ′n(λjvj) = f ′n(fd(vj)),

de donde fdf′n = f ′nfd sobre Vj y por consiguiente sobre V . Por simples calculos es facil ver tambien que

f ′nfn = fnf′n.

Ejercicio.-Mostrar que fn − f ′n es nilpotente.Por ultimo mostremos que f ′d = fd, sea 0 6= v ∈ V ,

αv = fd(v) = f ′d(v) + (f ′n − fn)(v) = βv + (f ′n − fn)(v),

de donde v es vector propio de f ′n−fn y como este endomorfismo es nilpotente deducimos que f ′n(v) = fn(v)y f ′d(v) = fd(v).

Page 92: Algebra Lineal Avanzada

98 III Formas Normales

III.5 Teorema de Hamilton Cayley

Teorema III.5.1.- Hamilton-Cayley. Se tiene:i) Sea f ∈ End(V ), entonces Pf (f) = 0.ii) Sea A ∈Mm,m(K), entonces PA(A) = 0.

Demostracion.- Debe constatarse que i) y ii) son enunciados equivalentes. Como preliminar a la de-mostracion debe recordarse que todo cuerpo K es subcuerpo de un cuerpo K algebraicamente cerrado. Porejemplo R ⊂ C. La demostracion se la realiza en dos etapas.1.-K cuerpo de base arbitrario. Ejercicios de la Practica.2.-K cuerpo de base algebraicamente cerrado. Se tiene por consiguiente

Pf (x) =∏

(x− λj)mj , V =

⊕Vj ,

donde Vj = ker(f − λjid)mj .

Se tienePf (f) =

j

(f − λjid)mj ,

producto en cualquier orden.Sea vk ∈ Vk, se tiene por consiguiente

Pf (f)(vk) = Pf (f) =∏

j

(f − λjid)mj (vk) =

j 6=k

(f − λjid)mj (f − λkid)

mk(vk)︸ ︷︷ ︸=0

.

De donde Pf (f) = 0.�

Consideremos la aplicacionϕfK[x]→ End(V )

P 7→ P (f)

Se puede ver que ϕf es un homorfismo de espacios vectoriales y de anillos. Si la dimension de V es m, setiene dimEnd(V ) = m2 y por otro lado dim K[x] es infinita. Por lo tanto ϕf no es inyectiva, lo que significaque kerϕf 6= {0}.

Como ϕf es un homomorfismo de anillos, se tiene que kerϕf es un ideal, resultado que sera visto enotro curso.

El teorema de Hamilton Cayley afirma que Pf ∈ kerϕf y se mostrara en otro curso de Algebra que

kerϕf = Mf K[x] = {MfP |P ∈ K[x]}.

Mf es un polinomio de coeficiente dominante 1 y se conoce como el polinomio minimal de f ∈ End(V ).Por consiguiente se tiene que Mf divide Pf .

Ejemplos

1.- Sea

A =

(a11 a12

a21 a22

),

el polinomio caracterıstico de A esta dado por

PA(x) = x2 − (a11 + a22)x+ (a11a22 − a12a21),

de donde

PA(A) = A2 − (a11 + a22)A+ (a11a22 − a12a21)I =

(0 00 0

).

Page 93: Algebra Lineal Avanzada

III.5 Teorema de Hamilton Cayley 99

2.- Sea A ∈ Mm,m(K). Se pide calcular A100. Sea PA el polinomio caracterıstico de A, este polinomio esde grado m. Efectuando la division con resto, se tiene

x100 = PA(x)Q(x) +RA(x),

donde el grado de RA(x) es menor a m. Remplazando A en los polinomios, se obtiene

A100 = PA(A)︸ ︷︷ ︸=0

Q(A) +R(A).

El calculo de A100 se lleva al calculo de RA(A).Consideremos el caso en que PA(x) tiene raices simples, entonces A es diagonalizable, por lo tanto existeM ∈ Gl(m,K) tal que

MAM−1 = diag(λ1, . . . , λm),

MA100M−1 = diag(λ1001 , . . . , λ100

m ).

Entonces RA(λi) = λ100i . En efecto

(x100 −RA)(λi) = 0, i = 1, . . . ,m.

Por lo tanto x100 −RA es divisible por (x− λ1) · · · (x− λm).Veamos esto numericamente, sea

A =

(1 11 0

)

la matriz de la serie de Fibonacci. Se tiene

PA(x) = x2 − x− 1 = (x− λ1)(x− λ2), con λ1 =1 +√

5

2, λ2 =

1−√

5

2,

de donde

RA(x) =λ100

1

λ1 − λ2(x− λ2) +

λ1002

λ1 − λ2(λ1 − x),

por lo tanto

A100 =1√5

λ100

1

(1− λ2 1

1 −λ2

)+ λ100

2

λ1 − 1 −1−1λ1

.

Page 94: Algebra Lineal Avanzada

100 III Formas Normales

III.6 Endomorfismos Nilpotentes

Se dice que g ∈ End(V ) es nilpotente, si existe n > 0 tal que gn = 0.

Resultado Principal.- Existe una base de V respecto a la cual la matriz de g nilpotente, tiene la formanormal de Jordan siguiente

0 ν10 ν2

. . .. . .

0 νn−1

0

con νi = 0 o νi = 1.

Se dice que A ∈Mm,m(K) es nilpotente si existe n > 0, tal que An = 0.Resultado.- Existe M ∈ Gl(m,K) tal que MAM−1 es de la forma normal.

Definicion III.6.1.- Sea g ∈ End(V ) nilpotente, el entero mas pequeno q > 0 tal que gq = 0 se llamaındice de g.

Proposicion III.6.2.- Sea g nilpotente de ındice q. Sea v1 ∈ V tal que gq−1(v1) 6= 0; entonces:i) los vectores v1, g(v1), . . . , g

q−1(v1) son linealmente independientes.Se denota V1 el subespacio de V engendrado por {v1, g(v1), . . . , gq−1(v1)}. Se tiene g(V1) ⊂ V1.

ii) Existe un subespacio W de V tal quea) V = V1 ⊕W ,b) g(W ) ⊂W .Si se toma como base de V {v1, g(v1), . . . , gq−1(v1)︸ ︷︷ ︸

base de V1

, w1, . . . , wp︸ ︷︷ ︸base de W

} la matriz de g respecto a esta base es

de la forma

∣∣∣∣∣∣∣

0 1

......

0

∣∣∣∣∣∣∣0

0 ∗

.

Demostracion.- i) Por el absurdo, suponemos que {v1, g(v1), . . . , gq−1(v1)} es una familia linealmentedependiente, por consiguiente existen αi ∈ K no todos nulos tales que

q−1∑

i=0

αigi(v1) = 0,

se denota p el ındice mas pequeno tal que αp 6= 0. Se tiene

gp(vi) = −∑

i>p

αi

αp

gi(v1) = gp+1

i>p

αi

αp

gi−p−1(v1)

︸ ︷︷ ︸w

= gp+1(w).

Entoncesgq−1(v1) = gq−p−1(gp(v1)) = gq−p−1(gp+1(w)) = 0.

Lo que contradice con la hipotesis que gq−1(v1) = 0. Por consiguiente{v1, g(v1), . . . , gq−1(v1)} es linealmente independiente.Mostremos que g(V1) ⊂ V1, sea w ∈ V1, se tiene w =

∑αig

i(v1) y

g(w) =∑

αigi+1(vi) ∈ V1 ⇒ g(V1) ⊂ V1.

Page 95: Algebra Lineal Avanzada

III.6 Endomorfismos Nilpotentes 101

ii) Se mostrara por induccion sobre el ındice q de g la existencia de un suplementario W de V1 que es establepor g.

Si q = 1, entonces g = 0 y no hay nada que hacer.Se supone cierta la asercion para los endomorfismos nilpotentes de ındice < q.Se introduce R = Im(g) ⊂ V , R es un subespacio de V y se tiene que g(R) ⊂ R y el ındice de g|R es

q − 1. La verificacion de que el ındice de g|R la dejamos como ejercicio.Se puede aplicar la hipotesis de induccion a R, g|R, g(v1) y R1, donde R1 es el subespacio de R

engendrado por {g(v1), . . . , gq−1(v1)}. Entonces existe un subespacio S de R tal que R = R1⊕S y g(S) ⊂ S.Via

V → R = Img

v 7→ g(v)

se introduce S′ = {v ∈ V |g(v) ∈ S}.Afirmamos que V = V1 + S′. En efecto, sea v ∈ V , se escribe g(v) = r1 + s, existe x1 ∈ V1 tal que

g(x1) = r1. Ahora bieng(v − x1) = g(v)− g(s1) = s ∈ S,

por lo tanto v − x1 ∈ S′ y mas todavıa v = x1 + s′ con x1 ∈ V1 y s′ ∈ S′.Observamos que g(S′) ⊂ S′, en efecto, sea s′ ∈ S′

g(s′) ∈ S′ ⇐⇒ g(g(s′)) ∈ S,

esto es cierto por que g(S) ⊂ S por hipotesis de induccion.V1 ∩ S′ 6= {0}. En realidad V1 ∩ S′ es de dimension 1 engendrado por gp−1(v1). En efecto,

0 6= gp−1(v1) ∈ V1 por definicion,0 6= gp−1(v1) ∈ S′ por que g(gp−1(v1)) = 0 ∈ S.Recıprocamente, sea v ∈ V1 ∩ S′, se tiene

g(v) ∈ V1 ∩ Im(g) = R1

g(v) ∈ S

}⇒ g(v) ∈ S ∩R1 = {0};

g(v) = 0, de donde v ∈ V1 ∩ ker(g). Se utiliza finalmente que V1 ∩ ker(g) es engendrado por gp−1(v1).V1 ∩ S = {0}; en efecto

V1 ∩ S = V1 ∩ (S ∩R) = V1 ∩R ∩ S = R1 ∩ S = {0}.

Se considera por consiguiente el subespacio de S′ dado por

S ⊕ (S′ ∩ V1),

se elige un suplementarioS′ = S ⊕ (S′ ∩ V1)⊕ S′′,

se plantea W = S ⊕ S′′.El subespacio W satisface las condiciones de la proposicion, es decir:

a) g(W ) ⊂W ; en efecto, w ∈W , se tiene g(w) ∈ S ⊂W .b) V1 ∩W = {0}; en efecto,

V1 ∩W = V1 ∩ (W ∩ S′) = (V1 ∩ S′) ∩W = {0},

por construccion de W .c) V1 +W = V ; en efecto,

V = V1 + S′ = V1 + (W + V1 ∩ S′) = V1 +W.

Page 96: Algebra Lineal Avanzada

102 III Formas Normales

Sea g ∈ End(V ) un endomorfismo nilpotente. Se dice que un subespacio V1 de V es un subespacio cıclicorespecto a g, si existe v1 ∈ V y n > 0 tal que

v1, g(v1), . . . , gn−1(v1)

es una base de V1 y gn(v1) = 0.En la proposicion precedente se ha mostrado la existencia de subespacios cıclicos.

Teorema III.6.3.- Sea g ∈ End(V ) nilpotente. Entonces existe una descomposicion

V =k⊕

j=1

Vj , (III.6.1)

donde cada uno de los Vj es cıclico respecto a g. El entero k y los enteros qj = dimVj dependen solamentede g y no ası de la descomposicion particular (III.6.1).

Demostracion.- Se elige v1 ∈ V como en la proposicion (III.6.2), despues V1 el subespacio engendrado por{v1, g(v1), . . . , gq−1(v1)}. El subespacio V1 es cıclico respecto a g.

Ademas existe una descomposicion V = V1 ⊕W donde g(W ) ⊂W .Se recomienza el razonamiento sobre W y se llega paso a paso a la existencia de la descomposicion

(III.6.1).Mostremos la unicidad de k y los qj . Para un entero n, se plantea

e(n) = #{j| dimVj = n}.

e(n) depende solamente de g y no de la descomposicion particular en subespacios cıclicos. En efecto laformula

e(n) = rang(gn−1)− 2rang(gn) + rang(gn+1)

depende solamente de g. Mostremos esta ultima formula. Consideremos Vj , la base es vj , g(vj), . . . , gqj−1(vj)

y gqj (vj) = 0. Se tiene

rang(g|Vj) = qj − 1

rang(g2|Vj

) = qj − 2

...

⇒ rang(gn

|Vj) = max{0, qj − n},

entonces

rang(gn) =k∑

j=1

rang(gn|Vj

).

Por lo tanto

rang(gn−1) = e(n) + 2e(n+ 1) + 3e(n+ 2) + · · ·+ (l + 1)e(n+ l)

rang(gn) = e(n+ 1) + 2e(n+ 2) + · · ·+ l e(n)

rang(gn+1) = e(n+ 2) + · · ·+ (l − 1)e(n+ l)

Proposicion III.6.4.- i) Sea g ∈ End(V ) un endomorfismo nilpotente. Entonces existe una base de Vrespecto a la cual la matriz es de la forma normal de Jordan

0 ν10 ν2

. . .. . .

0 νn−1

0

con νi = 0 o νi = 1.

Page 97: Algebra Lineal Avanzada

III.6 Endomorfismos Nilpotentes 103

ii) Sea A ∈Mm,m(K) nilpotente. Entonces existe M ∈ Gl(m,K) tal que MAM−1 sea de la forma de Jordan.

Demostracion.- Se recuerda el teorema precedente. Existe

V =

k⊕

j=1

Vj

donde los Vj son cıclicos respecto a g. Es decir existe vj ∈ Vj tal que{vj , g(vj), . . . , g

qj−1(vj)} es una base de Vj y gqj (vj) = 0, con qj = dimVj .Se toma por base de Vj ,

Bj = {gqj−1(vj), . . . , g(vj), vj},la matriz de g|Vj

respecto a Bj es

0 1. . .

. . .

0 10

.

Juntando los Bj se obtiene la base buscada.�

La descomposicion V =

k⊕

j=1

Vj respecto a g no es unica, pero si son enteramente determinados por g los

enteros k y qj .Se llama particion del entero m ≥ 1, una descomposicion de m en

m = q1 + q2 + · · ·+ qk, con q1 ≥ q2 ≥ · · · ≥ qk > 0.

Ejemplo1.- Las particiones del entero 4 son:

4 = 4,

4 = 3 + 1,

4 = 2 + 2,

4 = 2 + 1 + 1,

4 = 1 + 1 + 1 + 1;

en total 5 particiones de 4.

A g ∈ End(V ) nilpotente se le asocia la particion

m =

k∑

j=1

qj .

Proposicion III.6.5.- Sean g, g′ ∈ End(V ) nilpotentes. Entonces

g y g′ son conjugados ⇐⇒ las particiones asociadas a g y g′ son lasmismas.

Demostracion.- ⇒ Por hipotesis, existe un automorfismo h de V , h ∈ Gl(V ), tal que g′ = hgh−1. Se tomauna descomposicion en espacios cıclicos respecto a g V = ⊕Vj .

Afirmamos que V = ⊕h(Vj) es una descomposicion en subespacios cıclicos respecto a g′, con lo que laprimera implicacion estarıa demostrada. En efecto, por hipotesis existe vj ∈ Vj tal que

{vj , g(vj), . . . , gqj−1(vj)} es base de Vj , gqj (vj) = 0, qj = dimVj .

Page 98: Algebra Lineal Avanzada

104 III Formas Normales

Una simple verificacion dara

{h(vj), g′(h(vj)), . . . , g

′qj−1(h(vj))} es base de h(Vj), g′

qj (h(vj)) = 0, qj = dimh(Vj).

⇐ Se supone que las particiones son las mismas; es decir:

V =k⊕

j=1

Vj descomposicon en subespacios cıclicos respecto a g,

V =

k⊕

j=1

V ′j descomposicon en subespacios cıclicos respecto a g′,

con la condicion dimVj = dimV ′j . Consideremos.

vj ∈ Vj tal que

{{vj , g(vj), . . . , g

qj−1(vj)} es base de Vj ,

gqj (vj) = 0;

v′j ∈ V ′j tal que

{{v′j , g′(v′j), . . . , g′

qj−1(v′j)} es base de V ′

j ,

g′qj (v′j) = 0.

Se plantea h : V → V la aplicacion lineal definida por

glvj 7→ g′l(v′j), 0 ≤ l ≤ qj − 1, j = 1, . . . , k.

Esta aplicacion es un isomorfismo por que envıa base sobre base.Afirmamos que hgh−1 = g′, con lo que la proposicion estarıa demostrada. En efecto, para verificar que

2 aplicaciones lineales coinciden, es suficiente verificar que coinciden sobre los elementos de una base;

hgh−1(g′l(v′j)) = hggl(vj) = hgl+1(vj) = g′

l+1= g′(g′

l(v′j)).

Corolario III.6.6.- Existe un numero finito de clases de conjugacion de endomorfismos (de matrices)nilpotentes. Este numro es igual al numero de particiones del entero m = dimV .

Demostracion.- Consecuencia de la proposicion III.6.5, se ha obtenido una aplicacion inyectiva

{clases de conjugacion de matrices (en-domorfismos) nilpotentes m×m

}→ {particiones de m} .

Esta aplicacion tambien es sobreyectiva. En efecto, sea m = q1 +q2 + · · ·+qk una particion de m. Se plantea

A =

q1︷ ︸︸ ︷0 1

. . .. . .

0

q2︷ ︸︸ ︷0 1

. . .. . .

0

. . .qk︷ ︸︸ ︷

0 1

. . .. . .

0

∈Mm,m(K);

Page 99: Algebra Lineal Avanzada

III.6 Endomorfismos Nilpotentes 105

sea {e1, . . . , em} la base canonica de Km. Se tiene

Km = V1︸︷︷︸dim V1=q1

⊕ · · · ⊕ Vk︸︷︷︸dim Vk=qk

con {e1, . . . , eq1} base de V1, {eq1+1, . . . , eq1+q2

} base de V2, etc. Esta es una descomposicion en subespacioscıclicos respecto a A. En efecto A(eq1

) = eq1−1, A2(eq1

) = eq1−2, etc.�

Ejemplo2.- Las matrices nilpotentes de 4× 4 son conjugadas a una de las siguientes matrices de Jordan

0 1 0 00 0 1 00 0 0 10 0 0 0

,

0 1 0 00 0 1 00 0 0 00 0 0 0

,

0 1 0 00 0 0 00 0 0 10 0 0 0

,

0 1 0 00 0 0 00 0 0 00 0 0 0

,

Page 100: Algebra Lineal Avanzada

106 III Formas Normales

III.7 Descomposicion de Jordan

Se plantea

J(m, a) =

a sc1a 1

......

a 1

a

∈Mm,m(K).

Una matriz de la forma normal de Jordan es

J(m1, a1) 00 J(m2, a2)

. . .

J(mk, ak)

no es necesario que ai 6= aj si i 6= j.

Teorema III.7.1.- Jordan. Se supone K algebraicamente cerrado, por ejemplo K = C. Entonces:i) Sea f ∈ End(V), entonces existe una base de V respecto a la cual la matriz de f tiene la forma normal

de Jordan.ii) Sea A ∈Mm,m(K), entonces existe M ∈ Gl(m,K) tal que MAM−1 es de la forma de Jordan.

Demostracion.- Se escribe Pf (x) =r∏

j=1

(x− λj)mj . Se plantea Vj = ker(f − λjid)

mj . Se tiene

V =r⊕

j=1

Vj ,

descomposicion canonica en espacios invariantes respecto a f .Se introduce f = fd + fn, la descomposicion de Jordan de f , donde fd es diagonalizable, fd(Vj) ⊂ Vj y

fd|Vj= λjid; fn es nilpotente, fn(Vj) ⊂ Vj y por lo tanto fn|Vj

es nilpotente.Resultado del paragrafo precedente, existe una base Bj de Vj respecto a la cual la matriz de fn|Vj

es dela forma

0 ν10 ν2

. . .. . .

0 νmj−1

0

mj = dimVj con νi = 0 o νi = 1.

La matriz de f|Vj= (fd + fn)|Vj

respecto a Bj es

λj ν10 ν2

. . .. . .

λj νmj−1

λj

de tipo Jordan.Ensamblando y superponiendo las bases Bj , se obtiene una base B de V con la propiedad requerida.

Page 101: Algebra Lineal Avanzada

III.7 Descomposicion de Jordan 107

Proposicion III.7.2.- Sean

J =

J(m1, a1) 00 J(m2, a2)

. . .

J(mp, ap)

,

J ′ =

J(m′1, a

′1) 0

0 J(m′2, a

′2)

. . .

J(m′q, a

′q)

.

Entonces J y J ′ son conjugadas, si y solamente si p = q y existe una permutacion σ de {1, . . . , p} tal que

mσ(i) = m′i, aσ(i) = a′i.

Ejemplos

1.- Si A = MJM−1, entonces An = MJnM−1. Teoricamente para calcular An es suficiente saber calcularla potencia de una matriz de Jordan. Se tiene

J(m, a) = aI +N,

y

(J(m, a))n =n∑

i=1

(ni

)ap−1N i,

con la convencion que N0 = I. Puede observarse que Np = 0 si p ≥ m. Por otro lado a cada potenciade N la subdiagonal de 1’s se desplaza a la derecha de una subdiagonal.

2.- Colocar A bajo la forma de Jordan, donde

A =

0 1 00 0 1−1 1 1

.

Se tienePA(x) = (x− 1)2(x+ 1),

por consiguienteC3 = ker(A+ I)︸ ︷︷ ︸

V1

⊕ ker(A− I)2︸ ︷︷ ︸V2

.

Realizando calculos elementales, se tiene que

V1 =< {(1, 1, 1)} >, V2 =< {(2, 1, 0), (−1, 0, 1)} > .

Elegimos v2 = (2, 1, 0), entonces (A− I)v2 = (−1,−1,−1).Por consiguiente, la matriz de Jordan conjugada a A es

J =

−1 0 00 1 10 0 1

y si J = M−1AM , se tiene

M =

1 −1 21 −1 11 0 −1

.