Algebra Lineal (Libro) - Lezama

141
CUADERNOS DE ´ ALGEBRA No. 4 ´ Algebra lineal Oswaldo Lezama Departamento de Matem´ aticas Facultad de Ciencias Universidad Nacional de Colombia Sede de Bogot´ a Mayo 30 de 2012

Transcript of Algebra Lineal (Libro) - Lezama

Page 1: Algebra Lineal (Libro) - Lezama

CUADERNOS DE ALGEBRA

No. 4

Algebra lineal

Oswaldo Lezama

Departamento de MatematicasFacultad de Ciencias

Universidad Nacional de ColombiaSede de Bogota

Mayo 30 de 2012

Page 2: Algebra Lineal (Libro) - Lezama

ii

Cuaderno dedicado a Tonita, mi madre.

Page 3: Algebra Lineal (Libro) - Lezama

Contenido

Prologo v

1. Matrices 11.1. Estructuras algebraicas basicas . . . . . . . . . . . . . . . . . . . . . 11.2. Matrices sobre anillos . . . . . . . . . . . . . . . . . . . . . . . . . . . 81.3. Inversa de una matriz y cambio de base . . . . . . . . . . . . . . . . . 131.4. Matrices y operaciones elementales . . . . . . . . . . . . . . . . . . . 171.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

2. Determinantes y sistemas de ecuaciones lineales 222.1. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222.2. Determinantes y funciones multilineales . . . . . . . . . . . . . . . . . 272.3. Menores y cofactores . . . . . . . . . . . . . . . . . . . . . . . . . . . 302.4. Ideales, rango y sistemas de ecuaciones . . . . . . . . . . . . . . . . . 352.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

3. Producto tensorial 503.1. Producto tensorial de espacios vectoriales . . . . . . . . . . . . . . . . 503.2. Producto tensorial de transformaciones y matrices . . . . . . . . . . . 543.3. Funciones multilineales y tensores . . . . . . . . . . . . . . . . . . . . 583.4. Tensores simetricos, antisimetricos y alternados . . . . . . . . . . . . 633.5. Algebras y producto tensorial . . . . . . . . . . . . . . . . . . . . . . 663.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

4. Formas canonicas 754.1. Polinomios mınimo y caracterıstico . . . . . . . . . . . . . . . . . . . 754.2. Forma canonica clasica . . . . . . . . . . . . . . . . . . . . . . . . . . 834.3. Forma canonica racional . . . . . . . . . . . . . . . . . . . . . . . . . 864.4. Forma canonica de Jordan . . . . . . . . . . . . . . . . . . . . . . . . 904.5. Forma canonica diagonal: valores y vectores propios . . . . . . . . . . 954.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103

iii

Page 4: Algebra Lineal (Libro) - Lezama

iv CONTENIDO

5. Grupos de matrices 1075.1. Grupos de matrices sobre cuerpos . . . . . . . . . . . . . . . . . . . . 107

5.1.1. El grupo lineal y algunos subgrupos destacados . . . . . . . . 1075.1.2. Grupos clasicos . . . . . . . . . . . . . . . . . . . . . . . . . . 111

5.2. Grupos de matrices sobre anillos . . . . . . . . . . . . . . . . . . . . . 1155.3. El grupo elemental sobre anillos conmutativos . . . . . . . . . . . . . 117

5.3.1. Teorema de normalizacion de Suslin . . . . . . . . . . . . . . . 1175.3.2. Teorema de estabilidad de Suslin . . . . . . . . . . . . . . . . 120

5.4. Grupos clasicos sobre anillos . . . . . . . . . . . . . . . . . . . . . . . 1255.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130

Bibliografıa 134

Page 5: Algebra Lineal (Libro) - Lezama

Prologo

La coleccion Cuadernos de algebra consta de 10 publicaciones sobre los principalestemas de esta rama de las matematicas y pretende servir de material para prepararlos examenes de admision y de candidatura de los programas colombianos de doc-torado en matematicas. Los primeros cinco cuadernos cubren el material basico delos cursos de estructuras algebraicas y algebra lineal de los programas de maestrıa;los cinco cuadernos siguientes contienen algunos de los principales temas de losexamenes de candidatura, a saber: anillos y modulos, categorıas, algebra homologi-ca, algebra conmutativa y geometrıa algebraica. Cada cuaderno es fruto de las clasesdictadas por el autor en la Universidad Nacional de Colombia en los ultimos 20 anos,y estan basados en las fuentes bibliograficas consignadas en cada uno de ellos, comotambien en el libro Anillos, Modulos y Categorıas, publicado por la Facultad deCiencias de la Universidad Nacional de Colombia, y cuya edicion esta totalmenteagotada (vease [7]). Un material similar al presentado en estas diez publicaciones esel libro de Serge Lang, Algebra, cuya tercera edicion revisada ha sido publicada porSpringer en el 2004 (vease [8]). Posiblemente el valor de los Cuadernos de algebra seasu presentacion mas ordenada y didactica, ası como la inclusion de muchas pruebasomitidas en la literatura y suficientes ejemplos que ilustran la teorıa. Los cuadernosson:

1. Grupos 6. Anillos y modulos2. Anillos 7. Categorıas

3. Modulos 8. Algebra homologica

4. Algebra lineal 9. Algebra conmutativa5. Cuerpos 10. Geometrıa algebraica

Los cuadernos estan dividido en capıtulos, los cuales a su vez se dividen ensecciones. Para cada capıtulo se anade al final una lista de ejercicios que deberıa sercomplementada por los lectores con las amplias listas de problemas que inluyen lasprincipales monografıas relacionadas con el respectivo tema.

Cuaderno de algebra lineal. El presente cuaderno esta dedicado al estudiodel algebra lineal generalizada, es decir, al estudio de los espacios vectoriales, losoperadores lineales, las matrices y las formas, pero consideradas sobre anillos di-mensionales arbitratrarios, es decir, anillos para los cuales un espacio libre de bases

v

Page 6: Algebra Lineal (Libro) - Lezama

vi PROLOGO

finitas tiene dimension. El algebra lineal sobre anillos ha sido tratada tambien porotros autores, veanse por ejemplo las monografıas [1] y [9] en las cuales se estudiaen algebra lineal sobre anillos conmutativos.

Para aprovechar mejor el material del presente cuaderno es conveniente que ellector haya estudiado previamente un curso elemental de algebra lineal clasica, esdecir, de algebra lineal sobre cuerpos, y un curso basico de anillos y modulos (veansepor ejemplo [5] y [6]).

El autor desea expresar su agradecimiento a Claudia Milena Gallego Joya, discıpu-la y amiga, por la digitalizacion del material del presente cuaderno.

Oswaldo LezamaDepartamento de Matematicas

Universidad Nacional de ColombiaBogota, Colombia

[email protected]

Page 7: Algebra Lineal (Libro) - Lezama

Capıtulo 1

Matrices

El estudio de los espacios vectoriales sobre anillos, desde la perspectiva matricial,tensorial y de las formas canonicas y sesquilineales que estudiaremos en el presentecuaderno, constituye la denominada algebra lineal generalizada, o tambien llamadaalgebra lineal sobre anillos. Esta area por supuesto se puede considerar como unarama de la teorıa de modulos (vease [6]). La teorıa que desarrollaremos se hara sobreanillos arbitrarios (principalmente conmutativos), sin embargo, los ejemplos estarancentrados en los siguientes anillos particulares: un cuerpo cualquiera K, el anillo Zde los numeros enteros, el anillo Zn de los enteros modulo n ≥ 2, y el anillo K[x] delos polinomios en una indeterminada con coeficientes en el cuerpo K.

1.1. Estructuras algebraicas basicas

La primera seccion de este capıtulo es de caracter introductorio y permite repasaralgunos conceptos de anillos y modulos, sin embargo, invitamos al lector a recordarla teorıa basica de los cuadernos 2 y 3, la cual usaremos libremente durante todoslos desarrollos del presente cuaderno (veanse [5] y [6]).

Definicion 1.1.1. Sea G un conjunto no vacıo. Una operacion binaria internaen G es una funcion ∗ con dominio el producto cartesiano G×G y codominio G

G×G∗−→ G

(a, b) 7→ a ∗ b.

Si la operacion ∗ es asociativa en el sentido que

(a ∗ b) ∗ c = a ∗ (b ∗ c)

para cualesquiera elementos a, b, c ∈ G, entonces se dice que (G, ∗) es un semi-grupo. Si en el conjunto G del semigrupo (G, ∗) existe un elemento e tal que

1

Page 8: Algebra Lineal (Libro) - Lezama

2 CAPITULO 1. MATRICES

e ∗ a = a = a ∗ e

para cada a ∈ G, se dice que (G, ∗) es un monoide con elemento neutro e. Si(G, ∗) es un monoide y cada elemento a ∈ G tiene un inverso, es decir, existe a′ ∈ Gtal que

a ∗ a′ = e = a′ ∗ a

entonces se dice que (G, ∗, e) es un grupo. Si ademas la operacion ∗ es conmutativa,es decir,

a ∗ b = b ∗ a

para cualesquiera elementos a, b ∈ G, entonces se dice que el grupo (G, ∗, e) esconmutativo (tambien llamado abeliano).

Los semigrupos, monoides y grupos se acostumbran a denotar simplemente porsu conjunto de elementos, de tal manera que por ejemplo el grupo (G, ∗, e) se deno-tara por G.

Ejemplo 1.1.2. El conjunto N = {0, 1, 2, . . . } de los numeros naturales es unmonoide conmutativo respecto de la adicion usual y tiene como elemento neutro alnatural 0. De igual manera, el conjunto Z = {. . . ,−2,−1, 0, 1, 2, . . . } de los numerosenteros es un grupo abeliano con la adicion usual.

Proposicion 1.1.3. En cualquier grupo el elemento neutro y el inverso de un ele-mento son unicos.

Demostracion. La prueba es una consecuencia directa de las definiciones.

Notemos que el conjunto Z posee dos operaciones, la adicion y el producto, de talforma que respecto de la primera es un grupo abeliano, mientras que con la segundaes un monoide. Conjuntos con tal condicion conforman los llamados anillos.

Definicion 1.1.4. Un anillo es un conjunto A con dos operaciones + y . llamadasadicion y producto, tal que

(i) A es un grupo conmutativo respecto de la adicion.

(ii) A es un monoide respecto del producto.

(iii) El producto se distribuye sobre la adicion, es decir,

a · (b + c) = a · b + a · c(a + b) · c = a · c + b · c.

Page 9: Algebra Lineal (Libro) - Lezama

1.1. ESTRUCTURAS ALGEBRAICAS BASICAS 3

(iv) El anillo A es conmutativo si el producto es conmutativo.

(v) Un elemento a ∈ A es invertible si tiene inverso respecto del producto.

Observacion 1.1.5. Todos los anillos tendran elemento neutro respecto del produc-to, este elemento sera denotado por 1. El neutro respecto de la adicion sera denotadopor 0. Si a ∈ A, entonces el inverso de a respecto de la adicion se denominara enadelante el opuesto de a, y se denotara por −a. El producto a · b sera simbolizadosimplemente como ab, es decir, omitiremos el punto para el producto de dos elemen-tos del anillo A. Si a ∈ A es invertible, entonces el inverso de a es unico y se denotapor a−1.

Ejemplo 1.1.6. El conjunto Z de los numeros enteros es un anillo conmutativorespecto de las operaciones usuales de adicion y producto. El neutro aditivo es 0y el neutro del producto es 1. De igual manera, si restringimos el conjunto de losenteros a los 8 primeros enteros no negativos, es decir, Z8 = {0, 1, 2, 3, 4, 5, 6, 7}y realizamos las operaciones tomando resıduos respecto de 8 obtenemos el llamadoanillo de enteros modulo 8 (vease [8]). El neutro aditivo es nuevamente el 0 y el neutromultiplicativo es 1. Este ejemplo por supuesto se puede generalizar a cualquier enteropositivo n ≥ 2 (veanse [5] y [7]). De otra parte, el conjunto de todos los polinomios enla variable x y con coeficientes reales constituyen otro ejemplo de anillo conmutativo,el cual se acostumbra denotar por R[x]. El neutro aditivo es el polinomio nulo y elneutro multiplicativo es el polinomio constante 1 (veanse [5], [7] y [8]).

Ejemplo 1.1.7. Es posible que el lector este familiarizado con el conjunto de lasmatrices cuadradas reales de tamano 2 × 2, M2(R) (veanse [5], [7] y [8]). Estasmatrices conforman un anillo no conmutativo respecto de la adicion y multiplicacionhabituales, el neutro aditivo es la matriz nula y el neutro multiplicativo es la matrizidentica. Notemos que [

1 00 0

] [0 10 0

]6=

[0 10 0

] [1 00 0

].

En la definicion de anillo no se exige que cada elemento no nulo tenga inversorespecto del producto. Ası por ejemplo, Z es un anillo en el cual no existe enterox tal que 2x = 1. Sin embargo, existen anillos en los cuales este tipo de ecuacionestiene solucion, tal es el caso de anillo de los numeros racionales Q con las operacioneshabituales. Esta observacion permite definir el siguiente tipo de anillo.

Definicion 1.1.8. Un anillo A es de division si cada elemento no nulo es in-vertible. Si ademas A es conmutativo, entonces se dice que A es un cuerpo.

Proposicion 1.1.9. Sea A un anillo, el conjunto A∗ conformado por los elemen-tos invertibles de A es un grupo respecto del producto, y se denomina el grupo deelementos invertibles de A.

Page 10: Algebra Lineal (Libro) - Lezama

4 CAPITULO 1. MATRICES

Demostracion. Ejercicio para el lector.

Segun la proposicion anterior, A es un anillo de division si, y solo si, A∗ = A−{0}.

Ejemplo 1.1.10. Los numeros racionales Q, los numeros reales R y los numeroscomplejos C, con sus operaciones habituales, son cuerpos. Notemos adicionalmenteque Z∗ = {1,−1} es decir, Z no es un cuerpo. De otra parte, M2(R)∗ consta de lasmatrices invertibles, es decir, aquellas que tienen determinante no nulo. Este grupose denomina grupo lineal general de orde 2 sobre R y se denota por GL2(R).Sobre estos grupos de matrices invertibles volveremos mas adelante.

Un tipo de estructura mas compleja que las definidas anteriormente la consti-tuyen los llamados espacios vectoriales, tambien denominados modulos, los cualesconforman los objetos en se basa el algebra lineal generalizada.

Definicion 1.1.11. Un espacio vectorial es una tripla conformada por

(a) Un grupo abeliano V cuyos elementos llamaremos vectores.

(b) Un anillo A cuyos elementos llamaremos escalares.

(c) Una operacion externa entre escalares y vectores

V × A → V

(v, a) 7→ v · a

que satisface las siguientes condiciones:

(i) (v + u) · a = v · a + u · a

(ii) v · (a + b) = v · a + v · b

(iii) v · (ab) = (v · a) · b

(iv) v · 1 = v

para cualesquiera elementos a, b ∈ A, v, u ∈ V .

Si no hay lugar a confusion, el espacio vectorial (V, A, .) sera denotado sim-plemente por V y se dira que V es un espacio vectorial sobre A, o que V es unA-espacio. Cuando los escalares operan al lado izquierdo se dice que V es un A-espacio a izquierda, sin embargo, es necesario aclarar que la teorıa de algebra linealdesarrollada a izquierda es completamente equivalente a la desarrollada a derecha. Sino se advierte lo contrario, todos los espacios vectoriales del presente cuaderno sonespacios vectoriales a derecha. Los espacios vectoriales sobre anillos se les denominatambien modulos (vease [6]). Ası pues, en teorıa de anillos y modulos se dira queV es un A-modulo a derecha.

Page 11: Algebra Lineal (Libro) - Lezama

1.1. ESTRUCTURAS ALGEBRAICAS BASICAS 5

Observacion 1.1.12. Es importante senalar que si A es un anillo no conmutativoy V es un espacio vectorial izquierdo, entonces no basta con cambiar de lado losescalares, pero manteniendo la asignacion del literal (c) de la defincion anterior,para obtener un espacio vectorial a derecha. En efecto, si V es un A-espacio aizquierda y definimos v × a := a.v, entonces notemos que (v × a)× b = b.(a.v) perov × (ab) = (ab) · v = a · (b · v) y los dos resultados anteriores pueden ser distintos(veanse [6] y [7]). Claramente para anillos conmutativos los escalares pueden serdispuestos indistintamente a derecha o izquierda, segun resulte mas conveniente.En adelante, salvo que sea necesario algo distinto, los escalares para modulos sobreanillos conmutativos seran dispuestos los el lado izquierdo.

Ejemplo 1.1.13. Sean A un anillo y n ≥ 1 un entero, el conjunto An conformado portodos los vectores columna de n componentes (a1, . . . , an)T , ai ∈ A, 1 ≤ i ≤ n, cons-tituye un espacio vectorial sobre el anillo A respecto de las siguientes operaciones:

[a1, . . . , an]T + [b1, . . . , bn]T = [a1 + b1, . . . , an + bn]T

[a1, . . . , an]T · c = [a1c, . . . , anc]T ,

con c ∈ A. An se conoce como el n-espacio vectorial canonico sobre el anilloA. Dos casos particulares destacados son el n-espacio vectorial canonico real Rn yel n-espacio vectorial canonico entero Zn. Tomando n = 1, es decir, A1 = A, seobtiene que el anillo A tiene estructura de espacio vectorial sobre si mismo: la sumade vectores es la suma en el anillo A y el producto entre vectores y escalares es elproducto del anillo A.

Observacion 1.1.14. El conjunto de vectores fila de n componentes se acostumbraa denotar por A1×n y usualmente se le da estructura de A-espacio a izquierda:c · (a1, . . . , an) := (ca1, . . . , can). Sin embargo, con el proposito de ahorrar espacio ysimplificar la notacion, en adelante, a menudo escribiremos los elementos del espacioAn como vectores fila, siempre y cuando esto no represente confusion.

Como anotamos al principio, toda la teorıa de espacios vectoriales y transfor-maciones lineales sobre anillos desarrollada en [6] sera usada en adelante. No sobraresaltar algunos resultados, definiciones y observaciones.

Teorema 1.1.15. Todo espacio vectorial sobre un anillo de division es libre, esdecir, posee una base. En particular, todo espacio vectorial sobre un cuerpo es libre.

Demostracion. Sea V un espacio vectorial sobre un anillo de division A y sea L lacoleccion de subconjuntos de V que son linealmente independientes (l.i.); L es novacıo y es ordenado respecto de la inclusion de conjuntos. Sea C un subconjunto novacıo de L totalemente ordenado y sea C la reunion de los conjuntos que conformana C. Vamos a demostrar que C ∈ L. Sea {x1, . . . , xn} un subconjunto finito de C,

Page 12: Algebra Lineal (Libro) - Lezama

6 CAPITULO 1. MATRICES

existen entonces C1, . . . , Cn ∈ C tales que xi ∈ Ci, 1 ≤ i ≤ n. Como C es totalmenteordenado podemos suponer que xi ∈ Cn para cada 1 ≤ i ≤ n, luego {x1, . . . , xn}es l.i ya que Cn es l.i. Esto muestra que C es l.i. C es pues una cota superiorpara C en L; aplicamos entonces el lema de Zorn y encontramos en L un elementomaximal X. Basta entonces demostrar que 〈X〉 = V . Sea v ∈ V , si v ∈ X entoncesv ∈ 〈X〉, sea v /∈ X, entonces por la maximalidad de X se tiene que X ∪ {v} es l.d.y existen escalares no todos nulos a, a1, . . . , an ∈ A y vectores x1, . . . , xn ∈ X talesque v · a + x1 · a1 + · · ·+ xn · an = 0. No es posible que a = 0, de lo contrario X serıal.d. Por lo tanto, v = −(x1 · a1a

−1 + · · ·+ xn · ana−1) ∈ 〈X〉.

Definicion 1.1.16. Sean V y W dos espacios vectoriales sobre un anillo A. Unatransformacion lineal (t.l.) de V en W es una funcion f : V → W que satisfecelas siguientes condiciones:

(i) f(u + v) = f(u) + f(v)

(ii) f(v · a) = f(v) · a

para cualesquiera vectores u, v ∈ V y cualquier escalar a ∈ A. Se dice tambien quef es un operador lineal o un A-homomorfismo.

Ejemplo 1.1.17. La funcion

An → Am

(a1, . . . , an) 7→ (b1a1 + c1an, b2a1 + c2an, . . . , bma1 + cman)

donde b1, c1 . . . bm, cm son escalares de A, es una transformacion lineal de An en Am.

Ejemplo 1.1.18. La transformacion lineal nula denotada por 0 se define por

V0−→ W

v 7→ 0

De igual manera, la transformacion lineal identica de V se denota por iV y se definepor

ViV−→ V

v 7→ v

En algebra lineal, como en cualquier rama del algebra, es de vital importanciael concepto de isomorfismo.

Definicion 1.1.19. Dos espacios vectoriales V y W se dicen isomorfos si existeuna transformacion lineal biyectiva entre ellos, denominada isomorfismo. En tal casose escribe V ∼= W . Una transformacion lineal f : V → W es invertible si existe unafuncion g : W → V tal que fg = iW y gf = iV .

Page 13: Algebra Lineal (Libro) - Lezama

1.1. ESTRUCTURAS ALGEBRAICAS BASICAS 7

Es facil verificar que la funcion g de la definicion anterior es tambien una t.l. yque f es un isomorfismo si, y solo si, f es invertible.

Pasamos ahora a recordar la estructura algebraica del conjunto de todas las t.l.de un espacio V en otro W .

Definicion 1.1.20. Sean V y W dos A-espacios. Se definen

HomA(V, W ) := {f : V → W |f es una t.l.},EndA(V ) : = HomA(V, V ).

Proposicion 1.1.21. Sea A un anillo y sean V, W dos A-espacios. Entonces,

(i) HomA(V, W ) es un grupo abeliano.

(ii) EndA(V ) es un anillo.

(iii) Si R es un anillo conmutativo, entonces HomR(V, W ) es un R-espacio.

Demostracion. Vease [6].

Notemos que en general el anillo EndA(V ) no es conmutativo, basta por ejemplotener en cuenta el caso particular EndR(R2). El grupo de elementos invertibles delanillo EndA(V ) juega un papel muy importante en el algebra lineal generalizada, enparticular, cuando V es de dimension finita.

Definicion 1.1.22. Sea V un A-espacio. AutA(V ) := EndA(V )∗ es el grupo linealgeneral sobre A.

Notemos tambien que si R es conmutativo, EndR(V ) posee dos estructuras: esun anillo y es un R-espacio. Este tipo de estructuras se conoce como R-algebras, enel sentido de la siguiente definicion.

Definicion 1.1.23. Sea R un anillo conmutativo y sea A un conjunto no vacıo. Sedice que A es una R-algebra si

(i) A es un anillo.

(ii) A es un R-espacio respecto de la adicion definida en A.

(iii) (ab) · r = a(b · r) = (a · r)b, para cualesquiera a, b ∈ A y cada r ∈ R.

A es en algebra conmutativa si A es un anillo conmutativo.

Ejemplo 1.1.24. Si R es un anillo conmutativo y V es un R-espacio, entoncesEndR(V ) es una R-algebra no necesariamente conmutativa.

Ejemplo 1.1.25. Si R es un anillo conmutativo entonces el conjunto R[x] de todoslos polinomios con coeficientes en R es una R-algebra conmutativa.

Page 14: Algebra Lineal (Libro) - Lezama

8 CAPITULO 1. MATRICES

1.2. Matrices sobre anillos

Definicion 1.2.1. Sea A un anillo y sean m, n enteros positivos; una matriz detamano m × n es una tabla ordenada de m filas y n columnas conformada porelementos de A en la forma

B =

b11 · · · b1n...

...bm1 · · · bmn

.

Los elementos b11, . . . , bmn se denominan las componentes o entradas de B. Laentrada que esta en la interseccion de la i-esima fila con la j-esima columna sedenota por bij, y la matriz B tambien se simboliza por B = [bij]. La i-esima fila deB se denota por Bi := [bi1, . . . , bin], la j-esima columna se denota por

B(j) :=

b1j...

bmj

.

La matriz BT = [b′ij] de tamano n×m definida por b′ij := bji, para cada i y cada j,se denomina la traspuesta de B. La matriz B se dice cuadrada si m = n.

Proposicion 1.2.2. El conjunto Mm×n(A) de todas las matrices de tamano m× ncon entradas en el anillo A es un A-espacio vectorial respecto de las siguientesoperaciones: si B = [bij], C = [cij] ∈ Mm×n(A) y a ∈ A, entonces

B + C := [bij + cij], B · a := [bija].

Mm×n(A) es libre con base canonica {Eij}m,ni=1,j=1, donde

Eij :=

0... 0

· · · 1 · · ·0

... 0

, (1.2.1)

es decir, en la matriz Eij la unica entrada no nula corresponde a la interseccion dela i-esima fila con la j-esima columna en donde esta ubicado el elemento 1. Ademas,estas matrices satisfacen la siguiente regla para el producto:

EijEpq =

{Eiq, j = p

0, j 6= p.

Demostracion. Dejamos los detalles de la prueba al lector. Indiquemos solamente lanotacion para la matriz nula y la representacion de cualquier matriz B de Mm×n(A)en terminos de la base canonica:

Page 15: Algebra Lineal (Libro) - Lezama

1.2. MATRICES SOBRE ANILLOS 9

0 =

0 · · · 0...

...0 · · · 0

, B =∑

i,j Eij · bij.

Definicion 1.2.3. Sean B = [bij] ∈ Mm×n(A), C = [cij] ∈ Mn×p(A), se define elproducto

BC := D = [dij], dij :=n∑

i=1

bikckj, 1 ≤ i ≤ m, 1 ≤ j ≤ p.

Notemos que el producto de matrices se define con la siguiente condicion decompatibilidad: el numero de columnas del primer factor coincide con el numero defilas del segundo factor.

Proposicion 1.2.4. Sean B, C, D matrices compatibles para las operaciones indi-cadas. Entonces

(i) (BC)D = B(CD).

(ii) B(C + D) = BC + BD; (B + C)D = BD + CD.

(iii) Si R es un anillo conmutativo y B, C son matrices con entradas en R, entoncespara cada r ∈ R se tiene que (B · r)C = (BC) · r = B(C · r).

(iv) Sean B, C y D matrices como en la definicion 1.2.3. Entonces,

BC = [BC(1) · · ·BC(p)],

BC = [B1C · · ·BmC]T

(v) Para cada ≥ 1 se define la matriz identica de tamano n× n sobre el anilloA por

E = [eij] :=

1 0. . .

0 1

, eij :=

{1, i = j

0, i 6= j

Entonces, para cada matriz B ∈ Mm×n(A) se tiene que

EB = B, BE = B.

Page 16: Algebra Lineal (Libro) - Lezama

10 CAPITULO 1. MATRICES

(vi) Para cada n ≥ 1, Mn(A) es un anillo. Si R es un anillo conmutativo, entoncesMn(R) es una R-algebra.

Demostracion. Todas las afirmaciones de esta proposicion son consecuencia directade las definiciones; dejamos su prueba la lector.

Las matrices constituyen un lenguaje computacional para el algebra lineal talcomo lo ilustra el siguiente teorema en el cual mostraremos la representacion detransformaciones lineales por medio de matrices. Para el teorema necesitamos lassiguientes nociones (veanse [4], [5] y [6]).

Definicion 1.2.5. Sean G, H dos grupos, se dice que G es isomorfo a H, locual se denota por G ∼= H, si existe una funcion biyectiva f : G → H tal quef(g ∗ g′) = f(g)∗ f(g′) para cualesquiera elementos g, g′ ∈ G. Sean A, B dos anillos,se dice que A es isomorfo a B, lo cual se denota por A ∼= B, si existe una funcionbiyectiva f : A → B tal que f(a + a′) = f(a) + f(a′), f(aa′) = f(a)f(a′) paracualesquiera elementos a, a′ ∈ A, y ademas f(1) = 1. Sea R un anillo conmutativoy sean K, L dos R-algebras, se dice que K es isomorfa a L, lo cual se denota porK ∼= L, si existe una funcion biyectiva f : K → L tal que f(k + k′) = f(k) + f(k′),f(k · r) = f(k) · r, f(kk′) = f(k)f(k′) para cualesquiera elementos k, k′ ∈ K, r ∈ R,y ademas f(1) = 1.

Teorema 1.2.6. Sea A un anillo arbitrario.

(i) Si V es un A-espacio libre con una base de n ≥ 1 elementos y W es unA-espacio libre con una base de m elementos, entonces

HomA(V, W ) ∼= Mm×n(A) (isomorfismo de grupos).

Si A = R es un anillo conmutativo entonces el isomorfismo anterior es deespacios vectoriales.

(ii) EndA(V ) ∼= Mn(A) (isomorfismo de anillos).

(iii) Si R es un anillo conmutativo, entonces EndR(V ) ∼= Mn(R) (isomorfismo dealgebras).

Demostracion. La idea central de la prueba del teorema es asignar a cada transfor-macion lineal una matriz y, recıprocamente, definir con cada matriz una transfor-macion lineal.

Matriz asociada a una transformacion lineal : sea X = {x1, . . . , xn} unabase de V y sea Y = {y1, . . . , ym} una base de W ; sea f : V → W una t.l., entonces

Page 17: Algebra Lineal (Libro) - Lezama

1.2. MATRICES SOBRE ANILLOS 11

f determina una unica matriz mX,Y (f) := F := [fij] ∈ Mm×n(A), llamada la matrizde la tranformacion f en las bases X, Y , y definida por

f(xj) :=m∑

i=1

yi.fij, 1 ≤ j ≤ n. (1.2.2)

Transformacion lineal definida por una matriz : cada matriz F = [fij] ∈Mm×n(A) determina una unica t.l. f : V → W definida como en (1.2.2). Si enparticular V = An y W = Am, entonces f se puede presentar matricialmente en lasiguiente forma:

f : An → Am

a := [a1, . . . , an]T 7→ Fa = F [a1, . . . , an]T = F (1) · a1 + · · ·+ F (n) · an. (1.2.3)

(i) Por lo anterior es claro que la funcion

HomA(V, W )mX,Y−−−→ Mm×n(A)

f 7→ mX,Y (f)

es un isomorfismo de grupos. Si A = R es un anillo conmutativo, la funcion mX,Y

es un isomorfismo de espacios vectoriales.(ii) Sea U un A-espacio libre con una base Z = {z1, . . . , zp} de p elementos y sea

g : W → U otra t.l., veamos entonces que

mX,Z(gf) = mY,Z(g)mX,Y (f). (1.2.4)

Sean F = mX,Y (f), G = mY,Z(g) y H = mX,Z(gf); se tiene que

(gf)(xj) =

p∑k=1

zk · hkj

= g(f(xj)) = g(m∑

l=1

yl · flj)

=m∑

l=1

(

p∑k=1

zk · gkl) · flj

=

p∑k=1

zk · (m∑

l=1

gklflj),

luego hkj =∑m

l=1 gklflj, es decir, H = GF .Tomando V = W = U y X = Y = Z en (1.2.4) y considerando lo probado en (i)

se obtiene que EndA(V ) y Mn(A) son anillos isomorfos. Notemos que mX,X(iV ) :=mX(iV ) = E.

(iii) Esto es consecuencia directa de (i) y (ii).

Page 18: Algebra Lineal (Libro) - Lezama

12 CAPITULO 1. MATRICES

Observacion 1.2.7. (i) Al considerar espacios vectoriales a izquierda algunos au-tores acostumbran a disponer por filas los coeficientes de la expansion a travesde una base. En forma mas precisa, sea X = {x1, . . . , xn} una base de V y seaY = {y1, . . . , ym} una base de W ; sea f : V → W una t.l., entonces f determinauna unica matriz mX,Y (f) := [fij] ∈ Mn×m(A), denominada tambien la matriz dela tranformacion f en las bases X, Y , y definida por

f(xi) :=m∑

j=1

fij · yj, 1 ≤ i ≤ n. (1.2.5)

La identidad (1.2.4) se convierte en

mX,Z(gf) = mX,Y (f)mY,Z(g). (1.2.6)

En efecto, usando la notacion de la demostracion del toerema 1.2.6 tenemos queg(yj) =

∑pk=1 gjk · zk, 1 ≤ j ≤ m, mY,Z(g) := [gij] ∈ Mm×p(A), luego

(gf)(xi) =m∑

j=1

fij · g(yj) =m∑

j=1

p∑k=1

fijgjk · zk.

Si utilizaramos tambien notacion izquierda para funciones, es decir, en lugar de

f(x) escribieramos xf , entonces la compuesta Vf−→ W

g−→ U deberıa denotarse fg,en cuyo caso se tendrıa la relacion mX,Z(fg) = mX,Y (f)mY,Z(g). Con esta notaciontendrıamos en particular el isomorfismo de anillos EndA(AV ) ∼= Mn(A). Sin em-bargo, la notacion a izquierda para funciones es muy poco usada, esto trae comoconsecuencia que en el teorema 1.2.6 los anillos EndA(AV ) y Mn(A) sean anti-isomorfos. Pero si consideramos el anillo opuesto de Mn(A) (vease [6]), entoncestendremos el isomorfismo de anillos EndA(AV ) ∼= Mn(A)op. Notemos adicionalmenteque una matriz F := [fij] ∈ Mn×m(A) define una t.l. dada por

A1×n f−→ A1×m

(a1, . . . , an) 7→ (a1, . . . , an)F (1.2.7)

y la matriz de f en las bases canonicas coincide con F .(ii) Otra alternativa para los espacios a izquierda es disponer nuevamente los

coeficientes de la expansion por columnas y mantener la notacion usual de funcionesa derecha, en tal caso resulta

(gf)(xj) = g(m∑

i=1

fij · yi) =m∑

i=1

p∑k=1

fijgki · zk;

Page 19: Algebra Lineal (Libro) - Lezama

1.3. INVERSA DE UNA MATRIZ Y CAMBIO DE BASE 13

si cambiamos el anillo A por su anillo opuesto Aop, entonces tendrıamos mX,Z(gf) =mY,Z(g)mX,Y (f), y en consecuencia el isomorfismo EndA(AV ) ∼= Mn(Aop). Otravariante de esta alternativa es no usar el anillo opuesto, pero entonces la identidadanterior dice que

mX,Z(gf) = (mX,Y (f)T mY,Z(g)T )T . (1.2.8)

La matriz F ∈ Mr×s(S) define un homomorfismo

Ss f−→ Sr

a 7→ (aT F T )T (1.2.9)

y su matriz en las bases canonicas coincide con F . Ası pues, f : Sr → Sr es unisomorfismo si, y solo si, F T ∈ GLr(S). Finalmente, sea C ∈ Mr(S); las columnasde C constituyen una base de Sr si, y solo si, CT ∈ GLr(S) (vease el corolario 1.3.5mas adelante).

(iii) Notemos de todos modos que los valores asignados por la funcion f encada una de las dos opciones anteriores coinciden ya que la matriz F en (1.2.7) esprecisamente F T en (1.2.9).

(iv) Finalmente, si A es un anillo conmutativo entonces la relacion (1.2.8) coincidecon (1.2.4) y tambien se tiene que (aT F T )T = Fa.

1.3. Inversa de una matriz y cambio de base

Definicion 1.3.1. Sea B ∈ Mn×m(A) una matriz; se dice que B es semi-invertiblesi existe otra matriz B′ ∈ Mm×n(A) tal que BB′ = E y B′B = E. En tal caso sedice que B′ es la semi-inversa de B. Si n = m se dice que B es invertible yB−1 := B′ es la inversa de B. El grupo de elementos invertibles del anillo Mn(A)se denota por GLn(A) y se denomina el grupo lineal general de orden n sobre elanillo A.

Notemos que la semi-inversa de una matriz es unica. Ademas, si C ∈ Mm×p essemi-invertible, entonces BC es semi-invertible con semi-inversa C ′B′.

Corolario 1.3.2. Sea V un A-espacio libre con una base de n ≥ 1 elementos.Entonces,

AutA(V ) ∼= GLn(A) (isomorfismo de grupos).

Demostracion. Esto es consecuencia del teorema anterior y los detalles de la pruebalos dejamos al lector.

El grupo GLn(A) y varios de sus subgrupos mas destacados seran estudiadosen forma detallada en el ultimo capıtulo del presente cuaderno. Pasamos ahora aestudiar los cambios de bases en los espacios libres y a entender su efecto en lasrepresentaciones matriciales de las transformaciones lineales.

Page 20: Algebra Lineal (Libro) - Lezama

14 CAPITULO 1. MATRICES

Proposicion 1.3.3. Sea V un espacio libre con base X = {x1, . . . , xn} y sea B =[bij] ∈ Mn×m(A). Entonces el conjunto

Y := {yj =n∑

i=1

xi.bij|1 ≤ j ≤ m} (1.3.1)

es una base de V si, y solo si, B es semi-invertible.

Demostracion. Para simplificar la prueba utilizaremos notacion matricial de tal for-ma que la igualdad (1.3.1) la escribiremos como

[Y ] = [X]B

con [Y ] := [y1, . . . , ym].⇒) Si Y es una base de V cada elemento de X es combinacion lineal de los

elementos de Y , resulta entonces una matriz B′ ∈ Mm×n(A) tal que [X] = [Y ]B′.Por lo tanto , [Y ] = [X]B = [Y ]B′B, y por la independencia lineal de Y se tieneque B′B = E. Por la simetrıa del problema, BB′ = E.

⇐) [X] = [X]E = [X]BB′ = [Y ]B′, luego V = 〈X〉 ⊆ 〈Y 〉 y entonces V = 〈Y 〉.Sean a1, . . . , am ∈ A tales que y1·a1+· · ·+ym·am = 0; se tiene entonces que [Y ]F = 0,donde F ∈ Mm(A) es una matriz en la cual cada fila es el vector [a1, . . . , am]. Resultaentonces [X]BF = 0, pero como X es l.i. entonces BF = 0, luego B′BF = 0, esdecir, F = 0, con lo cual a1 = · · · = am = 0.

Definicion 1.3.4. La matriz B de la proposicion 1.3.3 es la matriz de cambiode la base X a la base Y .

La matriz B′ es la matriz de cambio de Y a X; notemos que B′ es semi-invertible.Esta situacion se presenta solamente en los anillos no dimensionales (vease [5] y laobservacion 1.3.10 mas adelante). Para anillos dimensionales n = m y la matriz decambio B es invertible.

Corolario 1.3.5. Sea B ∈ Mn×m(A); B es semi-invertible si, y solo si, las columnasde B constituyen una base de Am. Si m = n, B es invertible si, y solo si, las columnasde B constituyen una base de An.

Demostracion. Basta tomar V = An y X la base canonica de An en la prueba de laproposicion 1.3.3.

Ejemplo 1.3.6. La sola independencia la columnas de una matriz no garantiza quesea semi-invertible. Consideremos por ejemplo la matriz cuadrada

B =

[1 23 4

]∈ M2(Z),

Page 21: Algebra Lineal (Libro) - Lezama

1.3. INVERSA DE UNA MATRIZ Y CAMBIO DE BASE 15

notemos que B no es invertible como matriz entera ya que su inversa como matrizreal es

B−1 =

[−2 132

−12

]∈ M2(Z);

notemos ademas que las columnas de B son l.i.

Definicion 1.3.7. Dos matrices P ∈ Mp×q(A) y Q ∈ Mm×n(A) son semi-equi-valentes si existen matrices semi-invertibles D ∈ Mp×m(A) y C ∈ Mq×n(A) talesque

Q = D′PC.

Si p = m y q = n se dice que P y Q son equivalentes si existen matrices invertiblesD ∈ GLm(A) y C ∈ GLn(A) tales que Q = D−1PC, lo cual denotaremos por P ∼ Q.Si p = m = q = n se dice que P y Q son similares si existe una matriz invertibleC ∈ GLn(A) tal que Q = C−1PC, lo cual se denota por P ≈ Q.

Todas las relaciones de la definicion anterior son de equivalencia.

Proposicion 1.3.8. Sea f : V → W una t.l, donde V es libre con bases X ={x1, . . . , xn}, X ′ = {x′1, . . . , x′q} y W es libre con bases Y = {y1, . . . , ym}, Y ′ ={y′1, . . . , y′p}. Sean P = mX,Y (f), Q = mX′,Y ′(f), C la matriz de cambio de X a X ′

y D la matriz de cambio de Y a Y ′. Entonces,

Q = D′PC.

Si q = n y p = m entonces Q = D−1PC. Si V = W , Y = X,Y ′ = X ′, entoncesQ = C−1PC.

Demostracion. Tenemos que

f(xj) =m∑

k=1

yk.pkj, 1 ≤ j ≤ n

f(x′t) =

p∑r=1

y′r.qrt, 1 ≤ t ≤ q

x′t =n∑

j=1

xj.cjt

y′r =m∑

k=1

yk.dkr, 1 ≤ r ≤ p,

luego

Page 22: Algebra Lineal (Libro) - Lezama

16 CAPITULO 1. MATRICES

f(x′t) =∑n

j=1 f(xj).cjt =∑n

j=1(∑m

k=1 yk.pkj).cjt =∑m

k=1 yk.(∑n

j=1 pkjcjt);

f(x′t) =∑p

r=1(∑m

k=1 yk.dkr).qrt =∑m

k=1 yk.(∑p

r=1 dkrqrt),

y puesto que Y es l.i, entonces PC = DQ, es decir, Q = D′PC.

Proposicion 1.3.9. Dos matrices P ∈ Mp×q(A) y Q ∈ Mm×n(A) son semiequi-valentes si, y solo si, representan la misma transformacion lineal. Si q = n y p =m, entonces P, Q ∈ Mm×n(A) son equivalentes si, y solo si, representan la mismatransformacion lineal. Si q = n = p = m, entonces P, Q ∈ Mn(A) son similares si,y solo si, representan la misma transformacion lineal.

Demostracion. ⇒): sea Q = D′PC con D ∈ Mp×m(A) y C ∈ Mq×n(A) semi-

invertibles; P representa una t.l. Aq f−→ Ap en las bases canonicas X de Aq y Yde Ap. Sea [Y ′] := [Y ]D; como D es semi-invertible, entonces Y ′ es tambien unabase de Ap (notemos que Y ′ esta conformada por las m columnas de D, luegoAp ∼= Am). De igual manera, sea [X ′] := [X]C, y X ′ es tambien una base de Aq (X ′

esta conformada por las n columnas de C, luego Aq ∼= An). De otra parte, Q tambien

representa una t.l. Aq g−→ Ap en las bases X ′, Y ′; se tiene entonces que mX,Y (f) = Py mX′,Y ′(g) = Q, de donde mX′,Y ′(f) = D′mX,Y (f)C = D′PC = Q = mX′,Y ′(g), ypor lo tanto, f = g.

⇐): esta parte corresponde la la proposicion 1.3.8.

Observacion 1.3.10. (i) Un punto donde el algebra lineal sobre anillos se aparta delalgebra lineal clasica es en la existencia y tamano de las bases. En [6] se demuestraque el Z-espacio de los numeros racionales Q no es libre. En cuanto a la unicidadde las bases, en general, podemos afirmar que en un espacio vectorial libre existeninfinitas bases. Por ejemplo, en Rn el conjunto Xa = {e1.a, . . . , en}, con a ∈ R−{0},es una base. En Z2 se tienen las siguientes bases,

{(1, 0), (0, 1)}, {(−1, 0), (0,−1)}, {(1, 0), (0,−1)}, {(−1, 0), (0, 1)}, {(1, 1), (1, 2)}.

En el siguiente capıtulo veremos que {(a, b), (c, d)} es una base de Z2 si, y solo si,ad− bc = ±1. El problema de la unicidad entonces es mejor plantearlo en terminosdel tamano de las bases. En [6] se prueba que todo espacio vectorial libre finitamentegenerado (f.g.) posee una base finita, y tambien que, en un espacio vectorial libretodas las bases son finitas o bien todas son infinitas. Ademas, para espacios de basesinfinitas no hay problema con el tamano de las bases, todas tinen la misma cantidadde elementos. Sin embargo, existen anillos A para los cuales se tiene la siguientepropiedad: si V es un A-espacio de bases finitas, no necesariamente todas las basesde V tienen el mismo numero de elementos. Un ejemplo puede ser consultado en [6].

(ii) Sea V un A-espacio libre. Se dice que V es dimensional si todas las bases deV tienen el mismo numero de elementos. Este numero se denomina la dimension

Page 23: Algebra Lineal (Libro) - Lezama

1.4. MATRICES Y OPERACIONES ELEMENTALES 17

de V y se denota por dimA(V ). Se dice que A es un anillo dimensional si todossus A-espacios libres son dimensionales (en ingles IBN , invariant basis number). Lamayorıa de los anillos estudiados en algebra son dimensionales (vease [2] y [4]). Porejemplo, los anillos de division y los anillos conmutativos son dimensionales (esto loprobaremos mas adelante).

(iii) Notemos que un anillo A es dimensional si, y solo si, las unicas matricessemi-invertibles sobre A son las matrices cuadradas (en cuyo caso son invertibles).Esto hace que si A es un anillo dimensional, entonces todos los A-espacios vectorialeslibres izquierdos son dimensionales, es decir, A es dimensional a derecha si, y solosi, A es dimensional a izquierda (vease [4]). Ademas, en anillos dimensionales, semi-invertible = invertible y semi-equivalente = equivalente.

(iv) En adelante en el presente cuaderno asumiremos que A es un anillo dimen-sional.

1.4. Matrices y operaciones elementales

En el grupo GLn(A) se tienen tres tipos importantes de matrices que permitenrealizar cambios sobre las filas y/o columnas de una matriz. Definimos en esta seccionestas matrices invertibles especiales.

Definicion 1.4.1. Sea n ≥ 2. Se definen los siguientes tipos de matrices elemen-tales.

(i) Matrices propiamente elementales:

Tij(a) := E + Eij · a =

1

. . . a. . .

. . .

1

, a ∈ A, i 6= j.

(ii) Permutaciones:

Pij := E − Eii − Ejj + Eij + Eji.

(iii) Diagonales:

Di(a) := E + Eii · (a− 1), a ∈ A∗.

Proposicion 1.4.2. Las matrices elementales son invertibles,

Page 24: Algebra Lineal (Libro) - Lezama

18 CAPITULO 1. MATRICES

Tij(a)−1 = Tij(−a), P−1ij = Pij, Di(a)−1 = Di(a

−1).

Demostracion. Ejercicio para el lector.

Definicion 1.4.3. El subgrupo de GLn(A) generado por todas las matrices propia-mente elementales se denomina grupo elemental, y se denota por En(A).

Las matrices elementales inducen las llamadas operaciones elementales sobrelas filas y columnas de una matriz F ∈ Mm×n(A), m, n ≥ 2:

(i) El efecto de multiplicar F a la derecha por Tij(a) ∈ GLn(A) es sumar a laj-esima columna de F la i-esima columna multiplicada a derecha por a. Elefecto de multiplicar F a la izquierda por Tij(a) ∈ GLm(A) es sumar a lai-esima fila la j-esima multiplicada a izquierda por a.

(ii) El producto FPij, con Pij ∈ GLn(A) intercambia las columnas i-esima y j-esima de F . PijF , con Pij ∈ GLm(A), efectua el correspondiente intercambiode filas.

(iii) La matriz FDi(a), con Di(a) ∈ GLn(A), se obtiene de F multiplicando lai-esima columna de F a la derecha por a. Di(a)F , con Di(a) ∈ GLm(A), seobtiene de F multiplicando la i-esima fila de F por a a la izquierda.

Teniendo en cuenta que el producto de matrices invertibles es invertible, obtenemosinmediatamente el siguiente resultado.

Corolario 1.4.4. Si la matriz G ∈ Mm×n(A) se obtuvo de F ∈ Mm×n(A) pormedio de operaciones elementales sobre las fila y/o columnas de F , entonces G esequivalente a F .

1.5. Ejercicios

1. Determine 10 bases diferentes en Z2 distintas de la base canonica.

2. Determine 10 conjuntos diferentes en Z2 cada uno de 2 elementos y l.d.

3. Sea K un cuerpo y sea V un K-espacio. Si x1, . . . , xn son vectores l.i. de V ,demuestre que cada conjunto de n + 1 vectores de 〈x1, . . . , xn〉 es l.d.

4. Demuestre que todo cuerpo K es un anillo dimensional.

5. Sea n ≥ 1 entero y sea Rn[x] el conjunto de polinomios reales de grado menoro igual a n. Demuestre que Rn[x] es un R-espacio de dimension n + 1.

Page 25: Algebra Lineal (Libro) - Lezama

1.5. EJERCICIOS 19

6. Con la notacion del ejercicio anterior, sea X un subconjunto de Rn[x] quecontiene para cada k = 0, 1, . . . , n un unico polinomio de grado k. Demuestreque X es una base de Rn[x].

7. Demuestre la afirmacion del ejemplo 1.1.17.

8. Sea f : V → W una t.l. para la cual existe una funcion g : W → V tal quefg = iW y gf = iV . Demuestre que g es una t.l.

9. Compruebe que EndR(R2) no es un anillo conmutativo.

10. Demuestre que M2(R) es una R-algebra no conmutativa.

11. Sea R un anillo conmutativo y R[x1, . . . , xn] el conjunto de polinomios enn indeterminadas con coeficientes en R. Demuestre que R[x1, . . . , xn] es unaR-algebra conmutativa.

12. Demuestre el corolario 1.3.2.

13. Demuestre que las columnas de la matriz B del ejemplo 1.3.6 son l.i.

14. Demuestre que las relaciones de la definicion 1.3.7 son de equivalencia.

15. (vease [1], pag. 17) Sea A un anillo; un subconjunto no vacıo I de A es unideal derecho de A si x + y ∈ I y xa ∈ I para cada x ∈ I y cada a ∈ A.De manera similar se definen los ideales izquierdos de A. Demuestre que paracada 1 ≤ r ≤ n− 1, el conjunto

I =

[0A

]conformado por todas las matrices en las cuales las primeras r filas son nulases un ideal derecho de Mn(A). De igual manera, demuestre que el conjuntode matrices de Mn(A) conformado por todas las matrices en las cuales lasprimeras r columnas son nulas es un ideal izquierdo de Mn(A).

16. Sea V un A-espacio y sea v ∈ V ; se define

AnnA(v) := {a ∈ A|v.a = 0}.

Demuestre que AnnA(v) es un ideal derecho de A. Ademas, si

AnnA(V ) := {a ∈ A|v.a = 0 para cada v ∈ V },

Page 26: Algebra Lineal (Libro) - Lezama

20 CAPITULO 1. MATRICES

entonces AnnA(V ) es un ideal bilatero de A, es decir, AnnA(V ) es un idealizquierdo y derecho de A que cumple

AnnA(V ) =⋂

v∈V AnnA(v).

17. Sean V1, V2 dos subespacios de un A-espacio V . Demuestre que

V1 + V2 := {vi + v2|v1 ∈ V1, v2 ∈ V2}

es un subespacio de V y que AnnA(V1 + V2) = AnnA(V1) ∩ AnnA(V2).

18. Sea V un A-espacio libre con una base de n elementos. Sea f : V → V unat.l. Muestre con un ejemplo que la sobreyectividad de f y la inyectividad noson condiciones equivalentes.

19. Demuestre la proposicion 1.4.2.

20. Sea A un anillo y sea B ∈ Mn(A); se dice que B es simetrica si BT = B,y antisimetrica si BT = −B. Demuestre que B + BT es simetrica y queB −BT es antisimetrica. Ademas, si 2 := 1 + 1 ∈ A∗, entonces demuestre queB es suma de una matriz simetrica y una matriz antisimetrica.

21. Sean P, Q matrices rectangulares o cuadradas, segun corresponda, sobre unanillo conmutativo R. Demuestre que (P + Q)T = P T + QT ; (PQ)T = QT P T ;(P−1)T = (P T )−1.

22. Sean A1, . . . , An anillos; demuestre que el producto cartesiano

A1 × · · · × An := {(a1, . . . , an)|ai ∈ Ai, 1 ≤ i ≤ n}

bajo las operaciones definidas por componenetes tiene estructura de anillo.Demuestre ademas los siguientes isomorfismos de anillo y grupo, respectiva-mente:

Mn(A1 × · · · × An) ∼= Mn(A1)× · · · ×Mn(An),

GLn(A1 × · · · × An) ∼= GLn(A1)× · · · ×GLn(An).

23. Sea R un anillo conmutativo y sea B = [bij] ∈ Mn(R). Se define la traza de Bpor Tr(B) := b11 + · · ·+ bnn. Demuestre las siguientes propiedades:

(i) Tr(BC) = Tr(CB).

(ii) Tr(B + C) = Tr(B) + Tr(C).

Page 27: Algebra Lineal (Libro) - Lezama

1.5. EJERCICIOS 21

(iii) Tr(B.r) = Tr(B)r, r ∈ R.

(iv) La traza es una t.l. sobreyectiva de Mn(R) en R.

(v) ker(Tr) = 〈X〉, donde X = {Eij|i 6= j} ∪ {E11 − Eii|i 6= 1}.(vi) Tr(BT ) = Tr(B).

(vii) Tr(P−1BP ) = Tr(B), para cada P ∈ GLn(R).

(viii) ker(Tr) = 〈Y 〉, con Y = {BC − CB|B, C ∈ Mn(R)}.

Page 28: Algebra Lineal (Libro) - Lezama

Capıtulo 2

Determinantes y sistemas deecuaciones lineales

En este capıtulo presentaremos la teorıa de determinantes sobre anillos conmutativosarbitrarios y la usaremos para estudiar sistemas de ecuaciones lineales sobre estosanillos. Si no se advierte lo contrario R denotara un anillo conmutativo.

2.1. Determinantes

El enfoque que daremos a la funcion determinante utiliza el grupo de permutacionesde un conjunto finito, el cual trataremos a continuacion.

Definicion 2.1.1. Para cada n ≥ 1 sea Sn el conjunto de todas las funciones biyec-tivas del conjunto In := {1, 2, . . . , n}. Cada una de tales funciones se denominapermutacion del conjunto In. Bajo la operacion de composicion de funciones , Sn

es claramente un grupo, y se le denomina grupo simetrico de grado n. Una per-mutacion π ∈ Sn se llama ciclo de longitud m, 1 ≤ m ≤ n, si existen m elementosdiferentes α1, . . . , αm ∈ In tales que π(αi) = αi+1 para 1 ≤ i ≤ m − 1, π(αm) = α1

y π(α) = α para cada α ∈ In \ {α1, . . . , αm}. Un ciclo de longitud 2 se denominatrasposicion. Dos ciclos π = (α1 · · ·αm) y θ = (β1 · · · βr) se dicen disyuntos, si{α1 · · ·αm} ∩ {β1 · · · βr} = ∅.

Enunciamos a continuacion algunas de las propiedades mas importantes delgrupo Sn y de sus ciclos. La demostracion de estas puede ser consultada en [8]y [4].

(i) Los ciclos disjuntos conmutan.

(ii) Cada permutacion de Sn es el producto de ciclos disjuntos. La representaciones unica salvo el orden.

22

Page 29: Algebra Lineal (Libro) - Lezama

2.1. DETERMINANTES 23

(iii) Cada permutacion en Sn es producto de trasposiciones.

(iv) Si una permutacion π ∈ Sn tiene dos descomposiciones en productos de r y strasposiciones, entonces r es par si, y solo si, s es par.

(v) Una permutacion π ∈ Sn se denomina par , si se descompone en un numeropar de trasposiciones. El conjunto An de las trasposiciones pares de Sn tienelas siguientes propiedades: el producto de permutaciones para es par; la per-mutacion identica es par; la inversa de una permutacion par es par. En otraspalabras, An bajo la composicion es un grupo, llamado el grupo alternantede grado n.

(vi) Sn tiene n! elementos, mientras que An posee n!2.

Definicion 2.1.2. Sea n ≥ 1. Para cada B = [bij] ∈ Mn(R) se define su determi-nante como el elemento de R dado por

det B :=∑π∈Sn

(−1)πb1π(1) · · · bnπ(n), (2.1.1)

donde (−1)π es 1 o −1, dependiendo si π es par o impar, respectivamente.

A partir de ((2.1.1)) se pueden demostrar las principales propiedades de la funciondeterminante

det : Mn(R) → R

B 7→ det B.

Proposicion 2.1.3. Sea B = [bij] ∈ Mn(R). Entonces

det[B1, . . . , aBi, . . . , Bn]T = a det B, a ∈ R.

Demostracion. Sea C = [cij] la matriz obtenida de B multiplicando la i-esima filapor a ∈ R. Entonces

det C =∑π∈Sn

(−1)πc1π(1) · · · ciπ(i) · · · cnπ(n)

=∑π∈Sn

(−1)πb1π(1) · · · abiπ(i) · · · bnπ(n)

= a det B.

Notese la aplicacion de la propiedad conmutativa.

Page 30: Algebra Lineal (Libro) - Lezama

24 CAPITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

Proposicion 2.1.4. Sea B = [bij] ∈ Mn(R) y (a1 . . . , an) ∈ Rn. Entonces

det

b11 · · · b1n

bi1 + a1 · · · bin + an

bn1 · · · bnn

= det B + det

b11 · · · b1n

a1 · · · an

bn1 · · · bnn

.

Demostracion. Sea C = [cij] ∈ Mn con

crs =

{brs, r 6= i

bis + as, r = i.

Entonces,

det C =∑π∈Sn

(−1)πb1π(1) · · · (biπ(i) + aπ(i)) · · · bnπ(n)

= det B + det

b11 · · · b1n

a1 · · · an

bn1 · · · bnn

.

Proposicion 2.1.5. Si dos filas de una matriz son iguales entonces su determinantees nulo.

Demostracion. Sea B = [bij] ∈ Mn(R) tal que Br = Bs con r 6= s. Sea τ =(rs) ∈ Sn y An el grupo de permutaciones pares. Sea Anτ := {πτ | π ∈ An}.Notese que |Anτ | = n!

2y que cada permutacion de Anτ es impar. resulta entonces

Sn = An∪∅Anτ , con lo cual podemos desarrollar el determinante de B de la siguientemanera:

det B =∑π∈An

(−1)πb1π(1) · · · bnπ(n) +∑π∈An

(−1)πτb1πτ(1) · · · bnπτ(n)

=∑π∈An

[(−1)πb1π(1) · · · bnπ(n) + (−1)πτb1πτ(1) · · · bnπτ(n)].

Observemos con mayor detalle cada termino de la anterior suma:

(−1)πb1π(1) · · · brπ(r) · · · bsπ(s) · · · bnπ(n) + (−1)πτb1πτ(1) · · · brπτ(r) · · · bsπτ(s) · · · bnπτ(n)

(2.1.2)

Para i 6= r, s, biπ(i) = biπτ(i); brπ(r) = bsπ(r) = bsπτ(s); bsπ(s) = brπ(s) = brπτ(r); (−1)π

y (−1)πτ tienen signo diferente. Por lo tanto la suma de 2.1.2 es nula, obteniendoseque det B = 0.

Page 31: Algebra Lineal (Libro) - Lezama

2.1. DETERMINANTES 25

Proposicion 2.1.6. Si en una matriz se intercambian dos filas el determinantecambia de signo.

Demostracion. Sean B, C ∈ Mn(R), donde Cr = Bs, Cs = Br para r 6= s, y Ci = Bi

para i 6= r, s. Considerese la matriz D = [B1, . . . , Br + Bs, . . . , Bs + Br, . . . , Bn]T .De acuerdo a 2.1.5 det D = 0, pero por 2.1.4 se tiene que

0 = det D = det[B1, . . . , Br, . . . , Bs + Br, . . . , Bn]T +

det[B1, . . . , Bs, . . . , Bs + Br, . . . , Bn]T

= det[B1, . . . , Br, . . . , Bs, . . . , Bn]T + det[B1, . . . , Br, . . . , Br, . . . , Bn]T +

det[B1, . . . , Bs, . . . , Bs, . . . , Bn]T + det[B1, . . . , Bs, . . . , Br, . . . , Bn]T

= det B + det C.

Corolario 2.1.7. Si la matriz C ∈ Mn(R) se obtuvo de B ∈ Mn(R) mediante unapermutacion π de filas, entonces det C = (−1)π det B.

Demostracion. Consecuencia directa de 2.1.6.

Proposicion 2.1.8. Sea B ∈ Mn(R). Entonces

det[B1, . . . , Br + aBs, . . . , Bs, . . . , Bn]T = det B, con a ∈ R, r 6= s.

En consecuencia, si una fila es nula el determinante es nulo.

Demostracion. Consecuencia de las proposiciones 2.1.3, 2.1.4 y 2.1.5.

De la definicion y de las propiedades establecidas se obtienen los siguientes re-sultados:

(i) det E = 1.

(ii) det Di(a) = a, a ∈ R.

(iii) det Pij = −1 para i 6= j.

(iv) det Tij(a) = 1, a ∈ R.

Teorema 2.1.9. Para B, C ∈ Mn(R) se cumple que

det(BC) = (det B)(det C). (2.1.3)

Page 32: Algebra Lineal (Libro) - Lezama

26 CAPITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

Demostracion. Considerese la matriz D ∈ Mn(R) cuyas filas se definen por

Di := bi1C1 + · · ·+ binCn, 1 ≤ i ≤ n.

Aplicando 2.1.3 y 2.1.4 a la primera fila de D obtenemos

det D =n∑

j=1

bij det[Cj, b21C1 + · · ·+ b2nCn, . . . , bn1C1 + · · ·+ bnnCn]T

Procediendo de manera analoga con las demas filas resulta

det D =∑

j1,...,jn

b1j1b2j2 · · · bnjn det[Cj1 , . . . , Cjn ]T , (2.1.4)

donde j1, . . . , jn recorren independientemente los valores de 1 a n. Para valoresiguales de dos ındices el determinante det[Cj1 , . . . , Cjn ] es nulo. Ası pues, en (2.1.4)podemos suponer que los subındices j1, . . . , jn son diferentes. Esto hace que tengamosuna correspondencia biyectiva entre Sn las n-plas (j1, . . . , jn) de entradas diferentesentre sı. Resulta entonces

det D =∑π∈Sn

b1π(1) · · · bnπ(n) det[Cπ(1), . . . , Cπ(n)]T ,

aplicando el corolario 2.1.7 resulta

det D =∑π∈Sn

(−1)πb1π(1) · · · bnπ(n) det[C1, . . . , Cn]T , es decir,

det D = (det B)(det C).

De este teorema se desprenden algunas conclusiones importantes.

Corolario 2.1.10. (i) Si B ∈ GLn(R), entonces det B ∈ R∗ y ademas det B−1 =(det B)−1.

(ii) Matrices similares tienen el mismo determinante.

(iii) Los anillos conmutativos son dimensionales.

Demostracion. Las dos primeras afirmaciones son evidentes.(iii) Sea V un R-espacio libre con bases X = {x1, . . . , xn} y Y = {y1, . . . , ym}.

Supongase que m 6= n; por ejemplo m > n. Sea B ∈ Mn×m(R) la matriz de cambiode X a Y . Por 1.3.3, existe B′ ∈ Mm×n(R) tal que B′B = E (identica de orden m).

Sean B, B′ ∈ Mm(R) las matrices obtenidas de B y B′ adjuntando columnas y filas

nulas respectivamente. Entonces B′B = E, pero det E = 1 = det B′ det B = 0 yaque B tiene filas nulas.

Page 33: Algebra Lineal (Libro) - Lezama

2.2. DETERMINANTES Y FUNCIONES MULTILINEALES 27

El punto (ii) del corolario anterior induce la siguiente definicion.

Definicion 2.1.11. Si f : V → V es una transformacion lineal de un espacio dedimension finita, entonces se define el determinante de f como el determinantede la matriz de f en cualquier base.

La funcion determinante ha sido introducida a traves de las filas de las matrices.Para mostrar que el tratamiento por columnas es analogo, basta probar que paracada B ∈ Mn(R) se tiene que

det B = det BT . (2.1.5)

En efecto, sea BT = [b′ij] con b′ij = bij. Notese que π ∈ Sn es par sı, y solo si,π−1 ∈ Sn lo es; ademas, cuando π recorre Sn, π−1 tambien lo hace. Por tanto,

det B =∑π∈Sn

(−1)πb1π(1) · · · bnπ(n)

=∑π∈Sn

(−1)πb′π(1)1 · · · b′π(n)n.

Sea π(i1) = 1, π(i2) = 2,. . . , π(in) = n, reordenando el producto b′π(1)1 · · · b′π(n)n setiene que

det B =∑π∈Sn

(−1)πb′π(i1)i1· · · b′π(in)in

=∑π∈Sn

(−1)πb′1π−1(1) · · · b′nπ−1(n)

=∑

π−1∈Sn

(−1)πb′1π−1(1) · · · b′nπ−1(n).

En total,

det B =∑θ∈Sn

(−1)θb′1θ(1) · · · b′nθ(n)

= det BT

2.2. Determinantes y funciones multilineales

Consideramos en seguida la caracterizacion de los determinantes a traves decuatro propiedades basicas.

Page 34: Algebra Lineal (Libro) - Lezama

28 CAPITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

Definicion 2.2.1. Sea V un R-espacio y n ≥ 1. Una funcion multilineal sobreV de n argumentos es una aplicacion

D : V × · · · × V → R,

que es lineal en cada uno de sus argumentos, es decir,

(i) D(vi, . . . , vi + v′i, . . . , vn) = D(v1, . . . , vi, . . . , vn) + D(v1, . . . , v′i, . . . , vn), para

cada 1 ≤ i ≤ n.

(ii) D(v1, . . . , vi · a, . . . , vn) = D(v1, . . . , vi, . . . , vn)a, a ∈ R, para cada 1 ≤ i ≤ n.

La funcion se dice alternada si

(iii) D(v1, . . . , vi, vi+1, . . . , vn) = 0, para vi = vi+1 y cada 1 ≤ i ≤ n− 1;

y antisimetrica, si

(iv) D(v1, . . . , vi, vi+1, . . . , vn) = −D(v1, . . . , vi+1, vi, . . . , vn), para cada 1 ≤ i ≤ n.

Proposicion 2.2.2. Toda funcion multilineal alternada es antisimetrica. Si 2 :=1 + 1 R∗, entonces el recıproco es valido.

Demostracion.

D(v1, . . . , vi + vi+1, vi + vi+1, . . . , vn) = 0

=D(v1, . . . , vi, vi + vi+1, . . . , vn) +D(v1, . . . , vi+1, vi + vi+1, . . . , vn)

=D(v1, . . . , vi, vi, . . . , vn) +D(v1, . . . , vi, vi+1, . . . , vn)+

D(v1, . . . , vi, vi+1, . . . , vn) +D(v1, . . . , vi+1, vi+1, . . . , vn),

de dondeD(v1, . . . , vi, vi+1, . . . , vn) = −D(v1, . . . , vi+1, vi, . . . , vn).

Para el recıproco basta considerar

D(v1, . . . , vi, vi, . . . , vn) = −D(v1, . . . , vi, vi, . . . , vn),

de donde 2D(v1, . . . , vi, vi, . . . , vn) = 0.

Proposicion 2.2.3. La funcion determinante definida en (2.1.1), es una funcionmultilineal alternada de sus filas (y columnas).

Demostracion. Consecuencia de las proposiciones 2.1.3, 2.1.4 y 2.1.6.

Teorema 2.2.4. Sea D : Mn(R) → R es una funcion multilineal y alternada re-specto de las filas, tal que D(E) = 1. Entonces D = det.

Page 35: Algebra Lineal (Libro) - Lezama

2.2. DETERMINANTES Y FUNCIONES MULTILINEALES 29

Demostracion. Sean B, C ∈ Mn(R), tales Cr = Bs, Cs = Br para r 6= s y Ci = Bi

para i 6= r, s. Entonces D(C) = −D(B): en efecto, supongase por ejemplo que s > r.La matriz C es el resultado de intercambiar la r-esima y s-esima filas de B. Noteseque este intercambio se logra aplicando 2(s− r)− 1 veces la propiedad (iv) de 2.2.1,la cual podemos usar en virtud de 2.2.2. Puesto que toda permutacion π ∈ Sn

es producto de transposiciones , entonces de lo demostrado hace un momento seobtiene: si la matriz C ∈ Mn(R) se obtuvo de B ∈ Mn(R) mediante una permutacionπ de sus filas, entonces D(C) = (−1)πD(B).Antes de emprender la prueba propiamente, notese que si la matriz B tiene dos filasiguales, entonces D(B) = 0: si las filas son consecutivas no hay algo por mostrar.De no ser ası, aplicamos una permutacion adecuada para que lo sean, y entoncesusamos lo probado hace un momento.Sea B = [bij] ∈ Mn(R) y ei = (0, . . . , 1, . . . , 0) para 1 ≤ i ≤ n. B puede serconsiderado como una elemento de Rn × · · · × Rn notando que B = [

∑nj=1 b1j ·

ej, . . . ,∑n

j=1 bnj · ej]. De esto se sigue que

D(B) =D[n∑

j=1

b1j · ej, . . . ,n∑

j=1

bnj · ej]

=n∑

j=1

b1jD[ej, . . . ,n∑

j=1

bnj · ej]

= · · · =

=∑

j1,...,jn

b1j1 · · · bnjnD[ej1 , . . . , ejn ],

donde j1, . . . , jn recorren independientemente valores de 1 a n. El resto de la pruebaes similar a la demostracion del teorema 2.1.9.

La proposicion 2.2.3 y el teorema 2.2.4 garantizan la existencia y unicidad deuna funcion determinante.

Presentaremos a continuacion un resultado antiguo relativo a determinantes pero

con aplicaciones recientes. Sea A ∈ Mm×n(R) y A

[i1, . . . , ikj1, . . . , jk

]la submatriz de A de

orden k × k, conformada por las filas i1, . . . , ik y las columnas j1, . . . , jk. Se tieneentonces la siguiente formula.

Proposicion 2.2.5 (Formula de Cauchy-Binet). Sean A ∈ Mm×n(R), B ∈Mm×p(R) matrices sobre R y C ∈ Mm×p(R) su producto. Entonces,

det C

[i1, . . . , ikj1, . . . , jk

]=

∑det A

[i1, . . . , ikr1, . . . , rk

]det B

[r1, . . . , rk

j1, . . . , jk

],

Page 36: Algebra Lineal (Libro) - Lezama

30 CAPITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

donde la suma se extiende a todos los subconjuntos {r1, . . . , rk} de In = {1, 2, . . . , n}tales que 1 ≤ r1 < r2 < · · · < rk ≤ n.

Demostracion. Ejercicio para el lector.

2.3. Menores y cofactores

La teorıa de determinantes puede ser emprendida por medio de los llamados menoresde las matrices. La construccion en este caso la efectuamos por induccion sobre eltamano n de las matrices. Apoyandonos en el teorema 2.2.4, estableceremos que lanueva definicion coincide con la dada en ((2.1.1)) de la seccion anterior.

Definicion 2.3.1. Definimos inductivamente una funcion

D : Mn(R) → R

de la siguiente manera:

(i)

D1 : M1(R) → R

a 7→ D1(a) := a

(ii)

D2 : M2(R) → R[b11 b12

b21 b22

]7→ b11D1(b22)− b21D1(b12) = b11b22 − b21b12

(iii) Se supone definida una funcion

Dn−1 : Mn−1(R) → R

B 7→ Dn−1(B)

(iv) Sea B = [bij] ∈ Mn(R). Se denomina menor del elemento bij a la imagenmediante Dn−1 de la matriz obtenida eliminando la i-esima fila y la j-esimacolumna de B. Dicho menor lo denotaremos por Mij. Definimos entonces

D : Mn(R) → R

B 7→n∑

i=1

(−1)i+1bi1Mi1. (2.3.1)

Page 37: Algebra Lineal (Libro) - Lezama

2.3. MENORES Y COFACTORES 31

Se dice que la funcion D se ha definido por medio de los menores de la primeracolumna.

Proposicion 2.3.2. La funcion D de la definicion 2.3.1 es multilineal y alternadade sus filas. Ademas D(E) = 1.

Demostracion. La prueba de las cuatro propiedades requeridas se hace por induccionsobre n. Los casos n = 1, 2 se demuestran directamente a partir de las definicionesde D1 y D2. Supongase entonces que Dn−1 satisface las cuatro propiedades. SeaE = (eij) la identica de orden n. Puesto que eij = 0 para i 6= 1, de (2.3.1) resultaD(E) = e11M11. Pero M11 = Dn−1(En−1) donde En−1 denota la identica de tamanon− 1. Por induccion D(E) = 1.Sea B = [bij] ∈ Mn(R), v = (a1, . . . , an) ∈ Rn y C = [cij] = (B1, . . . , Br +v, . . . , Bn)T . Por (2.3.1), D(C) =

∑ni=1(−1)i+1ci1M

′i1, donde M ′

i1 es el menor deci1. Podemos escribir entonces

D(C) =n∑

i=1i6=r

(−1)i+1ci1M′i1 + (−1)r+1(br1 + a1)Mr1

=n∑

i=1i6=r

(−1)i+1bi1[Mi1 +Dn−1(F )] + (−1)r+1(br1 + a1)Mr1,

donde F es la matriz obtenida de C suprimiendo la primera columna y la i-esimafila. Resulta entonces

D(C) = D(B) +D[B1, . . . , v, . . . , Bn].

Sean ahora B = [bij] ∈ Mn(R) y C = [cij] = [B1, . . . , aBr, . . . , Bn]T , a ∈ R. Entonces

D(C) =n∑

i=1

(−1)i+1ci1M′i1

=n∑

i=1i6=r

(−1)i+1bi1aMi1 + (−1)r+1br1aMr1

=aD(B).

Sean por ultimo B = [bij] ∈ Mn(R) tal que B = [B1, . . . , Br, Br, . . . , Bn]T . Entonces

D(B) =n∑

i=1i6=r,r+1

(−1)i+1bi1Mi1 + (−1)r+1br1Mr1 + (−1)r+2Mr+1,1

=0 + (−1)r+1[br1Mr1 − br1Mr1],

dado que Mr1 = Mr+1,r. De esta manera, D(B) = 0.

Page 38: Algebra Lineal (Libro) - Lezama

32 CAPITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

Del teorema 2.2.4 se desprende inmediatamente que la funcion D en (2.3.1)coincide con la funcion definida en (2.1.1).

Como habiamos mencionado antes, la funcion D se definio mediante los menoresde la primera columna. Sin embargo, tambien podemos definir la funcion D a travesde los menores de cualquier columna, y demostrar de manera analoga la proposicion2.3.2. De esto, y teniendo en cuenta que det(BT ) = det(B), resulta que

det B =n∑

i=1

(−1)i+jbijMij, 1 ≤ j ≤ n (2.3.2)

det B =n∑

j=1

(−1)j+ibijMij, 1 ≤ i ≤ n (2.3.3)

Definicion 2.3.3. Sea B = [bij] ∈ Mn(R). El elemento Bij definido mediante

Bij := (−1)i+jMij,

se denomina el complemento algebraico de bij. La matriz Cof(B) de los com-plementos algebraicos

Cof(B) = [Bij],

se denomina matriz cofactor de B. La transpuesta Cof(B)T de la matriz cofactorde denomina la adjunta de B, y se denota por Adj(B).

Teorema 2.3.4. Sea B ∈ Mn(R). Entonces,

(i) B Adj(B) = Adj(B)B = det(B)E.

(ii) B ∈ GLn(R) si, y solo si, det(B) ∈ R∗. En tal caso

B−1 = (det B)−1Adj(B).

Demostracion. (i) Probaremos inicialmente las siguientes formulas:

bi1Bj1 + · · ·+ binBjn =

{0, i 6= j,

det B, i = j.(2.3.4)

b1jB1i + · · ·+ bnjBni =

{0, i 6= j,

det B, i = j.(2.3.5)

Las pruebas en ambos casos son analogas, por ello solo analizaremos (2.3.4). El casoi = j corresponde a (2.3.3). Sea pues i 6= j y considerese la matriz C = [cij] obtenida

Page 39: Algebra Lineal (Libro) - Lezama

2.3. MENORES Y COFACTORES 33

de B reemplazando la j-esima fila de B por la i-esima. Entonces calculando det Cpor la j-esima fila tenemos

0 = det C =n∑

k=1

(−1)k+jbjkMjk =n∑

k=1

bikBjk.

Sea ahora C = [cij] = B Adj(B). Entonces,

cij =n∑

k=1

bikBjk

{0, i 6= j,

det B, i = j,

de donde B Adj(B) = det(B)E. De (2.3.5) resulta tambien det(B)E = Adj(B)B.(ii) Es consecuencia de (i) y del corolario 2.1.10

Del teorema anterior se desprenden algunas consecuencias interesantes. SeanB, C ∈ Mn(R) tales que BC = E. entonces det B ∈ R∗, con lo cual B ∈ GLn(R) yCB = E.La funcion

det : GLn(R) → R∗

B 7→ det B

es un homomorfismo sobreyectivo de grupos (o equivalentemente, un isomorfismono necesariamente inyectivo).

Definicion 2.3.5. El conjunto de matrices de GLn(R) cuyo determinante es 1,es decir, el nucleo del homomorfismo det es un subgrupo normal de GLn(R), de-nominado el grupo especial lineal de dimension n sobre R, y se denota porSLn(R).

SLn(R) constituye otro de los grupos de matrices que estudiaremos en el ultimocapıtulo. Se tienen ademas las siguientes propiedades:

En(R) ≤ SLn(R) � GLn(R), GLn(R)/SLn(R) ∼= R∗, (2.3.6)

donde En(R) es el grupo elemental generado por todas las transvecciones (veasela definicion 1.4.3). Se puede probar que para n ≥ 3, En(R) � SLn(R). Ademas,existen clases importantes de anillos conmutativos para los cuales el grupo especialy el elemental coinciden. Sobre esto volveremos en el ultimo capıtulo (vease tambien[12]). Por ahora veamos las siguientes propiedades para cuerpos.

Proposicion 2.3.6. Sea K un cuerpo. Entonces,

(i) GLn(K) = 〈Tij(a), Dn(b), 1 ≤ i, j ≤ n, i 6= j, a ∈ K, b ∈ K∗〉.

Page 40: Algebra Lineal (Libro) - Lezama

34 CAPITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

(ii) En(K) = SLn(K).

Demostracion. (i) Induccion sobre n. Para n = 1 no hay algo por demostrar. Sea

n = 2 y

[a bc d

]∈ GLn(K); no es posible que a = 0 = c; sea c 6= 0, entonces[

1 1−ac

0 1

] [a bc d

]=

[1 b′

c d

], b′ = b + (1−a)d

c,[

1 0−c 1

] [1 b′

c d

]=

[1 b′

0 d′

], d′ = −b′c + d,[

1 b′

0 d′

] [1 −b′

0 1

]=

[1 00 d′

],

de donde, [a bc d

]=

[1 a−1

c

0 1

] [1 0c 1

] [1 00 d′

] [1 b′

0 1

];

notese que d′ 6= 0, pues de lo contrario d = b′c = bc+d−abc

c y ası bc − ad = 0, estoultimo implica que b = d

ca, y como d = d

cc tenemos que las columnas de la matriz son

l.d. contradiciendo nuestra hipotesis inicial. Sea D =

d11 · · · d1n

dn1 · · · dnn

∈ GLn(K);

existe 1 ≤ j ≤ n tal que dj1 6= 0; entonces

T1j(1− d11

dj1

)D =

1 d′12 · · · d′1n

d′21 d′22 · · · d′2n

d′n1 d′n2 · · · d′nn

,

mediante operaciones elementales del tipo Tij reducimos esta ultima matriz a una

de la forma

[1 00 D′

]donde D′ ∈ GLn−1(K); mediante induccion y despejando como

hicimos en el caso n = 2 completamos la prueba (notese que en la factorizacionde de D solo aparece una matriz diagonal). Por otra parte, si c = 0 pero a 6= 0,realizamos la siguiente operacion elemental previamente:[

1 01 1

] [a b0 d

]=

[a ba b + d

]con a 6= 0.

(ii) Esto se obtiene de (i) y (2.3.6).

Otras consecuencias de la teorıa de determinantes son las siguientes.

Teorema 2.3.7. Sea V un R-espacio libre de dimension finita n ≥ 1. Tenemos,

Page 41: Algebra Lineal (Libro) - Lezama

2.4. IDEALES, RANGO Y SISTEMAS DE ECUACIONES 35

(i) Si X es un sistema de generadores de V con n elementos, entonces X es unabase de V .

(ii) Un conjunto X de generadores de V con r ≥ 1 elementos es minimal si Vno se puede generar con menos de R elementos. Si X es minimal, entonces Xes una base de V y |X| = n. En particular, V no se puede generar con menosde n elementos, es decir, dim V = minimal de generadores de V .

Demostracion. (i) Vimos en el ejemplo 1.3.6 que aunque X sea l.i. con |X| = n,no necesariamente X resulta ser una base de V . Veremos ahora que si V = 〈X〉 y|X| = n, entonces X es una base de V . En efecto, sean Y = {y1, . . . , yn} un basede V , y r1 . . . , rn ∈ R tales que x1 · r1 + · · · + xn · rn = 0, entonces [X][r]T = 0;sin embargo, [X] = [Y ]B y [Y ] = [X]C para ciertas matrices B, C ∈ Mn(R).De esta forma, [Y ]B[r]T = 0 de donde B[r]T = 0; ademas, [Y ] = [Y ]BC y enconsecuencia BC = E, con lo que det(B) det(C) = 1, es decir, det(B) ∈ R∗ y portanto B ∈ GLn(R); ası, CB = E y CB[r]T = 0, de donde se concluye que [r]T = 0.(ii) Como r es minimal necesariamente r ≤ n. Supongamos que r < n; como en (i),sea Y = {y1, . . . , yn} una base de V , entonces [X] = [Y ]B para alguna B ∈ Mn×r(R)y [Y ] = [X]C para cierta matrice C ∈ Mr×n(R); ası [Y ] = [Y ]BC, y por tanto,BC = E. Sean B0 := [B | 0] ∈ Mn(R) y C0 := [C

0] ∈ Mn(R), entonces B0C0 = E

y, en consecuencia, det(B0) det(C0) = 1; pero det(C0) = 0 lo que es claramente unacontradiccion, y ası necesariamente r = n. De (i) se sigue que X es una base.

Teorema 2.3.8. Sea R un anillo conmutativo cualquiera y sea f : Rn → Rn unhomomorfismo sobreyectivo. Entonces f es biyectivo.

Demostracion. Sea X = {e1, . . . , en} la base canonica de Rn; entonces existena1, . . . , an ∈ Rn tales que f(ai) = ei para 1 ≤ i ≤ n. Sea g : Rn → Rn el homomorfis-mo dado por g(ei) = ai para 1 ≤ i ≤ n, entonces fg = iRn ; ası mX(fg) = FG = E,de modo que det(F ) ∈ R∗ y, por tanto, F es invertible. En consecuencia, f es unhomomorfismo biyectivo.

Ejemplo 2.3.9. Aun en DIPs inyectividad no implica sobreyectividad: basta con-siderar la aplicacion f : Z → Z dada por f(a) := 2a; claramente esta aplicacion esun homomorfimo inyectivo pero no sobre.

2.4. Ideales, rango y sistemas de ecuaciones

Definicion 2.4.1. Sea R un anillo conmutativo. Se denomina sistema lineal deecuaciones en n indeterminadas y m ecuaciones, al conjunto de ecuaciones

a11x1 + · · ·+ a1nxn = b1...

......

...am1x1 + · · ·+ amnxn = bm

(2.4.1)

Page 42: Algebra Lineal (Libro) - Lezama

36 CAPITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

con a11, . . . , amn, b1, . . . , bm ∈ R. Los elementos aij se denominan coeficientes delsistema, los bi se denominan los terminos independientes del sistema, esto para1 ≤ i ≤ m y 1 ≤ j ≤ n, y x1, . . . , xn representan elementos de R por determinar. SiA = [aij] ∈ Mm×n(R) es la matriz de coeficientes del sistema, X := [x1, . . . , xn]T yB := [b1, . . . , bm]T , el sistema (2.4.1) puede escribirse matricialmente en la forma

AX = B (2.4.2)

El sistema (2.4.2) se dice homogeneo si B = 0. Se denomina solucion del sistema(2.4.2) a una matriz columna X0 = [x0

1, . . . , x0n], x0

i ∈ R, tal que AX0 = B. (2.4.2)se dice compatible (o soluble) si posee al menos una solucion, de los contrario sedenomina incompatible. Un sistema compatible con mas de una solucion se llamaindeterminado. Sea A′X = B′ otro sistema de orden m× n sobre R; AX = B yA′X = B′ se dicen equivalentes, si ambos son incompatibles, o bien siendo amboscompatibles, tienen el mismo conjunto de soluciones. Es claro que esta relacion esde equivalencia. La matriz (A | B) de orden m× (n + 1) obtenida de A adjuntandoB como ultima columna, se denomina matriz ampliada del sistema (2.4.2).

El proposito de esta seccion es estudiar la compatibilidad y determinabilidad delos sistemas lineales de ecuaciones con coeficientes en un anillo conmutativo arbi-trario

Supongamos inicialmente que el sistema (2.4.2) es cuadrado, es decir, m = n.Multiplicando (2.4.2) por la adjunta de A resulta

Adj(A)AX = Adj(A)B

det(A)[x1, . . . , xn]T =

∑n

k=1(−1)k+1Mk1bk...∑n

k=1(−1)k+nMknbk

.

Entonces,

det(A)xj =n∑

k=1

(−1)k+jMkjbk,

es decir,

det(A)xj = det

a11 · · · a1,j−1 b1 a1,j+1 · · · a1n...

......

......

......

an1 · · · an,j−1 bn an,j+1 · · · ann

(2.4.3)

para cada 1 ≤ j ≤ n, es decir, det(A)xj = det[A1 · · ·Aj−1BAj+1 · · ·An]. Notese quesi det(A) ∈ R∗, entonces el sistema cuadrado AX = B es determinado. En tal caso,(2.4.3) se conoce como la regla de Cramer , con X = A−1B.

Page 43: Algebra Lineal (Libro) - Lezama

2.4. IDEALES, RANGO Y SISTEMAS DE ECUACIONES 37

Pasamos ahora a considerar el caso general de un sistema rectangular como en(2.4.2). Comencemos por recordar el concepto de ideal de un anillo conmutativo R.

Definicion 2.4.2. Un subconjunto no vacıo I de R se denomina ideal de R si

(i) Para cualesquiera a, b ∈ I su suma a + b ∈ I.

(ii) Para cada a ∈ I y cada r ∈ R el producto ar ∈ I.

En otras palabras, los ideales de R son los subespacios del R-espacio canonicoR1. Podemos entonces hablar del ideal generado por un conjunto (finito o infinito)X de elementos de R. Sea A = [aij] ∈ Mn×n(R). Para cada 1 ≤ k ≤ mın{m, n}, seaIk(A) el ideal generado por los determinantes de todas las submatrices de orden k×kde A. Se define ademas Ik(A) := R para k ≤ 0 e Ik(A) := 0 para k > mın{m, n}.Ik(A) se denomina el k-esimo ideal determinante de la matriz A.

Notese que se tiene la cadena

· · · = I−1(A) = R = I0(A) ⊇ I1(A) ⊇ · · · ⊇ Imın{m,n} ⊇ Imın{m,n}+1 = 0 = · · · .

Presentamos enseguida el primer criterio de necesidad para la compatibilidad de unsistema.

Proposicion 2.4.3. Si el sistema (2.4.2) tiene solucion, entonces los ideales de-terminantes de A coiniciden con los ideales determinantes de la matriz ampliada(A | B).

Demostracion. Podemos asumir que m ≤ n: en efecto, si m > n, agregando inde-terminadas xn+1, . . . , xm con coeficientes nulos y columnas a la matriz A, obten-emos un nuevo sistema A′X ′ = B con A′ = (A | 0); notese que X es solucion

de AX = B si, y solo si, X ′ =

X

xn+1...

xm

es solucion de A′X ′ = B. Ademas,

Ik(A) = Ik(A′) e Ik(A | B) = Ik(A

′ | B), para todo k ∈ Z. Por lo tanto, dadok ∈ Z, Ik(A

′) = Ik(A′ | B) si, y solo si, Ik(A) = Ik(A | B). Supondremos entonces

que m ≤ n; para k ≤ 0 o k > mın{m, n} = m se tiene que Ik(A) = Ik(A | B). Seaentonces 1 ≤ k ≤ mın{m, n}; es claro que Ik(A) ⊆ Ik(A | B). Sea s el determinantede una submatriz de (A | B) de tamano k × k; si toda la submatriz esta incluidaen A se sigue de inmediato que s ∈ Ik(A). Supongamos entonces que la submatrizincluye la columna B:

s = det

ai1j1 · · · ai1jk−1

bi1

ai2j1 · · · ai2jk−1bi2

......

......

aikj1 · · · aikjk−1bik

.

Page 44: Algebra Lineal (Libro) - Lezama

38 CAPITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

Sea X = [x1, . . . , xn] una solucion de AX = B, entonces

bi1 = ai11x1 + · · ·+ ai1nxn...

......

...bik = aik1x1 + · · ·+ aiknxn

Aplicando las propiedades de la funcion determinante obtenemos

s =x1 det

ai1j1 · · · ai1jk−1ai11

......

......

aikj1 · · · aikjk−1aik1

+ · · ·+

xn det

ai1j1 · · · ai1jk−1ai1n

......

......

aikj1 · · · aikjk−1aikn

.

De esta forma s resulta ser una combinacion lineal de subdeterminantes de A detamano k × k (algunos de ellos pueden ser nulos). En consecuencia, s ∈ Ik(A).

La condicion de la proposicion 2.4.3 no es suficiente para garantizar la solubilidaddel sistema AX = B. Es posible presentar un ejemplo donde los ideales determi-nantes de A y (A | B) coincidan, sin que el sistema AX = B tenga solucion (vease[1], pag. 59, ejemplo 5.24).

Definicion 2.4.4. Sea A ∈ Mm×n(R), con m, n enteros positivos arbitrarios. Elrank(A) de la matriz A se define como el mayor entero no negativo k tal queIk(A) 6= 0. Notese que 0 ≤ rank(A) ≤ mın{m, n}. El rango de A segun McCoy,denotado por Mrank(A), es el mayor entero no negativo tal que AnnR(Ik(A)) = 0,donde

AnnR(Ik(A)) := {r ∈ R | Ik(A)r = 0},

es decir, AnnR(Ik(A)) es el conjunto de elementos r ∈ R que anulan a cada elementode Ik(A).

Se tienen las siguientes propiedades del rango.

Proposicion 2.4.5. Sea A ∈ Mm×n(R). Entonces,

(i) rank(A) = rank(AT ),Mrank(A) = Mrank(AT ).

(ii) Para cada Q ∈ GLm(R) y P ∈ GLn(R),rank(QAP ) = rank(A),Mrank(QAP ) = Mrank(A).

Page 45: Algebra Lineal (Libro) - Lezama

2.4. IDEALES, RANGO Y SISTEMAS DE ECUACIONES 39

(iii) 0 ≤ Mrank(A) ≤ rank(A) ≤ mın{m, n}.Demostracion. (i) Veamos primero que Ik(A) = Ik(A

T ), para todo k ∈ Z. Parak ≤ 0 tenemos que Ik(A) = R e Ik(A

T ) = R; para k > mın{m, n} tenemos queIk(A) = 0 = Ik(A

T ). Supongamos ahora que 1 ≤ k ≤ mın{m, n} y sea s un

generador de Ik(A), entonces existe una submatriz A

i1 · · · ik

j1 · · · jk

de A tal que s =

det A

i1 · · · ik

j1 · · · jk

= det AT

i1 · · · ik

j1 · · · jk

; de esto ultimo se sigue que s ∈ Ik(AT ).

De manera analoga se muestra la otra contenencia, de modo que Ik(A) = Ik(AT );

ası rank(A) coincide con el mayor entero positivo k tal que Ik(A) 6= 0, que esprecisamente el mayor entero positivo k para el que Ik(A

T ) 6= 0, es decir, es igual alrank(AT ). De la misma manera tenemos que Mrank(A) = Mrank(AT ).(ii) Comenzamos probando la siguiente propiedad general (vease [1], pag. 43, lema4.5): si B ∈ Mm×p(R) y C ∈ Mp×n(R) entonces

Ik(BC) ⊆ Ik(B) ∩ Ik(C), para todo k ∈ Z. (2.4.4)

En efecto, para k ≤ 0 tenemos que Ik(BC) = R, Ik(B) = R = Ik(C); de formasimilar, si k > mın{m, n} entonces Ik(BC) = 0, pero en este caso k > m o k > nlo cual implica que k > mın{m, p} o k > mın{p, n}, luego Ik(B) = 0 o Ik(C) = 0.Por tanto, podemos asumir 1 ≤ k ≤ mın{m,n}. Para terminar la demostracion de(2.4.4) probemos tres propiedades preliminares:

Ik(BC) ⊆ Ik(C): sea C = [C1 · · ·Cn], entonces BC = [BC1 · · ·BCn]. Seas un generador de Ik(BC), es decir, s es el determinante de una submatrizde BC de orden k × k tomando las filas i1 < · · · < ik y las columnas j1 <· · · < jk de BC, entonces (BC)j1 = BCj1 , . . . , (BC)jk = BCjk , de modo ques ∈ Ik([(BC)j1 · · · (BC)jk ]) = Ik([BCj1 · · ·BCjk ]) = Ik(B[Cj1 · · ·Cjk ]). Clara-mente Ik([C

j1 · · ·Cjk ]) ⊆ Ik(C), luego basta probar que Ik(B[Cj1 · · ·Cjk ]) ⊆Ik([C

j1 · · ·Cjk ]). Ası pues, estamos en la situacion inical pero con dos matri-ces B ∈ Mm×p(R), F ∈ Mp×k(R) con 1 ≤ k ≤ mın{m, k}, esto es, k ≤ m.

Tenemos BF =

B1F...

BmF

, luego para cada 1 ≤ i ≤ m

(BF )i =BiF = [bi1 · · · bip]

f11 · · · fik

fp1 · · · fpk

=[bi1f11 + · · ·+ bipfp1 · · · bi1f1k + · · ·+ bipfpk]

=bi1F1 + · · ·+ bipFp,

Page 46: Algebra Lineal (Libro) - Lezama

40 CAPITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

de donde (BF )i =∑p

l=1 bilFl. Sea u un generador de Ik(BF ), entonces

u = det(BF

i1 · · · ik

1 · · · k

) = det

(BF )i1...

(BF )ik

= det

∑p

l=1 bi1lFl...∑p

l=1 biklFl

=

p∑l=1

bi1l det

Fl∑p

l=1 bi2lFl...∑p

l=1 biklFl

= · · · =

∑l1,...,lk

bi1l1 · · · biklk det

Fl1...

Flk

,

pero det

Fl1...

Flk

= 0 si hay filas repetidas, y en los de mas casos det

Fl1...

Flk

Ik(F ). Por lo tanto, u ∈ Ik(F ).

Ik(BC) ⊆ Ik(B): por (i) Ik(BC) = Ik((BC)T ) = Ik(CT BT ) ⊆ Ik(B

T ) =Ik(B). Con esto hemos completado la prueba de 2.4.4.

De (2.4.4) resulta Ik(PAQ) = Ik(A) para todo k ∈ Z, P ∈ GLm(R) y Q ∈ GLn(R):en efecto, Ik(PA) ⊆ Ik(A) = Ik(P

−1(PA)) ⊆ Ik(PA), entonces Ik(PA) = IA;Ik(PAQ) = Ik(AQ) ⊆ Ik(A) = Ik((AQ)Q−1) ⊆ Ik(AQ) = Ik(PAQ), y ası, Ik(PAQ)= Ik(A). En consecuencia, rank(PAQ) = rank(A) y Mrank(PAQ) = Mrank(A).(iii) Es claro que rank(A) ≤ mın{m, n}, tambien por definicion Mrank(A) ≥ 0; seal = Mrank(A) y supongamos que l > rank(A), entonces Il(A) = 0 y en consecuenciaAnR(Il(A)) = R, lo que claramente es una contradiccion.

Sea ahora A ∈ Mm×n(R) con m ≤ n y supongase que Mrank(A) = m. SeaI∗m(A | B) el ideal generado por los determinantes de todas las submatrices de ordenm×m de (A | B) que no son completamente submatrices de A, es decir, la columnaB va incluida.

Proposicion 2.4.6. Sea A ∈ Mm×n con m ≤ n, y sea Mrank(A) = m. Si existeun ideal J de R y un elemento s ∈ R rm(que no sea divisor de cero), tales que

JI∗m(A | B) ⊆ 〈s〉 ⊆ JIm(A),

entonces AX = B es soluble.

Page 47: Algebra Lineal (Libro) - Lezama

2.4. IDEALES, RANGO Y SISTEMAS DE ECUACIONES 41

Demostracion. Antes de probar la proposicion, recordemos algunos hechos elemen-tales relacionados con divisores de cero e ideales. Un elemento s ∈ R se dice queno es divisor de cero en R si s 6= 0 y para cada a ∈ R tal que sa = 0 se tieneque a = 0. De otra parte, siendo I, J ideales de un anillo R se define su productoIJ como el ideal generado por el conjunto de todos los productos de la forma ab,con a ∈ I y b ∈ J . Notese entonces que cada elemento de IJ es una suma finitaa1b1 + · · ·+ atbt, con ai ∈ I, bi ∈ J , 1 ≤ i ≤ t.

Como Mrank(A) = 0, entonces AnnR(Im(A)) = 0 y por tanto, Im(A) 6= 0. Existeentonces al menos una submatriz A′ de A de orden m×m con determinante no nulo.Reenumerando las columnas y las indeterminadas x1, . . . , xn, podemos asumir sinperdida de generalidad que

A′ =

a11 · · · a1m

am1 · · · amm

, r1 := det(A′) 6= 0.

Entonces, det(A′) · · · 0. . .

0 · · · det(A′)

b1

...bm

= A′Adj(A′)

b1...

bm

,

y por tanto,r1 · · · 0. . .

0 · · · r1

b1

...bm

=A′

(−1)1+1M11 · · · (−1)m+1Mm1

(−1)1+mM1m · · · (−1)m+mMmm

b1

...bm

=A′

(−1)1+1b1M11 + · · ·+ (−1)m+1bmMm1

(−1)1+mb1M1m + · · ·+ (−1)m+mbmMmm

=A′

x11...

x1m

,

con x1j ∈ I∗m(A | B), luego r1bi =

∑mj=1 aijx

1j para 1 ≤ i ≤ m. Tomando x1

m+1 =

· · · = x1n = 0 obtenemos

r1bi

n∑j=1

aijx1j , 1 ≤ i ≤ m.

Sean r1, . . . , rk los generadores de Im(A). De manera analoga a como lo hicimos haceun momento tenemos

rtbi =n∑

j=1

aijxtj, 1 ≤ i ≤ m, 1 ≤ t ≤ k,

Page 48: Algebra Lineal (Libro) - Lezama

42 CAPITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

donde xtj ∈ I∗m(A | B). Por hipotesis existen q1, . . . , qk ∈ J tales que

s =k∑

t=1

qtrt.

Entonces

sbi =k∑

t=1

qtrtbi =k∑

t=1

n∑j=1

qtaijxtj

=n∑

j=1

aij(k∑

t=1

qtxtj).

Pero∑k

t=1 qtxtj ∈ JI∗m(A | B) ⊆ 〈s〉. Por lo tanto,

sbi =n∑

j=1

aijsxj, xj ∈ R, 1 ≤ i ≤ m,

y como s no es divisor de cero tenemos que

bi =n∑

j=1

aijxj.

Corolario 2.4.7. Sea A ∈ Mm×n(R) con m ≤ n. Si Im(A) = R, entonces AX = Bes soluble.

Demostracion. Im(A) = R implica que Mrank(A) = m. Tomando J = R y s = 1en la proposicion 2.4.6, el corolario se sigue de inmediato.

Evidentemente el recıproco no es siempre cierto, Basta considerar el sistemahomogeneo sobre el anillo Z de enteros[

1 00 0

] [xy

]=

[00

].

Definicion 2.4.8. Sea A ∈ Mm×n(R); se dice que A es unimodular si Imın{m,n}(A)= R.

Corolario 2.4.9. Sea A ∈ Mm×n(R).

(i) Sea m ≤ n. Entonces, A es unimodular si, y solo si, A tiene inversa a derecha.

Page 49: Algebra Lineal (Libro) - Lezama

2.4. IDEALES, RANGO Y SISTEMAS DE ECUACIONES 43

(ii) Sea n ≤ m. Entonces, A es unimodular si, y solo si, A tiene inversa a izquier-da.

Demostracion. (i)⇒) Como m ≤ n entonces mın{m,n} = m, ası Im(A) = R y

por el corolario 2.4.9 tenemos que AX =

10...0

, . . . , AX =

00...1

son solubles, luego

existen C1 =

c11...

cn1

, . . . , Cm =

c1m...

cnm

∈ Rn tales que A[C1 · · ·Cm] = E, es decir,

si C = [C1 · · ·Cm], entonces C es una inversa derecha de A.⇐) Si AC = E para alguna C ∈ Mn×m(R), entonces Im(AC) = Im(E) = R ⊆Im(A) ∩ Im(C), y por tanto, Im(A) = R, es decir, A es unimodular dado quemın{m, n} = m.(ii) Sea n ≤ m; como A ∈ Mm×n(R) entonces AT ∈ Mn×m(R); ası, AT tiene in-versa a derecha si, y solo si, In(AT ) = R, es decir, si existe D ∈ Mm×n(R) tal queAT D = E. Esto ultimo se tiene si, y solo si In(A) = R dado que In(A) = In(AT ).Por lo tanto, DT A = E si, y solo si, A es unimodular.

Observacion 2.4.10. (i) Sea A ∈ Mm×n(R) con m ≤ n. Entonces A no puede tenerinversa a izquierda: si existe C ∈ Mn×m(R) tal que CA = E, entonces [C | 0][A

0] = E

y tomando determinantes obtenemos que 0 = 1.(ii) Sea A ∈ Mm×n(R) con n ≤ m. Entonces A no puede tener inversa a derecha:si existe C ∈ Mm×n(R) tal que CA = E, entonces [A | 0][C

0] = E y tomando

determinantes obtenemos que 0 = 1.

Estudiaremos ahora los sistemas homogeneos AX = 0 con A ∈ Mm×n(R). Noteseen primer lugar que tales sistemas son solubles y que el conjunto de solucionesconforman un subespacio de Mn×1(R) ∼= Rn.

Teorema 2.4.11. Sea A ∈ Mm×n(R). AX = 0 tiene solucion no trivial X =[x1, . . . , xn]T si, y solo si, Mrank(A) < n. En particular si m < n, entonces elsistema AX = 0 tiene solucion no trivial.

Demostracion. ⇒) Sea X = [x1 . . . , xn]T una solucion no trivial del sistema AX = 0,luego xj 6= 0 para algun subındice j, 1 ≤ j ≤ n. Si m < n, tenemos que Mrank(A) ≤m < n y no hay algo por probar. Sea entonces m ≥ n; de este modo

A′

x1...

xn

= 0, con A′ =

a11 · · · a1n

an1 · · · ann

.

Page 50: Algebra Lineal (Libro) - Lezama

44 CAPITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

Multiplicando por Adj(A′) obtenemos

det(A′)xj = 0. (2.4.5)

Notese que si A′ es cualquier submatriz de A de tamano n× n, entonces tambien setiene 2.4.5; en otras palabras, xj 6= 0 anula a todos los generadores de In(A). Por lotanto, AnnR(In(A)) 6= 0, y ası Mrank(A) < n.

⇐) Supongase ahora que t := Mrank(A) < n; entonces AnnR(It+1(A)) 6= 0,sea y 6= 0 ∈ R tal que It+1(A)y = 0; si t = 0 entonces X := [y, . . . , y] es unasolucion no trivial del sistema. Supongase entonces que 1 ≤ t ≤ mın{m, n}; comoAnnR(It(A)) = 0, el producto de y con algun generador de It(A) es no nulo. Estegenerador es el determinante de una submatriz de A de orden t×t. Permutando filasy/o columnas de A y reindizando las indeterminadas, podemos asumir sin perdidade generalidad que tal submatriz es

A′

a11 · · · a1t

at1 · · · att

, y(det(A′)) 6= 0.

Sea A′′ la matriz

A′′ :=

a11 · · · a1,t+1

at+1,1 · · · at+1,t+1

,

(si t = m, tomamos at+1,1 = · · · = at+1,t+1 = 0). Sea dj el determinante de lasubmatriz de A′′ obtenida al suprimir la ultima fila y la j-esima columna, 1 ≤ j ≤t + 1; sean ademas

hj :=(−1)j+(t+1)dj, 1 ≤ j ≤ t + 1

xj :=hjy, 1 ≤ j ≤ t + 1

xj :=0, t + 2 ≤ j ≤ n

X :=[x1, . . . , xn]T .

Notese que X 6= 0 dado que xt+1 = y det(A′) 6= 0; se tiene entonces que

AX =

∑t+1

j=1 a1jxj

...∑t+1j=1 amjxj

.

Page 51: Algebra Lineal (Libro) - Lezama

2.4. IDEALES, RANGO Y SISTEMAS DE ECUACIONES 45

Pero para 1 ≤ i ≤ m,

t+1∑j=1

aijxj =(t+1∑j=1

aijhj)y

=(t+1∑j=1

aij(−1)j+(t+1)dj)y

=(t+1∑j=1

aijA′′t+1,j)y.

Para i 6= t + 1 la suma en el ultimo parentesis es nula; para i = t + 1 esta sumacorresponde al determinante de una submatriz de A de tamano (t + 1)× (t + 1), es

decir, es un generador de It+1(A). Como y ∈ AnnR(It+1(A)) entonces AX = 0 y elsistema tiene una solucion no trivial.

Corolario 2.4.12. Sea A ∈ Mn(R). AX = 0 tiene solucion no trivial si, y solo si,det(A) es un divisor de cero en R.

Demostracion. det(A) es un divisor de cero en R si, y solo si, AnnR(In(A)) 6= 0 si,y solo si, Mrank(A) < n.

Corolario 2.4.13. Sea V un R-espacio libre de dimension m ≥ 1. Entonces todoconjunto de n > m vectores de V es l.d.

Demostracion. Sean Y := {y1, . . . , ym} una base de V , v1, . . . , vn ∈ V y b1, . . . , bn ∈R tales que v1 · b1 + · · · + vn · bn = 0. Entonces, existen escalares aij ∈ R tales que(a11 ·y1+· · ·+am1 ·ym)·b1+· · ·+(a1n ·y1+· · ·+amn ·ym)·bn = 0. De la independencialineal de los vectores de Y resulta el sistema AB = 0, con A ∈ Mm×n(R) y B :=[b1, . . . , bn]T . Segun el teorema 2.4.11, algun bj es no nulo.

Ejemplo 2.4.14. Calculemos rank(A) y Mrank(A) para

A =

[2 20 2

], B =

[2 00 3

], C =

[1 23 5

]∈ M2(Z6).

rank(A): I0(A) = Z6, I1(A) = 〈2〉, I2(A) = 〈a〉; ası rank(A) = 2.Mrank(A): Ann(I0(A)) = 0, Ann(I1(A)) = {0, 3} = 〈3〉, Ann(I2(A)) = 〈3〉;

ası Mrank(A) = 0.rank(B): I0(B) = Z6, I1(B) = 〈2, 3〉 = Z6 dado que 3 − 2 = 1 ∈ I1(B) e

I2(B) = 0; entonces rank(B) = 1.Mrank(B): Ann(I0(B)) = 0, Ann(I1(B)) = 0, Ann(I2(B)) = Z6; por lo tanto

Mrank(B) = 1.rank(C), Mrank(C): I0(C) = Z6, I1(C) = 〈1, 2, 3, 5〉 = Z6, I2(C) = 〈−1〉 =

〈1〉 = Z6. Entonces rank(C) = 2 = Mrank(C).

Page 52: Algebra Lineal (Libro) - Lezama

46 CAPITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

Ejemplo 2.4.15. Sea R = Z4. Calculemos todas las soluciones de AX = B con

A =

1 1 12 1 21 0 2

y B =

123

.

Tenemos,

det(A) =1 det

[1 11 2

]+ 2 det

[1 12 1

]=(2− 1) + 2(1− 2) = −1 = 3,

det

1 1 12 1 23 0 2

=3 + 2(−1) = 1;

entonces 3x1 = 1 de modo que x1 = 3. Analogamente,

det

1 1 12 2 21 3 2

= 0,

ası que 3x2 = 0 implica x2 = 0.Finalmente,

det

1 1 12 1 21 0 3

= 1 + 3(−1) = −2 = 2,

por tanto de 3x3 = 2 se sigue x3 = 2 y en consecuencia X =

322

.

A continuacion haremos la comparacion de algunos de los resultados de estaseccion con los correspondientes del algebra lineal clasica sobre cuerpos.

Definicion 2.4.16. Sea K un cuerpo y sea X = {x1, . . . , xn} un conjunto finitode vectores de un K-espacio vectorial V . Se define el rango de X, denotado porRank(X), como la dimension de su envolvente lineal, es decir,

Rank(X) := dim(〈X〉).

Recordemos algunas propiedades destacadas del rango:

(i) Rank(X) coincide con el maximo numero de vectores l.i. que posea X. Notesetambien que Rank(X) concuerda con el numero minimal de generadores de〈X〉 (vease el teorema 2.3.7).

Page 53: Algebra Lineal (Libro) - Lezama

2.4. IDEALES, RANGO Y SISTEMAS DE ECUACIONES 47

(ii) Si V es un K-espacio de dimension n y X es un sistema de n vectores de V ,entonces X es una base de V si, y solo si, Rank(X) = n.

(iii) El rango columna de una matriz F ∈ Mm×n(K) se define como el rangode sus vectores columna: cada columna de F se puede considerar como unelemento de Km y de esta forma

rango columna de F := Rank{F (1), . . . , F (n)}.

(iv) El rango columna de F coincide con la dimension del espacio imagen de latransformacion f que F representa.

(v) De manera analoga se define el rango fila de la matriz F , el cual coincidecon el rango columna. Este rango comun se denomina rango de la matriz Fy se denota por Rank(F ). En particular se tiene que Rank(F ) = Rank(F T ).

(vi) F ∈ Mn(K) es invertible si, y solo si, Rank(F ) = n.

(vii) Sean F ∈ Mm×n(K), Q ∈ GLm(K) y P ∈ GLn(K). Entonces,

Rank(QFP ) = Rank(F ).

(viii) Dos matrices son equivalentes si, y solo si, tienen el mismo rango.

Proposicion 2.4.17. Para cada A ∈ Mm×n(K) se cumple

0 ≤ Mrank(A) = rank(A) = Rank(A).

Demostracion. Si k = rank(A), Ik(A) 6= 0, Ik+1 = 0, luego AnnK(Ik(A)) = 0 yAnnK(Ik+1(A)) = K, con lo cual Mrank(A) = k. Sea ahora Rank(A) = r, entoncesA es equivalente a la matriz

B =

[E 00 0

], E = Identica de orden r × r.

Por la proposicion 2.4.5, rank(A) = rank(B) = r; en consecuencia, r = k.

En relacion con los sistemas de ecuaciones lineales sobre cuerpos se tienen los si-guientes resultados.

(a) Sea AX = 0 un sistema homogeneo de orden m×n. Si Rank(A) = r entoncesla dimension del espacio solucion es n− r, y recıprocamente.

Page 54: Algebra Lineal (Libro) - Lezama

48 CAPITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

(b) Todo sistema lineal AX = B de orden m×n, con A 6= 0, es equivalente a unocon matriz escalonada y de la forma

a′1j1xj1 + a′1j2

xj2 + a′1j3xj3 + · · ·+ a′1nxn = b′1

a′2j2xj2 + a′2j3

xj3 + · · ·+ a′2nxn = b′2

· · · · · ·a′rjr

xjr + · · ·+ a′rnxn = b′r

0 = b′r+1

· · ·0 = b′m,

(2.4.6)

donde a′1j1, . . . , a′rjr

6= 0, 1 ≤ j1 < j2 < · · · < jr. AX = B es soluble si, y solosi, en el sistema escalonado anterior no se presentan ecuaciones de la formab′t = 0, t ≥ r, con b′t un elemento no nulo de K. En tal caso, dando valores ar-bitrarios de K a las indeterminadas libres xjr+1, . . . , xn obtenemos valoresdeterminados para las indeterminadas principales xj1 , . . . , xjr .

(c) Sea AX = B un sistema lineal de orden m × n. En el corolario 2.4.7 sedemostro que si m ≤ n con Im(A) = K, entonces el sistema AX = B essoluble. Pero la condicion Im(A) = K es equivalente a que Mrank(A) = m =Rank(A). De este modo, si Rank(A) = m, el sistema AX = B es soluble.

(d) Respecto a los ideales determinantes de A y de la matriz ampliada [A | B] setiene que la coincidencia de estos ultimos implica la solubilidad del sistemaAX = B: en efecto, si los ideales determinantes de A y [A | B] coinciden,entonces sus rangos son iguales. De esta forma la envolvente lineal de lascolumnas de [A | B] coincide con la envolvente lineal de las columnas de A, esdecir, B es una combinacion lineal de las columnas de A b1

...bm

=

a11...

am1

x1 + · · ·+

a1n...

amn

xn,

de donde B = AX y X = [x1, . . . , xn]T es solucion. En resumen tenemos queAX = B es soluble si, y solo si, Rank(A) = Rank[A | B].

(e) Si A ∈ Mm×n(K), vimos en el teorema 2.4.11 que AX = 0 tiene solucion notrivial si, y solo si, Rank(A) < n. En particular, si m < n entonces Rank(A) ≤m < n y el sistema AX = 0 tiene solucion no trivial. Para el caso cuadrado lacondicion det(A) es divisor de cero (vease el corolario 2.4.12) es equivalente aque det(A) = 0.

Page 55: Algebra Lineal (Libro) - Lezama

2.5. EJERCICIOS 49

2.5. Ejercicios

1. Sea A0 la coleccion de elementos de A que son divisores de cero. Si K es uncuerpo demuestre que

Mn(K)0 = {B ∈ Mn(K)| det(B) = 0}.

2. Sean B ∈ Mm×p(R) y C ∈ Mp×n(R). Demuestre que

(i) Mrank(BC) ≤ mın{Mrank(B), Mrank(C)}.(ii) rank(BC) ≤ mın{rank(B), rank(C)}.

3. Sean A ∈ Mn(R) y B ∈ Rn. Sea X0 una solucion de AX = B. Demuestre queX0 es la unica solucion si, y solo si, Mrank(A) = n.

Page 56: Algebra Lineal (Libro) - Lezama

Capıtulo 3

Producto tensorial

En este capıtulo estudiamos el producto tensorial de espacios, transformaciones ymatrices sobre anillos conmutativos. Definiremos los tensores y estableceremos surelacion con las funciones multilineales. El producto tensorial de tensores tambiensera considerado. Salvo que se advierta lo contrario, R denotara un anillo conmuta-tivo arbitrario. Para los espacios vectoriales utilizaremos la notacion por la izquierdapara los escalares de R.

3.1. Producto tensorial de espacios vectoriales

Sea V un R-espacio vectorial libre con base X, recordemos que cada funcion t :X → W , con W un R-espacio arbitrario, se puede extender de manera unica auna transformacion lineal T : V → W de tal forma que T (x) = t(x), para cadax ∈ X. De otra parte, si X es un conjunto no vacıo cualquiera, entonces R(X)

denota el R-espacio libre con base canonica X ′ := {µx(1)}x∈X , donde µx : R → R(X)

es la inyeccion canonica de la suma directa externa (vease [6]) de tal forma queµx(1) := (rz)z∈X y rz := 0 si z 6= x y rx := 1.

Podemos ya emprender la construccion del producto tensorial de dos espaciosvectoriales arbitrarios.

Sean U, V dos espacios vectoriales sobre R, sea X el producto cartesiano de losconjuntos U y V , es decir, X := U × V . Notemos que en el conjunto X hemosolvidado las estructuras de R-espacio que tienen U y V , a estos ultimos los estamostomando simplemente como conjuntos no vacıos. Consideremos entonces el R-espaciovectorial R(X) con base canonica X ′ = {µx(1)}x∈X . Notemos que los elementos deX son parejas, es decir, un elemento x ∈ X es de la forma x = (u, v). En otraspalabras, µx(1) = µ(u,v)(1) denota el arreglo que tiene solamente una entrada nonula, la ubicada en la “posicion (u, v)”, en la cual colocamos el escalar 1 ∈ R. Un

50

Page 57: Algebra Lineal (Libro) - Lezama

3.1. PRODUCTO TENSORIAL DE ESPACIOS VECTORIALES 51

elemento de R(X) es una combinacion lineal finita en la forma

r1 · µ(u1,v1)(1) + · · ·+ rt · µ(ut,vt)(1).

Observemos que el elemento anterior es un arreglo finito que tiene ubicados en laposicion (u1, v1) al escalar r1, en la posicion (u2, v2) al escalar r2 y, por ultimo, enla posicion (ut, vt) al escalar rt, en todas las demas posiciones al escalar cero. Estanotacion puede ser simplificada de la siguiente manera: representemos el elementoµ(u,v)(1) de la base canonica X simplemente por (u, v) de tal forma que veamos aU × V como la base canonica de R(X) y a las parejas (u, v) como los elementos deesta base. Ası pues, podemos pensar en R(U×V ) y considerar que la base canonicaes U × V . Con esta notacion podemos decir que un elemento de R(U×V ) es unacombinacion lineal finita en la forma

r1 · (u1, v1) + · · ·+ rt · (ut, vt) ,

donde r1, . . . , rt ∈ R.Sea S el subespacio de R(U×V ) generado por todos los elementos de la siguiente

forma

(u + u′, v)− (u, v)− (u′, v) , (3.1.1)

(u, v + v′)− (u, v)− (u, v′) , (3.1.2)

r · (u, v)− (r · u, v) , (3.1.3)

r · (u, v)− (u, r · v) , (3.1.4)

con r ∈ R. Sea U ⊗ V el R-espacio vectorial cociente correspondiente, es decir,

U ⊗ V := R(U×V )/S (3.1.5)

Denotemos por u⊗v la clase de equivalencia (u, v) en el cociente U⊗V = R(U×V )/S.Entonces en U ⊗ V se tienen las siguientes propiedades fundamentales.

Proposicion 3.1.1. Para cualesquiera elementos u, u′ ∈ U, v, v′ ∈ V y r ∈ R setiene que:

(i) (u + u′)⊗ v = u⊗ v + u′ ⊗ v

(ii) u⊗ (v + v′) = u⊗ v + u⊗ v′

(iii) r · (u⊗ v) = r · u⊗ v

(iv) r · (u⊗ v) = u⊗ r · v

Demostracion. Esto resulta en forma directa de las relaciones (3.1.1) - (3.1.4).

Page 58: Algebra Lineal (Libro) - Lezama

52 CAPITULO 3. PRODUCTO TENSORIAL

Corolario 3.1.2. La funcion canonica

t : U × V → U ⊗ V

(u, v) 7→ u⊗ v

es bilineal, es decir, satisface las siguientes propiedades:

(i) t (u + u′, v) = t(u, v) + t(u′ + v)

(ii) t(u, v + v′) = t(u, v) + t(u, v′)

(iii) t(r · u, v) = r · t(u, v)

(iv) t(u, r · v) = r · t(u, v),

para cualesquiera u, u′ ∈ U, v, v′ ∈ V y r ∈ R.

Demostracion. Consecuencia directa de la proposicion anterior.

Definicion 3.1.3. El espacio vectorial U ⊗V se denomina producto tensorial deU con V .

Sea z un elemento de U ⊗ V , con z ∈ R(U×V ), entonces z es de la forma z =r1 · (u1, v1) + · · · + rt · (ut, vt), por tanto en el cociente U ⊗ V = R(U×V )/S se tieneque

z = (r1 · u1)⊗ v1 + · · ·+ (rt · ut)⊗ vt,

pero como r1 · u1, . . . , rt · ut ∈ U , entonces podemos siempre asumir que z es de laforma

u1 ⊗ v1 + · · ·+ ut ⊗ vt.

El producto tensorial tiene la siguiente propiedad universal.

Teorema 3.1.4. Sea W un R-espacio y sea f : U × V → W una funcion bilineal.Entonces, existe una unica transformacion lineal F : U ⊗ V → W tal que Ft = f :

U × V U ⊗ V

W?

f

-t ppppppppppp+ F

La tranformacion lineal F se define por

F (u⊗ v) := f (u, v) .

Page 59: Algebra Lineal (Libro) - Lezama

3.1. PRODUCTO TENSORIAL DE ESPACIOS VECTORIALES 53

Demostracion. La funcion f definida sobre la base canonica U×V de R(U×V ) induceuna unica transformacion lineal F ′ : R(U×V ) → W dada por F ′ (u, v) := f (u, v).Definimos entonces la funcion F (z) := F ′ (z), donde z ∈ R(U×V ). En particular, siz = (u, v) es un basico, entonces F (u⊗ v) = F ′ (u, v) = f (u, v). Debemos ver queF esta bien definida. Sean z1, z2 ∈ R(U×V ) tales que z1 = z2, entonces z1 − z2 ∈ Sy por tanto z1 − z2 es una R-combinacion lineal de elementos como en (3.1.1) -(3.1.4). Como F ′ es R-lineal, basta considerar cada una de las cuatro relaciones porseparado. Si z1 − z2 = (u + u′, v)− (u, v)− (u′, v), entonces

F ′ (z1 − z2) = F ′ [(u + u′, v)− (u, v)− (u′, v)]

= f (u + u′, v)− f (u, v)− f (u′, v)

= 0, ya que f es bilineal.

De igual manera se establecen los otros tres casos. Esto muestra que F ′ (z1) = F ′ (z2),y F esta bien definida.

De otra parte, como F ′ es R-lineal, entonces F es una transformacion lineal.Ademas, Ft (u, v) = F (u⊗ v) = f (u, v), esto prueba que Ft = f .

Para terminar la demostracion, sea G otra transformacion lineal G : U⊗V → Wtal que Gt = f ; para probar la igualdad G = F basta considerar el vector u ⊗ v.Ası pues, Gt (u, v) = f (u, v), es decir, G (u⊗ v) = f (u, v) = F (u⊗ v).

Algunas consecuencias del teorema anterior son las siguientes propiedades evi-dentes del producto tensorial de espacios. Sean U, V R-espacios, entonces:

(i) (U ⊗ V ) ⊗W ∼= U ⊗ (V ⊗W ). El producto tensorial de estos tres espaciosse puede entonces denotar como U ⊗ V ⊗W . Mas adelante consideraremos el pro-ducto tensorial de tres o mas espacios y su relacion con las funciones multilinealesintroducidas en el capıtulo 2.

(ii) U ⊗ V ∼= V ⊗ U .(iii)

R⊗ V ∼= V , U ⊗R ∼= U , R⊗R ∼= R.

Para probar (iii) basta considerar la funcion bilineal f : R×V → V , f(r, v) := r·v. Seinduce entonces la transformacion lineal F : R ⊗ V → V dada por F (r ⊗ v) := r.v.De otra parte, la funcion G : V → R ⊗ V definida por G(v) := 1 ⊗ v es unatransformacion lineal tal que FG = iV y GF = iR⊗V . El segundo isomorfismo seestablece en forma similar, y el tercero es consecuencia de cualquiera de los dosanteriores.

Consideremos el caso particular en que U y V son libres de dimension finita.

Teorema 3.1.5. Sean U y V dos espacios vectoriales libres de dimension finita ny m con bases X = {x1, . . . , xn} y Y = {y1, . . . , ym}, respectivamente. Entonces,X⊗Y := {xi⊗yj | 1 ≤ i ≤ n, 1 ≤ j ≤ m} es una base de U⊗V , y en consecuencia,dimR (U ⊗ V ) = nm.

Page 60: Algebra Lineal (Libro) - Lezama

54 CAPITULO 3. PRODUCTO TENSORIAL

Demostracion. Notemos en primer lugar que si U = 0 o V = 0, entonces el teoremase tiene en forma trivial con bases vacıas. Sean pues n,m ≥ 1. Consideremos elR-espacio de matrices rectangulares Mn×m(R) con componentes en R. Definimosentonces la transformacion lineal

T : Mn×m(R) → U ⊗ V

Eij 7→ xi ⊗ yj, 1 ≤ i ≤ n, 1 ≤ j ≤ m.

De otra parte, consideremos la funcion

f : U × V → Mn×m(R)

f (u, v) = a1b1E11 + · · ·+ a1bmE1m+ · · ·+ anb1En1 + · · ·+ anbmEnm,

donde u = a1 ·x1 + · · ·+an ·xn y v = b1 ·y1 + ·+bm ·ym. Es facil ver que f es bilineal.Por el teorema 3.1.4 existe una transformacion lineal F : U⊗V → Mn×m(R) definidapor F (u⊗ v) = f (u, v) = a1b1E11 + · · ·+a1bmE1m + · · ·+anb1En1 + · · ·+anbmEnm.Pero notemos que FT = iMn×m(R) y tambien TF = iU⊗V . Esto demuestra que T esun isomorfismo de espacios vectoriales, con lo cual X ⊗ Y es una base de U ⊗ V ydimR (U ⊗ V ) = nm.

Corolario 3.1.6. Sea R un dominio de integridad y sean U, V,X, Y como en elteorema 3.1.5. Para cualesquiera elementos u ∈ U y v ∈ V se tiene que

u⊗ v = 0 ⇔ u = 0 o v = 0.

Demostracion. La condicion suficiente se tiene en forma trivial. Sean pues u =a1 ·x1 + · · ·+an ·xn y v = b1 ·y1 + ·+bm ·ym no nulos, entonces existen i0, j0 tales queai0 6= 0 y bj0 6= 0; puesto que u⊗ v =

∑n,mi=1,j=1 aibj · (xi ⊗ yj), entonces del teorema

3.1.5 resulta u⊗ v 6= 0 ya que ai0bj0 6= 0.

3.2. Producto tensorial de transformaciones y ma-

trices

Sean T : U → U ′ y F : V → V ′ dos transformaciones lineales, entonces la funcion

T × F : U × V → U ′ ⊗ V ′

(u, v) 7→ T (u)⊗ F (v)

es bilineal y por tanto induce una transformacion lineal

T ⊗ F : U ⊗ V → U ′ ⊗ V ′

u⊗ v 7→ T (u)⊗ F (v) .

La transformacion T ⊗ F se conoce como el producto tensorial de T con F . Setiene entonces la siguiente propiedad.

Page 61: Algebra Lineal (Libro) - Lezama

3.2. PRODUCTO TENSORIAL DE TRANSFORMACIONES Y MATRICES 55

Teorema 3.2.1. Sean X = {x1, . . . , xn} una base de U , X ′ = {x′1, . . . , x′p} unabase de U ′, Y = {y1, . . . , ym} una base de V y Y ′ = {y′1, . . . , y′q} una base de V ′.Entonces,

mX⊗Y,X′⊗Y ′ (T ⊗ F ) =

a11B · · · a1nB...

...ap1B · · · apnB

,

donde A = [aij] := mX,X′ (T ) y B = [bij] := mY,Y ′ (F ). La matriz de T ⊗ F seconoce como el producto tensorial de las matrices A y B, y se denota por A⊗B.Ası pues,

A⊗B :=

a11B a1nB...

...ap1B apnB

.

A⊗B es de orden pq × nm.

Demostracion. Basta aplicar T ⊗ F a los vectores de la base X ⊗ Y y expresar losresultados a traves de la base X ′ ⊗ Y ′.

Ejemplo 3.2.2. Sean T : R3 → R2 y F : R2 → R4 las transformaciones linealesdefinidas por

T (x, y, z) = (2x + 3y, 3x + 4z) ,

F (x, y) = (x, x + y, y, y − x) .

Determinemos la matriz de T ⊗F en las bases canonicas: Basta calcular las matricesA y B de las transformaciones T y F en las bases canonicas:

A = m (T ) =

[2 3 03 0 4

],

B = m (F ) =

1 01 10 1

−1 1

,

m (T ⊗ F ) = A⊗B =

[2B 3B 0B3B 0B 4B

],

m (T ⊗ F ) =

2 0 3 0 0 02 2 3 3 0 00 2 0 3 0 0

−2 2 −3 3 0 03 0 0 0 4 03 3 0 0 4 40 3 0 0 0 4

−3 3 0 0 −4 4

.

Page 62: Algebra Lineal (Libro) - Lezama

56 CAPITULO 3. PRODUCTO TENSORIAL

Mostraremos a continuacion otras propiedades interesantes del producto tensorialde transformaciones y matrices.

(i) Sean T : U → U ′ y F : V → V ′ transformaciones lineales sobreyectivas.Entonces, T ⊗ F es sobreyectiva. En efecto, si u′ ⊗ v′ ∈ U ′ ⊗ V ′, entonces existeu ∈ U y v ∈ V tales que T (u) = u′, F (v) = v′. Por lo tanto, (T ⊗ F ) (u⊗ v) =T (u)⊗ F (v) = u′ ⊗ v′.

(ii) Sean T : U → U ′ y F : V → V ′ transformaciones lineales sobreyectivas,entonces ker (T ⊗ F ) = ker (T )⊗V +U⊗ker (F ). Veamos la demostracion: denotemospor W := ker (T )⊗ V + U ⊗ ker (F ), este es un subespacio de U ⊗ V . Es claro queW ⊆ ker (T ⊗ F ), probemos entonces la otra inclusion. Consideremos el espaciocociente (U ⊗ V ) /W y la transformacion lineal canonica

J : U ⊗ V → (U ⊗ V ) /W

z 7→ z

Para el producto tensorial U ′ ⊗ V ′ consideremos el siguiente diagrama:

U ′ × V ′ U ′ ⊗ V ′

(U ⊗ V ) /W?

h

-t ppppppppppp+ H

donde h (T (u) , F (v)) := J (u⊗ v). Veamos que f esta bien definida. Sean T (u1) =T (u) y F (v1) = F (v), entonces u1 − u := u2 ∈ ker (T ) y v1 − v := v2 ∈ ker (F ),luego

u1 ⊗ v1 = (u + u2)⊗ (v + v2)

= u⊗ v + u⊗ v2 + u2 ⊗ v + u2 ⊗ v2

= u⊗ v + (u⊗ v2 + u2 ⊗ v + u2 ⊗ v2) ,

donde u⊗ v2 + u2⊗ v + u2⊗ v2 ∈ U ⊗ ker (F ) + ker (T )⊗ V = W , esto muestra que

u1 ⊗ v1 − u⊗ v ∈ W,

luego J (u⊗ v) = J (u1 ⊗ v1). Notemos que h es bilineal, por tanto induce la trans-formacion lineal H dada por

H (T (u)⊗ F (v)) := h (T (u) , F (v)) = J (u⊗ v) ,

de donde H (T ⊗ F ) = J . Sea z ∈ ker (T ⊗ F ), entonces H (T ⊗ F ) (z) = H (0) =0 = J (z) = z, lo cual indica que z ∈ W .

Page 63: Algebra Lineal (Libro) - Lezama

3.2. PRODUCTO TENSORIAL DE TRANSFORMACIONES Y MATRICES 57

(iii) Sean T1 : U → U ′, T2 : U ′ → U ′′ y F1 : V → V ′, F2 : V ′ → V ′′ transforma-ciones lineales, entonces

(T2T1)⊗ (F2F1) = (T2 ⊗ F2) (T1 ⊗ F1) .

En forma matricial,

A2A1 ⊗B2B1 = (A2 ⊗B2) (A1 ⊗B1) .

(iv) Si iU : U → U es la identica de U e iV : V → V , es la identica de V , entonces

iU ⊗ iV = iU⊗V .

En forma matricial,En ⊗ Em = Enm.

(v) Sean T : U → U ′ y F : V → V ′ transformaciones lineales biyectivas, entonces

(T ⊗ F )−1 = T−1 ⊗ F−1.

Matricialmente,(A⊗B)−1 = A−1 ⊗B−1.

(vi) Sean T y F1, F2 transformaciones lineales compatibles para las operacionesindicadas, entonces

T ⊗ (F1 + F2) = T ⊗ F1 + T ⊗ F2.

En forma matricial,

A⊗ (B1 + B2) = A⊗B1 + A⊗B2.

En forma similar se tienen las distributivas por el lado derecho.(vii) Sean T : U → U ′ y F : V → V ′ transformaciones lineales y sea a ∈ R,

entonces(a.T )⊗ F = T ⊗ (a.F ) = a. (T ⊗ F ) .

En forma matricial,

(a · A)⊗B = A⊗ (a ·B) = a · (A⊗B).

(viii) Sean A ∈ Mn (R) , B ∈ Mm (R), entonces

tr (A⊗B) = tr (A) tr (B) ,

det (A⊗B) = det (A)m det (B)n .

(ix) Sean A, A′ ∈ Mn (K) y B, B′ ∈ Mm (K), entonces

A ∼ A′, B ∼ B′ ⇒ A⊗B ∼ A′ ⊗B′; A ≈ A′, B ≈ B′ ⇒ A⊗B ≈ A′ ⊗B′.

Page 64: Algebra Lineal (Libro) - Lezama

58 CAPITULO 3. PRODUCTO TENSORIAL

3.3. Funciones multilineales y tensores

En el capıtulo 2 consideramos funciones multilineales sobre un mismo espacio Vpara establecer la teorıa de determinantes (vease la definicion 2.2.1). Estudiaremosahora la nocion general de funcion multilineal y su relacion con el producto tensorialde tres o mas espacios vectoriales. Comezamos con el dual de un espacio vectorial.Sea V un R-espacio, el conjunto de transformaciones lineales HomR(V, R) es unR-espacio y se denomina el espacio dual de V , denotado V ∗. Para cuando V eslibre de dimension finita se tiene la siguiente propiedad.

Proposicion 3.3.1. Sea V un R-espacio de dimension finita n ≥ 1 con base X :={x1, . . . , xn}. Entonces, X∗ := {x∗1, . . . , x∗n} es una base de V ∗, denominada la basedual de X, con x∗i (xj) := δij, donde δij es el sımbolo de Kronecker. Ademas, paracada f ∈ V ∗ y cada v ∈ V se tiene que f =

∑nk=1 f(xk) · x∗k y v =

∑nk=1 x∗k(v) · xk.

Demostracion. Este es un sencillo ejercicio para el lector.

Definicion 3.3.2. Sean V1, . . . , Vn, W espacios vectoriales sobre el anillo conmuta-tivo R; una funcion

V1 × · · · × Vnf−→ W

es multilineal si es lineal en cada argumento, es decir, para 1 ≤ i ≤ n y r ∈ R

f(x1, . . . , xi + x′i, . . . , xn) = f(x1, . . . , xi, . . . , xn) + f(x1, . . . , x′i, . . . , xn),

f(x1, . . . , r · xi, . . . , xn) = r · f(x1, . . . , xi, . . . , xn).

Proposicion 3.3.3. La coleccion M(V1, . . . , Vn; W ) de todas las funciones multi-lineales de V1 × · · · × Vn en W es un R-espacio vectorial respecto de las siguientesoperaciones:

(f + g)(x1, . . . , xn) := f(x1, . . . , xn) + g(x1, . . . , xn),(r · f)(x1, . . . , xn) := r · f(x1, . . . , xn).

Demostracion. Ejercicio para el lector.

El producto tensorial de tres o mas espacios V1, . . . , Vn se puede construir en formainductiva definiendo V1 ⊗ · · · ⊗ Vn := (V1 ⊗ · · · ⊗ Vn−1) ⊗ Vn, o tambien, mediantelas funciones multilineales, como veremos a continuacion: consideremos el cocientedel R-espacio libre R(V1×···×Vn) por el subespacio S generado por todos los vectoresde la forma

(x1, . . . , xi + x′i, . . . , xn)− (x1, . . . , xi, . . . , xn)− (x1, . . . , x′i, . . . , xn),

r · (x1, . . . , xi, . . . , xn)− (x1, . . . , r · xi, . . . , xn),

Page 65: Algebra Lineal (Libro) - Lezama

3.3. FUNCIONES MULTILINEALES Y TENSORES 59

con 1 ≤ i ≤ n y r ∈ R. Este espacio cociente se denota por V1 ⊗ · · · ⊗ Vn y sedenomina producto tensorial de V1, . . . , Vn. La clase del vector (x1, . . . , xn) sedenota por x1 ⊗ · · · ⊗ xn, y cada elemento de V1 ⊗ · · · ⊗ Vn es una suma finita deelementos de esta forma. La funcion canonica definida por

t : V1 × · · · × Vn → V1 ⊗ · · · ⊗ Vn

(x1, . . . , xn) 7→ x1 ⊗ · · · ⊗ xn

es multilineal. Esto en particular quiere decir que x1 ⊗ · · · ⊗ (xi + x′i)⊗ · · · ⊗ xn =x1⊗· · ·⊗xi⊗· · ·⊗xn+x1⊗· · ·⊗x′i⊗· · ·⊗xn y r·(x1⊗· · ·⊗xi⊗· · ·⊗xn) = x1⊗· · ·⊗r·xi⊗· · ·⊗xn. El producto tensorial V1⊗· · ·⊗Vn tiene la siguiente propiedad universal(vease el teorema 3.1.4): sea W un R-espacio y sea f : V1×· · ·×Vn → W una funcionmultilineal. Entonces, existe una unica transformacion lineal F : V1⊗ · · ·⊗Vn → Wtal que Ft = f :

V1 × · · · × Vn V1 ⊗ · · · ⊗ Vn

W?

f

-t pppppppppppppppppp� F

La tranformacion lineal F se define por

F (x1 ⊗ · · · ⊗ xn) := f (x1, . . . , xn) .

El teorema 3.1.5 tiene tambien lugar en este caso general, es decir, el productotensorial de espacios libres de dimension finita es libre y la dimension es el productode las dimensiones. De manera mas precisa, si Xj es una base de Vj entonces

X := X1 ⊗ · · · ⊗Xn := {xj1 ⊗ · · · ⊗ xjn|xji∈ Xi, 1 ≤ i ≤ n}

es una base de V1⊗ · · · ⊗ Vn. Utilizando la notacion precedente tenemos el siguienteresultado general valido para espacios arbitrarios.

Teorema 3.3.4. M(V1, . . . , Vn; W ) ∼= HomR(V1 ⊗ · · · ⊗ Vn, W ).

Demostracion. Segun acabamos de ver, dada f ∈ M(V1, . . . , Vn; W ) existe unaunica F ∈ HomR(V1 ⊗ · · · ⊗ Vn, W ) tal que Ft = f , definimos entonces α :M(V1, . . . , Vn; W ) → HomR(V1 ⊗ · · · ⊗ Vn, W ) por α(f) := F . Observemos que αes una transformacion lineal inyectiva. Ademas, dada F ∈ HomR(V1⊗ · · · ⊗ Vn, W )definimos f ∈ M(V1, . . . , Vn; W ) por f (x1, . . . , xn) := F (x1 ⊗ · · · ⊗ xn); es claroentonces que f ∈M(V1, . . . , Vn; W ) y α(f) = F .

Page 66: Algebra Lineal (Libro) - Lezama

60 CAPITULO 3. PRODUCTO TENSORIAL

Corolario 3.3.5. M(V1, . . . , Vn; R) ∼= HomR(V1 ⊗ · · · ⊗ Vn, R) := (V1 ⊗ · · · ⊗ Vn)∗.Si V1, . . . , Vn son libres de dimension finita, entonces

(V1 ⊗ · · · ⊗ Vn)∗ ∼= V ∗1 ⊗ · · · ⊗ V ∗

n . (3.3.1)

Demostracion. La primera afirmacion es consecuencia directa del teorema anteriortomando W := R.

Sea fi ∈ V ∗i , 1 ≤ i ≤ n. Definimos la funcion

f : V1 × · · · × Vn → R

f (v1, . . . , vn) := f1 (v1) · · · fn (vn) .

Notemos que f es multilineal, luego induce una unica transformacion lineal

F : V1 ⊗ · · · ⊗ Vn → R

F (v1 ⊗ · · · ⊗ vn) := f (v1, . . . , vn) = f1 (v1) · · · fn (vn) .

Esto indica que F ∈ (V1 ⊗ · · · ⊗ Vn)∗; se define entonces la funcion

f : V ∗1 × · · · × V ∗

n → (V1 ⊗ · · · ⊗ V )∗

(f1, . . . , fn) 7→ f(f1, . . . , fn) := F.

Notemos que f es multilineal, y por lo tanto, induce una transformacion lineal

F : V ∗1 ⊗ · · · ⊗ V ∗

n → (V1 ⊗ · · · ⊗ Vn)∗

F (f1 ⊗ · · · ⊗ fn) := f(f1, . . . , fn) = F

F (f1 ⊗ · · · ⊗ fn) (v1 ⊗ · · · ⊗ vn) = F (v1 ⊗ · · · ⊗ vn) = f1 (v1) · · · fn (vn) .

Sea Xi := {xi1, . . . , xiki} un base de Vi y sea X∗

i = {x∗i1, . . . , x∗iki} la base dual.

Entonces,

F(x∗1j1

⊗ · · · ⊗ x∗njn

)(x1r1 ⊗ · · · ⊗ xnrn) = x∗1j1

(x1r1) · · ·x∗njn(xnrn)

= 1 si (j1, . . . , jn) = (r1, . . . , rn)

= 0, en otro caso.

Sabemos que {x∗1j1⊗· · ·⊗x∗njn

| 1 ≤ ji ≤ ki, 1 ≤ i ≤ n} es una base de V ∗1 ⊗· · ·⊗V ∗

n ,

y por lo anterior, F(x∗1j1

⊗ · · · ⊗ x∗njn

)= (x1j1 ⊗ · · · ⊗ xnjn)∗ , 1 ≤ ji ≤ ki, 1 ≤ i ≤ n.

Es decir, F es una transformacion lineal que envıa una base en una base, por tanto,F es biyectiva.

Page 67: Algebra Lineal (Libro) - Lezama

3.3. FUNCIONES MULTILINEALES Y TENSORES 61

Sea V un R-espacio arbitrario y denotemos por

Mn(V ; R) := M(V, . . . , V︸ ︷︷ ︸n-veces

; R) ∼= (V ⊗ · · · ⊗ V︸ ︷︷ ︸n-veces

)∗ (3.3.2)

el R-espacio de funciones multilineales sobre V de n argumentos (vease la definicion2.2.1). Para el caso particular en el cual V es de dimension finita se tiene la siguientenocion de tensor.

Definicion 3.3.6. Sea V un R-espacio vectorial libre de dimension finita k ≥ 1.Los elementos del R-espacio

Tn(V ) := Mn(V ; R) ∼= (V ⊗ · · · ⊗ V︸ ︷︷ ︸n-veces

)∗ ∼= V ∗ ⊗ · · · ⊗ V ∗︸ ︷︷ ︸n-veces

se denominan n-tensores sobre V .

Notemos que V ∗ es el espacio de los 1-tensores y que las funciones bilineales sobreV son los 2-tensores. Las funciones multilineales considerdas en el capıtulo 2 paradefinir la funcion determinante son un ejemplo de n-tensores. Segun la defincionanterior, un n-tensor es el producto tensorial de n 1-tensores.

Corolario 3.3.7. Sea V un R-espacio vectorial libre de dimension finita k ≥ 1.Entonces, Tn(V ) es libre con dim(Tn(V )) = kn. Si X := {x1, . . . , xk} es una base deV , entonces {x∗j1 ⊗ · · ·⊗x∗jn

| 1 ≤ ji ≤ k, 1 ≤ i ≤ n} es una base de Tn(V ). Ademas,si f ∈ Tn(V ), entonces

f =k∑

j1,...,jn

f(xj1 , . . . , xjn) · (x∗j1 ⊗ · · · ⊗ x∗jn). (3.3.3)

Demostracion. Las primeras dos afirmaciones son consecuencia directa de la pruebadel corolario 3.3.5. Veamos la prueba de la segunda afirmacion: sea (v1, . . . , vn) ∈V n = V × · · · × V , si vi = ai1 · x1 + · · ·+ aik · xk, entonces

f(v1, . . . , vn) =k∑

j1,...,jn

a1j1a2j2 · · · anjnf(xj1 , . . . , xjn),

y por otro lado

[k∑

j1,...,jn

f(xj1 , . . . , xjn) · (x∗j1 ⊗ · · · ⊗ x∗jn)](v1, . . . , vn)

=k∑

j1,...,jn

f(xj1 , . . . , xjn)x∗j1(v1) · · ·x∗jn(vn)

=k∑

j1,...,jn

f(xj1 , . . . , xjn)a1j1a2j2 · · · anjn .

Page 68: Algebra Lineal (Libro) - Lezama

62 CAPITULO 3. PRODUCTO TENSORIAL

Los escalares f(xj1 , . . . , xjn) se denominan las coordenadas del tensor f en labase X := {x1, . . . , xk}. Veamos como cambian las coordenadas de f al cambiarla base X: sea Y := {y1, . . . , yk} otra base de V y Y ∗ = {y∗1, . . . , y∗k} la base dualcorrespondiente. Entonces,

f =k∑

i1,...,in

f(yi1 , . . . , yin) · (y∗i1 ⊗ · · · ⊗ y∗in). (3.3.4)

Puesto que {y∗i1⊗· · ·⊗y∗in | 1 ≤ ji ≤ k} es una base de Tn(V ) y x∗j1⊗· · ·⊗x∗jn∈ Tn(V ),

entonces

x∗j1 ⊗ · · · ⊗ x∗jn=

k∑i1,...,in

(x∗j1 ⊗ · · · ⊗ x∗jn)(yi1 , . . . , yin) · (y∗i1 ⊗ · · · ⊗ y∗in)

=k∑

i1,...,in

x∗j1(yi1) · · ·x∗jn(yin) · (y∗i1 ⊗ · · · ⊗ y∗in)

=k∑

i1,...,in

x∗j1(k∑

v=1

cvi1 · xv) · · ·x∗jn(

k∑v=1

cvin · xv) · (y∗i1 ⊗ · · · ⊗ y∗in)

=k∑

i1,...,in

cj1i1 · · · cjnin · (y∗i1 ⊗ · · · ⊗ y∗in).

Reemplazando en (3.3.3) resulta

f =k∑

j1,...,jn

k∑i1,...,in

cj1i1 · · · cjninf(xj1 , . . . , xjn) · (y∗i1 ⊗ · · · ⊗ y∗in).

De (3.3.4) se obtiene entonces que

f(yi1 , . . . , yin) =k∑

j1,...,jn

cj1i1 · · · cjninf(xj1 , . . . , xjn), (3.3.5)

donde C := [crs] es la matriz de cambio de la base X a la base Y .

Concluimos esta seccion con la definicion del producto tensorial de tensores. Paraesto comencemos con una construccion un poco mas general. Existe una transfor-macion lineal

Mn(V ; R)⊗Mm(V ; R)F−→Mn+m(V ; R).

Page 69: Algebra Lineal (Libro) - Lezama

3.4. TENSORES SIMETRICOS, ANTISIMETRICOS Y ALTERNADOS 63

En efecto, consideremos el siguiente diagrama

Mn(V ; R)×Mm(V ; R) Mn(V ; R)⊗Mm(V ; R)

Mn+m(V ; R)?

f

-t ppppppppppppppppppppppppppppp�F

donde t(h, g) := h⊗ g y f(h, g) := fh,g, con

fh,g(v1, . . . , vn; vn+1, . . . , vn+m) := h(v1, . . . , vn)g(vn+1, . . . , vn+m).

Observemos que efectivamente fh,g ∈Mn+m(V ; R) y f es bilineal, luego F existe yes una transformacion lineal definida por F (h⊗ g) := fh,g, es decir,

F (h⊗ g)(v1, . . . , vn; vn+1, . . . , vn+m) := h(v1, . . . , vn)g(vn+1, . . . , vn+m). (3.3.6)

Ası pues, dadas dos funciones multilineales h ∈Mn(V ; R) y g ∈Mm(V ; R) se definesu producto tensorial por

(h⊗ g)(v1, . . . , vn; vn+1, . . . , vn+m) := h(v1, . . . , vn)g(vn+1, . . . , vn+m). (3.3.7)

En particular, si V es de dimension finita, entonces h ∈ Tn(V ), g ∈ Tm(V ) y larelacion anterior define el producto tensorial de tensores .

Proposicion 3.3.8. Sea V un R-espacio vectorial libre de dimension finita k ≥ 1.Entonces, Tn(V )⊗ Tm(V ) ∼= Tn+m(V ).

Demostracion. Basta observar que la transformacion lineal F definida en (3.3.6)envia una base de Tn(V )⊗Tm(V ) en una base de Tn+m(V ), luego F es un isomorfismo.

3.4. Tensores simetricos, antisimetricos y alterna-

dos

En el capıtulo 2 definimos las funciones multilineales antisimetricas y alternadasde n argumentos sobre un R-espacio arbitrario V . Demostramos que que si 2 ∈R∗, entonces las funciones multilineales alternadas y las antisimetricas coinciden.Retomamos ahora el tema para el caso particular de los tensores. En esta seccion,salvo que advierta lo contrario, V es un R-espacio libre de dimension finita k ≥ 1.

Page 70: Algebra Lineal (Libro) - Lezama

64 CAPITULO 3. PRODUCTO TENSORIAL

Definicion 3.4.1. Un tensor f ∈ Tn(V ) es simetrico si para cada permutacionπ ∈ Sn y cualquier elemento (v1, . . . , vn) ∈ V × · · · × V se cumple

f(π(v1), . . . , π(vn)) = f(v1, . . . , vn).

Se dice que F es antisimetrico si

f(π(v1), . . . , π(vn)) = (−1)πf(v1, . . . , vn).

F es alternado si f(v1, . . . , vn) = 0, cuando vi = vj con i 6= j.

De esta definicion se obtienen de manera directa los siguientes resultados.

Proposicion 3.4.2. Sean Sn(V ), An(V ) y ALn(V ) las colecciones de n-tensoressimetricos, antismetricos y alternados, respectivamente, sobre el espacio V . En-tonces, Sn(V ), An(V ) y ALn(V ) son R-espacios. Ademas, ALn(V ) ⊆ An(V ) ysi 2 ∈ R∗, entonces An(V ) = ALn(V ).

Demostracion. Ejercicio para el lector.

Para los tensores alternados se tienen ademas las siguientes propiedades.

Proposicion 3.4.3. Sean v1, . . . , vn ∈ V vectores tales que para algun i, vi ∈〈v1, . . . , vi−1, vi+1, . . . , vn〉. Entonces, para cada f ∈ ALn(V ), f(v1, . . . , vn) = 0.Ademas, si R es un DI y v1, . . . , vn ∈ V son linealmente dependientes, entoncespara cada f ∈ ALn(V ), f(v1, . . . , vn) = 0.

Demostracion. Sea vi = r1 · v1 + · · ·+ ri−1 · vi−1 + ri+1 · vi+1 + · · ·+ rn · vn, entonces

f(v1, . . . , vi−1, r1 · v1 + · · ·+ ri−1 · vi−1 + ri+1 · vi+1 + · · ·+ rn · vn, vi+1, . . . , vn) =r1 · f(v1, . . . , vi−1, v1, vi+1, . . . , vn) + · · ·+ ri−1 · f(v1, . . . , vi−1, vi−1, vi+1, . . . , vn) +

ri+1 · f(v1, . . . , vi−1, vi+1, vi+1, . . . , vn) + · · ·+ rn · f(v1, . . . , vi−1, vn, vi+1, . . . , vn) = 0.

Para la segunda afirmacion, existen r1, . . . , rn ∈ R no todos nulos, digamos ri 6= 0,tales que r1 · v1 + · · ·+ ri · vi + · · ·+ rn · vn = 0. Resulta,

0 = f(v1, . . . , vi−1, 0, vi+1, . . . , vn) = ri · f(v1, . . . , vi−1, vi, vi+1, . . . , vn),

pero como R es un DI y ri 6= 0, entonces f(v1, . . . , vn) = 0.

Corolario 3.4.4. Sea R un DI y sea V un R-espacio libre de dimension finitak ≥ 1. Entonces, para cada n > k, ALn(V ) = 0.

Demostracion. Consecuencia directa del corolario 2.4.13 y de la proposicion anterior.

Si R = K es un cuerpo de caracterısitica cero, a cada tensor f ∈ Tn(V ) se puedenasociar un tensor simetrico y uno alternado ( = antisimetrico). En efecto, definimos

Page 71: Algebra Lineal (Libro) - Lezama

3.4. TENSORES SIMETRICOS, ANTISIMETRICOS Y ALTERNADOS 65

Sf (v1, . . . , vn) := 1n!

∑π∈Sn

f(π(v1), . . . , π(vn)),

Alf (v1, . . . , vn) := 1n!

∑π∈Sn

(−1)πf(π(v1), . . . , π(vn)).

Sea τ ∈ Sn, entonces θ := πτ recorre tambien el grupo Sn y se obtiene

Sf (τ(v1), . . . , τ(vn)) :=1

n!

∑π∈Sn

f(πτ(v1), . . . , πτ(vn))

=1

n!

∑θ∈Sn

f(θ(v1), . . . , θ(vn))

= Sf (v1, . . . , vn).

Ası pues, Sf ∈ Sn(V ). De manera similar, π = θτ−1 y (−1)π = (−1)θ(−1)τ−1, pero

(−1)τ−1= (−1)τ , luego

Alf (τ(v1), . . . , τ(vn)) :=1

n!

∑π∈Sn

(−1)πf(πτ(v1), . . . , πτ(vn))

=1

n!

∑θ∈Sn

(−1)τ (−1)θf(θ(v1), . . . , θ(vn))

= (−1)τAlf (v1, . . . , vn).

Proposicion 3.4.5. Sean K un cuerpo, con char(K) = 0, y V un K-espacio dedimension k ≥ 1. Entonces, las funciones S : Tn(V ) → Sn(V ) y Al : Tn(V ) →ALn(V ) definidas por S(f) := Sf y Al(f) := Alf son transformaciones lineales.Ademas, si f es simetrico (alternado), entonces Sf = f (Alf = f).

Demostracion. Ejercicio para el lector.

Proposicion 3.4.6. Sea K un cuerpo, con char(K) = 0, y sea V un K-espacio dedimension finita k ≥ 1. Entonces,

T2(V ) = S2(V )⊕AL2(V ).

Demostracion. Considerando que un 2-tensor sobre V es una funcion bilineal sobreV , entonces el resultado es inmediato si se tiene en cuenta que toda forma bili-neal se puede expresar en forma unica como suma de una forma simetrica y unaantisimetrica:

f(u, v) = 12[f(u, v) + f(v, u)] + 1

2[f(u, v)− f(v, u)].

Concluimos esta seccion definiendo el producto exterior entre tensores alternados.

Page 72: Algebra Lineal (Libro) - Lezama

66 CAPITULO 3. PRODUCTO TENSORIAL

Definicion 3.4.7. Sea K un cuerpo, con char(K) = 0. Sea V un K-espacio dedimension k ≥ 1 y sean f ∈ Tn(V ), g ∈ Tm(V ). El producto exterior de f y g sedefine por

f ∧ g :=(n + m)!

n!m!Al(f ⊗ g). (3.4.1)

Algunas propiedades del producto exterior se resumen en la siguiente proposicion.

Proposicion 3.4.8. Sean, K, V , k, V , f y g como en la defincion anterior. En-tonces,

(i) Si f, g ∈ T1(V ), entonces f ∧ g = f ⊗ g − g ⊗ f .

(ii) f ∧ 0 = 0.

(iii) Si h ∈ Tm(V ), entonces f ∧ (g + h) = f ∧ g + f ∧ h. La distributiva por el ladoizquierdo tambien se cumple.

(iv) Si h ∈ Tp(V ), entonces (f ∧ g) ∧ h = f ∧ (g ∧ h).

(v) Si a ∈ K, entonces, (a · f) ∧ g = f ∧ (a · g) = a · (f ∧ g).

(vi) g ∧ f = (−1)nm(f ∧ g).

(vii) f ∧ f = 0.

Demostracion. Ejercicio para el lector.

3.5. Algebras y producto tensorial

En esta ultima seccion vamos es definir el producto tensorial de algebras, el algebratensorial y el algebra exterior de un R-espacio.

Sean A y B dos R-algebras, entonces podemos construir el producto tensorialA⊗B de los R-espacios A y B. Este espacio puede ser dotado de estructura de R-algebra con el producto definido de la siguiente manera: consideremos el diagrama

A×B × A×B A⊗B ⊗ A⊗B

A⊗B?

f

-t pppppppppppppppppppp� F

donde t es la funcion multilineal canonica, t(a, b, a′, b′) := a⊗b⊗a′⊗b′ y f es definidapor f(a, b, a′, b′) := aa′ ⊗ bb′. Notese que f es multilineal, por tanto, f induce la

Page 73: Algebra Lineal (Libro) - Lezama

3.5. ALGEBRAS Y PRODUCTO TENSORIAL 67

transformacion lineal F definida por F (a⊗a′⊗b⊗b′) := aa′⊗bb′. Puesto que se tieneel isomorfismo de R-espacios A⊗B⊗A⊗B ∼= (A⊗B)⊗(A⊗B), entonces podemos

suponer que F es la transformacion lineal definida por (A⊗B)⊗ (A⊗B)F−→ A⊗B,

F ((a⊗ b)⊗ (a′⊗ b′)) := aa′⊗ bb′. Por el teorema 3.3.4, F induce una funcion bilineal

(A⊗B)× (A⊗B)f−→ A⊗B,

la cual permite definir la multiplicacion en A⊗B:

f(a⊗ b, a′ ⊗ b′) := F ((a⊗ b)⊗ (a′ ⊗ b′)) = aa′ ⊗ bb′;

ası pues, como f es bilineal entonces el producto queda bien definido por

(a⊗ b)(a′ ⊗ b′) := f(a⊗ b, a′ ⊗ b′) = aa′ ⊗ bb′. (3.5.1)

La bilinealidad de f garantiza que este produto es distributivo. La asociatividades consecuencia asociatividad en A y B. El uno de esta algebra es 1 ⊗ 1. A ⊗ B seconoce como el producto tensorial de A y B. Si A y B son algebras conmutativas,entonces A⊗B es conmutativa.

Consideremos ahora un R-espacio V , definimos

T (V ) :=⊕i≥0

T i(V ), T 0(V ) := R, T i(V ) := V ⊗ · · · ⊗ V︸ ︷︷ ︸i−veces

, i ≥ 1. (3.5.2)

Notemos que cada elemento z ∈ T (V ) es de la forma z = (zi)i≥0, con zi ∈ T i(V )y zi = 0 para casi todo i. En otras palabras, si µi : T i(V ) → T (V ) es la inyeccioncanonica de la suma directa externa (vease [6]), entonces z se puede escribir en laforma z =

∑i∈Cz

µi(zi), donde Cz := {i|zi 6= 0} es el soporte de z (finito). T (V ) espues un R-espacio. Si identificamos a T i(V ) con su imagen a traves de la inyeccioncanonica µi, es decir, si consideramos a T i(V ) como subespacio del R-espacio T (V ),entonces T (V ) es suma directa interna de los subespacios T i(V ):

T (V ) =∑i≥0

⊕T i(V ) = R⊕ V ⊕ (V ⊗ V )⊕ · · ·

Ası pues, cada elemento z ∈ T (V ) tiene una representacion unica en la forma z =z0 + z1 + · · · + zi, con zj ∈ T j(V ), 0 ≤ j ≤ i. T (V ) tiene estructura de R-algebracon el producto definido mediante distributividad y el R-isomorfismo

T i(V )⊗ T j(V ) ∼= T i+j(V ). (3.5.3)

En T (V ) tenemos entonces que

(v1 ⊗ · · · ⊗ vi)(vi+1 ⊗ · · · ⊗ vi+j) := v1 ⊗ · · · ⊗ vi+j, (3.5.4)

r(v1 ⊗ · · · ⊗ vi) := r · (v1 ⊗ · · · ⊗ vi) =: (v1 ⊗ · · · ⊗ vi)r. (3.5.5)

Page 74: Algebra Lineal (Libro) - Lezama

68 CAPITULO 3. PRODUCTO TENSORIAL

El producto anterior esta bien definido si se tiene en cuenta (3.5.3) y que la repre-sentacion de cada elemento de T (V ) a traves de la suma directa interna es unica.Como estamos considerando que T i(V ) ⊆ T (V ), entonces el isomorfismo ((3.5.3))se puede interpretar como

T i(V )T j(V ) ⊆ T i+j(V ).

Notemos que el elemento v1 ⊗ · · · ⊗ vi ∈ T i(V ) corresponde al producto v1 · · · vi detal forma que la relacion (3.5.4) se puede escribir en el forma

(v1 ⊗ · · · ⊗ vi)(vi+1 ⊗ · · · ⊗ vi+j) = (v1 · · · vi)(vi+1 · · · vi+j) = v1 · · · vi+j.

T (V ) se conoce como el algebra tensorial del R-espacio V . Notemos que la in-clusion

µ : V → T (V )

v 7→ v

es una transformacion lineal. El cero de T (V ) es el cero de R, lo mismo ocurre conel uno. Observemos que T (V ) es un algebra no conmutativa: para v, v′ ∈ V se tieneque vv′ = v ⊗ v′ 6= v′ ⊗ v = v′v.

El producto tensorial tiene la siguiente propiedad universal.

Teorema 3.5.1. Para cada R-algebra B y cada transformacion lineal f : V → B,existe un unico homomorfismo de R-algebras F : T (V ) → B tal que Fµ = f :

V T (V )

B?

f

-µ ppppppppp F

F se define por

F (v) := f(v), v ∈ V, F (r) := r · 1, r ∈ R. (3.5.6)

Demostracion. Para i ≥ 2, sea fi es la transformacion lineal inducida por la funcionmultilineal

f ′i : V × · · · × V → B, f ′i(v1, . . . , vi) := f(v1) · · · f(vi),fi(v1 ⊗ · · · ⊗ vi) = f(v1) · · · f(vi);

ademas, sean f1 := f , f0(r) = r · 1. Definimos F por

F (z0 + z1 + · · ·+ zi) := f0(z0) + f1(z1) + · · ·+ fi(zi), con zj ∈ T j(V ), 0 ≤ j ≤ i.

Page 75: Algebra Lineal (Libro) - Lezama

3.5. ALGEBRAS Y PRODUCTO TENSORIAL 69

Ası, F es una transformacion lineal bien definida y satisface F (v1 ⊗ · · · ⊗ vi) =fi(v1⊗· · ·⊗ vi) = f(v1) · · · f(vi) para i ≥ 2, F (v) = f1(v) = f(v) para cada v ∈ V yF (r) = f0(r) = r · 1 para cada r ∈ R. Notemos que Fµ = f . F es un homomorfismode R-algebras ya que

F (v1 · · · vi)F (vi+1 · · · vi+j) = F (v1 ⊗ · · · ⊗ vi)F (vi+1 ⊗ · · · ⊗ vi+j) =f(v1) · · · f(vi)f(vi+1) · · · f(vi+j) = F (v1 ⊗ · · · ⊗ vi+j) = F (v1 · · · vi+j) =

F ((v1 · · · vi)(vi+1 · · · vi+j)),

y ademas F (1) = 1. Si G es otro homomorfismo de R-algebras tal que Gµ = f ,entonces para cada v ∈ V , G(v) = Gµ(v) = f(v) = F (v), ademas, G(r) = G(r ·1) =r ·G(1) = r · 1 = F (r) para cada r ∈ R, es decir, G = F .

Pasamos ahora a construir el algebra exterior de V . En T (V ) consideremos elideal bilatero J (vease [5]) generado por los elementos de la forma v2, v ∈ V , esdecir,

J := 〈v2|v ∈ V 〉;

ademas, definimos

J0 := 0 =: J1, Ji := J ∩ T i(V ) para i ≥ 2.

Notese que Ji coincide con el R-subespacio Si de T i(V ) generado por los elementosde la forma v1 · · · vi, con vr = vs para algun par de ındices 1 ≤ r 6= s ≤ i. En efecto,es claro que Ji ⊆ Si; para la inclusion recıproca basta observar que cada elemen-to v1 · · · vr · · · vs · · · vi, con vr = vs, pertenece a Ji. Ilustremos con dos situacionesparticulares la prueba inductiva requerida: consideremos v1v2v1,

(v1 +v2)(v1 +v2)v1 = v1(v1 +v2)v1 +v2(v1 +v2)v1 = v1v1v1 +v1v2v1 +v2v1v1 +v2v2v1,

luego v1v2v1 ∈ J3. Consideremos tambien el caso v1v2v3v1:

(v1 + v2)(v1 + v2)v3v1 = v1v1v3v1 + v1v2v3v1 + v2v1v3v1 + v2v2v3v1,

notemos que los sumandos v1v1v3v1, v2v1v3v1 estan en J4 tal como vimos en el casoparticular anteriormente analizado. Por lo tanto, v1v2v3v1 ∈ J4. Los dos casos ante-riores muestran que la prueba en el caso general v1 · · · vr · · · vs · · · vi, con vr = vs, seestablece por induccion sobre s− r.

Notemos que

J =∑i≥0

⊕Ji.

En efecto, es claro que Ji ⊆ J para cada i ≥ 0, luego∑

i≥0 Ji ⊆ J ; ademas, lasuma es directa ya que Ji ⊆ T i(V ). Veamos que J ⊆

∑i≥0⊕Ji. Sea z ∈ J , entonces

existen zj, z′j ∈ T (V ) y vj ∈ V , 1 ≤ j ≤ t, tales que z = z1v

21z

′1 + · · · + ztv

2t z

′t, pero

Page 76: Algebra Lineal (Libro) - Lezama

70 CAPITULO 3. PRODUCTO TENSORIAL

si expresamos cada zj y cada z′j a traves de su expansion en T (V ) =∑

i≥0⊕T i(V ),encontramos que cada uno de los sumandos de zjv

2j z

′j pertenece a algun Ji, luego la

inclusion senalada es cierta.Se define entonces el algebra cociente

Λ(V ) := T (V )/J, (3.5.7)

y se conoce como el algebra exterior de V .

Proposicion 3.5.2. Sea V un R-espacio. Entonces, se tiene el R-isomorfismo deespacios

Λ(V ) ∼=⊕i≥0

Λi(V ), (3.5.8)

donde

Λ0(V ) := T 0(V )/J0 = R, Λ1(V ) := T 1(V )/J1 = V , Λi(V ) := T i(V )/Ji, i ≥ 2.

Demostracion. La propiedad universal de⊕

i≥0 Λi(V ) permite definir una transfor-macion lineal F segun el siguiente diagrama:

Λ(V )

Λi(V )

⊕i≥0

Λi(V )�

��

��

��

µi

-νi

pppppppppppp6F

donde νi es la inyeccion canonica y µi viene dada por

T i(V )/Ji = Λi(V )µi−→ Λ(V ) = T (V )/J , µi(zi) := zi,

con zi := zi +Ji, zi ∈ T i(V ), zi := zi +J . Notese que µi es una transformacion lineal

bien definida: en efecto, si zi = z′i, entonces zi − z′i ∈ Ji ⊆ J , luego zi = z′i.F se define por F ((zi)) :=

∑i∈C µi(zi) =

∑i∈C zi, donde C es el soporte de

(zi) 6= 0 y F (0) := 0. Notemos que existe k de tal forma que completando consumandos nulos podemos escribir

F ((zi)) =∑

i∈C zi = z0 + · · ·+ zk, con zj ∈ T j(V ), 1 ≤ j ≤ k.

Por otro lado, sea G′ : T (V ) →⊕

i≥0 Λi(V ) definida por G′(z0 + · · · + zi) :=ν0(z0)+ · · ·+νi(zi), con zj ∈ T j(V ), 0 ≤ j ≤ i. G′ es obviamente una transformacionlineal bien definida. Hacemos entonces G : Λ(V ) →

⊕i≥0 Λi(V ), G(z) := G′(z), con

z ∈ T (V ). G esta bien definida ya que si z = z′, entonces z − z′ ∈ J =∑

i≥0⊕Ji,

Page 77: Algebra Lineal (Libro) - Lezama

3.5. ALGEBRAS Y PRODUCTO TENSORIAL 71

de donde z − z′ = z0 + · · · + zi, con zj ∈ Jj, luego G′(z − z′) = 0. G es claramenteuna transformacion lineal. Finalmente, GF ((zi)) = G(z0) + · · · + G(zk) = G′(z0) +· · · + G′(zk) = G′(z0 + · · · + zk) = ν0(z0) + · · · + νi(zk) = (zi), es decir, GF esla identica de

⊕i≥0 Λi(V ). Tambien, si z := z0 + · · · + zi ∈ T (V ), con zi ∈ T j(V ),

1 ≤ j ≤ i, entonces FG(z) = FG′(z) = FG′(z0+· · ·+zi) = Fν0(z0)+· · ·+Fνi(zi) =µ0(z0) + · · ·+ µi(zi) = z0 + · · ·+ zi = z. Esto muestra que FG = iΛ(V ).

Si identificamos a Λi(V ) con su imagen a traves de la inyeccion canonica νi, esdecir, si consideramos a Λi(V ) como subespacio del R-espacio Λ(V ), entonces Λ(V )es suma directa interna de los subespacios Λi(V ):

Λ(V ) =∑i≥0

⊕Λi(V ) = R⊕ V ⊕ Λ2(V )⊕ · · ·

Cada elemento z ∈ Λ(V ) tiene una representacion unica en la forma z = z0 + z1 +· · ·+ zi, con zj ∈ Λj(V ), 0 ≤ j ≤ i. Para los elementos de Λi(V ) se usa la siguientenotacion:

v1 ∧ · · · ∧ vi := v1 · · · vi + Ji ∈ Λi(V ), (3.5.9)

El isomorfismo (3.5.8) permite reinterpretar el producto en el anillo Λ(V ) ya quea traves del isomorfismo F se tiene que

(v1 ∧ · · · ∧ vi)(vi+1 ∧ · · · ∧ vi+j) = v1 ∧ · · · ∧ vi+j. (3.5.10)

Lo anterior demuestra que en Λ(V ) se cumple la siguiente propiedad:

Λi(V )Λj(V ) ⊆ Λi+j(V ). (3.5.11)

La transformacion lineal canonica de inclusion

ν : V → Λ(V )

satisface ν(v)2 = 0 para cada v ∈ V . En efecto, en Λ(V ) tiene lugar la identidad

v ∧ v = v2 + J2 = 0. (3.5.12)

El algebra exterior esta caracterizada con la siguiente propiedad universal.

Teorema 3.5.3. Para cada R-algebra B y cada transformacion lineal f : V → Btal que f(v)2 = 0, con v ∈ V , existe un unico homomorfismo de R-algebras F :Λ(M) → B tal que Fν = f :

V Λ(V )

B?

f

-ν ppppppppp F

Page 78: Algebra Lineal (Libro) - Lezama

72 CAPITULO 3. PRODUCTO TENSORIAL

F se define por

F (v) := f(v), v ∈ V, F (r) := r · 1, r ∈ R. (3.5.13)

Demostracion. Segun el teorema 3.5.1, existe un homomorfismo de R-algebras F ′ :T (V ) → B tal que F ′µ = f . Definimos F (z) := F ′(z), con z ∈ T (V ); F esta biendefinido ya que si z = z′, entonces z − z′ ∈ J y existen zj, z

′j ∈ T (V ) y vj ∈ V , 1 ≤

j ≤ t, tales que z−z′ = z1v21z

′1+· · ·+ztv

2t z

′t, luego F ′(z−z′) = F ′(z1)F

′(v1)2F ′(z′1)+

· · · + F ′(zt)F′(vt)

2F ′(z′t) = F ′(z1)f(v1)2F ′(z′1) + · · · + F ′(zt)f(vt)

2F ′(z′t) = 0. F esun homomorfismo de R-algebras ya que F ′ los es; ademas, para cada v ∈ V se tieneque Fν(v) = F (v) = F ′(v) = F ′µ(v) = f(v). Es claro que F (r) = r · 1. Sea G otrohomomorfismo de R-algebras tal que Gν = f , entonces G (v) = Gν(v) = f (v) =F (v) y G(r) = G(r · 1) = r ·G(1) = r · 1 = F (r), para cada r ∈ R.

Algunas propiedades interesantes realcionadas con el algebra exterior son lassiguientes:

(i) Para cada v ∈ V , v ∧ v = 0. En notacion multiplicativa usual, v2 = 0.

(ii) Para u, v ∈ V , u ∧ v = −(v ∧ v). En notacion multiplicativa, uv = −vu. Enefecto, (u + v)(u + v) = 0 = u2 + uv + vu + v2 = uv + vu.

(iii) Para cada z ∈ Λi(V ) y w ∈ Λj(V ), z ∧ w = (−1)ij(w ∧ z). Mediante notacionmultiplicativa se tiene que zw = (−1)ijwz. En efecto, si z = z1∧· · ·∧zi y w =w1∧· · ·∧wj, entonces zw = (z1 · · · zi)(w1 · · ·wj) = (−1)iw1(z1 · · · zi)(w2 · · ·wj)= · · · = (−1)i · · · (−1)i︸ ︷︷ ︸

j−veces

(w1 · · ·wj)(z1 · · · zi) = (−1)ijwz.

(iv) Si V es generado por n elementos, entonces para i > n, Λi(V ) = 0. En efecto,en cada sumando de la expansion de v1 ∧ · · · ∧ vi := v1 · · · vi + Ji ∈ Λi(V ) atraves de los generadores de V hay elementos repetidos.

(v) Sea Vf−→ U una transformacion lineal. Entonces f induce un unico homomor-

fismo de R-algebras Λ(V )Λ(f)−−→ Λ(U) que envia elementos de Λi(V ) en Λi(U)

para cada i ≥ 0. La restriccion de Λ(f) a Λi(V ) se denota por Λi(f) y es talque Λi(f)(v1 ∧ · · · ∧ vi) = f(v1) ∧ · · · ∧ f(vi). Ademas, Λ(f) es sobreyectivosi, y solo si, para cada i ≥ 0, Λi(f) es sobreyectivo. En efecto, basta aplicar elteorema 3.5.3 y observar que Λ(f) =

⊕Λi(f).

(vi) Sea Rf−→ S un homomorfismo de anillos. Entonces se tienen los siguientes

isomorfismos:

S ⊗ Λ(V ) ∼= Λ(S ⊗ V ) (isomorfismo de R-algebras),

S ⊗ Λi(V ) ∼= Λi(S ⊗ V ), i ≥ 0 (isomorfismo de R-espacios).

Page 79: Algebra Lineal (Libro) - Lezama

3.6. EJERCICIOS 73

(vii) Sea V = V1 ⊕ V2, entonces se tienen los siguientes isomorfismos:

Λ(V ) ∼= Λ(V1)⊗ Λ(V2) (isomorfismo de R-algebras),

Λi(V ) ∼=⊕

j+k=i

Λj(V1)⊗ Λk(V2), i ≥ 0 (isomorfismo de R-espacios).

(viii) Si V es libre con base X := {x1, . . . , xn}, entonces para 1 ≤ i ≤ n, Λi(V ) eslibre con base {xj1∧· · ·∧xji

|1 ≤ j1 < · · · < ji ≤ n}. Ademas, dim Λi(V ) =(

ni

)y dim Λ(V ) = 2n.

(ix) Si V es un espacio proyectivo finitamente geenerado , es decir, V es sumandodirecto de un espacio libre de dimension finita, entonces Λ(V ) y Λi(V ) sonespacios proyectivos finitamente generados, para cada i ≥ 0.

3.6. Ejercicios

1. Demuestre la proposicion 3.3.3.

2. Sean U, V,W R-espacios. Demuestre que (U ⊗ V ) ⊗ W ∼= U ⊗ (V ⊗ W ) yU ⊗ V ∼= V ⊗ U .

3. Demuestre las propiedades (iii)-(ix) y (xi) de la seccion 3.2.

4. Demuestre que el producto tensorial de dos matrices cuadradas simetricas esuna matriz simetrica.

5. Sean V1, . . . , Vn R-espacios y sea π ∈ Sn una permutacion. Demuestre queV1 ⊗ · · · ⊗ Vn

∼= Vπ(1) ⊗ · · · ⊗ Vπ(n).

6. Determine en cada caso si f ∈ T2(R2), donde

a) f : R2 × R2 → R, f((c1, c2), (d1, d2)) := c1d2 + c2d1.

b) f : R2 × R2 → R, f((c1, c2), (d1, d2)) := c1d2 − c2d1.

c) f : R2 × R2 → R, f((c1, c2), (d1, d2)) := c1 + d2.

7. Para los tensores f del ejercicio anterior calcule Sf y Alf .

8. Sean T : R3 → R2 y F : R2 → R4 transformaciones lineales definidas por

T (x, y, z) = (2x + 3y, 3x + 4z) ,

F (x, y) = (x, x + y, y, y − x) .

Entonces, ¿ dim(ker(T ⊗ F )) = 2 ?.

Page 80: Algebra Lineal (Libro) - Lezama

74 CAPITULO 3. PRODUCTO TENSORIAL

9. Demuestre la proposicion 3.4.2.

10. Sean V un R-espacio de dimension finita k ≥ 1 y f ∈ Tn(V ). Demuestre quef ∈ An(V ) si, y solo si, para cada trasposicion τ ∈ Sn y cada (v1, . . . , vn) ∈V × · · · × V , f(τ(v1), . . . , τ(vn)) = −f(v1, . . . , vn).

11. Demuestre la proposicion 3.4.5.

12. Demuestre la proposicion 3.4.8.

13. Determine si se tienen los siguientes isomorfismos de R-algebras:

Mn(R)⊗Mm(R) ∼= Mnm×nm(R).

R[x]⊗R[y] ∼= R[x, y].

14. Demuestre el teorema 3.5.1.

15. Demuestre los numerales (v)-(ix) de la seccion 5.5.

16. Sea K un cuerpo y sean A ∈ Mn (K), B ∈ Mm (K) matrices diagonalizables,entonces ¿ A⊗B es diagonalizable ?.

17. ¿ La funcion f definida por

f : R2 × R2 → R, f((c1, c2), (d1, d2)) := c1d2 − c2d1

es un tensor?.

18. Sean f, g ∈ AL2(R2) dos tensores antisimetricos. Entonces, ¿ f ⊗ g es anti-simetrico ?.

19. Demuestre las propiedades (v)-(xi) de la seccion 3.5.

Page 81: Algebra Lineal (Libro) - Lezama

Capıtulo 4

Formas canonicas

Aplicamos en este capıtulo la teorıa de los modulos finitamente generados sobredominios de ideales principales (vease [6]) para el estudio de las formas canonicasclasica, racional y de Jordan de una transformacion lineal T : V → V , con V un K-espacio no nulo de dimension finita y K un cuerpo. En la ultima seccion estudiaremosla forma canonica diagonal y la diagonalizacion de matrices mediante similaridad.

4.1. Polinomios mınimo y caracterıstico

Sea EndK(V ) la K-algebra de transformaciones lineales de V , T : V → V un elemen-to que fijamos en EndK(V ), y sea K[x] la K-algebra de polinomios con coeficientesen K.

Proposicion 4.1.1. La funcion

f : K[x] → EndK(V )

a(x) = a0 + a1x + · · ·+ anxn 7→ a0 · iV + a1 · T + · · ·+ an · T n =: a(T )

(4.1.1)

es un homomorfismo de K-algebras, donde iV es la funcion identica de V .

Demostracion. Sean a(x) = a0 + a1x + · · · + anxn, b(x) = b0 + b1x + · · · + bmxm ∈

K[x], k ∈ K. Sin perdidad de generalidad podemos suponer que n = m. Entoncesf [a(x)+b(x)] = f [(a0 +b0)+(a1 +b1)x+ · · ·+(an +bn)xn] = (a0 +b0) · iV +(a1 +b1) ·T + · · ·+(an+bn) ·T n = (a0 ·iV +a1 ·T + · · ·+an ·T n)+(b0 ·iV +b1 ·T + · · ·+bn ·T n) =f(a(x)) + f(b(x)).

f [a(x)b(x)] = f(c(x)) = c0 ·iV +c1 ·T + · · ·+c2n ·T 2n, donde ci =∑

i=j+l ajbl, 1 ≤i ≤ 2n, pero utilizando la distributividad del anillo EndK(V ) se verifica facilmenteque (a0·iV +a1·T +· · ·+an·T n)(b0·iV +b1·T +· · ·+bn·T n) = c0·I+c1·T +· · ·+c2n·T 2n,es decir, f(c(x)) = f(a(x))f(b(x)). Finalmente resulta evidente que f(k · a(x)) =k · f(a(x)) y f(1) = iV .

75

Page 82: Algebra Lineal (Libro) - Lezama

76 CAPITULO 4. FORMAS CANONICAS

Corolario 4.1.2. Sea a(x) como en la proposicion 4.1.1 y v ∈ V . El producto

a(x) · v :=(a0 · iV + a1 · T + · · ·+ an · T n)(v)

=a0 · v + a1 · T (v) + · · ·+ an · T n(v) = a(T )(v)

dota a V una estructura de K[x]-espacio izquierdo. Esta estructura se denota porVT .

Demostracion. Notese que V tiene estructura de EndK(V )-modulo izquierdo con elproducto H · v := H(v), H ∈ EndK(V ), v ∈ V . La afirmacion es ahora evidente yaque f en (4.1.1) es un homomorfismo de anillos.

Proposicion 4.1.3. VT es un K[x]-espacio finitamente generado y de torsion.

Demostracion. Sea X = {x1, . . . , xt} una base de VK . De la inclusion natural

l : K → K[x]

k 7→ k

concluimos que VT =K[x] 〈x1, . . . , xt〉. De otra parte se tiene el isomorfismo de K-algebras EndK(V ) = Mt(K). Por lo tanto, dimK(EndK(V )) = t2, esto ultimo im-plica que f en (4.1.1) no puede ser inyectiva ya que de lo contrario f(1), f(x),f(x2), . . . serıa un subconjunto infinito linealmente independiente de EndK(V ), encontradiccion con lo ya establecido. Ası, ker(f) 6= 0; dado que K[x] es un DIP setiene

ker(f) = 〈qT (x)〉, (4.1.2)

con 0 6= qT (x) ∈ K[x]. Sin perdida de generalidad podemos tomar qT (x) monico.Resulta entonces que qT (x) · v = 0 para cada v ∈ VT , con lo cual VT es de torsion.Notese finalmente que

AnnK[x](VT ) = 〈qT (x)〉. (4.1.3)

De acuerdo con este resultado podemos aplicar a VT la teorıa de los espaciosfinitamente generados de torsion sobre un DIP .

Definicion 4.1.4. El polinomio qT (x) definido en (4.1.3) se denomina polinomiomınimo de T .

Segun (4.1.3), qT (x) no depende de la base X elegida en V .

Proposicion 4.1.5. Se tienen las siguientes propiedades para el polinomio mınimoqT (x):

Page 83: Algebra Lineal (Libro) - Lezama

4.1. POLINOMIOS MINIMO Y CARACTERISTICO 77

(i) Si q(x) ∈ K[x] es tal que

q(x) · v = 0 para cada v ∈ VT , (4.1.4)

es decir, si q(T ) = 0, entonces qT (x) | q(x).

(ii) qT (x) es el polinomio monico de menor grado tal que satisface (4.1.4) y esunico para T .

Demostracion. (i) Sea q(x) ∈ K[x] como en (4.1.4). Entonces q(x) ∈ AnnK[x](VT ) =〈qT (x)〉, con lo que qT (x) | q(x).

(ii) Sea p(x) monico de K[x] que satisface (4.1.4). Por (i), gr(qT (x)) ≤ gr(p(x)).Ahora, si p(x) es de grado mınimo entre los que cumplen (4.1.4), tenemos quegr(qT (x)) = gr(p(x)), por (i) y como qT (x) y p(x) son monicos, necesariamenteqT (x) = p(x).

Sea A ∈ Mt(K) una matriz, A define una unica transformacion lineal T : V → Ven la base X. Notemos que qT (A) = 0. En efecto, qT (mX(T )) = mX(qT (T )) =mX(0) = 0. Tenemos pues que existe al menos un polinomio monico que se anula enA; consideremos la coleccion I de todos los polinomios de K[x] que se anulan en A,este conjunto es claramente un ideal de K[x], luego I = 〈qA(x)〉 y el polinomio qA(x)se puede tomar monico. Notese que qA(x) es el polinomio monico de menor grado talque qA(A) = 0. En efecto, sea p(x) un polinomio monico de grado mınimo tal quep(A) = 0, entonces p(x) ∈ I, luego qA(x)|p(x), pero como p(x) es monico y de gradomınimo, entonces p(x) = qA(x). Se define el polinomio mınimo de la matriz Apor qA(x). Notese que qA(x) = qT (x). En efecto, ya sabemos que qT (A) = 0, luegoqA(x)|qT (x); pero tambien qA(T ) = 0 ya que mX(qA(T )) = qA(mX(T )) = qA(A) = 0y mX es inyectiva. Resulta, qT (x)|qA(x), con lo cual qT (x) = qA(x).

Definicion 4.1.6. (i) Sea A = [aij] ∈ Mt(K) una matriz cuadrada; se denominapolinomio caracterıstico de A al determinante de la matriz caracterıstica

xE − A :=

x− a11 −a12 · · · −a1t

−a21 x− a22 · · · −a2t...

......

...−at1 −at2 · · · x− att

(4.1.5)

y se denota por pA(x).

(ii) Sean K, V , T , X, t como en el corolario 4.1.3. Sea A = [aij] = mX(T )la matriz de T en la base X. Se define el polinomio caracterıstico de T porpT (x) := pA(x).

Page 84: Algebra Lineal (Libro) - Lezama

78 CAPITULO 4. FORMAS CANONICAS

Notese que gr(pT (x)) = t = dimK(V ); ademas, pT (x) es monico y no depende dela base X elegida en V . En efecto, si Y es otra base de V y B := mY (T ), entoncesdet(xE −B) = det(xE −C−1AC) = det(C−1(xE −A)C) = det(xE −A), donde Ces la matriz de cambio de la base X a la base Y .

Observemos que matrices similares tienen el mismo polinomio mınimo ya querepresentan la misma transformacion lineal. Lo mismo se tiene para el polinomiocaracterıstico. Las afirmaciones recıprocas no son siempre ciertas, tal como lo ilustranlas matrices [

1 10 1

]y

[1 00 1

].

Proposicion 4.1.7. Sea V = V1 ⊕ · · · ⊕ Vr una descomposicion de V en suma desubespacios T -invariantes no triviales, es decir, T (Vj) ⊆ Vj. Sea Tj la restriccionde T a Vj , 1 ≤ j ≤ r. Entonces

(i) Existe una base X en V tal que la matriz de T en la base X es diagonal porbloques.

(ii) det(T ) = det(T1) · · · det(Tr).

(iii) pT (x) = pT1(x) · · · pTr(x).

(iv) qT (x) = m.c.m.{qT1(x), . . . , qTr(x)}

Demostracion. (i) Si juntamos las bases de V1, . . . , Vr obtenemos una base de V yen esta base la matriz de T es diagonal por bloques.

Teniendo en cuenta que el determinante, el polinomio caracterıstico y el poli-nomio mınimo de una transformacion lineal coinciden con los de su matriz encualquier base, entonces basta probar las afirmaciones en el caso matricial. Peroel determinante de una matriz diagonal en bloques es el producto de los determi-nantes de sus bloques, luego las partes (ii)-(iii) ya estan probadas.

Resta demostrar la parte (iv). Sea

A :=

A1 · · · 0...

. . ....

0 · · · Ar

y qA(x) el polinomio mınimo de A. Hagamos m(x) := m.c.m{qA1(x), . . . , qAr(x)}.Existen polinomios mi(x), 1 ≤ i ≤ r, tales que m(x) = qAi

(x)mi(x). Se debe entoncesdemostrar que qA(x) = m(x). Teniendo en cuenta que tanto qA(x) como m(x) sonmonicos, entonces basta demostrar que qA(x) |m(x) y m(x) | qA(x). Sea m(x) =m0 + m1x + · · ·+ mlx

l, entonces

Page 85: Algebra Lineal (Libro) - Lezama

4.1. POLINOMIOS MINIMO Y CARACTERISTICO 79

m(A) = m0E + m1A + · · ·+ mlAl = m0E + m1A1 + · · ·+ mlA

l1 · · · 0

.... . .

...0 · · · m0E + m1Ar + · · ·+ mlA

lr

=

m(A1) · · · 0...

. . ....

0 · · · m(Ar)

=

qA1(A1)m1(A1) · · · 0...

. . ....

0 · · · qAr(Ar)mr(Ar)

= 0.

Esto garantiza que qA(x) |m(x).Para demostrar la segunda parte basta mostrar que qA(x) es multiplo de cada

qAi(x). Sea qA(x) = q0 + q1x+ · · ·+ qtx

t, entonces qA(A) = 0 luego q0E + q1A+ · · ·+qtA

t = 0 y

q0I +

q1A1 · · · 0...

. . ....

0 · · · q1Ar

+ · · ·+

qtAt1 · · · 0

.... . .

...0 · · · qtA

tr

=

qA(A1) · · · 0...

. . ....

0 · · · qA(Ar)

= 0,

luego qA(Ai) = 0 para cada i, y esto indica que qA(x) es multiplo de cada qAi(x).

Proposicion 4.1.8. Sea VT un K[x]-espacio cıclico con generador v0. Sean qT (x) =q0 + q1x + · · · + qn−1x

n−1 + xn el polinomio mınimo de T y pT (x) su polinomiocaracterıstico. Entonces,

(i) X := {v0, T (v0), . . . , Tn−1(v0)} es una K-base de V .

(ii) mX(T ) =

0 0 · · · 0 −q0

1 0 · · · 0 −q1

0 1 · · · 0 −q2...

......

......

0 0 · · · 1 −qn−1

,

denominada la matriz companera del polinomio qT (x).

(iii) pT (x) = qT (x).

Demostracion. (i) Dado que VT es cıclico, tenemos

VT∼= K[x]/AnnK[x](V ) (K[x]-isomorfismo).

De acuerdo con (4.1.3), AnnK[x](VT ) = 〈qT (x)〉 (notese que qT (x) 6= 0 pues de locontrario V no serıa de dimension finita sobre K). La inclusion natural K ↪→ K[x]

Page 86: Algebra Lineal (Libro) - Lezama

80 CAPITULO 4. FORMAS CANONICAS

convierte a K[x]/〈qT (x)〉 en un K-espacio vectorial con base {1, x, . . . , xn−1}, xi =xi + 〈qT (x)〉.

Sea v ∈ VT , entonces v = q(x) · v0, q(x) ∈ K[x]; dado que K[x] es un dominioeuclideano, v = qT (x)t(x) · v0 + r(x) · v0, con r(x) = 0 o gr(r(x)) < n; resultaentonces v = r(x) · v0 ∈ 〈v0, T (v0), . . . , T

n−1(v0)〉, es decir, V = 〈X〉. Sean ahoraa0, . . . , an−1 ∈ K tales que

a0 · v0 + a1 · T (v0) + · · ·+ an−1 · T n−1(v0) = 0,

entonces(a0 + a1x + · · ·+ an−1x

n−1) · v0 = 0,

y asıa0 + a1x + · · ·+ an−1x

n−1 ∈ AnnK[x](V ) = 〈qT (x)〉.

Por lo tanto, a0 + a1 · x + · · ·+ an−1 · xn−1 = 0, de donde a0 = a1 = · · · = an−1 = 0.(ii) La afirmacion de esta parte se sigue de (i) y del hecho que

qT (x) · v0 = 0 = q0v0 + q1 · T (v0) + · · ·+ qn−1 · T n−1(v0) + T n(v0).

(iii) Dado que al mutilplicar una matriz por una propiamente elemental su determi-nante no varıa, se tiene

pT (x) = det

x 0 · · · 0 q0

−1 x · · · 0 q1

0 −1 · · · 0 q2...

......

......

0 0 · · · −1 x + qn−1

= det

0 x2 · · · 0 q0 + q1x−1 x · · · 0 q1

0 −1 · · · 0 q2...

......

......

0 0 · · · −1 x + qn−1

= det

0 0 · · · 0 q0 + q1x + q2x

2

−1 0 · · · 0 q1 + q2x0 −1 · · · 0 q2...

......

......

0 0 · · · −1 x + qn−1

= · · · =

= det

0 0 · · · 0 q0 + q1x + · · ·+ qn−1xn−1 + xn

−1 0 · · · 0 q1 + q2x + · · ·+ xn−1

0 −1 · · · 0 q2 + q3x + · · ·+ nn−2

......

......

...0 0 · · · 0 qn−2 + qn−1x + x2

0 0 · · · −1 x + qn−1

=qT (x).

Page 87: Algebra Lineal (Libro) - Lezama

4.1. POLINOMIOS MINIMO Y CARACTERISTICO 81

Regresamos al estudio de las componentes primarias de VT .

Proposicion 4.1.9. Sea p(x) un polinomio monico irreducible de K[x]. La compo-nente p(x)-primaria de VT es no nula si, y solo si, p(x) | qT (x).

Demostracion. ⇒) Supongase que V(p(x))T 6= 0 y sea 0 6= v ∈ V

(p(x))T . Entonces,

AnnK[x](v) = 〈p(x)l〉, l ≥ 1 (vease [6]). Puesto que qT (x) · v = 0 entonces p(x)l |qT (x), y por lo tanto p(x) | qT (x).

⇐) Sea qT (x) = p(x)q(x) con q(x) ∈ K[x] monico. Notese que gr(q(x)) <gr(qT (x)), ası que por la proposicion 4.1.5, existe v 6= 0 en VT tal que q(x) · v 6= 0,

pero entonces p(x) · (q(x) · v) = qT (x) · v = 0, es decir , V(p(x))T 6= 0.

De la afirmacion anterior resulta inmediatamente la siguiente descomposicion deVT en suma directa de sus componentes primarias.

Corolario 4.1.10. Sea

qT (x) = q1(x)k1 · · · qr(x)kr (4.1.6)

la descomposicion del polinomio mınimo de T en producto de monicos irreducibles.Entonces la descomposicion de VT en suma de sus componentes primarias esta dadapor

VT = (VT )(q1(x)) ⊕ · · · ⊕ (VT )(qr(x)). (4.1.7)

Se puede ahora descomponer cada componente primaria en suma directa deK[x]-espacios cıclicos (vease [6]). Para simplificar un poco la notacion escribimos

(VT )(qj(x)) =: Vj, (4.1.8)

para 1 ≤ j ≤ r.

Lema 4.1.11. Con la notacion anterior se tiene que:

(i) Vj es un K-subespacio T -invariante de V y entonces Tj := T |Vjes un K-

endomorfismo de Vj.

(ii) Sea qTj(x) el polinomio mınimo de Tj. Entonces

qTj(x) = qj(x)kj y Vj = ker(qj(T )kj).

(iii) Si sj1 ≥ · · · ≥ sjlj ≥ 1 son los divisores elementales de Vj, escritos en ordendecreciente, entonces

sj1 = kj.

Page 88: Algebra Lineal (Libro) - Lezama

82 CAPITULO 4. FORMAS CANONICAS

(iv) Sea pTj(x) el polinomio caracterıstico de Tj. Entonces,

pTj(x) = qj(x)sj1+···+sjlj .

(v) qTj(x)|pTj

(x).

(vi) dimK(Vj) = (sj1 + · · ·+ sjlj)gr(qj(x)).

Demostracion. (i) Dado que Vj en un K[x]-subespacio de VT , este tambien resultaser K-subespacio de V . Ademas, Vj es T -invariante. En efecto, T (Vj) = x · Vj ⊆ Vj.

(ii) Por (4.1.6), qT (x) = qj(x)kjzj(x), con

zj(x) := qk11 (x) · · · qkj−1

j−1 (x)qkj+1

j+1 (x) · · · qkrr (x).

Sea vj ∈ Vj, entonces existe n ≥ 1 tal que qnj (x) · vj = 0. Como m.c.d.(qn

j (x), zj(x))= 1, existen w(x), l(x) ∈ K[x] tales que 1 = w(x)qn

j (x) + l(x)zj(x), luego vj =

w(x)qnj (x) ·vj + l(x)zj(x) ·vj = l(x)zj(x) ·vj, de donde q

kj

j (x) ·vj = l(x)qT (x) ·vj = 0.

Entonces, hemos demostrado que para cada j, qTj(x) | qkj

j (x).Por otra parte, de acuerdo con (4.1.7), cada elemento v ∈ V se puede expresar

en la formav = v1 + · · ·+ vj + · · ·+ vr, vj ∈ Vj.

Entonces,

qTj(x)zj(x) · v = qTj

(x)qk11 (x) · · · qkj−1

j−1 (x)qkj+1j+1 (x) · · · qkr

r (x) · v = 0.

Resulta qT (x) | qTj(x)zj(x), con lo que q

kj

j (x) | qTj(x).

Notemos que si v ∈ Vj, entonces qj(Tj)kj(v) = 0, es decir, qj(T )kj(v) = 0, luego

v ∈ ker(qj(T )kj). Recıprocamente, si v ∈ ker(qj(T )kj), entonces qj(T )kj(v) = 0, luegoqj(x)kj · v = 0, es decir, v ∈ Vj.

(iii) Se tiene el K[x]-isomorfismo

Vj∼= K[x]/〈qsj1

j (x)〉 ⊕ · · · ⊕K[x]/〈qsjlj

j (x)〉, (4.1.9)

y AnnK[x](Vj) = 〈qsj1

j (x)〉 = 〈qTj(x)〉, vease (4.1.3), de modo que segun (ii), sj1 = kj.

(iv) En (4.1.9) cada sumando es un K[x]-subespacio, luego tambien un K-subespacio de Vj; notemos que cada uno estos sumandos es Tj-invariante: en efecto,sea Wi := K[x]/〈qsji

j (x)〉, 1 ≤ i ≤ lj, entonces Vj∼= W1 ⊕ · · · ⊕ Wlj ; sea w ∈ Wi,

luego x · w ∈ Wi, es decir, T (w) ∈ Wi, luego Tj(Wi) ⊆ Wi.Tenemos entonces que cada Wi es un K[x]- espacio cıclico Tj-invariante, podemos

entonces aplicar las proposiciones 4.1.8 y 4.1.7 para obtener (iv).(v) Consecuancia directa de (ii), (iii) y (iv).(vi) Como el grado del polinomio caracterıstico pTj

(x) de Tj coincide con ladimension de Vj, entonces (v) es consecuencia de (iv).

Page 89: Algebra Lineal (Libro) - Lezama

4.2. FORMA CANONICA CLASICA 83

Definicion 4.1.12. Sea VT descompuesto como en (4.1.7). Los divisores elementalesde VT se denominan divisores elementales de T .

De los resultados obtenidos podemos deducir uno de los teoremas basicos y masimportantes del algebra lineal.

Teorema 4.1.13 (Hamilton-Cayley). Sea V un K-espacio de dimension finita yT : V → V una transformacion lineal de V . Entonces

qT (x) | pT (x).

Demostracion. Por la parte (v) del lema 4.1.11, para cada 1 ≤ j ≤ r se tieneque qTj

(x) | pTj(x), pero de la proposicion 4.1.7 y la descomposicion (4.1.7) resulta

qT1(x) · · · qTr(x) = qk11 (x) · · · qkr

r (x) = qT (x) | pT (x).

4.2. Forma canonica clasica

Aplicamos ahora los resultados anteriores al estudio de las llamadas formas canonicasde una transformacion lineal, o equivalentemente, de una matriz. Comenzamos conla forma canonica clasica.

Segun (4.1.7), podemos elegir en cada Vj una base Xj de tal manera que X :=⋃rj=1 Xj es una base de V y la matriz de T en dicha base toma la forma

mX(T ) =

mX1(T1) · · · 0...

. . ....

0 · · · mXr(Tr)

. (4.2.1)

Pero de acuerdo con (4.1.9), podemos elegir la base Xj de Vj de tal manera que lamatriz de Tj en dicha base es diagonal en bloques:

mXj(Tj) =

Aj1 · · · 0...

. . ....

0 · · · Ajlj

. (4.2.2)

Por la proposicion 4.1.8, el bloque Aji es la matriz companera del polinomio qj(x)sji

de (4.1.9). Queremos ahora descomponer cada bloque de (4.2.2) de tal manera queaparezca la matriz companera de qj(x).

Proposicion 4.2.1. Sea V un K[x]-espacio cıclico con generador v0 y supongaseque el polinomio mınimo de T (vease la proposicion 4.1.8) es de la forma q(x)s,

Page 90: Algebra Lineal (Libro) - Lezama

84 CAPITULO 4. FORMAS CANONICAS

donde q(x) := q0 + q1x + · · · + qn−1xn−1 + xn es irreducible, s ≥ 1. Entonces existe

una base X en V tal que la matriz T en dicha base es de la forma

mX(T ) =

C 0 · · · 01 C · · · 00 1 0...

...0 · · · 1 C

, (4.2.3)

con s bloques C, donde C es la matriz companera de q(x) y los 1 van dispuestos enlas entradas (n + 1, n), (2n + 1, 2n) . . . , ((s− 1)n + 1, (s− 1)n).

Demostracion. Segun la proposicion 4.1.8, una K-base de V es

X ′ = {v0, T v0, T2v0, . . . , T

ns−1v0}.

Notese que

X := {v0, T v0, . . . , Tn−1v0;

q(T )v0, T q(T )v0, . . . , Tn−1q(T )v0;

q(T )2v0, T q(T )2v0, . . . , Tn−1q(T )2v0;

. . . ; q(T )s−1v0, T q(T )s−1v0, . . . , Tn−1q(T )s−1v0}

tiene ns elementos y satisface 〈X ′〉 = 〈X〉 = V : en efecto, basta mostrar que cadaelemento de X ′ esta en 〈X〉. Es claro que v0, T v0, . . . , T

n−1v0 ∈ 〈X〉; como

q(T )v0 = q0v0 + q1Tv0 + · · ·+ qn−1Tn−1v0 + T nv0,

entonces

T nv0 = q(T )v0 − q0v0 − q1Tv0 − · · · − qn−1Tn−1v0 ∈ 〈X〉

T n+1v0 = Tq(T )v0 − q0Tv0 − · · · − qn−1Tnv0 ∈ 〈X〉

...

T n+n−1v0 = T n−1q(T )v0 − q0Tn−1v0 − · · · − qn−1T

2n−2v0 ∈ 〈X〉T 2nv0 = T nq(T )v0 − q0T

nv0 − · · · − qn−1T2n−1v0

= q(T )2v0 − q0q(T )v0 − q1Tq(T )v0 − · · · − qn−1Tn−1q(T )v0

− q0Tnv0 − · · · − qn−1T

2n−1v0 ∈ 〈X〉,

continuando de esta manera, y por recurrencia, obtenemos lo anunciado.Ası pues, X es una base de V y es facil ver que mX(T ) es como en (4.2.3).

Reemplazando (4.2.3) en (4.2.2), y luego en (4.2.1), obtenemos la denominadamatriz canonica clasica de T . Notese que esta matriz canonica clasica constasolamente de unos, ceros y los coeficientes de los factores irreducibles q1(x), . . . , qr(x)

Page 91: Algebra Lineal (Libro) - Lezama

4.2. FORMA CANONICA CLASICA 85

del polinomio mınimo qT (x). Para calcular la matriz canonica clasica de T es nece-sario conocer el sistema de divisores elementales de T , es decir, de VT . Si A es unamatriz cuadrada, entonces A determina una unica transformacion lineal T , y se de-finen los divisores elementales de A como el sistema de divisores elementales deT .

Corolario 4.2.2. (i) Sea T : V → V una transformacion lineal de un K-espacioV de dimension finita. Entonces, existe una base X en V tal que la matriz deT en la base X es una matriz canonica clasica.

(ii) Toda matriz A ∈ Mn(K) es similar a una unica matriz canonica clasica.

(iii) Dos matrices cuadradas son similares si, y solo si, tienen el mismo sistema dedivisores elementales.

Demostracion. Las dos primeras afirmaciones fueron probadas en el desarrollo dela presente seccion. La tercera se tiene ya que matrices similares representan lamisma transformacion lineal y, si dos matrices tienen el mismo sistema de divisoreselementales, entonces son similares a la misma matriz canonica clasica, y por lotanto son similares.

Ejemplo 4.2.3. Ilustramos a continuacion el calculo de las componentes primariasdel VT , donde T es una transformacion lineal definida por medio de una matriz.Tambien calcularemos la base X que permite obtener la forma diagonal en bloquesdada en (4.2.1). Consideremos la transformacion lineal T : R4 → R4 definida por lamatriz

A =

1 −1 0 10 3 1 02 1 2 −1

−3 −2 0 4

.

Mediante calculo manual o usando algun paquete de computo (por ejemplo el SWP,Scientific WorkPlace) encontramos que

pA(x) = qA(x) = 36− 60x + 37x2 − 10x3 + x4 = (x− 2)2 (x− 3)2;

debemos entonces calcular las componentes primarias de V := R4 inducidas por A,V1 = ker((A− 2E)2), V2 = ker((A− 3E)2). Tenemos

(A− 2E)2 =

−2 −2 −1 1

2 2 1 −11 1 1 0

−3 −3 −2 1

, (A− 3E)2 =

1 0 −1 −12 1 −1 −1

−3 −1 2 23 1 −2 −2

y calculamos las bases de sus nucleos:

Page 92: Algebra Lineal (Libro) - Lezama

86 CAPITULO 4. FORMAS CANONICAS

ker(A− 2E)2 =

10

−11

,

−1

100

, ker(A− 3E)2 =

1−1

10

,

1

−101

.

La base buscada X es la union de los cuatro vectores anteriores. Construimos lamatriz de cambio

C =

1 −1 1 10 1 −1 −1

−1 0 1 01 0 0 1

, C−1 =

0 1 1 11 1 0 01 1 1 0

−1 −1 0 1

,

y finalmente encontramos que0 1 1 11 1 0 01 1 1 0

−1 −1 0 1

1 −1 0 10 3 1 02 1 2 −1

−3 −2 0 4

1 −1 1 10 1 −1 −1

−1 0 1 01 0 0 1

=

3 −1 0 01 1 0 00 0 3 00 0 −1 3

.

Ejemplo 4.2.4. Para la matriz A del ejemplo anterior podemos calcular su formacanonica clasica: tenemos pA(x) = qA(x) = q1(x)2q2(x)2, con q1(x) = x−2 y q2(x) =x− 3, luego la forma buscada es

2 0 0 01 2 0 00 0 3 00 0 1 3

.

4.3. Forma canonica racional

La segunda forma canonica destacada es la racional, tambien denominada formacanonica de Frobenius, en la cual intervienen los factores invariantes de VT . Delcorolario 4.1.10 y del teorema de estructura de los modulos f.g. sobre DIPs (vease[6]) resulta

VT∼= K[x]/〈q1(x)〉 ⊕ · · · ⊕K[x]/〈qm(x)〉, (4.3.1)

Page 93: Algebra Lineal (Libro) - Lezama

4.3. FORMA CANONICA RACIONAL 87

donde qi(x) | qj(x) para i ≤ j (cada qi(x) se puede tomar monico). Existe entoncesuna base X en V tal que

R := mX(T ) =

C1 · · · 0...

. . ....

0 · · · Cm

, (4.3.2)

donde Cj es la matriz companera de qj(x). Notese que

pT (x) = q1(x) · · · qm(x),

〈qm(x)〉 = AnnK[x](VT ), qT (x) = qm(x),(4.3.3)

resultando otra demostracion del teorema 4.1.13. Esta forma canonica consta deceros, unos y los coeficientes de los factores invariantes.

Definicion 4.3.1. La matriz R en (4.3.2) se denomina racional o de Frobenius.Los polinomios q1(x), . . . , qm(x) en (4.3.1) se denominan los factores invariantesde la matriz R. Una transformacion lineal T : V → V es racionalizable si existeuna base X en V tal que mX(T ) es racional. Los factores invariantes de mX(T )se denominan factores invariantes de T . Una matriz A ∈ Mn(K) es racio-nalizable si A es similar a una matriz racional R, y los factores invariantes R seconocen como los factores invariantes de A.

Corolario 4.3.2. Sea T : V → V una transformacion lineal sobre un K-espacio Vde dimension finita. Entonces, para cada base Y de V se cumple: T es racionalizablesi, y solo si, mY (T ) es racionalizable.

Demostracion. Esto es consecuencia del hecho que matrices similares representan lamisma transformacion lineal.

Corolario 4.3.3. (i) Toda transformacion lineal T : V → V de un K-espacio V dedimension finita es racionalizable.

(ii) Toda matriz A ∈ Mn(K) es similar a una unica matriz racional R.(iii) Dos matrices cuadradas son similares si, y solo si, tienen los mismos factores

invariantes.

Demostracion. La primera afirmacion se tiene tal como vimos en (4.3.2); la segundaen consecuencia de que una matriz representa una transformacion lineal, la unicidadse obtiene de la unicidad de los factores invariantes de VT . La tercera resulta deque matrices similares representan la misma transformacion lineal y, si dos matricestienen los mismos facores invariantes, entonces son similares a la misma matrizracional, y por lo tanto son similares.

En la proposicion 4.1.8 vimos que si VT es un K[x]-espacio cıclico, entoncespT (x) = qT (x). Veamos ahora la afirmacion recıproca.

Page 94: Algebra Lineal (Libro) - Lezama

88 CAPITULO 4. FORMAS CANONICAS

Corolario 4.3.4. Sea T : V → V una transformacion lineal de un K-espacio dedimension finita. VT es cıclico si, y solo si, pT (x) = qT (x).

Demostracion. La condicion necesaria la vimos en la proposicion 4.1.8. Supongamosentonces que pT (x) = qT (x). Segun (4.3.3), VT tiene un solo factor invariante, luegopor (4.3.1) VT es cıclico.

Ejemplo 4.3.5. En este ejemplo mostramos un procedimiento manual sencillo paracalcular los factores invariantes de una matriz, y en consecuencia, su forma canonicaracional. El metodo sin embargo no es eficiente para matrices de dimensiones supe-riores. Calculemos entonces los factores invariantes de la matriz

A =

3 −4 −4−1 3 2

2 −4 −3

.

Notemos en primer lugar que si q(x) = q0 + q1x + · · · + qn−1xn−1 + xn y A es la

matriz companera de p(x) entonces

(xE − A) ∼

q(x) 0

1. . .

0 1

.

En efecto, vimos en la prueba de la proposicion 4.1.8 que

(xE − A) ∼

0 0 · · · 0 q0 + q1x + · · ·+ qn−1xn−1 + xn

−1 0 · · · 0 q1 + q2x + · · ·+ xn−1

0 −1 · · · 0 q2 + q3x + · · ·+ nn−2

......

......

...0 0 · · · 0 qn−2 + qn−1x + x2

0 0 · · · −1 x + qn−1

,

luego

(xE − A) ∼

0 0 · · · 0 q(x)−1 0 · · · 0 0...

......

......

0 0 · · · −1 0

q(x) 01

. . .

0 1

.

Page 95: Algebra Lineal (Libro) - Lezama

4.3. FORMA CANONICA RACIONAL 89

Por otra parte, si q1(x), . . . , qm(x) son los factores invariantes de A, entonces

(xE − A) ∼

q1(x) 0. . .

qm(x)1

. . .

0 1

.

En efecto, dado que toda matriz es racionalizable, existe una matrix invertible C talque

C−1AC =

A1 0. . .

0 Am

,

donde Ai es la companera de qi(x), 1 ≤ i ≤ m. Entonces,

C−1(xE − A)C =

xE − A1 0. . .

0 xE − Am

,

pero por lo que acabamos de ver, (xE − Ai) ∼

qi(x) 0

1. . .

0 1

, de modo que

(xE − A) ∼

q1(x) 0. . .

qm(x)1

. . .

0 1

.

Page 96: Algebra Lineal (Libro) - Lezama

90 CAPITULO 4. FORMAS CANONICAS

Con el soporte teorico anterior podemos resolver el ejercicio planteado:

(xE − A) =

x− 3 4 41 x− 3 −2−2 4 x + 3

∼ 1 x− 3 −2

x− 3 4 4−2 4 x + 3

1 x− 3 −20 −(x− 5)(x− 1) 2(x− 1)0 2(x− 1) x− 1

∼1 0 0

0 −(x− 5)(x− 1) 2(x− 1)0 2(x− 1) x− 1

1 0 00 −(x− 1)2 00 2(x− 1) x− 1

∼1 0 0

0 −(x− 1)2 00 0 x− 1

x− 1 0 00 −(x− 1)2 00 0 1

,

entonces pA(x) = (x − 1)3, qA(x) = (x − 1)2 y los factores invariantes de A sonx− 1,(x− 1)2. Finalmente podemos calcular la forma racional de A:1 0 0

0 0 −10 1 2

.

4.4. Forma canonica de Jordan

Presentamos en esta seccion otra forma canonica importante para transformacioneslineales y matrices.

Definicion 4.4.1. Sea a ∈ K, la matriz cuadrada de orden k ≥ 1

Ja,k :=

a 0 · · · 0 01 a · · · 0 0...

......

......

0 0 · · · 1 a

se denomina bloque elemental de Jordan de orden k perteneciente a a. Lamatriz diagonal de m ≥ 1 bloques

Ja :=

J1 0. . .

0 Jm

,

donde cada Jj es un bloque elemental de Jordan perteneciente a a y tal que

Page 97: Algebra Lineal (Libro) - Lezama

4.4. FORMA CANONICA DE JORDAN 91

orden J1 ≤ orden J2 ≤ · · · ≤ orden Jm

se denomina bloque de Jordan perteneciente a a.Sean a1, . . . , ar elementos diferentes de K. La matriz diagonal de r bloques de Jor-dan, r ≥ 1,

J :=

Ja1 0. . .

0 Jar

,

con Jaiperteneciente a ai se denomina matriz diagonal en bloques de Jordan

pertenecientes a a1, . . . , ar. Una transformacion lineal T : V → V de un K-espacio de dimension finita se dice diagonalizable en bloques de Jordan siexiste una base X en V tal que mX(T ) es una matriz diagonal en bloques de Jordan.Una matriz cuadrada se dice diagonalizable en bloques de Jordan si es similara una matriz diagonal en bloques de Jordan.

Corolario 4.4.2. Sea T : V → V una transformacion lineal sobre un K-espacio Vde dimension finita. Entonces, para cada base X de V se cumple: T es diagonalizableen bloques de Jordan si, y solo si, mX(T ) es diagonalizable en bloques de Jordan.

Demostracion. Dado que matrices similares representan la misma transformacionlineal se tiene entonces la afirmacion de la proposicion.

Ya se demostro que toda transformacion T de un espacio vectorial finito dimen-sional es reducible a la forma canonica clasica, o equivalentemente, que toda matrizcuadrada es similar a una matriz canonica clasica. Se probaron resultados analogospara la forma canonica racional. Mostraremos en seguida que para cuerpos alge-braicamente cerrados, toda transformacion lineal (= toda matriz cuadrada) sobreun espacio finito dimensional es diagonalizable en bloques de Jordan.

Definicion 4.4.3. Una transformacion lineal T es nilpotente si existe s ≥ 1 talque T s = 0. El menor natural s con esta propiedad se llama ındice de nilpotenciade T .

Proposicion 4.4.4. Sea T : V → V una transformacion nilpotente de un K-espacioV de dimension finita n ≥ 1 con ındice de nilpotencia s ≥ 1. Entonces existe unabase Y en V tal que

mY (T ) =

C1 0. . .

0 Cm

,

Page 98: Algebra Lineal (Libro) - Lezama

92 CAPITULO 4. FORMAS CANONICAS

con

Cj :=

0 0 · · · 0 01 0 · · · 0 0...

......

......

0 0 · · · 1 0

, de tamano sj × sj, (4.4.1)

s1 + · · · + sm = n, 1 ≤ s1 ≤ s2 ≤ · · · ≤ sm, sm = s, qT (x) = xs, m = numero defactores invariantes de T y ademas m = dim(ker(T )).

Demostracion. Sean q1(x), . . . , qm(x) los factores invariantes de T . Segun (4.3.3),qT (x) = qm(x); sea s := ındice de nilpotencia de T , entonces qm(x) = xs, de dondeqj(x) = xsj con 1 ≤ s1 ≤ s2 ≤ · · · ≤ sm = s. Notese que la matriz companerade qj(x) es efectivamente (4.4.1). Segun (4.3.3), n = gr(pT (x)) = s1 + · · · + sm.Aplicamos entonces (4.3.2).

Veamos la prueba de la ultima afirmacion de la proposicion, es decir,

m = dim(ker(T ).

Segun (4.3.1), VT tiene la descomposicion en suma de K[x]-subespacios cıclicos

VT = 〈w1〉 ⊕ · · · ⊕ 〈wm〉, con 〈wj〉 ∼= K[x]/〈xsj〉.

La idea es probar que {T s1−1(w1), . . . , Tsm−1(wm)} es una base de ker(T ). Si w ∈

ker(T ), entonces w = u1 + · · · + um, donde uj es un elemento de 〈wj〉, 1 ≤ j ≤ m.Entonces,

w = g1(T )(w1) + · · ·+ gm(T )(wm),

donde el grado de gj(x) se puede tomar inferior a sj. Se tiene que T (w) = 0, perocomo la suma directa, se concluye que gj(T )T (wj) = 0. Esto implica que xsj divide agj(x)x, pero por la escogencia del grado de gj(x) se tiene que gj(x)x = bjx

sj , bj ∈ K.Por lo tanto, gj(x) = bjx

sj−1, y en consecuencia,

w = b1Ts1−1(w1) + · · ·+ btT

st−1(wm).

La independencia lineal se obtiene de la suma directa y de que 〈xsj〉 = AnnK[x](wj).

Teorema 4.4.5. Sea T : V → V una transformacion lineal de un K-espacio dedimension finita n ≥ 1. Supongase que pT (x) se descompone completamente en K[x]en producto de factores lineales (esto ocurre por ejemplo si K es algebraicamentecerrado). Entonces, T es diagonalizable en bloques de Jordan de manera unica, salvoel orden de disposicion de los bloques.

Page 99: Algebra Lineal (Libro) - Lezama

4.4. FORMA CANONICA DE JORDAN 93

Demostracion. SeapT (x) := (x− a1)

n1 · · · (x− ar)nr ,

con a1, . . . , ar elementos diferentes de K, 1 ≤ nj ≤ n, 1 ≤ j ≤ r. Segun (4.3.3),pT (x) y qT (x) tienen los mismos factores irreducibles (aunque no necesariamente conla misma multiplicidad). Entonces

qT (x) = (x− a1)k1 · · · (x− ar)

kr , 1 ≤ kj ≤ nj.

Sean Vj y Tj como se definieron en (4.1.8) y en el lema 4.1.11. Para cada 1 ≤ j ≤ rconsideremos la transformacion lineal

T ′j := Tj − ajiVj

: Vj → Vj.

Por el lema 4.1.11, el polinomio mınimo de Tj es (x − aj)kj , luego T ′

j es nilpotentede ındice kj. De acuerdo con la proposicion 4.4.4, para cada 1 ≤ j ≤ r existe unabase Yj en Vj tal que

mYj(T ′

j) =

Cj1 0. . .

0 Cjmj

,

con cada bloque como en (4.4.1) y de orden sji. Notese que sjmj= kj, mj = numero

de factores invariantes de T ′j , y tal como vimos en la la proposicion 4.4.4,

mj = dim(ker(T ′j)) = dim(ker(Tj − ajiVj

)) = dim(ker(T − ajiV )). (4.4.2)

En efecto, la ultima igualdad se tiene ya que ker(Tj − ajiVj) = ker(T − ajiV ) (vease

el lema 4.1.11, parte (ii)). Ademas, 1 ≤ sj1 ≤ sj2 ≤ · · · ≤ sjmj, sj1 + · · ·+ sjmj

= nj.Segun (4.1.7), si Y :=

⋃Yj entonces

mY (T ) =

mY1(T1) 0. . .

0 mYr(Tr)

.

Pero mYj(Tj) = mYj

(T ′j) + mYj

(ajiVj) y ası mYj

(Tj) es un bloque de Jordan perte-neciente a aj:

mYj(Tj) =

aj

1. . .

1 aj

bloque elemental de orden sj1

. . .

bloque elemental de orden sjmj

aj

1. . .

1 aj

.

Page 100: Algebra Lineal (Libro) - Lezama

94 CAPITULO 4. FORMAS CANONICAS

Notese que en la forma canonica de Jordan aparecen solo ceros, unos y las raıces delpolinomio caracterıstico. La unicidad de estas ultimas, la unicidad de las compo-nentes primarias en (4.1.7) y la unicidad de los factores invariantes, determinan launicidad de la estructura de los bloques de Jordan, salvo el orden de disposicion.

Corolario 4.4.6. Sea K un cuerpo algebraicamente cerrado. Dos matrices cuadra-das son similares si, y solo si, tienen la misma forma canonica de Jordan.

Demostracion. Sean A, B ∈ Mn(K) similares, A ≈ J1 y B ≈ J2 con J1 y J2

matrices diagonales en bloques de Jordan. Por transitividad J1 ≈ J2. Puesto quematrices similares representan la misma transformacion lineal, se sigue, por la uni-cidad expuesta en el teorema 4.4.5 que J1 = J2 (salvo el orden de los bloques).Recıprocamente, si A ≈ J ≈ B entonces A ≈ B.

Ejemplo 4.4.7. En este ejemplo mostramos una matriz invertible C tal que C−1ACes una matriz de Jordan, con

A =

4 1 1 1

−1 2 −1 −16 1 −1 1

−6 −1 4 2

.

Consideramos a la matriz A como una transformacion lineal de R4 en R4 en labase canonica. Determinemos en primer lugar el polinomio caracterıstico y el poli-nomio mınimo de A : pA(x) = (x + 2)(x − 3)3, qA(x) = (x + 2)(x − 3)2. Deacuerdo con la prueba del teorema 4.4.5, el numero de bloques de Jordan es 2,uno correspondiente al valor −2 y otro correspondiente a 3 Ademas se tiene queR4 = V1 ⊕ V2, con V1 = ker(A + 2E) = 〈(0, 0,−1, 1)〉 y V2 = ker[(A − 3E)2] =〈(1, 0, 1, 0) , (0, 1, 0, 0) , (0, 0, 0, 1)〉. Segun la proposicion 4.4.4, el numero de bloqueselementales de Jordan correspondiente a −2 viene dado por dim(ker(A + 2E)) y elnumero correspondiente a 3 es dim(ker(A−3E)). Pero ker(A+2E) = 〈(0, 0,−1, 1)〉 yker(A−3E) = 〈(0,−1, 0, 1) , (1,−2, 1, 0)〉, luego dim(ker(A+2E)) = 1 y dim(ker(A−3E)) = 2. Para el valor 3 se tiene que el tamano del segundo bloque elemental deJordan viene dado por la multiplicidad de 3 en el polinomio mınimo, que en estecaso es 2. Ya podemos entonces mostrar la forma de Jordan de la matriz A:

J =

−2 0 0 0

0 3 0 00 0 3 00 0 1 3

.

Para calcular la matriz C debemos encontrar bases X1 en V1 y X2 en V2 de talforma que C es la matriz de cambio de la base canonica de R4 a la base X =X1 ∪ X2. Consideremos las transformaciones A′

1 := A + 2E : V1 → V1 y A′2 :=

Page 101: Algebra Lineal (Libro) - Lezama

4.5. FORMA CANONICA DIAGONAL: VALORES Y VECTORES PROPIOS 95

A − 3E : V2 → V2. Notese que A′1 es nilpotente de ındice 1 y A′

2 es nilpotentede ındice 2. Segun la prueba de la proposicion 4.4.4, debemos descomponer V1 yV2 en suma directa de subespacios cıclicos. Tal como vimos arriba, el numero desumandos cıclicos de V1 es 1 = dim(ker(A + 2E)) y coincide con el numero defactores invariantes de A′

1; de igual manera, el numero de sumandos cıclicos de V2 es2 = dim(ker(A− 3E)) y coincide con el numero de factores invariantes de A′

2. PeroV1 = 〈(0, 0,−1, 1)〉, entonces la descomposicion cıclica de V1 es trivial: V1 = 〈v1〉con v1 := (0, 0,−1, 1), y en consecuencia, X1 = {(0, 0,−1, 1)}. Para V2 los factoresinvariantes de A′

2 son x y x2. Necesitamos dos vectores v2, v3 ∈ V2 de tal forma queV2 = 〈v2〉 ⊕ 〈v3〉, donde el polinomio anulador de v2 es x y el polinomio anuladorde v2 sea x2. La base buscada en V2 es pues X2 = {v2, v3, A

′2v3}. Resulta entonces

que x · v2 = 0, es decir, A′2v2 = 0, con lo cual v2 ∈ ker(A′

2) = ker(A − 3E), luegopodemos tomar por ejemplo v2 = (0,−1, 0, 1). Notese que en calidad de v3 podemostomar a (0, 0, 0, 1) de tal forma que A′

2(v3) = (1,−1, 1,−1). Se tiene entonces queX2 := {(0,−1, 0, 1) , (0, 0, 0, 1) , (1,−1, 1,−1)} es una base de V2. La matriz C espues

C =

0 0 0 10 −1 0 −1

−1 0 0 11 1 1 −1

, C−1 =

1 0 −1 0

−1 −1 0 01 1 1 11 0 0 0

,

C−1AC =

−2 0 0 0

0 3 0 00 0 3 00 0 1 3

.

4.5. Forma canonica diagonal: valores y vectores

propios

Estudiaremos ahora la forma canonica mas sencilla, pero a su vez muy exigente,para una transformacion lineal o matriz: la forma diagonal. Al igual que en la for-ma canonica de Jordan, la diagonalizacion requiere que el polinomio mınimo tengaun aspecto especial, razon por la cual no todo operador lineal (matriz) ha de serdiagonalizable.

Definicion 4.5.1. Sea T : V → V una transformacion lineal de un espacio V dedimension finita n ≥ 1. Se dice que T es diagonalizable si existe una base X enV tal que mX(T ) es una matriz diagonal. Una matriz A de orden n ≥ 1 se dice quees diagonalizable si A es similar a una matriz diagonal.

Page 102: Algebra Lineal (Libro) - Lezama

96 CAPITULO 4. FORMAS CANONICAS

Corolario 4.5.2. Sea T : V → V una transformacion lineal de un espacio V dedimension finita n ≥ 1 y sea X una base cualquiera de V . Entonces, T es diagona-lizable si, y solo si, mX(T ) es diagonalizable.

Demostracion. Teniendo en cuenta que matrices que representen la misma transfor-macion lineal son similares, se tiene el resultado.

Teorema 4.5.3. Sea T : V → V una transformacion lineal de un espacio V dedimension finita n ≥ 1. T es diagonalizable si, y solo si, el polinomio mınimo de Tes de la forma

qT (x) = (x− a1) · · · (x− ar), aj ∈ K, 1 ≤ j ≤ r. (4.5.1)

Demostracion. ⇒): sea X una base de V tal que la matriz de T es diagonal, digamos,

mX(T ) =

a1 · · · 0...

. . ....

0 · · · an

.

Notese que mX(T ) es la forma canonica de Jordan de T ; ademas, el polinomiocaracterıstico de T es pT (x) = (x− a1)

n1 · · · (x− ar)nr , con a1, . . . , ar los diferentes

escalares en la diagonal de mX(T ) y nj la multiplicidad de aj, 1 ≤ j ≤ r. Luego elpolinomio mınimo de T es de la forma qT (x) = (x−a1)

k1 · · · (x−ar)kr , con kj ≥ 1. Si

para lagun j, kj ≥ 2, entonces en la forma de Jordan de T aparecerıan unos debajode la diagonal, por lo tanto kj = 1 para cada j.

⇐): si qT (x) es como en (4.5.1), entonces la notacion y demostracion del teorema4.4.5 indican que cada sjmj

= 1, pero esto significa que la matriz de Jordan de T esdiagonal, es decir, T es diaginalizable.

En la seccion anterior nos encontramos con el calculo del nucleo de operadoresde la forma T −a · iV , con T : V → V una transformacion lineal y a ∈ K un escalar,ası pues, los elementos de este nucleo son vectores v ∈ V tales que T (v) = a · v.Tales vectores ocupan un lugar destacado en algebra lineal clasica y los definiremos acontinuacion. A traves de los valores y vectores propios podemos tambien presentarotros criterios de diagonalizacion de operadores lineales.

Definicion 4.5.4. Sea T : V → V una transformacion de un K-espacio V ; unescalar a ∈ K se dice que es un valor propio de T si existe un vector no nulov ∈ V tal que T (v) = a · v. En tal caso se dice que v es un vector propio de Tperteneciente al valor propio a.

Notese que un vector propio solo puede pertenecer a un solo valor propio.

Ejemplo 4.5.5. Para la transformacion lineal T : R2 → R2 definida por T [x, y]T :=[2x, 3y]T , a = 2 es un valor propio con vector propio [6, 0]T ; a = 3 es tambien unvalor propio de T con vector propio [0,−2]T .

Page 103: Algebra Lineal (Libro) - Lezama

4.5. FORMA CANONICA DIAGONAL: VALORES Y VECTORES PROPIOS 97

Sea a ∈ K, el conjunto

E(a) := {v ∈ V |T (v) = a · v}

es un subespacio de V ; notese que E(a) 6= 0 si, y solo si, a es un valor propio de T .

Definicion 4.5.6. E(a) se denomina el espacio propio de T correspondiente alvalor propio a.

Las definiciones de vector propio, valor propio y espacio propio aplican paraespacios vectoriales arbitrarios, no necesariamente de dimension finita.

Ejemplo 4.5.7. Sea D el operador derivacion definido sobre el espacio de funcionesreales cuyas derivadas de cualquier orden existen, y sea a ∈ R, entonces E(a) ={ceax|c ∈ R}.

Ejemplo 4.5.8. Existen transformaciones lineales sin valores propios, es decir,E(a) = 0, para cada a ∈ K. En efecto, la transformacion T : R2 → R2 definidapor

T [x, y]T = [y,−x]T

no tiene valores propios.

Proposicion 4.5.9. Sea T : V → V una transformacion lineal de un espacio V .Sean a1, . . . , ar valores propios diferentes con vectores propios v1, . . . , vr, respectiva-mente. Entonces v1, . . . , vr son l.i. En particular, si V es de dimension finita n ≥ 1,entonces T tiene a lo sumo n valores propios diferentes. Si T tiene exactamente nvalores propios diferentes, entonces {v1, . . . , vn} es una base de V .

Demostracion. La prueba de la primera afirmacion la se realiza por induccion. Lasotras dos afirmaciones son consecuencia directa de la primera.

n = 1: si a es un valor propio y v 6= 0 es un vector propio asociado al valor a,entonces {v} es l.i. Supongase que la afirmacion ha sido probada para n− 1 valorespropios diferentes. Sean a1, . . . , an valores propios diferentes para T con vectorespropios v1, . . . , vn. Sean b1, . . . , bn escalares tales que b1 · v1 + · · · + bn · vn = 0.Aplicando T y multiplicando por an se pueden restar las dos relaciones y obtenerque

(b1a1 − b1an) · v1 + · · ·+ (bn−1an−1 − bn−1an) · vn−1 = 0

Aplicando induccion resulta entonces que b1 = · · · = bn−1 = 0, de donde bn = 0.Esto prueba que los vectores v1, . . . , vn son l.i.

El recıproco de la proposicion anterior no es siempre cierto, por ejemplo, si T = iVcualquier base de V pertenece a 1 que es el unico valor propio de iV .

Page 104: Algebra Lineal (Libro) - Lezama

98 CAPITULO 4. FORMAS CANONICAS

Ejemplo 4.5.10. Sea K[x] el conjunto de polinomios con coeficientes en el cuerpoK, y sea T : V → V una transformacion lineal. Entonces para cada polinomio p(x) ∈K[x] se tiene que si a ∈ K es un valor propio de T con vector propio v, entoncesp(a) es un valor propio de p(T ) con vector propio v. En tal caso, E(a) ⊆ ker(p(T ))si a es raız de p(x), y E(a) ⊆ Im(p(T )) si a no es raız de p(x).

El polinomio caracterıstico es un instrumento para determinar los valores propiosde una transformacion lineal.

Proposicion 4.5.11. Sea T : V → V una transformacion lineal de un espacio Vde dimension finita n ≥ 1 y sea a ∈ K. Entonces, a es un valor propio de T si, ysolo si, pT (a) = 0.

Demostracion. ⇒) Sea v un vector propio de a, entonces, T (v) = a · v, luego (T −a · iV )(v) = 0, es decir, T − a · iV no es una transformacion inyectiva. Esto implicaque si X es una base cualquiera que fijamos en V , entonces mX(T − a · iV ) tienedeterminante igual a cero, es decir, det(A− aE) = 0, donde A es la matriz de T enla base X. Por lo tanto, pA(a) = 0, es decir, a es raız del polinomio caracterısticode A, o sea del polinomio caracterıstico de T .

⇐) Si a es raız de pT (x), entonces a es raız de pA(x). Por lo tanto, det(A −aE) = 0, luego mX(T − a · iV ) no es invertible. Esto garantiza que T − a · iV no esinvertible, y en consencuencia no es inyectiva, es decir, existe v no nulo en V tal que(T − a · iV )(v) = 0, es decir, T (v) = a · v. Esto quiere decir que v es vector propiocon valor propia a.

Este resultado es valido para valores a ∈ K, podrıa ocurrir que las raıces delpolinomio caracterıstico no pertenezcan al cuerpo K, por ejemplo, en el caso enque K sea el cuerpo de numeros reales y todas las raıces de pT (x) sean complejas,entonces no tendrıamos valores propios. Esta situacion no se presenta por supuestoen cuerpos algebraicamente cerrados.

Corolario 4.5.12. Sea K un cuerpo algebraicamente cerrado y sea T : V → Vuna transformacion lineal de un K-espacio V de dimension finita n ≥ 1, Entonces,T tiene n valores propios (no necesariamente diferentes) correspondientes a las nraıces de su polinomio caracterıstico.

No sobra reformular las nociones de valores y vectores propios para matrices. SeaA una matriz cuadrada de orden n ≥ 1, un elemento a ∈ K se dice que es un valorpropio de A si existe una matriz columna no nula u = (u1, . . . , un)T ∈ Kn tal queAu = a.u . La teorıa de valores y vectores propios para matrices esta relacionada demanera obvia con la correspondiente teorıa para transformaciones lineales.

Page 105: Algebra Lineal (Libro) - Lezama

4.5. FORMA CANONICA DIAGONAL: VALORES Y VECTORES PROPIOS 99

Definicion 4.5.13. Sea A ∈ Mn(K) una matriz cuadrada de orden n ≥ 1, unelemento a ∈ K se dice que es un valor propio de A si existe vector no nulou := [u1, . . . , un]T ∈ Kn tal que Au = a · u. Se dice u es un vector propio de Acorrespondiente al valor propio a.

La teorıa de valores y vectores propios para matrices esta relacionada de maneraobvia con la correspondiente teorıa para transformaciones lineales.

Corolario 4.5.14. Sea T : V → V una transformacion lineal de un K-espacio Vde dimension finita n ≥ 1. Sean X := {v1, . . . , vn} una base de V , A := mX(T ) ya ∈ K. Entonces, a es un valor propio de T si, y solo si, a es un valor propio de A.Mas exactamente, v = u1 · v1 + · · ·+ un · vn es un vector propio de T pertenecienteal valor propio a si, y solo si, [u1, . . . , un]T es un vector propio de A pertenecienteal valor propio a.

Teorema 4.5.15. Sea T : V → V una transformacion lineal de un espacio V dedimension finita n ≥ 1. T es diagonalizable si, y solo si, V tiene una base constituidapor vectores propios.

Demostracion. ⇒) Existe una base X := {x1, . . . , xn} en V tal que mX(T ) es dia-gonal, digamos

mX(T ) =

d1 · · · 0. . .

0 · · · dn

Esto indica que T (x1) = d1·x1, . . . , T (xn) = dn·xn. Puesto que los vectores x1, . . . , xn

son no nulos, entonces estos vectores son propios.⇐) Sea X = {x1, . . . , xn} una base de vectores propios. Entonces, existen es-

calares d1, . . . , dn en K tales que T (x1) = d1 · x1, . . . , T (xn) = dnxn. Notese queentonces la matriz de T es la base X es diagonal, y sus elementos diagonales sonprecisamente d1, . . . , dn.

Sea A ∈ Mn(K) una matriz diagonalizable. Entonces existe una matriz invertibleC tal que C−1AC = D, donde D es una matriz diagonal. La demostracion delteorema anterior nos da una manera de encontrar la matriz diagonalizante C. Enefecto, sea Y la base canonica de Kn, entonces sabemos que A es la matriz de unatransformacion T : Kn → Kn, A = mY (T ). Como A es diagonalizable entoncesT es diagonalizable. Segun la demostracion del teorema anterior, existe una baseX = {x1, . . . , xn} en Kn de vectores propios de T de tal forma que mX(T ) = D,donde D es una matriz diagonal. Entonces, D = mX(T ) = C−1mY (T )C, donde Ces la matriz de cambio de la base Y a la base X. Es decir, la i-esima columna de Cson los coeficientes de la expansion del i-esimo vector xi a traves de la base canonicaY , es decir, las coordenadas del vector columna xi. En otras palabras, las columnas

Page 106: Algebra Lineal (Libro) - Lezama

100 CAPITULO 4. FORMAS CANONICAS

de C son los vectores columna x1, . . . , xn (notese que segun el corolario 4.5.14, cadavector columna xi es un vector propio de A).

Corolario 4.5.16. Sea A una matriz cuadrada de orden n ≥ 1. Entonces,

(i) A es diagonalizable si y solo si, A tiene n vectores propios l.i.

(ii) Si A tiene n valores propios diferentes, entonces A es diagonalizable.

Demostracion. Consecuencia inmediata de los resultados precedentes.

Proposicion 4.5.17. Sea T : V → V una transformacion lineal de un espacio Vde dimension finita n ≥ 1. Sean a1, . . . , ar los valores propios diferentes para T ,1 ≤ r ≤ n, y E(a1), . . . , E(ar) los subespacios propios correspondientes. Entonces,la suma E(a1) + · · ·+ E(ar) es directa. En consecuencia,

dim(E(a1)⊕ · · · ⊕ E(ar)) = dim(E(a1)) + · · ·+ dim(E(ar)).

Demostracion. Sean u1 ∈ E(a1), . . . , ur ∈ E(ar) tales que u1 + · · · + ur = 0,supongase que alguno de estos sumandos es no nulo, y entre ellos sean u1, . . . , us, 1 ≤s ≤ r los no nulos. Como u1, . . . , us son vectores propios correspondientes a valorespropios diferentes, entonces son l.i, pero esto contradice la condicion u1+· · ·+us = 0.Por lo tanto, ui = 0, para cada 1 ≤ i ≤ r.

Podemos probar ahora un criterio de diagonalizacion en terminos del polinomiocaracterıstico y de los espacios propios.

Teorema 4.5.18. Sea T : V → V una transformacion lineal de un espacio Vde dimension finita n ≥ 1. Sean a1, . . . , ar los valores propios diferentes para T ,1 ≤ r ≤ n, y E(a1), . . . , E(ar) los subespacios propios correspondientes. Entonces,las siguientes condiciones son equivalentes:

(i) T es diagonalizable.

(ii) El polinomio caracterıstico de T es de la forma

pT (x) = (x− a1)n1 . . . (x− ar)

nr ,

donde ni = dim(E(ai)), 1 ≤ i ≤ r.

(iii) dim(V ) = dim(E(a1)) + . . . + dim(E(ar)).

(iv) V = E(a1)⊕ . . .⊕ E(ar).

Page 107: Algebra Lineal (Libro) - Lezama

4.5. FORMA CANONICA DIAGONAL: VALORES Y VECTORES PROPIOS 101

Demostracion. (i) ⇒ (ii): por el teorema 4.5.15, V tiene una base X = {v1, . . . , vn}constituida por vectores propios. Se ordena esta base de tal manera que los primerosn1 vectores correspondan al valor propio a1, los siguientes n2 vectores correspondanal valor a2 y ası sucesivamente. Entonces claramente la matriz de T en esta basetoma la forma

mX(T ) =

a1E · · · 0...

. . ....

0 · · · arE

,

donde aiE es una matriz diagonal de orden ni,

aiE =

ai · · · 0...

. . ....

0 · · · ai

,

1 ≤ i ≤ r. El polinomio caracterıstico de T es pT (x) = (x− a1)n1 · · · (x− ar)

nr .Se vera ahora que ni = dim(E(ai)). Puesto que gr(pT (x)) = n, entonces n =

n1 + · · ·+nr. Por la forma como se ha organizado la base X, se tiene que V = 〈X〉 ⊆E(a1) + · · · + E(ar), es decir, V = E(a1) + · · · + E(ar), luego por la proposicion4.5.17, n = dim(E(a1)) + · · ·+ dim(E(ar)). Se sabe que ni ≤ dim(E(ai)), para cada1 ≤ i ≤ r, supongase que existe i tal que ni < dim(E(ai)), entonces

n = n1 + · · ·+ nr < dim(E(a1)) + · · ·+ dim(E(ar)) = n.

Esto indica que ni = dim(E(ai)) para cada 1 ≤ i ≤ r.(ii) ⇒ (iii): dim(V ) = n = n1 + · · ·+ nr = dim(E(a1)) + · · ·+ dim(E(ar)).(iii)⇒ (iv): dim(V ) = dim(E(a1))+· · ·+dim(E(ar)) = dim(E(a1)+· · ·+E(ar)),

de donde , V = E(a1) + · · ·+ (E(ar), ademas, por la proposicion 4.5.17, la suma esdirecta, es decir, V = E(a1)⊕ · · · ⊕ E(ar).

d) ⇒ a) Al reunir las bases de E(a1), . . . , E(ar) se obtiene una base de Vconstituida por vectores propios, lo cual, de acuerdo con el teorema 4.5.15, garantizaque T es diagonalizable.

Ejemplo 4.5.19. (i) Sea K un cuerpo y sean T : U → U , F : V → V transforma-ciones lineales de espacios vectoriales no nulos de dimension finita. Sea a un valorpropio de T con vector propio u y sea b un valor propio de F con vector propiov. Entonces, ab es un valor propio de T ⊗ F con vector propio u ⊗ v. En efecto,(T ⊗ F )(u ⊗ v) = T (u) ⊗ F (v) = (a · u) ⊗ (b · v) = ab · (u ⊗ v). Segun el corolario3.1.6, u⊗ v es no nulo.

En forma matricial, sean A ∈ Mn (K), B ∈ Mm (K) matrices, a un valor propiode A con vector columna propio u y b un valor propio de B con vector columnapropio v. Entonces, u⊗ v es un vector propio de A⊗B con valor propio ab.

Page 108: Algebra Lineal (Libro) - Lezama

102 CAPITULO 4. FORMAS CANONICAS

(ii) Sean A ∈ Mn (K), B ∈ Mm (K) matrices diagonalizables, entonces A⊗B esdiagonalizable.

Ejemplo 4.5.20. En este ejemplo mostraremos una aplicacion del producto tenso-rial de matrices y de la forma canonica de Jordan. Sean A, B y C matrices complejasde tamanos n× n,m×m y n×m respectivamente. Supongase que para cada valorpropio α de A y cada valor propio β de B se cumple que α + β 6= 0. Demostremosentonces que la ecuacion matricial AX + XB = C tiene solucion unica.

Solucion. Consideremos el C-espacio de matrices rectangulares Mn×m (C), defi-namos la funcion T por

T : Mn×m (C) → Mn×m (C)

X 7→ AX + XB.

Notemos que T es una transformacion lineal. Para resolver el problema mostraremosque T es biyectiva, con esto, dada C ∈ Mn×m (C) existe una unica X ∈ Mn×m (C)tal que AX + XB = C.

La prueba de la biyectividad de T la haremos a traves de su matriz en la basecanonica X := {E11, . . . , E1m; . . . ; En1, . . . , Enm} de Mn×m (C), es decir, probaremosque mX (T ) es invertible. Notemos entonces que

mX (T ) =

a11Em · · · a1nEm...

......

an1Em · · · annEm

+

BT · · · 0...

. . ....

0 · · · BT

donde Em es la identica de orden m y BT es la transpuesta de B. Pero,

a11Em · · · a1nEm...

......

an1Em · · · annEm

= A⊗ Em,

BT · · · 0...

. . ....

0 BT

= En ⊗BT .

De esta forma

mX (T ) = A⊗ Em + En ⊗BT .

Puesto que C es algebraicamente cerrado, existen matrices invertibles F y G detamanos n× n y m×m, respectivamente, tales que F−1AF = J1 y G−1BT G = J2

son matrices de Jordan. Notemos que en la diagonal de J1 y J2 estan localizados

Page 109: Algebra Lineal (Libro) - Lezama

4.6. EJERCICIOS 103

los valores propios α de A y β de BT , respectivamente (observemos que los valorespropios de BT son los mismos de B). Tenemos

J1 ⊗ Em =(F−1AF

)⊗ Em =

(F−1 ⊗ Em

)(A⊗ Em) (F ⊗ Em) ,

En ⊗ J2 = En ⊗(G−1BT G

)=

(En ⊗G−1

) (En ⊗BT

)(En ⊗G) ,

donde ademas (F−1 ⊗ Em

)= (F ⊗ Em)−1(

En ⊗G−1)

= (En ⊗G)−1 .

De esta forma se tiene que

J1 ⊗ Em = (F ⊗ Em)−1 (A⊗ Em) (F ⊗ Em) ,

En ⊗ J2 = (En ⊗G)−1 (En ⊗BT

)(En ⊗G) .

Resulta entonces que(F ⊗ Em)−1 mX (T ) (F ⊗ Em) = (F ⊗ Em)−1 (A⊗ Em) (F ⊗ Em)+ (F ⊗ Em)−1 (

En ⊗BT)(F ⊗ Em) =

(J1 ⊗ Em) + (F−1 ⊗ Em)(En ⊗BT

)(F ⊗ Em) =

(J1 ⊗ Em) +(En ⊗BT

).

Ahora, (En ⊗G)−1 (F ⊗ Em)−1 mX (T ) (F ⊗ Em) (En ⊗G) =(En ⊗G)−1 (J1 ⊗ Em) (En ⊗G) + (En ⊗G)−1 (

En ⊗BT)(En ⊗G) =

(J1 ⊗ Em) + (En ⊗ J2). En total,

(En ⊗G)−1 (F ⊗ Em)−1 mX (T ) (F ⊗ Em) (En ⊗G) = (J1 ⊗ Em) + (En ⊗ J2) ,

es decir,(F ⊗G)−1 mX (T ) (F ⊗G) = (J1 ⊗ Em) + (En ⊗ J2) .

Notemos que la matriz (J1 ⊗ Em)+(En ⊗ J2) es triangular inferior y en su diagonalestan las sumas de la forma α + β, las cuales por hipotesis son no nulas, es decir,esta matriz es invertible, o sea que, mX (T ) es tambien invertible, y la prueba haterminado.

4.6. Ejercicios

1. Sea T : V → V una transformacion lineal de un espacio K-espacio V dedimension finita n ≥ 1. Demuestre que T es invertible si, y solo si, el terminoindependiente q0 del polinomio mınimo qT (x) es no nulo.

2. Determine la forma canonica de Jordan de la matriz:

Page 110: Algebra Lineal (Libro) - Lezama

104 CAPITULO 4. FORMAS CANONICAS

0 0 1 00 0 0 −11 0 0 00 −1 0 0

.

3. Calcule la forma de Jordan de la matriz5 −10 10 −5 11 0 0 0 00 1 0 0 00 0 1 0 00 0 0 1 0

.

4. Sean T1, T2 : V → V transformaciones diagonalizables de un espacio V dedimension finita n ≥ 1 tales que T1T2 = T2T1. Demuestre que existe una baseX en V tal que mX(T1) y mX(T2) son diagonales.

5. Sea T : V → V una transformacion lineal de un espacio K-espacio V dedimension finita n ≥ 1 tal que T tiene n valores propios diferentes. Calcule elnumero de subespacios invariantes de T .

6. Sea A = [aij] una matriz cuadrada de orden n ≥ 1 tal que su numero deentradas nulas es superior a n2 − n. Demuestre que el determinante de A esigual a cero.

7. Sea A = [aij] una matriz cuadrada invertible de orden n ≥ 1. Demuestre que

pA−1(x) = (−x)n(det(A))−1pA(x−1),

donde pA(x) denota el polinomio caracterıstico de la matriz A.

8. Sea T : V −→ V una transformacion lineal de un K-espacio de dimensionfinita n. Suponga que T es diagonalizable y que α1, . . . αk son los distintosvalores propios de T , 1 ≤ k ≤ n. Demuestre que existen transformacioneslineales T1, . . . , Tk de V tales que:

(i) T = α1T1 + · · ·+ αkTk

(ii) IV = T1 + · · ·+ Tk

(iii) TiTj = 0, para i 6= j

(iv) T 2i = Ti

(v) Ti(V ) = E(αi), 1 ≤ i ≤ k.

Page 111: Algebra Lineal (Libro) - Lezama

4.6. EJERCICIOS 105

Demuestre tambien el recıproco de esta afirmacion, es decir, si existen k es-calares distintos α1, . . . αk y k transformaciones lineales T1, . . . , Tk de V , conk ≤ n, que satisfacen (i)-(iii), entonces T es diagonalizable, α1, . . . αk son losvalores propios distintos de T y (iv)-(v) tambien se cumplen.

9. Demuestre que cada matriz cuadrada compleja A es similar a su transpuestaAT .

10. Sea A una matriz cuadrada compleja de orden n ≥ 1 tal que existe un numeronatural m para el cual se tiene que Am = E. Demuestre que A es diagonalizable(E denota la matriz identica de tamano n).

11. Sean S, T : V → V transformaciones tales que ST = TS. Demuestre queker(S) e Im(S) son subespacios T -invariantes.

12. Sea T : V → V una transformacion lineal de un espacio V de dimension finita.Demuestre que existe un entero k tal que:

(a) Para j ≥ k se cumple que Im(T j) = Im(T k) y ker(T j) = ker(T k).

(b) Im(T k) y ker(T k) son subespacios T -invariantes y ademas V = Im(T k) ⊕N(T k).

13. Calcule, usando los resultados del presente capıtulo, una matriz invertible Ctal que C−1BC sea una matriz de Jordan, donde

7 1 2 21 4 −1 −1

−2 1 5 −11 1 2 8

.

14. Sea T : C2 → C2una transformacion lineal con un solo valor propio λ. De-muestre que T − λI es nilpotente.

15. Sea T : V → V una transformacion lineal invertible en un espacio V complejode dimension finita. Demuestre que existe una transformacion S : V → V talque S2 = T (sugerencia: use la forma canonica de Jordan). Se dice que S es laraız cuadradade T .

16. Encuentre la raız cuadrada de la siguiente matriz

2 −1 1−1 2 −1−1 −1 2

.

Page 112: Algebra Lineal (Libro) - Lezama

106 CAPITULO 4. FORMAS CANONICAS

17. Calcule la forma canonica racional de la transformacion T : R3 → R3 definidapor T (x, y, z) = (4z, y − x + 2z, 3x− z).

18. Para la matriz real

A =

−1 −1 0 −8

1 1 0 40 1 0 −50 0 1 4

determine:

(a) A es diagonalizable?. En caso afirmativo, calcule una matriz diagonalizante.

(b) A es diagonalizable en bloques?. En caso afirmativo calcule una matriz quela convierta en matriz diagonal en bloques.

(c) La forma racional de A y una matriz racionalizante.

(d) A es diagonalizable en bloques de Jordan?. En caso afirmativo calcule unamatriz que la diagonalice en bloques de Jordan.

(f) Resuelva (a)-(e) pero considerando A como matriz compleja.

19. Sea A ∈ Mn(K) una matriz tal que su forma de Jordan es una celda de Jordan.Demuestre que la forma racional de A es la companera del polinomio mınimode A (en consecuencia, la forma racional de A tiene un solo bloque racional).

20. Sea A ∈ Mn(K) una matriz tal que su forma de Jordan es una celda de Jordan.Demuestre que A no es diagonalizable en bloques.

21. Determine si las siguientes matrices son diagonalizables. En caso afirmativocalcule una matriz que diagonalice:

A =

0 −1 00 0 1

−1 −3 3

, B =

1 1 2 30 2 2 40 0 1 −20 0 0 2

.

22. Determine los valores y vectores propios del operador derivacion sobre el es-pacio Rn[x]. ¿Es este operador diagonalizable?

23. Sea A una matriz de orden n ≥ 1 y p(x) un polinomio cualquiera. Demuestreque si A es diagonalizable, entonces p(A) es diagonalizable.

24. Sea A = [aij] una matriz de orden n ≥ 1 tal que∑n

j=1 aij = 1 para cada1 ≤ i ≤ n. Demuestre que 1 es un valor propio de A.

Page 113: Algebra Lineal (Libro) - Lezama

Capıtulo 5

Grupos de matrices

Este capıtulo esta dedicado a estudiar grupos de matrices sobre anillos. Se asumeque el lector conoce la teorıa clasica de formas bilineales y formas cuadraticas so-bre cuerpos ya que aquı construiremos los llamados grupos clasicos sobre anillos,generalizando dichas formas para anillos no conmutativos con involucion. Ademas,estudiaremos dos teoremas de Suslin relativos al grupo elemental sobre anillos con-mutativos.

5.1. Grupos de matrices sobre cuerpos

En esta seccion se enuncian las definiciones y algunas propiedades relativas a gruposde matrices sobre cuerpos. Aunque algunos de estos grupos y resultados ya habıansido presentados en capıtulos anteriores los repertiremos para darle completez altema (vease tambien [4]).

5.1.1. El grupo lineal y algunos subgrupos destacados

Si V es un espacio vectorial sobre un cuerpo K, el conjunto de transformacioneslineales biyectivas de V es un grupo con la composicion de funciones, denominadogrupo lineal general , y se denota por GL(V ). Cuando la dimension del espacioes finita, dim(V ) = n ≥ 1, V se puede identificar con Kn y el grupo lineal dependeunicamente del cuerpo y la dimension; en este caso GL(V ) ∼= GLn(K). Ası pues,GLn(K) := Mn(K)∗ es el grupo de elementos invertibles del anillo Mn(K) y seconoce como el grupo lineal general de orden n sobre K

Una matriz F es invertible si, y solo si, det(F ) 6= 0. Por lo tanto, el homomorfismode grupos det : GLn(K) → K∗ es sobreyectivo y K∗ es isomorfo al grupo cociente deGLn(K) con nucleo constituido por las matrices de determinante uno. Este subgrupose denota SLn(K) y se denomina grupo especial lineal de orden n sobre K. Engeneral, podemos destacar en GLn(K) los siguientes subgrupos:

107

Page 114: Algebra Lineal (Libro) - Lezama

108 CAPITULO 5. GRUPOS DE MATRICES

(i) SLn(K) es el subconjunto de GLn(K) constituido por las matrices de deter-minante 1, es decir,

SLn(K) := {F ∈ GLn(K) | det(F ) = 1},

y ademas SLn(K) � GLn(K).

(ii) Sea

Dn(K) :=

diag(d1, . . . , dn) :=

d1 0. . .

0 dn

∈ Mn(K) | d1 · · · dn 6= 0

.

Entonces, Dn(K) ≤ GLn(K) y se conoce como el grupo de matrices dia-gonales de orden n sobre K.

(iii) Sea

Tn(K) :=

f11 · · · f1n

. . ....

0 fnn

∈ Mn(K) | f11 · · · fnn 6= 0, fij = 0 si i > j

.

Entonces, Tn(K) ≤ GLn(K) y se denomina el grupo de matrices triangu-lares superiores de orden n sobre K. Ademas, Dn(K) ≤ Tn(K).

(iv) Sea

UTn(K) := {F ∈ Tn(K) | fii = 1, 1 ≤ i ≤ n}.

Entonces, UTn(K) ≤ Tn(K)∩SLn(K) y se denomina el grupo de matricesunitriangulares superiores de orden n sobre K.

(iv) Para 1 ≤ m ≤ n sea UTmn (K) el conjunto de matrices unitriangulares F =

[fij] ∈ UTn(K) tales que fij = 0 para i < j < i + m, es decir, las primerasm − 1 diagonales consecutivas por encima de la diagonal principal de F sonnulas. Entonces, UTm

n (K) ≤ UTn(K), y ademas

UTn(K) = UT 1n(K) ⊇ UT 2

n(K) ⊇ · · · ⊇ UT nn (K) = {E}.

Usando la notacion de la seccion 1.4 se tienen las siguientes propiedades, dondeEn(K) representa el grupo elemental de orden n sobre K definido como el sub-grupo de GLn(K) generado por todas las matrices propiamente elementales, es decir,

Page 115: Algebra Lineal (Libro) - Lezama

5.1. GRUPOS DE MATRICES SOBRE CUERPOS 109

En(K) := 〈Tij(a)|1 ≤ i, j ≤ n, i 6= j, a ∈ K〉.

Proposicion 5.1.1. Sea K un cuerpo. Entonces,

(i) GLn(K) se puede generar por matrices propiamente elementales y matricesdiagonales. En forma mas precisa,

GLn(K) = 〈Tij(a), Dn(d)|1 ≤ i, j ≤ n, i 6= j, a ∈ K, 0 6= d ∈ K〉,

GLn(K) = SLn(K)Dn(K).

(ii) SLn(K) = En(K).

(iii) Dn(K) = 〈Di(di)|0 6= di ∈ K, 1 ≤ i ≤ n〉.

(iv) Tn(K) = 〈Tij(a), Di(di)|j > i, a ∈ K, 0 6= di, 1 ≤ i, j ≤ n〉.

(iv) UTn(K) = 〈Tij(a)|j > i, a ∈ K, 1 ≤ i, j ≤ n〉.

(v) UTmn (K) = 〈Tij(a)|j − i ≥ m, a ∈ K, 1 ≤ i, j ≤ n〉.

(vi)

Z(GLn(K)) = {a · E | a ∈ K∗},

Z(SLn(K)) = {a · E | a ∈ K, an = 1}.

(vii)

Z(Dn(K)) = Dn(K),

Z(Tn(K)) = CGLn(K) =

{Z(GLn(K)), si |K| ≥ 3,{E, T1n(1)} ∼= Z2, si |K| = 2.

.

(viii)

[GLn(K), GLn(K)] = SLn(K) si n ≥ 3 o n = 2 y |K| ≥ 3,

[GL2(Z2), GL2(Z2)] ∼= Z3.

[SLn(K), SLn(K)] = SLn(K) si n ≥ 3 o n = 2 y |K| ≥ 4,

[SL2(Z2), SL2(Z2)] ∼= Z3, [SL2(Z3), SL2(Z3)] ∼= Q8.

(ix)

Page 116: Algebra Lineal (Libro) - Lezama

110 CAPITULO 5. GRUPOS DE MATRICES

[Dn(K), Dn(K)] = {E}

[Tn(K), Tn(K)] = UTn(K) si n ≥ 2 y |K| ≥ 3,

[Tn(Z2), Tn(Z2)] = UT 2n(Z2),

[UT rn(K), UT s

n(K)] = UT r+sn (K).

(x) Si K es finito con |K| := q ≥ 3, entonces

|GLn(K)| =∏n−1

j=0 (qn − qj), |SLn(K)| = 1q−1

∏n−1j=0 (qn − qj).

(xi) Si |K| ≥ 3, Dn(K) 6 GLn(K) y Dn(K) 6 Tn(K).

(xii) Tn(K), UTn(K) 6 GLn(K); UTn(K) 6 SLn(K).

(xiii) Para 1 ≤ m ≤ n− 1, UTmn (K) 6 GLn(K).

(xiv) Para 1 ≤ m ≤ n, UTmn (K) � Tn(K) y ademas,

{E} = UT nn (K) � UT n−1

n (K) · · ·� UT 1n(K) = UTn(K) � Tn(K).

(xv) GLn(K)/SLn(K) ∼= K∗.

(xvi) Tn(K)/UTn(K) ∼= Dn(K) ∼= K∗ × · · · ×K∗︸ ︷︷ ︸n-veces

.

(xvii) UTm(K)/UTm+1(K) ∼= K∗ × · · · ×K∗︸ ︷︷ ︸n−m-veces

, 1 ≤ m ≤ n− 1.

(xviii) Para n ≥ 3, SLn(K) y GLn(K) no son solubles. Para n = 2 y |K| ≥ 4,SL2(K) y GL2(K) no son solubles.

(xix) SL2(Z3), SL2(Z2), GL2(Z3) y GL2(Z2) son solubles.

(xx) Dn(K), Tn(K) y UTmn (K) son solubles, 1 ≤ m ≤ n.

Demostracion. Ejercicio para el lector.

Page 117: Algebra Lineal (Libro) - Lezama

5.1. GRUPOS DE MATRICES SOBRE CUERPOS 111

5.1.2. Grupos clasicos

Los llamados grupos clasicos surgen al estudiar formas bilineales y sesquilinealessobre un espacio vectorial. Nos ocuparemos en esta seccion de estos grupos. Se asumeque el lector conoce la teorıa clasica de formas bilineales y formas cuadraticas sobrecuerpos, sin embargo, algunas definiciones y resultados basicos seran recordados.

Si V es un espacio vectorial sobre un cuerpo K, una forma bilineal sobreV es una funcion f : V × V → K lineal en ambos argumentos, es decir, f(u1 +u2, v) = f(u1, v) + f(u2, v), f(a · u, v) = af(u, v), f(u, v1 + v2) = f(u, v1) + f(u, v2),f(u, a · v) = af(u, v), para cualesquiera u1, u2, u, v1, v2, v ∈ V , a ∈ K. Una formabilineal f permite definir la ortogonalidad: si u, v ∈ V , u es ortogonal a v (u ⊥v) si, y solo si, f(u, v) = 0. La forma f es simetrica si f(u, v) = f(v, u) paracualesquiera vectores u, v ∈ V ; f se dice antisimetrica si f(u, v) = −f(v, u), y fes alternada si f(u, u) = 0 para cada u ∈ V . Notemos que toda forma alternadaes antisimetrica y si char(K) 6= 2, entonces toda forma antisimetrica es alternada.Si dim(V ) = n y X = {x1, . . . , xn} es una base del espacio V , la matriz de la formaf en la base X es la matriz B := [bij], donde bij := f(xi, xj); si u y v se expresancomo u = u1 · x1 + · · ·+ un · xn y v = v1 · x1 + · · ·+ vn · xn, entonces

f(u, v) = [u1 · · ·un]B[v1 · · · vn]T .

Una forma bilineal f es no degenerada si para 0 6= u ∈ V , existe v ∈ V talque f(u, v) 6= 0, es decir, ningun vector no nulo es ortogonal a todo el espacio (parau, v ∈ V , se dice que u es ortogonal a v, lo cual se denota por u ⊥ v, si f(u, v) = 0).Equivalentemente, f es no degenarada si, y solo si, det(B) 6= 0, con B la matriz def en cualquier base. Una transformacion T de V preserva f si para cada u, v ∈ V ,f(T (u), T (v)) = f(u, v).

Proposicion 5.1.2. Si dim(V ) = n y f es no degenerada, el conjunto de las trans-formaciones lineales que preservan f es un grupo con la composicion.

Demostracion. Si S, T preservan f , para cada u, v ∈ V se tiene f(ST (u), ST (v)) =f(T (u), T (v)) = f(u, v) y ST preserva f ; obviamente el producto es asociativo yla transformacion identica preserva cualquier forma. Finalmente, si T preserva f yu ∈ V es tal que T (u) = 0, entonces para cada v ∈ V f(u, v) = f(T (u), T (v)) =f(0, T (v)) = 0 y en consecuencia u = 0 por ser f no degenerada. Por lo tanto, T esinyectiva, y como la dimension de V es finita, T es invertible y f(T−1(u), T−1(v)) =f(TT−1(u), TT−1(v)) = f(u, v), es decir, T−1 tambien preserva f .

La afirmacion anterior se puede traducir tambien en terminos de matrices, puessi F es la matriz de T en la base de X, entonces

[u1 · · ·un]B[v1 · · · vn]T = f(u, v) = f(T (u), T (v)) = [u1 · · ·un]F T BF [v1 · · · vn]T ;

Page 118: Algebra Lineal (Libro) - Lezama

112 CAPITULO 5. GRUPOS DE MATRICES

consecuentemente T preserva f si, y solo si, B = F T BF , y si f es no degenerada,det(B) 6= 0 de manera que det(F ) = ±1 y ası, F (y T ) es invertible. De este modo,asociado a cada forma bilineal no degenerada f hay un subgrupo de GLn(K) asaber, el grupo de matrices correspondientes a las transformaciones que preservanf . Los llamados grupos clasicos sobre K son algunos de los subgrupos de GLn(K)definidos por medio de estas formas bilineales no degeneradas. Por cada forma nodegenerada f , o lo que es equivalente, por cada matriz invertible B tendrıamos unode tales grupos.

Observacion 5.1.3. (i) Notemos sin embargo que si B ∈ Mn(K) es una matrizcualquiera, no necesariamente invertible, entonces tambien se pueden definir sub-grupos de GLn(K) de la siguiente manera:

O(B) := {F ∈ GLn(K)|F T BF = B}.

(ii) De todos los posibles grupos clasicos que se pudieran definir con formas nodegeneradas se destacan aquellos para los cuales la relacion de ortogonalidad entrevectores es simetrica, es decir, u ⊥ v si, y solo si, v ⊥ u.

Proposicion 5.1.4. Sea dim(V ) = n y f una forma bilineal sobre V . La relacion“ser ortogonal a” es simetrica si, y solo si, f es simetrica o f es alternada.

Demostracion. ⇐): si f es simetrica y u ⊥ v, entonces f(v, u) = f(u, v) = 0, demanera que tambien v ⊥ u. Si f es alternada, tambien es antisimetrica, por lo tanto,si u ⊥ v, entonces f(v, u) = −f(u, v) = 0 y v ⊥ u.

⇒): sean u, v, w ∈ V y u := f(u, v) · w − f(u, w) · v. Entonces f(u, u) =f(u, f(u, v) · w − f(u, w) · v) = f(u, v)f(u, w)− f(u, w)f(u, v) = 0, es decir, u ⊥ u;por hipotesis u ⊥ u, esto es,

0 = f(u, u) = f(u, v)f(w, u)− f(u, w)f(v, u), (5.1.1)

y haciendo w = u resulta

f(u, u)[f(u, v)− f(v, u)] = 0 (5.1.2)

para cada u, v ∈ V . Supongase ahora que existen x, y ∈ V tales que f(x, y) 6= f(y, x)y que existe z ∈ V tal que f(z, z) 6= 0. Por (5.1.2),

f(x, x) = f(y, y) = 0 y f(z, x) = f(x, z), f(z, y) = f(y, z),

y por (5.1.1), 0 = f(x, z)[f(y, x)− f(x, y)], 0 = f(y, z)[f(x, y)− f(y, x)], luego

f(x, z) = 0 = f(z, x) y f(y, z) = 0 = f(z, y).

Ahora f(x, y+z) = f(x, y) y f(y+z, x) = f(y, x), luego f(x, y+z) 6= f(y+z, x) y por(5.1.2) f(y+z, y+z) = 0. Pero f(y+z, y+z) = f(y, y)+f(y, z)+f(z, y)+f(z, z) =f(z, z) lo que contradice la hipotesis f(z, z) 6= 0. Ası, f(x, y) = f(y, x) para cadax, y ∈ V (f simetrica), o bien f(z, z) = 0 para cada z ∈ V (f alternada).

Page 119: Algebra Lineal (Libro) - Lezama

5.1. GRUPOS DE MATRICES SOBRE CUERPOS 113

De este modo, el estudio de los grupos clasicos se reduce a dos casos: gruposobtenidos de formas simetricas y grupos obtenidos de formas alternadas.

Sea f una forma bilineal simetrica no degenerada sobre V ; una transformacionT que preserva f se denomina transformacion ortogonal , y el grupo clasicocorrespondiente se denomina grupo ortogonal denotado O(V, f). Esta notacionresulta adecuada pues el grupo ortogonal definido de esta manera depende de V (ypor lo tanto de K y de n) y de f , o de manera equivalente, de la matriz B. Segunvimos atras, el grupo ortogonal se puede caracterizar en lenguaje matricial de lasiguiente manera:

O(V, f) = {F ∈ GLn(K)|F T BF = B},

donde B es la matriz de f en una base X de V que se fija (recordemos que B essimetrica e invertible). Como se anoto antes, si F ∈ O(V, f) entonces det(F ) =±1; las transformaciones ortogonales de determinante 1 se denominan rotacionesy constituyen un subgrupo normal de O(V, f), notado O+(V, f), de manera queO+(V, f) � SLn(K).

Si en particular B = E, entonces se tiene el grupo ortogonal de orden n sobreK, denotado On(K), conformado por las matrices ortogonales , es decir,

On(K) := {F ∈ GLn(K)|F T F = E}.

Observacion 5.1.5. El centro de On(K) es {E,−E} y, salvo algunos casos parti-culares, el cociente del grupo conmutante de On(K) y su centro es un grupo simple;estos resultados fueron probados por Dickson y Dieudonne, pero la prueba no esta enel contexto del presente cuaderno.

Sea f una forma bilineal alternada no degenerada sobre V . Una transformacion linealque preserva f se denomina transformacion simplicial , el grupo correspondientese denomina grupo simplicial y se nota Spn(K). Se puede probar que si char(K) 6=2, entonces se puede encontrar una base de V tal que la matriz B de f en dicha basetenga la siguiente presentacion

B :=

[0 1−1 0

]0[

0 1−1 0

]. . .

0[

0 1−1 0

]

.

Notese que la dimension n de V es entonces siempre par. Se tiene pues que

Spn(K) := {F ∈ GLn(K)|F T BF = B}.

Page 120: Algebra Lineal (Libro) - Lezama

114 CAPITULO 5. GRUPOS DE MATRICES

Observacion 5.1.6. El grupo simlectico tiene las siguientes propiedades: Spn(K) ≤SLn(K), el centro de Spn(K) es {−E, E}, y si K posee mas de tres elementosentonces el grupo simplicial es igual a su grupo conmutante. El cociente del grupoconmutante de Spn(K) con su centro es un grupo simple. Finalmente, si K es uncuerpo finito con q elementos (q ≥ 3), entonces el orden del grupo simplicial eso(Spn(K)) = (qn − 1)qn−1(qn−2 − 1)qn−3 · · · q3(q2 − 1)q.

A partir de formas sesquilineales que se definen en cuerpos que presenten una in-volucion analoga a la conjugacion en C aparece otro tipo de grupo clasico de ma-trices, tal como veremos a continuacion. Una forma sesquilineal en un espa-cio vectorial sobre C es una funcion f : V × V → C lineal en un argumentoy “semilineal” en el otro; mas precisamente: f(u, v1 + v2) = f(u, v1) + f(u, v2),f(u, a · v) = af(u, v), f(u1 + u2, v) = f(u1, v + f(u2, v) y f(a · u, v) = af(u, v)para todo u, v, u1, u2, v1, v2 ∈ V y a ∈ C. Habitualmente la semilinealidad se es-tablece para el segundo argumento, pero para definir los grupos clasicos el cambioal primer argumento resulta conveniente. Se tiene entonces que si dim(V ) = n yX = {x1, . . . , xn} es una base del espacio V , la matriz de la forma sesquilineal f enla base X es la matriz B := [bij], donde bij := f(xi, xj); si u y v se expresan comou = u1 · x1 + · · ·+ un · xn y v = v1 · x1 + · · ·+ vn · xn, entonces

f(u, v) = [u1 · · ·un]B[v1 · · · vn]T .

Notemos que si f es una forma sesquilineal no degenerada, entonces el conjuntode transformaciones lineales del espacio V que preservan f es un grupo, es decir,la proposicion 5.1.2 tambien se tiene en este caso. El estudio de los grupos clasicosasociados a formas no degeneradas sesquilineales complejas generalmente se limitaa las formas hermitianas, es decir, tales que f(u, v) = f(v, u). Observemos que lamatriz B := [bij] de f satisface B∗ = B, con B∗ := (B)T := [bij]

T , denominada latrasjugada de B (las matrices complejas que coinciden con su trasjugada se de-nominan hermitianas). El grupo de transformaciones que preservan f se denominagrupo unitario y se denota por U(V, f). Al igual que en el caso ortogonal, estegrupos se pueden tambien describir matricialmente: si F es la matriz de T ∈ U(V, f)en la base de X, entonces

[u1 · · ·un]B[v1 · · · vn]T = f(u, v) = f(T (u), T (v)) = [u1 · · ·un]F ∗BF [v1 · · · vn]T ;

consecuentemente T preserva f si, y solo si, B = F ∗BF . Ası pues,

U(V, f) = {F ∈ GLn(K)|F ∗BF = B}.

Adicionalmente, notemos que como f es no degenerada, det(B) 6= 0 de manera quedet(F ) = ±1,±i.

Si en particular B = E, entonces se tiene el grupo unitario de orden n sobreC, denotado Un(C), y conformado por las matrices unitarias , es decir,

Page 121: Algebra Lineal (Libro) - Lezama

5.2. GRUPOS DE MATRICES SOBRE ANILLOS 115

Un(C) := {F ∈ GLn(C)|F ∗F = E}.

Notemos que On(R) = Un(R).

Observacion 5.1.7. Notemos que si B ∈ Mn(C) es una matriz cualquiera, nonecesariamente invertible, entonces tambien se pueden definir subgrupos de GLn(C)de la siguiente manera:

U(B) := {F ∈ GLn(C)|F ∗BF = B}.

5.2. Grupos de matrices sobre anillos

Sea A un anillo arbitrario, el grupo lineal general de orden n sobre A fue presentadoen la definicion 1.3.1 y esta constituido por las matrices invertibles del anillo Mn(A),es decir, recordemos que

GLn(A) := {F ∈ Mn(A)|A es invertible} = Mn(A)∗.

Los subgrupos En(A), Dn(A), Tn(A), UTn(A) y UTmn (A) se definen en forma analoga

a como vimos antes para cuerpos; en los casos de Dn(A) y Tn(A) se debe asumirque d1, . . . , dn, f11, . . . , fnn ∈ A∗. El grupo especial lineal sobre anilllos arbitrariosen general carece de sentido ya que la teorıa de determinantes para anillos no con-mutativos no esta siempre definida; por supuesto que si R es un anillo conmutativoentonces SLn(R) esta definido y consta de las matrices con determinante 1.

Las propiedades estructurales de GLn(A) y sus subgrupos fueron objeto de in-tenso estudio en las decadas de los 70 y 80. Mostraremos a continuacion solo un parde estas propiedades.

Proposicion 5.2.1.

Z(GLn(A)) = {a · E | a ∈ Z(A)∗} = Z(A)∗E.

Demostracion. Es evidente que a·E con a ∈ Z(A)∗ es invertible (con inversa a−1 ·E)y que conmuta con cualquier matriz de Mn(A), luego a ·E ∈ Z(GLn(A)). Sea ahoraF ∈ Z(GLn(A)), entonces para r, s, con 1 ≤ r 6= s ≤ n, F (E + Ers) = (E + Ers)F ,luego FErs = ErsF . Ahora bien, FErs tiene la r-esima columna de F en la columnas, y cero en las demas entradas, y ErsF tiene la s-esima fila de F en la fila r ycero en las demas entradas. Por lo tanto, FErs = ErsF implica que si F := [fij]entonces frr = fss, fir = 0 para i 6= r y fsj = 0 para j 6= s. Pero F ∈ Z(GLn(A))conmuta con todas las matrices Ers (r 6= s), luego todas las entradas de la diagonalson iguales y las demas entradas son cero, es decir, F = a ·E para algun a ∈ A. PeroF ∈ GLn(A), luego necesariamente a es invertible, y como F conmuta con todas lasmatrices de GLn(A), a ∈ Z(A).

Page 122: Algebra Lineal (Libro) - Lezama

116 CAPITULO 5. GRUPOS DE MATRICES

Proposicion 5.2.2. Para cada a, b ∈ A y cualesquiera u, v ∈ A∗:

(i) Tij(a)Tij(b) = Tij(a + b).

(ii) Para i 6= l y k 6= j, Tij(a)Tkl(b) = Tkl(b)Tij(a).

(iii) [Tik(a), Tkj(b)] = Tij(ab). Ademas, si i 6= l y k 6= j, [Tij(a), Tkl(b)] = E.

(iv) Di(u)Dj(v) = Dj(v)Di(u) si i 6= j, y Di(u)Di(v) = Di(uv).

(v) Di(u)Tij(a) = Tij(ua)Di(u), Di(u)Tji(a) = Tji(au−1)Di(u). Ademas, para j 6=i y k 6= i, Di(u)Tjk(a) = Tjk(a)Di(u).

Demostracion. (i) Tij(a)Tij(b) = (E + a · Eij)(E + b · Eij) = E + a · Eij + b · Eij =E + (a + b) · Eij = Tij(a + b).

(ii) Tij(a)Tkl(b) = (E + a ·Eij)(E + b ·Ekl) = E + a ·Eij + b ·Ekl y Tkl(b)Tij(a) =(E + b · Ekl)(E + a · Eij) = E + b · Ekl + a · Eij.

(iii) [Tik(a), Tkj(b)] = (E + a · Eik)(E + b · Ekj)(E − a · Eik)(E − b · Ekj) =(E + a · Eik + b · Ekj + ab · Eij)(E − a · Eik − b · Ekj + ab · Eij) = E − a · Eik − b ·Ekj + ab · Eij + a · Eik − ab · Eij + b · Ekj + ab · Eij = E + ab · Eij = Tij(ab).

Usando (ii) y (i) se tiene que

[Tij(a), Tkl(b)] = Tij(a)Tkl(b)Tij(−a)Tkl(−b) = Tkl(b)Tij(a)Tij(−a)Tkl(−b) =Tkl(b)Tkl(−b) = E.

(iv) Di(u)Dj(v) = (E +(u−1) ·Eii)(E +(v−1) ·Ejj) = E +(u−1) ·Eii +(v−1) ·Ejj

y Dj(v)Di(u) = (E +(v−1) ·Ejj)(E +(u−1) ·Eii) = E +(v−1) ·Ejj +(u−1) ·Eii.Di(u)Di(v) = (E+(u−1)·Eii)(E+(v−1)·Eii) = E+(u−1+v−1+uv−v−u+1)·Eii =E + (uv − 1) · Eii = Di(uv).

(v) Di(u)Tij(a) = (E +(u−1) ·Eii)(E +a ·Eij) = E +a ·Eij +(u−1) ·Eii +(u−1)a ·Eij = E+(u−1) ·Eii+ua ·Eij y Tij(ua)Di(u) = (E+ua ·Eij)(E+(u−1) ·Eii) =E + (u− 1) · Eii + ua · Eij.

Di(u)Tji(a) = (E + (u − 1) · Eii)(E + a · Eji) = E + (u − 1) · Eii + a · Eji yTji(au−1)Di(u) = (E + au−1 ·Eji)(E +(u− 1) ·Eii) = E +(u− 1) ·Eii + au−1 ·Eji +(a− au−1) · Eji = E + (u− 1) · Eii + a · Eji.

Di(u)Tjk(a) = (E + (u − 1) · Eii)(E + a · Ejk) = E + (u − 1) · Eii + a · Ejk, yTjk(a)Di(u) = (E + a · Ejk)(E + (u− 1) · Eii) = E + (u− 1) · Eii + a · Ejk.

Corolario 5.2.3. Si n ≥ 3,

[En(A), En(A)] = En(A).

Demostracion. [En(A), En(A)] ⊆ En(A); recıprocamente, si Tij(a) ∈ En(A), comon ≥ 3, sea k 6= i, k 6= j entonces Tij(a) = Tij(a1) = [Tik(a), Tkj(1)] ∈ [En(A), En(A)].

Page 123: Algebra Lineal (Libro) - Lezama

5.3. EL GRUPO ELEMENTAL SOBRE ANILLOS CONMUTATIVOS 117

5.3. El grupo elemental sobre anillos conmuta-

tivos

Sea R un anillo conmutativo, vimos en (2.3.6) que En(R) ≤ SLn(R) � GLn(R).Surgen entonces dos preguntas de manera natural: ¿En(R) � GLn(R)? y ¿En(R) =SLn(R)? En esta seccion vamos a estudiar estas dos preguntas.

5.3.1. Teorema de normalizacion de Suslin

Para n ≥ 3 la primera pregunta planteada anteriormente tiene respuesta positiva yel resultado fue demostrado por A. A. Suslin, el cual es conocido como el teoremade normalizacion de Suslin (vease [12]). La prueba constructiva de este teoremapresentada a continuacion ha sido adaptada de [10], vease tambien [11].

Definicion 5.3.1. Sean R un anillo conmutativo y n ≥ 2. Una matriz de Cohnes una matriz de la forma

E + av(vjei − viej),

donde i < j, i, j ∈ {1, . . . , n}, a ∈ R y

v := [v1 · · · vn]T ∈ Rn.

Proposicion 5.3.2 (Mennicke). Para n ≥ 3, cualquier matriz de Cohn se puedefactorizar en un producto finito de matrices elementales.

Demostracion. Primero consideremos el caso i = 1, j = 2, entonces

B = E + a

v1...

vn

[v2, −v1, 0, . . . , 0

]

=

1 + av1v2 −av2

1 0 · · · 0av2

2 1− av1v2 0 · · · 0av3v2 −av3v1

...... En−2

avnv2 −avnv1

=

1 + av1v2 −av21 0 · · · 0

av22 1− av1v2 0 · · · 0

0 0. .. . En−2

. .0 0

n∏

l=3

Tl1(avlv2)Tl2(−avlv1).

Page 124: Algebra Lineal (Libro) - Lezama

118 CAPITULO 5. GRUPOS DE MATRICES

Entonces, es suficiente mostrar que

A :=

1 + av1v2 −av21 0

av22 1− av1v2 0

0 0 1

se puede factorizar como un producto de matrices elementales, para cualesqueiraa, v1, v2 ∈ R. Para esto aplicamos operaciones elementales sobre filas y columnas:

A =

1 + av1v2 −av21 0

av22 1− av1v2 0

0 0 1

F1→F1+v1F3F2→F2+v2F3−−−−−−−→

1 + av1v2 −av21 v1

av22 1− av1v2 v2

0 0 1

C1→C1−av2C3−−−−−−−−→

1 −av21 v1

0 1− av1v2 v2

−av2 0 1

C2→C2+av1C3−−−−−−−−→

1 0 v1

0 1 v2

−av2 av1 1

F3→F3+av2F1−−−−−−−−→

1 0 v1

0 1 v2

0 av1 1 + av1v2

C3→C3−v1C1−−−−−−−−→

1 0 00 1 v2

0 av1 1 + av1v2

F3→F3−av1F2−−−−−−−−→

1 0 00 1 v2

0 0 1

F2→F2−v2F3−−−−−−−→

1 0 00 1 00 0 1

Escribiendo las operaciones elementales anteriores, tenemos

A = T13(−v1)T23(−v2)T31(−av2)T32(av1)T13(v1)T23(v2)T31(av2)T32(−av1).

En general, para i < j arbitrarios

B = E + a

v1...

vn

[0, . . . , vj, 0, . . . , −vi, 0, . . . , 0

]

Page 125: Algebra Lineal (Libro) - Lezama

5.3. EL GRUPO ELEMENTAL SOBRE ANILLOS CONMUTATIVOS 119

donde vj ocurre en la i-esima posicion y −vi en la j-esima posicion. Entonces,

B =

1 . . . av1vj . . . −av1vi . . . 0. . .

...... 0

1 + avivj −av2i

......

av2j 1− avivj

......

avnvj −avnvi 1

=

1 . . . 0 . . . 0 . . . 0. . .

...... 0

1 + avivj −av2i

......

av2j 1− avivj

......

0 0 1

1≤l≤nl 6=i,j

Tli(avlvj)Tlj(−avlvi)

= Tit(−vi)Tjt(−vj)Tti(−avj)Ttj(avi)Tit(vi)Tjt(vj)Tti(avj)Ttj(−avi)

×∏

1≤l≤nl 6=i,j

Tli(avlvj)Tlj(−avlvi),

donde t es cualquier ındice que cumpla t ∈ {1, . . . , n} − {i, j}.

Definicion 5.3.3. Sean R un anillo conmutativo y n ≥ 1; v = [v1, · · · , vn]T ∈ Rn

es un vector columna unimodular si sus componentes generan a R, es decir,existen u1, . . . , un tales que v1u1 + · · ·+ vnun = 1. Un vector fila unimodular sedefine de manera similar.

Lema 5.3.4. Sean R un anillo conmutativo y A ∈ GLn(R), con n ≥ 3. Supongaseque A se puede escribir en la forma A = E+vw, con v un vector columna unimodulary w un vector fila sobre R tales que wv = 0. Entonces, A ∈ En(R).

Demostracion. Sea v := [v1 · · · vn]T unimodular, existen g1, . . . , gn ∈ R tales quev1g1 + · · ·+ vngn = 1; esto combinado con wv = w1v1 + · · ·+ wnvn = 0 proporcionauna nueva expresion para w,

w =∑i<j

aij(vjei − viej),

Page 126: Algebra Lineal (Libro) - Lezama

120 CAPITULO 5. GRUPOS DE MATRICES

donde aij := wigj − wjgi. Luego,

A := E + vw = E + v(∑i<j

aij(vjei − viej))

= E +∑i<j

vaij(vjei − viej)

=∏i<j

(E + vaij(vjei − viej)).

Cada factor del lado derecho de la ultima ecuacion en una matriz de Cohn, luego sepueden escribir como un producto de matrices elementales, con lo cual A tambienes un producto de matrices elementales.

Lema 5.3.5. Sean R un anillo conmutativo y n ≥ 3. BTij(a)B−1 ∈ En(R), paracada a ∈ R y B ∈ GLn(R).

Demostracion. Para una matriz A, denotemos por A(i) su fila i y por A(j) su columnaj, entonces

BTij(a)B−1 = E + B(i)a(B−1)(j).

Sea v := B(i) y w := a(B−1)(j), entonces (B−1)(i)v = 1, luego v es unimodular,ademas wv = 0 ya que i 6= j. Por lo tanto, BTij(a)B−1 = E + vw satisface lacondicion del lema 5.3.4, ası que se puede escribir como un producto de matriceselementales.

Teorema 5.3.6 (Suslin). Sea R un anillo conmutativo. Para n ≥ 3, En(R) �

GLn(R). En particular, En(R) � SLn(R).

Demostracion. Sea A ∈ GLn(R) y F ∈ En(R). Entonces el lemma 5.3.5 da unprocedimiento para encontrar matrices propiamente elementales T1, . . . , Tt tales queAFA−1 = T1 · · ·Tt.

5.3.2. Teorema de estabilidad de Suslin

Estudiaremos ahora la segunda pregunta planteada al inicio de la presente seccion.Desafortunadamente existen anillos conmutativos en los que En(R) 6= SLn(R). En[10] se prueba que si K un cuerpo, la matriz

A :=

[1 + xy x2

−y2 1− xy

]∈ SL2(K[x, y])

no se puede factorizar como un producto de matrices elementales (vease tambien[11]). No obstante, existen diversos anillos conmutativos en los que la igualdad se

Page 127: Algebra Lineal (Libro) - Lezama

5.3. EL GRUPO ELEMENTAL SOBRE ANILLOS CONMUTATIVOS 121

tiene, por ejemplo en el anillo de polinomios con m indeterminadas K[x1, . . . , xm]sobre el cuerpo K; en el anillo de funciones reales continuas; en los dominios eucli-dianos (por ejemplo Z y los polinomios K[x] sobre un cuerpo K); en los anillos conrango estable uno (anillos locales y semilocales).

A continuacion se presenta detalladamente la demostracion de la igualdad en losdos ultimos casos mencionados. Cabe anotar que dichas demostraciones son cons-tructivas. Iniciamos con la siguiente proposicion de caracter general.

Proposicion 5.3.7. Sea A un anillo arbitrario y n ≥ 2. Si toda matriz de GLn(A)se puede expresar como producto de matrices elementales y diagonales, entoncesGLn(A) = En(A)GLn−1(A). Si ademas A = R es conmutativo, entonces En(R) =SLn(R).

Observacion 5.3.8. Aquı se considera GLn−1(A) como un subgrupo de GLn(A)

mediante la inclusion natural M 7→[1 00 M

].

Demostracion. (i) Claramente En(A)GLn−1(A) ⊆ GLn(A). Sea pues M ∈ GLn(A);por hipotesis M se puede expresar como producto de matrices elementales Tij(a),i 6= j, a ∈ A, y diagonales Di(u), u ∈ A∗. En virtud de 5.2.2 (v), las matricesdiagonales se pueden “conmutar” hacia la derecha obteniendo M = T1D, donde T1 es

un producto de elementales y D de diagonales. Pero entonces D =

d1 0. . .

0 dn

=

diag(d1, . . . , dn), donde cada di ∈ A∗, 1 ≤ i ≤ n. Sea u ∈ A∗ y consideremos lassiguientes operaciones sobre filas y columnas:[

u−1 00 u

] T21(1)−−−→[

u−1 0u−1 u

] T12(−1)−−−−→[

0 −uu−1 u

] T21(1)−−−→[

0 −uu−1 0

]T12(u)−−−→

[1 −u

u−1 0

] T12(u)−−−→[

1 0u−1 1

].

Ası,[

u−1 00 u

]= T21(−1)T12(1)T21(−1)T12(−u)T21(u

−1)T12(−u) y, por lo tanto,

diag(d−11 , d1, 1, . . . , 1) = T2

es producto de elementales. Pero diag(d−11 , d1, 1, . . . , 1)D = diag(1, d1d2, d3 . . . , dn),

luego D = T−12 diag(1, d1d2, d3, . . . , dn); en consecuencia,

M = T1D = T1T−12 diag(1, d1d2, d3, . . . , dn) = T3diag(1, d1d2, . . . , dn)

con T3 = T1T−12 ∈ En(A) y diag(1, d1d2, d3, . . . , dn) ∈ GLn−1(A) (con inversa

diag(1, d−12 d−1

1 , d−13 , . . . , d−1

n )). Tenemos entonces que GLn(A) ⊆ En(A)GLn−1(A).

Page 128: Algebra Lineal (Libro) - Lezama

122 CAPITULO 5. GRUPOS DE MATRICES

(ii) Sea ahora R un anillo conmutativo; tenemos que GLn(R) = En(R)GLn−1(R)(explıcitamente, notemos que diag(1, (d1d2)

−1, d1d2, 1, . . . , 1) es producto de elemen-tales hasta obtener M = T ′diag(1, 1, . . . , 1, d1d2 · · · dn)). Sea N ∈ SLn(R), entoncesN ∈ GLn(R) = En(R)GLn−1(R), es decir, N = Tdiag(1, 1, . . . , 1, u) = TDn(u) conu ∈ R∗ y T ∈ En(R). De este modo det(N) = u, y como N ∈ SLn(R), necesari-amente u = 1, Dn(u) = E y N = T es producto de elementales. Por lo tanto,En(R) = SLn(R).

Lema 5.3.9. Sea R un dominio euclidiano con funcion euclidiana δ y sea n ≥2. Si α :=

[a1 a2 · · · an

]∈ Rn, entonces existe T ∈ En(R) tal que αT =[

a 0 · · · 0]

para cierto a ∈ R.

Demostracion. Si α = 0, basta tomar a = 0 y T = E. Supongase α 6= 0; entonces{δ(ak) | ak 6= 0} es un subconjunto no vacıo de N. Sea m(α) := mın{δ(ak) | ak 6= 0}y sea i el menor de los ındices tales que m(α) = δ(ai). Si j 6= i es tal que aj 6= 0, exis-ten qj, rj ∈ R tales que aj = aiqj +rj, donde rj = 0 o δ(rj) < δ(ai). Ası, αTij(−qj) =[a1 · · · ai · · · aj − aiqj · · · an

]=

[a1 · · · ai · · · rj · · · an

]. Repitien-

do esta operacion para cada j 6= i con aj 6= 0 se obtiene α′ := αT1 =[a′1 · · · a′n

]donde a′i = ai, y para j 6= i, a′j = aj si aj = 0 y a′j = rj si aj 6= 0. Si a′j = 0 para

cada j 6= i, hemos terminado: en efecto, si i = 1, αT1 = α′ =[a′1 0 · · · 0

]; si

i 6= 1 tenemos α′Ti1(1)T1i(−1) =[a′i 0 · · · 0

]= αT1Ti1(1)T1i(−1). Ahora, si para

algun j 6= i se tiene a′j 6= 0, entonces m(α′) ≤ δ(a′j) = δ(rj) < δ(ai), de donde resultam(α′) < m(α). En consecuencia, si el proceso se repite con α′, en un numero finitode pasos obtenemos que todos los residuos son nulos, y por lo tanto el resultadobuscado.

Proposicion 5.3.10. Si R es un dominio euclidiano y n ≥ 2, toda matriz deGLn(R) se puede expresar como producto de matrices elementales y diagonales.

Demostracion. (i) Sea M ∈ GLn(R), n ≥ 2. Por el lema 5.3.9, existe T ∈ En(R) talque

MT =

m 0 · · · 0m2... M

mn

,

donde M ∈ Mn−1(R). Pero M es invertible, luego det(M) ∈ R∗ y como det(M) =

det(MT ) = m det(M), se tiene que m, det(M) ∈ R∗ y por tanto, M ∈ GLn−1(R).Ası,

MTD1(m−1) =

1 0 · · · 0

m2... M

mn

Page 129: Algebra Lineal (Libro) - Lezama

5.3. EL GRUPO ELEMENTAL SOBRE ANILLOS CONMUTATIVOS 123

y,

Tn1(−mn) · · ·T21(−m2)MTD1(m−1) =

1 0 · · · 00... M0

.

(ii) Probaremos ahora la afirmacion por induccion sobre n.

(a) Si n = 2, por (i) se tiene T21(−m2)MTD1(m−1) =

[1 00 m

]= D2(m), dado que

m = det(M) ∈ R∗, y entonces M = T21(m2)D2(m)D1(m)T−1 es un productode matrices elementales y diagonales.

(b) Supongase que la afirmacion es valida para n = k − 1, k ≥ 3, y sea M ∈GLk(R). Nuevamente por (i),

M = T21(m2) · · ·Tk−1,1(mk−1)

[1 0

0 M

]D1(m)T−1,

con M ∈ GLk−1(R). Por hipotesis de induccion, M se puede expresar comoproducto de matrices elementales y diagonales de orden k − 1; pero dichasmatrices pueden considerarse como elementales y diagonales de orden k y deello se sigue la afirmacion.

Corolario 5.3.11. Si R es un dominio euclidiano y n ≥ 2, entonces En(R) =SLn(R).

Demostracion. Consecuencia directa de las proposiciones 5.3.10 y 5.3.7.

Definicion 5.3.12. Sea A un anillo. Se dice que A tiene rango estable uno sipara cada a, b ∈ A tales que 〈a, b〉 = A existe c ∈ A tal que a + cb ∈ A∗.

Proposicion 5.3.13. Si A es un anillo con rango estable uno, toda matriz deGLn(A), n ≥ 2, se puede expresar como producto de matrices elementales y dia-gonales.

Demostracion. (i) Sea M := [mij] ∈ GLn(A), n ≥ 2. Como M−1M = E, existenr1, . . . , rn ∈ A tales que r1m11 + · · · + rnmn1 = 1; ası, para cada a ∈ A tenemosa = (ar1)m11 + a(r2m21 + · · · + rnmn1), es decir, A = 〈m11, r2m21 + · · · + rnmn1〉.

Page 130: Algebra Lineal (Libro) - Lezama

124 CAPITULO 5. GRUPOS DE MATRICES

Dado que A tiene rango estable uno , existe c ∈ A tal que u := m11 + c(r2m21 +· · ·+ rnmn1) ∈ A∗. Ahora,

M1 := T12(cr2)T13(cr3) · · ·T1n(crn)M =

u m′

12 · · · m′1n

m21 m22 · · · m2n...

......

mn1 mn2 · · · mnn

;

pero u ∈ A∗, luego

M2 := Tn1(−mn1u−1) · · ·T31(−m31u

−1)T21(−m21u−1)M1 =

u m′

12 · · · m′1n

0 m′22 · · · m′

2n...

......

0 m′n2 · · · m′

nn

,

y,

M3 : = M2T12(−m′12u

−1)T13(−m′13u

−1) · · ·T1n(−m′1nu

−1)M

=

u 0 · · · 00 m′

22 · · · m′2n

......

...0 m′

n2 · · · m′nn

=

[1 0

0 M

]D1(u),

donde M ∈ Mn−1(A). De este modo obtenemos M = T1

[1 0

0 M

]D1(u)T2 con

T1 := T1n(−crn) · · ·T12(−cr2)T21(m21u−1) · · ·Tn1(mn1u

−1) ∈ En(A)

y,T2 := T1n(m′

1nu−1) · · ·T12(m

′12u

−1) ∈ En(A).

Como M, T1, D1(u) y T2 son elementos de GLn(A), necesariamente

[1 0

0 M

]es in-

vertible y por lo tanto M ∈ GLn−1(A).(ii) Demostraremos ahora la afirmacion haciendo induccion sobre n.

(a) Si n = 2, por (i) se tiene M = T1

[1 00 m

]D1(u)T2 = T1D2(m)D1(u)T2, dado que

m ∈ A∗.

(b) Supongase el resultado valido para n = k − 1, k ≥ 3, y sea M ∈ GLk(A).

Por (i), M = T1

[1 0

0 M

]D1(u)T2, donde M ∈ GLk−1(A); por hipotesis de

induccion, M es producto de matrices elementales y diagonales de orden k −1 que pueden considerarse de orden k; en consecuencia, M es producto dematrices elementales y diagonales.

Page 131: Algebra Lineal (Libro) - Lezama

5.4. GRUPOS CLASICOS SOBRE ANILLOS 125

Corolario 5.3.14. Si R es un anillo conmutativo con rango estable uno y n ≥ 2,entonces En(R) = SLn(R).

Demostracion. Consecuencia directa de las proposiciones 5.3.13 y 5.3.7.

5.4. Grupos clasicos sobre anillos

A continuacion se definen los anillos con involucion, insumo importante para intro-ducir los grupos clasicos sobre anillos.

Definicion 5.4.1. Sea A un anillo. Una involucion en A es una funcion ∗ : A → Aque satisface

(i) (a + b)∗ = a∗ + b∗

(ii) (ab)∗ = b∗a∗

(iii) (a∗)∗ = a

para cada a, b ∈ A.

Los ejemplos mas conocidos de involuciones son la trasposicion en Mn(A) y laconjugacion en C.

Proposicion 5.4.2. La identidad es una involucion en A si, y solo si, A es unanillo conmutativo.

Demostracion. La identidad siempre satisface (i) y (iii), y satisface (ii) si, y solo si,A es conmutativo.

Proposicion 5.4.3. Sea ∗ una involucion en el anillo A.

(i) 0∗ = 0 y 1∗ = 1.

(ii) Para cada a ∈ A, (−a)∗ = −a∗; y si a ∈ A∗, (a−1)∗ = (a∗)−1.

(iii) Si a∗ = a, entonces (−a)∗ = −a; y si a ∈ A∗, (a−1)∗ = a−1.

(iv) Si a ∈ Z(A), tambien a∗ ∈ Z(A).

Page 132: Algebra Lineal (Libro) - Lezama

126 CAPITULO 5. GRUPOS DE MATRICES

Demostracion. (i) 0∗ = (0 + 0)∗ = 0∗ + 0∗, luego 0∗ = 0. Por otro lado, 1∗1 =1∗(1∗)∗ = (1∗1)∗ = (1∗)∗ = 1 de donde 1∗ = 1.

(ii) (−a)∗ + a∗ = (−a + a)∗ = 0∗ = 0, luego (−a)∗ = −a∗. Analogamente,(a−1)∗a∗ = (aa−1)∗ = 1∗ = 1 y a∗(a−1)∗ = (a−1a)∗ = 1∗ = 1, de manera que a∗ ∈ A∗

con inverso (a−1)∗.(iii) Segun (ii), (−a)∗ = −a∗ y (a−1)∗ = (a∗)−1.(iv) Sea b ∈ A; entonces a∗b = a∗(b∗)∗ = (b∗a)∗ = (ab∗)∗ = (b∗)∗a∗ = ba∗, luego

a∗ ∈ Z(A).

Definicion 5.4.4. Sean A un anillo y ∗ una involucion en A. Dada una matrizF := [fij] ∈ Mm×n(A), la matriz trasjugada de F respecto a ∗ es F ∗ := [f ∗ji] ∈Mn×m(A).

Es decir, F ∗ se obtiene de F trasponiendo la matriz de imagenes por ∗. Noteseque si ∗ es la identidad (A conmutativo), se tiene F ∗ = F T .

Proposicion 5.4.5. Sea ∗ una involucion en el anillo A. Si F := [fij] ∈ Ml×m(A),G := [gij] ∈ Mn×p(A) y a ∈ A, entonces

(i) (F + G)∗ = F ∗ + G∗ siempre que l = n y m = p.

(ii) (GF )∗ = G∗F ∗ siempre que m = n.

(iii) (F ∗)∗ = F .

(iv) (a · F )∗ = F ∗ · a∗.

(v) (F−1)∗ = (F ∗)−1 siempre que l = m y F sea invertible

Demostracion. (i) Evidente.(ii) Sea FG := [bij], entonces bij =

∑nk=1 fikgkj, y la entrada (i, j) de (FG)∗ es

(bji)∗ = (

∑nk=1 fjkgki)

∗ =∑n

k=1 g∗kif∗jk. Por otro lado, si G∗ = [cij] y F ∗ = dij (de

manera que cij = g∗ji y dij = f ∗ji), entonces la entrada (i, j) de G∗F ∗ es∑n

k=1 cikdkj =∑nk=1 g∗kif

∗jk y ası (FG)∗ = G∗F ∗.

(iii) Evidente.(iv) La entrada (i, j) de (a · F )∗ es (afji)

∗ = f ∗jia∗ que es la entrada (i, j) de

F ∗ · a∗.(v) F ∗(F−1)∗ = (F−1F )∗ = E∗ = E. Analogamente, (F−1)∗F ∗ = (FF−1)∗ =

E∗ = E, de modo que F ∗ es invertible con inversa (F ∗)−1 = (F−1)∗.

Definicion 5.4.6. Sea A un anillo con unidad, ∗ una involucion en A y ε ∈ Z(A)tal que εε∗ = 1.

(i) F ∈ Mn(A) es alternada si existe F1 ∈ Mn(A) tal que F = F1 − ε · F ∗1

Page 133: Algebra Lineal (Libro) - Lezama

5.4. GRUPOS CLASICOS SOBRE ANILLOS 127

(ii) F ∈ Mn(A) es hermitiana si F = ε · F ∗.

(iii) F ∈ Mn(A) es antihermitiana si F = −ε · F ∗.

La alternancia depende de ε y de la involucion; notese que por lo menos ε = 1 yε = −1 satisfacen εε∗ = 1. Por otra parte, si ∗ es la identidad (A conmutativo), lasmatrices hermitianas se denominan simetricas y las antihermitianas, antisimetricas.

Proposicion 5.4.7. Si F es alternada, entonces F es antihermitiana.

Demostracion. Como F alternada, sea F = F1−ε ·F ∗1 ; entonces −ε ·F ∗ = −ε ·(F1−

ε ·F ∗1 )∗ = −ε ·(F ∗

1 −F1 ·ε∗) = −ε ·(F ∗1 −ε∗ ·F1) = −ε ·F ∗

1 +εε∗ ·F1 = F1−ε ·F ∗1 = F .

Ası, F = −εF ∗ y F es antihermitiana.

Proposicion 5.4.8. Sea A un anillo tal que 2A = A.

(i) F ∈ Mn(A) es alternada si, y solo si, es antihermitiana.

(ii) Si F ∈ Mn(A) es hermitiana y antihermitiana, entonces F = 0.

Demostracion. 2A = A significa que 1 + 1 ∈ A∗, es decir, que si a ∈ A es tal quea + a = 0 entonces a = 0.

(i) Si F es alternada, es antihermitiana por la proposicion anterior. Supongaseque F es antihermitiana, entonces (1 + 1) · F = F + F = F − ε · F ∗. Si 2 = 1 + 1,2∗ = (1 + 1)∗ = 1∗ + 1∗ = 1 + 1 = 2; por hipotesis 2 ∈ A∗, luego (2−1)∗ = 2−1

y ası F = 2−1 · [(1 + 1) · F ] = 2−1 · (F − ε · F ∗) = (2−1 · F ) − ε · (2−1 · F ∗) =(2−1 · F ) − ε · (F · 2−1)∗ = (2−1 · F ) − ε · (2−1 · F )∗ ya que 2−1 ∈ Z(A). ComoF = (2−1 · F )− ε(2−1 · F )∗, entonces F es alternada.

(ii) Dado que F es antihermitiana, ε · F ∗ = −F ; pero tambien es hermitiana,luego ε ·F ∗ = F , de donde F = −F , F +F = 0, y de 2A = A se sigue que F = 0.

Proposicion 5.4.9. Si ∗ es la identidad (A conmutativo) y ε = 1, F es alternadasi, y solo si, XFXT = 0 para cada matriz fila X ∈ M1×n(A).

Demostracion. ⇒): sea F alternada con F = F1 − F T1 ; entonces, XFXT = X(F1 −

F T1 )XT = XF1X

T − XF T1 XT = XF1X

T − (XF1XT )T , pero XF1X

T ∈ M1(A) esigual a su traspuesta luego XFXT = 0.

⇐): sea F := [fij] ∈ Mn(A) tal que XFXT = 0 para cada X ∈ M1×n(A). Sea Xi

la matriz fila con 1 en la entrada i-esima y 0 en las demas; entonces XiFXTi = fii = 0

para 1 ≤ i ≤ n. Para i 6= j, sea Xij la matriz fila con 1 en las entradas i, j y 0en las restantes; tenemos XijFXT

ij = fij + fii + fji + fjj = fij + fji y fji = −fij

(1 ≤ i 6= j ≤ n), de manera que F es antisimetrica. Finalmente, F1 := [bij] se definede la siguiente forma: bij := 0 para i ≤ j y bij := fij para i > j; ası, F = F1 − F T

1

ya que F1 es la “mitad” inferior de F , y de esta manera F es alternada.

Page 134: Algebra Lineal (Libro) - Lezama

128 CAPITULO 5. GRUPOS DE MATRICES

Proposicion 5.4.10. Sean ∗ una involucion en A y F ∈ Mn(A), entonces

(i) {M ∈ GLn(A) | M∗FM = F} es un subgrupo de GLn(A).

(ii) {M ∈ GLn(A) | ∃rM ∈ Z(A)∗, M∗FM = rM · F} es un subgrupo de GLn(A).

Demostracion. (i) Como E∗ = E ∈ GLn(A) y E∗FE = EFE = E, el conjunto noes vacıo. Si M, N satisfacen M∗FM = F y N∗FN = F entonces

(MN)∗F (MN) = N∗(M∗FM)N = N∗FN = F ,(M−1)∗FM−1 = (M−1)∗(M∗FM)M−1 = (MM−1)∗F (MM−1) = E∗FE = F ,

por lo tanto el conjunto resulta ser un subgrupo de GLn(A).(ii) E pertenece al conjunto, considerando en este caso rE = 1. Si M, N son

tales que M∗FM = rM · F y N∗FN = rN · F con rM , rN elementos invertiblesdel centro de A, entonces (MN)∗F (MN) = N∗(M∗FM)N = N∗(rM · F )N =rM · N∗FN = rM(rN · F ) = rMrN · F con rMrN ∈ Z(A)∗, y (M−1)∗FM−1 =(M−1)∗[r−1

M ·M∗FM ]M−1 = r−1M ·(M−1)∗M∗FMM−1 = r−1

M ·F con r−1M ∈ Z(A)∗.

Definicion 5.4.11. Sean ∗ una involucion en A y F ∈ Mn(A).

(i) El grupo unitario correspondiente a F es

U(F ) := {M ∈ GLn(A) | M∗FM = F}.

(ii) El grupo de similitudes correspondiente a F es

GU(F ) := {M ∈ GLn(A) | (∃rM ∈ Z(A)∗, M∗FM = rM · F};

rM se denomina multiplicador de M ∈ GU(F ).

Por consiguiente, U(F ) es el subgrupo de GU(F ) constituido por las matrices demultiplicador 1.

Proposicion 5.4.12. Sea ∗ una involucion en A, ε ∈ Z(A) tal que εε∗ = 1 yQ ∈ Mn(A). Entonces X := {M ∈ GLn(A) | M∗QM − Q es alternada } es unsubgrupo de GLn(A).

Demostracion. Como la matriz nula es alternada (0 = 0− ε · 0∗) E ∈ X y X 6= ∅.Si M, N ∈ X, entonces M∗QM − Q = M1 − ε · M∗

1 y N∗QN − Q = N1 − ε · N∗1

para ciertas M1, N1 ∈ Mn(A). Ahora, (MN)∗Q(MN)−Q = N∗(M∗QM)N −Q =N∗(Q + M1 − ε · M∗

1 )N − Q = N∗QN − Q + N∗(M1 − ε · M∗1 )N = N1 − ε ·

N∗1 + N∗M1N − εN∗M∗

1 N = (N1 + N∗M1N)− ε · (N1 + N∗M1N)∗ es alternada, demodo que MN ∈ X. Por otro lado, QM − (M−1)∗Q = (M−1)∗M1 − ε · (M−1)∗M∗

1 ,luego Q− (M−1)∗QM−1 = (M−1)∗M1M

−1 − ε · (M−1)∗M∗1 M−1, y en consecuencia

(M−1)∗QM−1−Q = [ε·(M−1)∗M∗1 M−1]−ε·[ε·(M−1)∗M∗

1 M−1]∗, luego M−1 ∈ X.

Page 135: Algebra Lineal (Libro) - Lezama

5.4. GRUPOS CLASICOS SOBRE ANILLOS 129

Definicion 5.4.13. Sea ∗ una involucion en A, ε ∈ Z(A) tal que εε∗ = 1. SiQ ∈ Mn(A), el grupo ortogonal correspondiente a Q es

O(Q) := {M ∈ GLn(A) | M∗QM −Q es alternada }.

En el caso particular de los anillos conmutativos se tienen otros dos gruposclasicos.

Definicion 5.4.14. Sean R un anillo conmutativo y ∗ una involucion en R.

(i) Sea F ∈ Mn(R). El grupo unitario especial correspondiente a F es

SU(F ) := U(F ) ∩ SLn(R).

(ii) Sea Q ∈ Mn(R). El grupo ortogonal especial correspondiente a Q es

SO(Q) := O(Q) ∩ SLn(R).

Proposicion 5.4.15. En las condiciones de la anterior definicion se tiene:

(i) SU(F ) � U(F ).

(ii) SO(Q) � O(Q).

Demostracion. Sean M ∈ SU(F ) (respectivamente SO(Q)) y N ∈ U(F ) (respecti-vamente O(Q)); entonces det(N−1MN) = det(M) = 1.

Para terminar veamos que los grupos clasicos introducidos en esta seccion corres-ponden a aquellos que vimos para cuerpos en la subseccion 5.1.2. Sea K un cuerpo,para los grupos ortogonales se toma la identidad como involucion y Q simetrica,de manera que para cada matriz M se tiene que M∗ = MT y si M ∈ O(Q),entonces (MT QM − Q)T = MT QT M − QT = MT QM − Q, es decir, MT QM − Qes simetrica, pero por definicion de O(Q) esta matriz tambien es alternada, porlo tanto antisimetrica. En consecuencia, si 1 + 1 6= 0 en K, se tiene MT QM −Q = 0 (proposicion 5.4.8) luego O(Q) = {M ∈ GLn(K)|MT QM = Q} = U(Q),y este grupo coincide con el grupo ortogonal definido en la subseccion 5.1.2. Siademas se toma Q invertible, det(M) = ±1 y SU(Q) es el subgrupo de matricesde determinante “positivo”, de ahı que en algunas ocasiones se utilice la notacionU+(Q). Si F es antihermitiana (antisimetrica), entonces el grupo U(F ) es el grupogrupo simplicial. El grupo de similitudes es entonces

GU(F ) = {M ∈ GLn(K) | ∃rM ∈ K, M∗FM = rM · F}.

En el caso particular K = R, tomando la identidad como involucion, y dado que Ees simetrica, tenemos que O(E) = U(E) = {M ∈ Mn(R) | MT M = E} = On(R)que es el grupo ortogonal “tradicional”; el grupo unitario “tradicional” resulta altomar K = C, F = E y la conjugacion como involucion, pues entonces U(E) ={M ∈ Mn(C)|M∗M = E} = Un(C).

Page 136: Algebra Lineal (Libro) - Lezama

130 CAPITULO 5. GRUPOS DE MATRICES

5.5. Ejercicios

1. Demuestre la propiedades (i)-(xx) de la seccion 5.1.

2. Sea dimV = n y sea K un cuerpo tal que char(K) 6= 2. Sea f una formabilineal simetrica sobre V . Demuestre que existe una base X en V tal quemX(f) es diagonal.

3. Si dimC V = n y f es una forma bilineal simetrica sobre V con rank(f) = r,entonces existe una base ordenada X = {v1, . . . vn} en V tal que

(a) mX(f) es diagonal.

(b) f(vi, vi) = 1 para 1 ≤ i ≤ r, f(vi, vi) = 0 para i > r.

4. Si dimR V = n y f una forma bilineal simetrica sobre V con rank(f) = r.Entonces, existe una base ordenada X = {v1, v2, ..., vn} en V tal que

(a) mX(f) es diagonal.

(b) f(vi, vi) = ±1 para 1 ≤ i ≤ r, y f(vi, vi) = 0 para i > r.

(c) El numero de vectores de la base X para los cuales en (b) se da el signopositivo es independiente de dicha base.

5. Sea dimKV = n y f una forma bilineal antisimetrica sobre el cuerpo K,donde char(K) 6= 2. Demuestre que existe una base ordenada X en V tal quela matriz de f es suma directa de la matriz nula de orden (n−2k) y k matrices2×2 de la forma [

0 1−1 0

].

6. Formas sobre espacios no necesariamente libres . Sean A un anillo yV un A-espacio (A-modulo, vease [6]); sea ∗ una involucion en A y ε ∈ Z(A)es tal que εε∗ = 1.

a) Una forma sesquilineal en V es una funcion F : V × V → A quesatisface:

(i) F (u1 + u2, v) = F (u1, v) + F (u2, v), F (u · a, v) = a∗F (u, v);

(ii) F (u, v1 + v2) = F (u, v1) + F (u, v2), F (u, v · a) = F (u, v)a,

para cada u, u1, u2, v, v1, v2 ∈ V y cada a ∈ A.

Demuestre que si F y G son formas sesquilineales en V , la funcion F +Gdefinida por (F + G)(u, v) = F (u, v) + G(u, v), para todo u, v ∈ V , esuna forma sesquilineal en V .

b) Demuestre que el conjunto de las formas sesquilineales en V es un grupoabeliano con la adicion definida como antes.

Page 137: Algebra Lineal (Libro) - Lezama

5.5. EJERCICIOS 131

c) Si A es conmutativo, el conjunto de las formas sesquilineales en V es unaA-espacio.

d) Sea Λ es un subgrupo aditivo del anillo A que satisface:

(i) Para cada λ ∈ Λ y a ∈ A, se tiene a∗λa ∈ Λ.

(ii) Λε := {a− εa∗ | a ∈ A} esta contenido en Λ: Λε ⊆ Λ.

(iii) Λε := {a ∈ A | a = −εa∗} contiene a Λ: Λ ⊆ Λε.

Demuestre que Λε y Λε son subgrupos aditivos de A que a su vez satisfacen(i), (ii) y (iii).

e) Sea Λ como antes. Demuestre que:

(i) Si Λ = 0 entonces A es conmutativo, ∗ es la identidad y ε = 1.

(ii) Si 2A = A es conmutativo, ∗ es la identidad y ε = 1, entoncesΛ = Λε = 0.

(iii) Si Λ = A entonces A es conmutativo, ∗ es la identidad y ε = −1.

(iv) Si 2A = A entonces Λε = Λε = Λ.

f ) Sea F una forma sesquilineal en V .

(i) F es hermitiana si F (u, v) = εF ∗(v, u) para cada u, v ∈ V .

(ii) F es antihermitiana si F (u, v) = −εF ∗(v, u) para cada u, v ∈ V .

(iii) F es Λ-alternada si satisface:

(i) F (v, v) ∈ Λ para cada v ∈ V .

(ii) F es antihermitiana.

Si Λ = Λε, demuestre que una forma sesquilineal es Λ-alternada si, ysolo si, es antihermitiana. Ademas, pruebe que esto ocurre en particularcuando 2A = A, pues en tal caso el unico subgrupo Λ es Λε = Λε.

g) F una forma sesquilineal en V . Demuestre que:

(i) Si F se puede expresar como F (u, v) = F1(u, v) + εF ∗1 (v, u), para

cada u, v ∈ V , siendo F1 una forma sesquilineal en V , entonces F esΛ-alternada.

(ii) Cuando 2A = A, el recıproco de (i) es cierto.

h) Demuestre que el conjunto FΛ de las formas Λ-alternadas es un subgruponormal del grupo de formas sesquilineales.

7. Formas cuadraticas sobre espacios no necesariamente libres. SeanA un anillo y V un A-espacio (A-modulo, vease [6]); sea ∗ una involucion enA y ε ∈ Z(A) es tal que εε∗ = 1. Dada una forma sesquilineal F en V , laforma cuadratica correspondiente a F es la clase q := F + FΛ. Es decir, siQ es una forma sesquilineal, entonces Q ∈ q si, y solo si, Q− F es una formaΛ-alternada. Notese que q depende de A, ∗, ε, Λ y F .

Page 138: Algebra Lineal (Libro) - Lezama

132 CAPITULO 5. GRUPOS DE MATRICES

Sea q una forma cuadratica y Q ∈ q.

(i) La distancia segun q es la funcion

| |q : V → A/Λ

v 7→ |v|q := Q(v, v) + Λ.

(ii) El producto escalar segun q es la funcion

(, )q : V × V → A

(u, v) 7→ (u, v)q := Q(u, v) + εQ∗(v, u).

a) Demuestre que la distancia y el producto escalar no dependen de la formaQ ∈ q elegida.

b) Sea q una forma cuadratica. Demuestre que:

(i) El producto escalar segun q es una forma sesquilineal hermitiana.

(ii) Para cada v ∈ V , (v, v)q = a + εa∗ con a ∈ |v|q arbitrario.

(iii) Para cada u, v ∈ V , |u + v|q = |u|q + |v|q + (u, v)q.

(iv) Para cada b ∈ A, v ∈ V se tiene |v · b|q = b∗ab + Λ, con a ∈ |v|qarbitrario.

c) Sea q una forma cuadratica. Demuestre que:

(i) La distancia y el producto escalar determinan unıvocamente a q.

(ii) Si Λ = Λε, el producto escalar determina unıvocamente a q.

(iii) Si Λ no contiene ideales bilateros no nulos de A, la distancia deter-mina unıvocamente a q.

( Siempre que se pueda tomar Λ = Λε, y cuando 2A = A, esta es la unicaopcion que se tiene. Por otro lado, la condicion en (iii) significa que si Ies un ideal bilatero de A e I ⊆ Λ, entonces I = 0. Un ejemplo se tienecuando Λ = 0).

8. Grupos clasicos sobre espacios no necesariamente libres . Sean A unanillo y V un A-espacio (A-modulo, vease [6]); sea ∗ una involucion en A yε ∈ Z(A) es tal que εε∗ = 1.

a) Sea F una forma sesquilineal hermitiana o antihermitiana en V . De-muestre que el conjunto

X := {ρ ∈ AutA(V ) | F (ρ(u), ρ(v)) = F (u, v) para cada u, v ∈ V }

es un subgrupo de AutA(V ).

Page 139: Algebra Lineal (Libro) - Lezama

5.5. EJERCICIOS 133

b) Si F es una forma sesquilineal hermitiana o antihermitiana en V , el grupounitario correspondiente a F es

U(F ) := {ρ ∈ AutA(V ) | F (ρ(u), ρ(v)) = F (u, v) para cada u, v ∈ V }.

Si Q es una forma sesquilineal en V y ρ ∈ AutA(V ), demuestre que lafuncion RQ definida como RQ(u, v) = Q(ρ(u), ρ(v)), para cada u, v ∈ V ,es una forma sesquilineal en V .

c) Sea q una forma cuadratica.

(i) ρ ∈ AutA(V ) preserva q, si para cada Q ∈ q, la forma sesquilinealRQ −Q es Λ-alternada.

(ii) ρ ∈ AutA(V ) preserva la distancia | |q si |ρ(v)|q = |v|q para cadav ∈ V .

(iii) ρ ∈ AutA(V ) preserva el producto escalar (, )q si (ρ(u), ρ(v))q =(u, v)q para cada u, v ∈ V .

Ası pues, ρ preserva q si la forma sesquilineal definida por Q(ρ(u), ρ(v))−Q(u, v) es Λ-alternada. Como la distancia y el producto escalar determi-nan q y recıprocamente, demuestre que: ρ ∈ AutA(V ) preserva q si, y solosi, preserva la distancia | |q y el prodcuto escalar (, )q.

d) Sea q una forma cuadratica. Demuestre que el conjunto O(q) := {ρ ∈AutA(V ) | ρ preserva q} es un subgrupo de AutA(V ) y se denomina elgrupo ortogonal correspondiente a q.

e) Sea q una forma cuadratica y F la forma sesquilineal hermitiana F = (, )q.Demuestre que

(i) O(q) ⊆ U(F ).

(ii) Cuando Λ = Λε, O(q) = U(F ).

f ) Cuando Λ = A, o cuando Λ = 0 y 2A = A, demuestre qu O(q) = U(F ).

Page 140: Algebra Lineal (Libro) - Lezama

Bibliografıa

[1] Brown, W., Matrices over Commutative Rings, Marcel Dekker, 1993. vi, 19,38, 39

[2] Cohn, P., Free Rings and their Relations, Academic Press, 1985. 17

[3] Lezama, O., Anillos dimensionales, Bol. de Mat., Vol. XIX, No. 3, 1985, 194-220.

[4] Lezama, O., Cuadernos de Algebra, No. 1: Grupos, Departamentode Matematicas, Universidad Nacional de Colombia, sede de Bogota,www.matematicas.unal.edu.co/sac2 10, 17, 22, 107

[5] Lezama, O., Cuadernos de Algebra, No. 2: Anillos, SAC2, Departamen-to de Matematicas, Universidad Nacional de Colombia, sede de Bogota,www.matematicas.unal.edu.co/sac2 vi, 1, 3, 10, 14, 69

[6] Lezama, O., Cuadernos de Algebra, No. 3: Modulos, SAC2, Departamen-to de Matematicas, Universidad Nacional de Colombia, sede de Bogota,www.matematicas.unal.edu.co/sac2 vi, 1, 4, 5, 7, 10, 12, 16, 50, 67, 75, 81,86, 130, 131, 132

[7] Lezama, O & Villamarın G., Anillos, Modulos y Categorıas, UniversidadNacional de Colombia, 1994. v, 3, 5

[8] Lang S., Algebra, Springer, 2002. v, 3, 22

[9] MacDonald, B., Linear Algebra over Commutative Rings, Marcel Dekker, 1984.vi

[10] Park, H. and Woodburn, C., An algorithmic proof of Suslin’s stability the-orem for polynomial rings, J. Algebra, 178, 1995, 277-298. 117, 120

[11] Pinto, M., Una Prueba Algorıtmica para el Teorema de Estabilidad de Suslinsobre Dominios de Dedekind, Tesis de Maestrıa, Universidad Nacional de Colom-bia, Bogota, 2009. 117, 120

134

Page 141: Algebra Lineal (Libro) - Lezama

BIBLIOGRAFIA 135

[12] Suslin. A, On the structure of the special linear group over polynomial rings,Math. USSR Izv., 11, 1977, 221− 238. 33, 117