Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera...

104
´ Algebra Lineal y Geometr´ ıa. Curso 2017/18. Departamento de ´ Algebra. http://departamento.us.es/da/da.html ´ Algebra Lineal y Geometr´ ıa Grado en F´ ısica Notas de teor´ ıa Temas 1-4 Departamento de ´ Algebra, Universidad de Sevilla

Transcript of Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera...

Page 1: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

Algebra Lineal y Geometrıa

Grado en Fısica

Notas de teorıaTemas 1-4

Departamento de Algebra, Universidad de Sevilla

Page 2: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

2

El contenido de estas notas ha sido disenado y redactado por el profesorado de la asig-natura y esta registrado bajo una licencia Creative Commons. Se permite la reproduccion dela totalidad o de parte de las presentes notas con cualquier fin excepto el lucrativo, siemprey cuando se cite correctamente la procedencia y autorıa de las mismas.

Page 3: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

Indice general

1. Matrices y sistemas de ecuaciones 51.1. Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.2. Sistemas compatibles, incompatibles, determinados... . . . . . . . . . . . . . . 71.3. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91.4. Eliminacion gaussiana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121.5. Algebra matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131.6. Matrices elementales. Matriz inversa . . . . . . . . . . . . . . . . . . . . . . . . 171.7. Rango . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191.8. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211.9. Determinantes: desarrollo por filas y columnas . . . . . . . . . . . . . . . . . . 261.10. Submatrices. El metodo del orlado . . . . . . . . . . . . . . . . . . . . . . . . . 271.11. Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

2. Espacios vectoriales 332.1. Espacios vectoriales: Definicion y ejemplos . . . . . . . . . . . . . . . . . . . . 332.2. Dependencia e independencia lineal . . . . . . . . . . . . . . . . . . . . . . . . 352.3. Sistemas generadores y bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . 372.4. Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 392.5. Coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 412.6. Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 432.7. Operaciones entre subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . 462.8. Suma directa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 482.9. Producto escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 502.10. Bases ortonormales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

3. Homomorfismos de espacios vectoriales 573.1. Homomorfismos: definicion y ejemplos . . . . . . . . . . . . . . . . . . . . . . 573.2. Nucleo e imagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 603.3. Isomorfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 623.4. Espacio dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 643.5. Autovalores y autovectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 653.6. Diagonalizacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 673.7. Teoremas espectrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

4. Espacio afın y euclıdeo 754.1. Espacio afın . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 754.2. Variedades lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 774.3. Sistemas de referencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 794.4. Operaciones con variedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 804.5. Espacio euclıdeo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 824.6. Aplicaciones afines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84

3

Page 4: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

4 INDICE GENERAL

4.7. Afinidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 874.8. Movimientos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 904.9. Clasificacion de movimientos en A2(R) . . . . . . . . . . . . . . . . . . . . . . . 924.10. Clasificacion de movimientos en A3(R) . . . . . . . . . . . . . . . . . . . . . . . 94

A. Resultados auxiliares 99A.1. Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99A.2. Operaciones y estructuras algebraicas . . . . . . . . . . . . . . . . . . . . . . . 100A.3. Polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102A.4. Numeros complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103

Page 5: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

Tema 1

Matrices y sistemas de ecuaciones

1.1. Sistemas de ecuaciones lineales

En estas notas, k denotara bien el conjunto de los numeros racionales Q, el conjunto delos numeros reales R o el conjunto de los numeros complejos C. Mas generalmente, la teorıaes valida siendo k un cuerpo cualquiera. Los elementos de k se denominaran escalares.

Definicion 1.1 Una ecuacion lineal en n variables con coeficientes en k es una expresion deltipo

a1x1 + a2x2 + · · ·+ anxn = b

donde a1, a2, . . . , an, b ∈ k. Los escalares a1, a2 . . . , an son los coeficientes de la ecuacion, bel termino independiente y x1, x2, . . . , xn las incognitas. La ecuacion se dice homogenea sib = 0.

Una solucion de dicha ecuacion lineal es una n-upla1 de elementos de k (c1, c2, . . . , cn) ∈kn tal que al sustituir cada xi por el correspondiente ci la ecuacion se transforma en unaigualdad en k.

Ejemplo

Las 3-uplas (1, 1, 1) y (3, 1, 0) son soluciones de la ecuacion

x1 − x2 + 2x3 = 2.

Por el contrario, (1, 0, 0) y (0, 1, 1) no son soluciones de dicha ecuacion.

Definicion 1.2 Un sistema de ecuaciones lineales en n variables con coeficientes en k es con-junto de m ≥ 1 ecuaciones lineales en n variables

a11x1 + a12x2 + · · ·+ a1nxn = b1...

am1x1 + am2x2 + · · ·+ amnxn = bm

1Una n-upla es un conjunto ordenado de n elementos de k: por ejemplo, (1, 4, 3, 2) es una 4-upla de elementosde R distinta de (1, 3, 2, 4). El conjunto de n-uplas de elementos de k se denota por kn.

5

Page 6: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

6 TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

Una solucion de dicho sistema es una n-upla de elementos de k que sea solucion de cada una delas ecuaciones por separado. Un sistema se dice homogeneo si todas sus ecuaciones lo son, esdecir, si b1 = . . . = bm = 0.

Ejemplo

La 3-upla (1, 1, 1) es solucion del sistema

x1 − x2 + 2x3 = 2x1 + x2 − x3 = 1

Sin embargo, (3, 1, 0) no es solucion de dicho sistema, puesto que no es solucion de lasegunda ecuacion.

Dado un sistema de ecuaciones, la cuestion fundamental que se nos plantea es hallarel conjunto de todas sus soluciones. Para algunos sistemas, es facil hallarlas. Por ejemplo,consideremos el sistema siguiente:

x1 − 2x2 + x3 = 1x2 − x3 = 3

2x3 = 4(1.1)

Fijandonos en la ultima ecuacion se ve claramente que cualquier solucion (x1, x2, x3) delsistema debe tener x3 = 2. Usando ahora la segunda ecuacion, vemos que x2 debe ser iguala 5, y finalmente, de la primera ecuacion deducimos que x1 = 9. Por tanto, el sistema tieneuna unica solucion, que es (9, 5, 2). Este tipo de sistemas, en los que la primera variable queaparece con coeficiente no nulo en cada ecuacion es distinta, se llamaran escalonados.

Consideremos ahora el siguiente sistema:

x1 − 2x2 + x3 = 1x1 − x2 = 4

−x1 + x2 + 2x3 = 0

En este caso no podemos aplicar el mismo metodo que en el sistema anterior: no es posi-ble averiguar el valor de ninguna de las variables a partir de una sola de las ecuaciones.Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos esta a la tercera,volvemos a obtener el sistema anterior. Al realizar estas operaciones, esta claro que no cam-biamos el conjunto de soluciones del sistema, ya que podemos recuperar el sistema originalrealizando las operaciones inversas. Por tanto, la unica solucion de este ultimo sistema es(9, 5, 2), al igual que en el sistema anterior. Esta sera nuestra estrategia para resolver siste-mas en general.

Definicion 1.3 Dos sistemas de ecuaciones en n variables se dicen equivalentes si tienen exac-tamente las mismas soluciones.

Page 7: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

1.2. SISTEMAS COMPATIBLES, INCOMPATIBLES, DETERMINADOS... 7

Ejemplo

Los sistemasx1 − 2x2 + x3 = 1

x2 − x3 = 32x3 = 4

yx1 − 2x2 + x3 = 1

x1 − x2 = 4−x1 + x2 + 2x3 = 0

son equivalentes, ambos tienen a (9, 5, 2) como unica solucion. Los sistemas

x1 − 2x2 + x3 = 1x2 − x3 = 3

2x3 = 4

yx1 − 2x2 + x3 = 1

x2 − x3 = 3

no son equivalentes, puesto que (7, 3, 0) es solucion del segundo pero no del primero.

Dado un sistema de ecuaciones, podemos realizar una de las siguientes operaciones so-bre el, y obtendremos un sistema equivalente:

1. Intercambiar dos ecuaciones

2. Multiplicar una ecuacion por un escalar distinto de cero

3. Sumarle un multiplo de una de las ecuaciones a cualquier otra

Notese que estas tres operaciones son “reversibles”: la primera puede deshacerse volviendoa intercambiar las ecuaciones, la segunda multiplicando la misma ecuacion por el escalarinverso, y la tercera restandole el mismo multiplo de la primera ecuacion a la segunda (esdecir, sumarsela multiplicada por el opuesto del escalar). Llamaremos transformaciones ele-mentales a estos tres tipos de operaciones realizadas sobre un sistema de ecuaciones.

En las proximas secciones, veremos como podemos transformar cualquier sistema enotro equivalente escalonado usando solo transformaciones elementales, y como resolver lossistemas escalonados. Esto nos dara un metodo para hallar las soluciones de cualquier sis-tema.

1.2. Sistemas compatibles, incompatibles, determinados

e indeterminados

Los sistemas de ecuaciones pueden clasificarse dependiendo de si tienen o no solucion.

Definicion 1.4 Un sistema de ecuaciones lineales se dice compatible si tiene alguna solucion.De lo contrario, se dice incompatible.

Page 8: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

8 TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

Un sistema homogeneo siempre es compatible, puesto que tiene a la n-upla (0, 0, . . . , 0)como solucion. Sea

a11x1 + a12x2 + · · ·+ a1nxn = b1...

am1x1 + am2x2 + · · ·+ amnxn = bm

un sistema de ecuaciones. El sistema homogeneo asociado es el sistema de ecuaciones obteni-do al hacer todos los terminos independientes iguales a 0. Si (α1, α2, . . . , αn) es una solu-cion del sistema y (β1, β2, . . . , βn) es una solucion del sistema homogeneo asociado, entonces(α1 + β1, α2 + β2, . . . , αn + βn) es tambien una solucion del sistema original. Ademas, cual-quier otra solucion del sistema original puede obtenerse de esta forma. Es decir, si un sistemaes compatible, cualquier solucion puede obtenerse sumandole a una solucion prefijada unasolucion del sistema homogeneo asociado. En particular, el sistema y su sistema homogeneoasociado tienen el mismo numero de soluciones.

Teorema 1.1 Si (α1, α2, . . . , αn) es solucion de un sistema de ecuaciones, cualquier otra soluciones de la forma (α1 + β1, α2 + β2, . . . , αn + βn), donde (β1, β2, . . . , βn) es solucion del sistemahomogeneo asociado.

En lo que resta de seccion estudiaremos las posibles soluciones de sistemas escalonados.Recordemos que un sistema es escalonado si, para cada ecuacion, la primera variable queaparece con coeficiente no nulo es distinta. Reordenando las ecuaciones, podemos suponerque, en cada ecuacion, la primera variable que aparece con coeficiente no nulo tiene ındicemayor que la correspondiente variable de la ecuacion anterior (de ahı el nombre de sistemaescalonado). A partir de ahora, supondremos que todos los sistemas escalonados cumplenesta condicion.

Ejemplo

Los sistemasx1 + 2x2 − 3x3 = 0

−x2 + x3 = 1x3 = 4

yx1 + x2 − x4 = 0

x2 + 2x3 = 2x4 = 1

son escalonados.

La primera variable que aparezca con coeficiente no nulo en una ecuacion se llamaravariable pivote. El el primer ejemplo anterior, las variables pivote son x1, x2 y x3 respectiva-mente. En el segundo ejemplo, las variables pivote son x1, x2 y x4.

Es posible que una de las ecuaciones (necesariamente la ultima) no contenga ningunavariable con coeficiente no nulo. En tal caso, la ecuacion serıa del tipo 0 = b. Si b es 0,claramente la ecuacion se verifica siempre, por lo que podemos eliminarla del sistema sinmodificar el numero de soluciones. Por el contrario, si b 6= 0, la ecuacion no se verifica nunca,por lo que el sistema no puede tener soluciones. Dicho de otro modo, es incompatible.

Page 9: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

1.3. MATRICES 9

Si el sistema es compatible, podemos hallar sus soluciones empezando por la ultimaecuacion y moviendonos hacia arriba. Para cada ecuacion, podemos despejar la variablepivote en funcion de las demas, que se suponen ya conocidas. Aquı debemos distinguir doscasos:

1. Si todas las variables son pivotes de alguna ecuacion, al despejar la variable pivote encada ecuacion obtenemos un valor completamente determinado para cada variable. Eslo que ocurrıa en el sistema (1.1). En ese caso obtenemos una solucion unica y decimosque el sistema es determinado.

Definicion 1.5 Un sistema de ecuaciones lineales compatible se dice determinado si tieneuna unica solucion. De lo contrario, se dice indeterminado.

2. Si alguna variable no aparece como pivote en ninguna ecuacion, entonces a esta va-riable puede asignarsele cualquier valor en k. Diremos que esta variable es libre. Paracada posible valor que se le asigne, obtendremos una solucion distinta del sistema. Portanto, en este caso el sistema es indeterminado.

Ejemplo

Consideremos el sistema escalonado

x1 + x2 − x4 = 0x2 + 2x3 = 2

x4 = 1

Como la variable x3 no es pivote de ninguna ecuacion, el sistema es indeterminado.Veamos sus soluciones: de la ultima ecuacion se obtiene x4 = 1. La variable x3 es libre,

podemos asignarle cualquier valor: llamemosle t. De la segunda ecuacion obtenemosentonces x2 = −2t + 2, y de la primera x1 = 2t − 1. Las soluciones del sistema son, portanto, (2t− 1,−2t+ 2, t, 1) para cualquier valor de t ∈ k.

Si el cuerpo k es infinito, como ocurre en los casos k = Q,R o C, un sistema compatibleindeterminado tiene un numero infinito de soluciones (ya que cada variable libre puedetomar un numero infinito de valores).

Ahora que sabemos como resolver cualquier sistema escalonado, el siguiente paso eslograr transformar cualquier sistema en uno escalonado equivalente. Para ello, sera conve-niente ver antes un metodo para escribir de manera eficiente la informacion contenida en unsistema.

1.3. Matrices

Dado un sistema de ecuaciones lineales

a11x1 + a12x2 + · · ·+ a1nxn = b1...

am1x1 + am2x2 + · · ·+ amnxn = bm

(1.2)

Page 10: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

10 TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

la informacion importante son los coeficientes correspondientes a cada variable y los termi-nos independientes. El resto de elementos que aparecen (las variables, los signos + e =)sirven simplemente para recordarnos que papel juega cada escalar. Para poder realizar ope-raciones sobre el sistema de manera mas eficiente, extraeremos los datos importantes y loscolocaremos en una formacion rectangular de la siguiente forma: a11 a12 · · · a1n b1

...... . . . ...

...am1 am2 · · · amn bm

Esto es lo que se denomina una matriz con coeficientes en k.

Definicion 1.6 Una matriz m×n sobre k es una tabla formada por mn elementos de k dispues-tos en m filas y n columnas, escrita entre parentesis

A =

a11 a12 · · · a1n...

... . . . ...am1 am2 · · · amn

Los elementos de la matriz A se denotan por aij , donde i y j indican, respectivamente, la fila y lacolumna que ocupa el elemento dentro de la tabla.

El conjunto de todas las matrices de orden m× n definidas sobre k se denota porMm×n(k)

Definicion 1.7 Una matriz fila (respectivamente matriz columna) es una matriz con una uni-ca fila (resp. con una unica columna).

Al sistema de ecuaciones (1.2) le asociaremos dos matrices: su matriz de coeficientes sera lamatriz m× n

A =

a11 a12 · · · a1n...

... . . . ...am1 am2 · · · amn

y su matriz ampliada sera la obtenida de la matriz de coeficientes anadiendole a la derecha lacolumna de terminos independientes: a11 a12 · · · a1n b1

...... . . . ...

...am1 am2 · · · amn bm

Si el sistema es escalonado, su matriz ampliada tiene la propiedad de que el primer ele-

mento distinto de cero en cada fila (a partir de la segunda) esta situado mas a la derecha queel primer elemento distinto de cero en la fila anterior.

Page 11: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

1.3. MATRICES 11

Definicion 1.8 Una matriz A ∈ Mm×n(k) esta en forma escalonada si cumple las dos condi-ciones siguientes

a) Si una fila de A contiene solo ceros, todas las filas por debajo de ella contienen solo ceros.

b) El primer elemento distinto de cero en cada fila esta situado mas a la derecha que el primerelemento distinto de cero en la fila anterior.

En tal caso, los primeros elementos distintos de cero en cada fila se llaman elementos pivote dela matriz.

Ejemplo

La matriz 1 2 0 −1 1

0 1 −1 0 0

0 0 0 2 1

esta en forma escalonada, y los pivotes son los elementos marcados con un recuadro. Lamatriz 1 2 0 −1 1

0 0 −1 0 00 0 2 1 1

no esta en forma escalonada, puesto que el primer elemento distinto de cero en la tercerafila esta justo debajo del primer elemento distinto de cero en la segunda.

Realizar una transformacion elemental sobre un sistema de ecuaciones corresponde arealizar una de las siguientes operaciones sobre su matriz ampliada correspondiente:

1. Intercambiar dos filas

2. Multiplicar todos los elementos de una fila por un escalar distinto de cero

3. Sumarle a cada elemento de una fila el correspondiente elemento de otra fila multipli-cado por un escalar fijo

Estas operaciones se denominaran operaciones elementales por filas de tipo 1, 2 y 3 respec-tivamente. Tambien es posible realizar operaciones elementales por columnas, aunque noharemos uso de ellas por el momento.

Definicion 1.9 Dos matrices A y B se dicen equivalentes por filas si una de ellas puede obte-nerse a partir de la otra mediante una sucesion de operaciones elementales por filas.

Si dos sistemas de ecuaciones lineales son tales que sus matrices ampliadas son equiva-lentes por filas, entonces los sistemas son equivalentes, es decir, tienen las mismas solucio-nes.

Page 12: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

12 TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

1.4. Eliminacion gaussiana

El metodo de eliminacion gaussiana nos permitira transformar cualquier matriz en unaen forma escalonada usando unicamente operaciones elementales por filas. Por tanto, si lamatriz es la matriz ampliada de un sistema de ecuaciones, la forma escalonada final corres-pondera a un sistema escalonado equivalente al primero, que sabemos resolver. Esto nos daun metodo para hallar las soluciones de cualquier sistema de ecuaciones.

Algoritmo de eliminacion gaussiana

Las variables i y j indicaran el numero de fila y columna en que nos encontramos,respectivamente. El algoritmo comienza con i = j = 1.

1. Se busca un elemento distinto de cero en la columna j, moviendonos de la fila ihacia abajo. Si no hay ninguno, aumentamos j en 1 y volvemos al paso (1).

2. Una vez hallado el elemento distinto de cero, digamos en la fila k, si i 6= k inter-cambiamos las filas i y k para que el elemento situado en la fila i, columna j seadistinto de cero.

3. Sumamos multiplos de la fila i a cada una de las filas inferiores para que todos loselementos en la columna j por debajo de la fila i sean 0.

4. Aumentamos i y j en 1, y volvemos al paso (1).

El algoritmo termina cuando i supera al numero de filas o j supera al numero de colum-nas de la matriz.

Veamos en la practica como funciona el algoritmo en el ejemplo siguiente:

x2 − 2x3 − 2x4 = 3x1 + 2x2 − x3 = 1

2x1 + 3x2 + 3x4 = 0(1.3)

La matriz ampliada es 0 1 −2 −2 31 2 −1 0 12 3 0 3 0

Comenzamos con i = j = 1. Buscamos un elemento distinto de cero en la primera columna,empezando por la primera fila. El primero que encontramos esta en la segunda fila, por loque debemos intercambiar las filas 1 y 2 para colocarlo en la posicion (1, 1): 1 2 −1 0 1

0 1 −2 −2 32 3 0 3 0

Ahora necesitamos que todos los elementos por debajo del (1, 1) sean cero. Para ello,

sumamos a la tercera fila la primera multiplicada por −2: 1 2 −1 0 10 1 −2 −2 30 −1 2 3 −2

Page 13: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

1.5. ALGEBRA MATRICIAL 13

Ya tenemos ceros por debajo de la posicion (1, 1), ası que aumentamos i y j en 1 y repeti-mos en proceso. El elemento en la posicion (2, 2) es distinto de cero, ası que no es necesariointercambiar filas. Debemos conseguir ceros por debajo de el, ası que sumamos la segundafila a la tercera: 1 2 −1 0 1

0 1 −2 −2 30 0 0 1 1

El siguiente paso nos lleva a la posicion (3, 3), en la que encontramos un cero y no hay

ningun elemento distinto de cero por debajo. El algoritmo nos dice entonces que debemosmovernos una columna a la derecha, a la posicion (3, 4). Este elemento es distinto de cero, yya no hay mas filas por debajo, por lo que podemos saltarnos el paso (3). El siguiente pasonos lleva fuera de la matriz, por lo que el algoritmo termina aquı.

Concluimos ası que el sistema (1.3) es equivalente al sistema

x1 + 2x2 − x3 = 1x2 − 2x3 − 2x4 = 3

x4 = 1

que es escalonado, y por tanto se puede resolver facilmente: las variables pivote son x1, x2 yx4, y las soluciones son (−3t− 9, 2t+ 5, t, 1) para cualquier valor de t ∈ k.

Hemos probado entonces que

Teorema 1.2 Toda matriz es equivalente por filas a una matriz en forma escalonada

1.5. Algebra matricial

Comenzamos esta seccion con algunas definiciones de tipos especiales de matrices.

Definicion 1.10 Sea A ∈Mm×n(k) una matriz.

1. La diagonal de A son los elementos de la forma aii, para 1 ≤ i ≤ mın{m,n}.

2. A se dice cuadrada si m = n, es decir, si tiene tantas filas como columnas. El conjunto delas matrices cuadradas de orden n× n definidas sobre k se denota porMn(k).

3. Una matriz cuadrada se dice diagonal si aij = 0 cuando i 6= j, esto es, todos los elementosfuera de la diagonal son 0.

4. Una matriz se dice triangular superior (respectivamente triangular inferior) si aij = 0cuando i > j (respectivamente i < j), esto es, cuando todos los elementos situados pordebajo (respectivamente por encima) de la diagonal son cero.

Veamos ahora las diferentes operaciones que podemos realizar en el conjunto de las ma-trices. Comenzamos con la mas sencilla: la suma

Page 14: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

14 TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

Definicion 1.11 Sean A,B ∈Mm×n(k) dos matrices del mismo tamano. Su suma es la matrizA + B ∈ Mm×n(k) que tiene en la posicion (i, j) la suma de los elementos de A y B en dichaposicion, para todo 1 ≤ i ≤ m y 1 ≤ j ≤ n.

Dos matrices solo pueden sumarse si tienen las mismas dimensiones, y la suma es otramatriz con las mismas dimensiones. Las siguientes propiedades se deducen automaticamen-te de las correspondientes propiedades en el cuerpo k.

Para cualesquiera A,B,C ∈Mm×n(k) se tiene:

1. A+B = B + A (propiedad conmutativa)

2. (A+B) + C = A+ (B + C) (propiedad asociativa)

3. A + 0m×n = A, donde 0m×n es la matriz m× n que tiene todos sus elementos iguales acero (elemento neutro)

4. A + (−A) = 0m×n, donde −A es la matriz que tiene los mismos elementos que A perocambiados de signo

Otra operacion sencilla es el producto de una matriz por un escalar

Definicion 1.12 Sea A ∈ Mm×n(k) una matriz y λ ∈ k un escalar. El producto λ · A (osimplemente λA) es la matriz m × n obtenida a partir de A multiplicando todos sus elementospor λ.

De nuevo, las propiedades del producto por un escalar se deducen directamente de lasde k. Para cualesquiera A,B ∈Mm×n(k) y λ, µ ∈ k se tiene:

1. (λ+ µ)A = λA+ µA (propiedad distributiva con respecto al escalar)

2. λ(A+B) = λA+ λB (propiedad distributiva con respecto a la matriz)

3. λ(µA) = (λµ)A (propiedad “asociativa”)

4. 0 · A = 0m×n

5. 1 · A = A

La definicion del producto de matrices es algo mas complicada. Para poder multiplicardos matrices, es necesario que el numero de columnas de la primera sea igual al numero defilas de la segunda.

Definicion 1.13 Sean A ∈ Mm×n(k) y B ∈ Mn×p(k) dos matrices. Su producto es la matrizA ·B (o simplemente AB) ∈Mm×p(k) cuyo elemento situado en la posicion (i, j) viene dado por

n∑k=1

aikbkj = ai1b1j + ai2b2j + · · ·+ ainbnj

Page 15: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

1.5. ALGEBRA MATRICIAL 15

El producto de matrices verifica las siguientes propiedades:

1. A(BC) = (AB)C para A ∈Mm×n(k), B ∈Mn×p(k), C ∈Mp×q(k) (propiedad asociati-va)

2. A(B + C) = AB + AC para A ∈ Mm×n(k), B,C ∈ Mn×p(k) (propiedad distributiva ala derecha)

3. (A + B)C = AC + BC para A,B ∈ Mm×n(k), C ∈ Mn×p(k) (propiedad distributiva ala izquierda)

4. (λA)B = A(λB) = λ(AB) para A ∈Mm×n(k), B ∈Mn×p(k), λ ∈ k

Una diferencia fundamental con el producto de escalares es que el producto de matricesno es conmutativo. Para empezar, es posible que el producto AB tenga sentido pero el pro-ducto BA no (por ejemplo, si A es 2 × 3 y B es 3 × 4). Pero aunque ambos productos estendefinidos, no tienen por que ser iguales.

Ejemplo

Sean

A =

(0 11 0

)B =

(1 23 4

)Entonces,

AB =

(3 41 2

)pero

BA =

(2 14 3

)

Definicion 1.14 La matriz identidad de orden n es la matriz In ∈ Mn(k) cuyo elemento en laposicion (i, j) es 1 si i = j y 0 si i 6= j.

Es decir, la matriz identidad es una matriz diagonal cuadrada con unos en la diagonal.Esta matriz hace las veces de unidad para la multiplicacion, es decir, se tiene que:

1. ImA = A para toda A ∈Mm×n(k)

2. AIn = A para toda A ∈Mm×n(k)

El producto de matrices nos proporciona una forma abreviada, que usaremos frecuente-mente a partir de ahora, para expresar un sistema de ecuaciones. Dado el sistema

a11x1 + a12x2 + · · ·+ a1nxn = b1...

am1x1 + am2x2 + · · ·+ amnxn = bm

Page 16: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

16 TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

su forma matricial sera a11 a12 · · · a1n...

... . . . ...am1 am2 · · · amn

x1

...xn

=

b1...bm

donde

A =

a11 a12 · · · a1n...

... . . . ...am1 am2 · · · amn

es la matriz de coeficientes del sistema,

x =

x1...xn

es la matriz columna de incognitas y

b =

b1...bm

es la matriz columna de terminos independientes. Esta ecuacion matricial (donde x es laincognita) es equivalente a las m ecuaciones que componen el sistema.

Terminamos esta seccion definiendo una ultima operacion caracterıstica de las matrices,la trasposicion.

Definicion 1.15 Sea A ∈ Mm×n(k) una matriz. La traspuesta de A es la matriz At ∈Mn×m(k) obtenida a partir de A intercambiando sus filas y sus columnas.

Es decir, si

A =

a11 a12 · · · a1n...

... . . . ...am1 am2 · · · amn

entonces

At =

a11 a21 · · · am1...

... . . . ...a1n a2n · · · amn

La trasposicion verifica las siguientes propiedades, para todas A,B ∈ Mm×n(k), C ∈

Mn×p(k) y c ∈ k:

1. (At)t = A

2. (A+B)t = At +Bt

3. (BC)t = CtBt

4. (cA)t = c(At)

Page 17: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

1.6. MATRICES ELEMENTALES. MATRIZ INVERSA 17

Definicion 1.16 Una matriz A ∈ Mn(k) se dice simetrica si At = A, y antisimetrica siAt = −A. Si k = C, la matriz A se dice hermıtica si At = A, donde A es la matriz obtenida apartir de A conjugando todos sus elementos.

1.6. Matrices elementales. Matriz inversa

Recordemos que existen tres tipos de operaciones elementales por filas que pueden rea-lizarse sobre una matriz: intercambio de filas, multiplicacion de una fila por un escalar nonulo y suma de una fila multiplicada por un escalar a otra fila.

Definicion 1.17 Una matriz elemental de tipo 1, 2 o 3 es una matriz obtenida al aplicarle a lamatriz identidad In una operacion elemental por filas de tipo 1, 2 o 3 respectivamente.

Es facil ver que realizar una operacion elemental por filas sobre una matriz A es equiva-lente a multiplicar A a la izquierda por la matriz elemental correspondiente.

Definicion 1.18 Una matriz A ∈ Mn(k) se dice invertible o regular si existe una matrizB ∈ Mn(k) tal que AB = BA = In. En caso contrario, A se dice singular. La matriz B sedenomina la matriz inversa de A y se denota por A−1.

Por ejemplo, la matriz identidad es su propia inversa. Si dos matrices A,B ∈ Mn(k) soninvertibles, la propiedad asociativa del producto implica que su producto AB tambien lo es,y (AB)−1 = B−1A−1.

Toda matriz elemental es invertible, y su inversa es la matriz elemental correspondientea la operacion elemental “inversa”: por ejemplo, la inversa de la matriz elemental corres-pondiente a la operacion “multiplicar la segunda fila por 2” es la matriz elemental corres-pondiente a la operacion “multiplicar la segunda fila por 1/2”: 1 0 0

0 2 00 0 1

1 0 00 1

20

0 0 1

=

1 0 00 1

20

0 0 1

1 0 00 2 00 0 1

=

1 0 00 1 00 0 1

Hemos visto que toda matriz A ∈Mn(k) puede transformarse en una matriz escalonada

B mediante un numero finito de operaciones elementales por filas. Es decir, existen matriceselementales E1, E2, . . . , Er tales que

B = Er · · ·E2E1A.

Como las matrices elementales Ei son todas invertibles, A sera invertible si y solo si B lo es.Y como la matriz B es cuadrada, hay dos posibilidades:

Page 18: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

18 TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

1. B tiene menos de n pivotes. Como toda fila que contenga algun elemento distinto decero tiene un pivote,B debe tener al menos una fila identicamente nula. Entonces, paracualquier matriz C ∈Mn(k), el producto BC tendra la misma fila identicamente nula,por lo que no puede ser la matriz identidad. Es decir, B no es invertible, y por tanto Atampoco lo es.

2. B tiene exactamente n pivotes. Entonces los pivotes deben estar situados en la diago-nal. Mediante operaciones elementales por filas de tipo 2 podemos hacer que todoslos pivotes sean iguales a 1, y mediante operaciones elementales por filas de tipo 3podemos lograr que todos los elementos por encima de la diagonal sean cero, es decir,que la matriz se transforme en la identidad. Existen por tanto matrices elementalesEr+1, . . . , Es tales que

Es · · ·Er+1Er · · ·E2E1A = In.

Como las matrices elementales son invertibles, su producto tambien lo es, y multipli-cando la igualdad anterior por (Es . . . E2E1)

−1 a la izquierda obtenemos

A = (Es · · ·E2E1)−1 = E−11 E−12 · · ·E−1s .

Como la inversa de una matriz elemental es tambien elemental, concluimos que A sepuede descomponer como producto de matrices elementales, y en particular es inver-tible. Su inversa es el producto Es · · ·E2E1 = Es · · ·E2E1In. Este producto es la matrizresultante al aplicar sobre la identidad las operaciones elementales por filas correspon-dientes a las matrices E1, E2, . . . , Es en ese orden. Y estas son justamente las operacio-nes que habıamos realizado sobre A para transformarla en la matriz identidad.

Teorema 1.3 Una matriz A es invertible si y solo si puede transformarse en la matriz identidadmediante una sucesion de operaciones elementales por filas. En tal caso, A−1 es la matriz obtenidaal aplicar la misma sucesion de operaciones elementales sobre la matriz identidad.

Ejemplo

Apliquemos el resultado anterior para hallar la inversa de la matriz

A =

1 2 10 1 −11 3 2

Iremos aplicando las mismas operaciones elementales por filas a A y a la identidad: 1 2 1 1 0 0

0 1 −1 0 1 01 3 2 0 0 1

⇒ 1 2 1 1 0 0

0 1 −1 0 1 00 1 1 −1 0 1

⇒ 1 2 1 1 0 0

0 1 −1 0 1 00 0 2 −1 −1 1

⇒ 1 2 1 1 0 0

0 1 −1 0 1 00 0 1 −1

2−1

212

⇒ 1 0 3 1 −2 0

0 1 −1 0 1 00 0 1 −1

2−1

212

⇒ 1 0 3 1 −2 0

0 1 0 −12

12

12

0 0 1 −12−1

212

⇒I

Page 19: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

1.7. RANGO 19

Ejemplo (cont) 1 0 0 52−1

2−3

2

0 1 0 −12

12

12

0 0 1 −12−1

212

Por tanto A es invertible, y su inversa es

A−1 =

52−1

2−3

2

−12

12

12

−12−1

212

La formula (AB)t = BtAt implica que

Teorema 1.4 Sea A ∈Mn(k) una matriz invertible. Entonces su traspuesta At tambien lo es, y(At)−1 = (A−1)t.

1.7. Rango

Dada una matriz A ∈ Mm×n(k), su rango es un numero que nos dara una medida del“tamano” del conjunto de soluciones del sistema de ecuaciones homogeneo que tiene a Acomo matriz de coeficientes. Hemos visto que, para una matriz en forma escalonada, cadacolumna que no tenga pivote da lugar a una variable libre. Por tanto, cuantas mas columnashaya sin pivote (o cuantos menos pivotes haya), mas soluciones tendra el sistema, en ciertosentido que definiremos mas adelante.

Definicion 1.19 Sea A ∈ Mm×n(k) una matriz. El rango de A es el numero de pivotes de unamatriz escalonada equivalente por filas a A.

Como toda matriz es equivalente por filas a una escalonada, esto nos permite calcularel rango de cualquier matriz. El problema es que, para que la definicion tenga sentido, elnumero de pivotes debe ser independiente de la forma escalonada de A que obtengamos.Esto es consecuencia del siguiente resultado

Lema 1.5 Sean A,B ∈ Mm×n(k) dos matrices en forma escalonada equivalentes por filas. En-tonces los pivotes de A y B estan situados en las mismas posiciones. En particular, A y B tienenel mismo numero de pivotes.

Page 20: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

20 TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

Demostracion

Supongamos, por reduccion al absurdo, que A y B son dos matrices en forma escalo-nada equivalentes por filas con los pivotes en distintas posiciones. Sea la fila i la primeraen la que la posicion de los pivotes no coincide: pongamos que en A esta en la posicion(i, j) y en B mas a la derecha. Si A y B son equivalentes por filas, tambien lo son lasmatrices A′ y B′ formadas por las primeras j columnas de A y B respectivamente, quetambien estan en forma escalonada. Los sistemas homogeneos que tienen como matrizde coeficientes a A′ y B′ son equivalentes. Pero A′ tiene un pivote en la ultima columna,ası que el sistema correspondoente contiene la ecuacion λxj = 0 para algun λ 6= 0. Asıque toda solucion debe tener la j-esima coordenada igual a cero. Por otra parte, B′ notiene pivote en la ultima columna, ası que la variable xj es libre en el sistema correspon-diente: en particular, el sistema tiene una solucion con xj = 1. Como esta solucion nopuede ser solucion del primer sistema, es imposible que los sistemas sean equivalentes.

En particular, dada una matriz A, cualquier matriz en forma escalonada que se puedaobtener a partir de ella mediante operaciones elementales por filas tiene el mismo numerode pivotes, ası que su rango esta unıvocamente definido. El rango de una matriz es, por de-finicion, invariante al hacer operaciones elementales por filas. Como toda matriz invertiblees producto de matrices elementales, deducimos que

Teorema 1.6 Para toda matriz A ∈Mm×n(k) y toda matriz invertible B ∈Mm(k) se tiene que

rango(BA) = rango(A).

El rango de una matriz es siempre menor o igual que su numero de filas y su numerode columnas, porque puede haber como maximo un pivote por fila y por columna. Es mas,como el metodo de eliminacion gaussiana no toca las filas que solo contengan ceros, el rangosiempre es menor o igual que el numero de filas distintas de cero de la matriz.

Teorema 1.7 Para toda matriz A ∈Mm×n(k) y toda matriz invertible C ∈Mn(k) se tiene que

rango(AC) = rango(A).

Demostracion

Basta probar que rango(AC) ≤ rango(A), ya que A = (AC)C−1, ası que podemosintercambiar los papeles de A y de AC.

Como el rango no cambia al multiplicar a la izquierda por matrices invertibles yexiste una matriz invertible E (producto de matrices elementales) tal que EA esta enforma escalonada, pordemos suponer queA esta en forma escalonada. Entonces el rangode A es igual a m menos el numero de filas identicamente nulas. Pero el producto ACtiene al menos tantas filas de ceros como A, por lo que su rango debe ser menor o igualque el de A.

Page 21: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

1.7. RANGO 21

Veamos ahora que el rango es invariante por trasposicion

Teorema 1.8 Para cualquier matriz A ∈Mm×n(k) se tiene que

rango(At) = rango(A).

Demostracion

Existe una matriz invertible E tal que B = EA esta en forma escalonada. Entonces

rango(A) = rango(EA) = rango(B)

yrango(At) = rango(AtEt) = rango(Bt)

ası que basta probar que el rango de B es igual al de Bt. Sea r el rango de B, es decir, Btiene r filas con pivote y m− r filas de ceros. Su traspuesta Bt tiene entonces r columnastales que el primer elemento no nulo en cada una de ellas esta por debajo del primerelemento no nulo en la columna anterior, seguidas de m− r columnas de ceros:

∗ 0 · · · 0 0∗ ∗ · · · 0 0...

... . . . ......

∗ ∗ · · · ∗ 0∗ ∗ · · · ∗ 0

Mediante operaciones elementales por filas de tipo 3, podemos hacer que todos los ele-mentos por debajo del primer elemento no nulo en cada columna se anulen, comen-zando por la primera columna y siguiendo hacia la derecha. Finalmente, moviendo lasposibles filas de ceros al final mediante operaciones de tipo 1, es posible poner Bt enforma escalonada, de manera que el numero de pivotes sea exactamente el mismo queel de B. Ası que B y Bt tienen el mismo rango.

Finalmente, podemos reescribir algunos de los resultados anteriores de manera sencillaen funcion del rango. Por ejemplo, el criterio de invertibilidad

Teorema 1.9 Una matriz A ∈Mn(k) es invertible si y solo si tiene rango n.

y el criterio de compatibilidad de sistemas de ecuaciones. Este resultado se conoce comoTeorema de Rouche-Frobenius

Teorema 1.10 Un sistema de ecuaciones es compatible si y solo si sus matrices de coeficientes yampliada tienen el mismo rango.

Page 22: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

22 TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

1.8. Determinantes

El determinante es un escalar asociado a toda matriz cuadrada, que contiene mucha in-formacion acerca de la matriz. En particular, el determinante nos dira si la matriz es o noinvertible, y nos dara un metodo para calcular el rango de cualquier matriz. En estas notas,definiremos el determinante a partir de sus propiedades fundamentales2.

Definicion 1.20 El determinante es una aplicacion que asocia a cada matriz cuadrada A ∈Mn(k) un escalar det(A) ∈ k, de manera que se verifican las siguientes propiedades:

1. Multilinearidad:

a) Si una fila de la matriz A se descompone como suma de otras dos matrices fila, el de-terminante de A es la suma de los determinantes de las matrices obtenidas al sustituirdicha fila por cada uno de los dos sumandos.

b) Si se multiplica una fila de A por un escalar λ, el determinante de A queda multipli-cado por λ.

2. Alternancia: Si A tiene dos filas iguales, su determinante es igual a 0.

3. Normalizacion: El determinante de la matriz identidad In es igual a 1.

Si queremos resaltar explıcitamente los elementos de la matriz, el determinante de lamatriz A se denota tambien como

det(A) =

∣∣∣∣∣∣∣∣∣a11 a12 · · · a1na21 a22 · · · a2n

...... . . . ...

an1 an2 · · · ann

∣∣∣∣∣∣∣∣∣La propiedad de multilinearidad puede enunciarse de manera alternativa de la siguiente

forma: supongamos que para un cierto i = 1, . . . , n y escalares λ, µ ∈ k se tiene que aij =λbij + µcij para todo j = 1, . . . , n. Entonces,∣∣∣∣∣∣∣∣∣∣∣

a11 a12 · · · a1n...

... . . . ...ai1 ai2 · · · ain...

... . . . ...an1 an2 · · · ann

∣∣∣∣∣∣∣∣∣∣∣= λ

∣∣∣∣∣∣∣∣∣∣∣

a11 a12 · · · a1n...

... . . . ...bi1 bi2 · · · bin...

... . . . ...an1 an2 · · · ann

∣∣∣∣∣∣∣∣∣∣∣+ µ

∣∣∣∣∣∣∣∣∣∣∣

a11 a12 · · · a1n...

... . . . ...ci1 ci2 · · · cin...

... . . . ...an1 an2 · · · ann

∣∣∣∣∣∣∣∣∣∣∣Como caso particular importante, tomando λ = µ = 0, deducimos que el determinante

de una matriz que tenga una fila de ceros es igual a 0. A partir de estas tres propiedades deldeterminante pueden deducirse todas las demas. Por ejemplo,

2Para ser matematicamente correctos, habrıa que demostrar que existe una aplicacion con estas propiedades.Es posible demostrarlo, pero no lo haremos en estas notas.

Page 23: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

1.8. DETERMINANTES 23

Teorema 1.11 Al intercambiar dos filas de una matriz A ∈ Mn(k) su determinante cambia designo.

Demostracion

Sea B la matriz que se obtiene a partir de A al intercambiar las filas i y j, y sean C, Dy E las matrices que se obtienen al sustituir las filas i y j de A por copias de la fila i, dela fila j y de la suma de las filas i y j respectivamente. La propiedad de multilinearidadnos dice entonces que

det(E) = det(A) + det(B) + det(C) + det(D).

Pero las matrices C, D y E tienen dos filas iguales, ası que por la alternancia se tiene quedet(C) = det(D) = det(E) = 0. Concluimos ası que

det(A) + det(B) = 0.

Veamos como las propiedades de multilinearidad, alternancia y normalizacion determi-nan completamente el determinante de cualquier matriz A. Para empezar, podemos des-componer cada fila en suma de filas que contengan como maximo un elemento distinto decero. Usando la multilinearidad, el determinante de A queda expresado como suma de de-terminantes de matrices que contienen como maximo un elemento no nulo por cada fila.Usando ahora la segunda parte de la multilinearidad, nos basta estudiar el caso en el quedicho elemento no nulo es igual a 1.

Tenemos ası una matriz en la que cada fila tiene como maximo un elemento distinto decero, y este elemento es igual a 1. Si alguna fila contiene unicamente ceros, sabemos ya queel determinante es 0. Supongamos entonces que todas las filas contienen un 1. Si en dos filasdistintas el 1 esta situado en la misma columna, la matriz tiene dos filas iguales, ası quepor la alternancia su determinante es cero. De lo contrario, habra exactamente un 1 en cadacolumna. En tal caso, podemos transformar la matriz en la identidad mediante una sucecionde intercambios de filas. Por cada intercambio, debemos cambiar el signo del determinante.Como el determinante de la identidad es 1, concluimos que el determinante de la matrizes igual a 1 o −1, dependiendo de si el numero de intercambios de filas necesarios paratransformar la matriz en la identidad es par o impar.

Veamos con detalle el caso n = 2:∣∣∣∣ a bc d

∣∣∣∣ = a

∣∣∣∣ 1 0c d

∣∣∣∣+ b

∣∣∣∣ 0 1c d

∣∣∣∣ =

ac

∣∣∣∣ 1 01 0

∣∣∣∣+ ad

∣∣∣∣ 1 00 1

∣∣∣∣+ bc

∣∣∣∣ 0 11 0

∣∣∣∣+ bd

∣∣∣∣ 0 10 1

∣∣∣∣ =

= ac · 0 + ad · 1 + bc · (−1) + bd · 0 = ad− bc

ya que la matriz(

0 11 0

)se transforma en la identidad al intercambiar las filas 1 y 2. De

Page 24: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

24 TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

manera similar, en el caso n = 3 se puede comprobar que∣∣∣∣∣∣a b cd e fg h i

∣∣∣∣∣∣ = aei+ bfg + cdh− afh− bdi− ceg.

¿Como varıa el determinante de una matriz al realizar sobre ella una operacion elemen-tal por filas? Para operaciones de tipo 1 y 2 lo sabemos ya: al intercambiar dos filas cambiael signo del determinante, y al multiplicar una fila por un escalar no nulo el determinantequeda multiplicado por el mismo escalar. Al realizar una operacion de tipo 3, estamos sus-tituyendo una fila por la suma de dicha fila y un multiplo de otra. Por la multilinearidad, eldeterminante despues de la transformacion sera igual al determinante de la matriz originalmas el de la matriz obtenida al sustituir una fila por un multiplo de otra. Este determinantees cero, como puede verse al sacar el escalar por el que se multiplica fuera del determinante,obteniendo ası una matriz con dos filas iguales. Por tanto, al realizar una operacion elemen-tal de tipo 3 no cambia el determinante de la matriz.

La consecuencia mas importante es que el determinante cambia si hacemos operacioneselementales por filas, pero no cambia el hecho de que sea o no igual a cero. Obtenemos tambienlos determinantes de las matrices elementales: las de tipo 1 tienen determinante −1, las detipo 2 (en las que se multiplica una fila por el escalar λ 6= 0) tienen determinante λ, y las detipo 3 tienen determinante 1.

Teorema 1.12 El determinante de una matriz triangular superior o inferior es igual al productode sus elementos diagonales.

Demostracion

Sea A una matriz triangular. Al realizar la descomposicion anterior, cada una de lasmatrices que se obtienen con solo un elemento distinto de cero en cada fila tienen dichoelemento en la diagonal o por encima de ella (en el caso triangular superior) o en la dia-gonal o por debajo de ella (en el caso triangular inferior). La unica forma en la que puedeconseguirse que no haya dos 1 en la misma columna es si estan todos en la diagonal. Elunico sumando no nulo en la descomposicion de det(A) como suma de los determinan-tes de estas matrices es, por tanto, el correspondiente a la matriz identidad, que da comoresultado el producto de los elementos diagonales.

Veamos ahora como el determinante nos dice si una matriz es invertible o no:

Teorema 1.13 Una matriz A ∈ Mn(k) es invertible si y solo si su determinante es distinto decero.

Page 25: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

1.8. DETERMINANTES 25

Demostracion

Sabemos que, a partir de A, se puede obtener una matriz B en forma escalonada me-diante una sucesion de operaciones elementales por filas. Estas operaciones solo puedencambiar el signo del determinante o multiplicarlo por un escalar no nulo, por lo que eldeterminante de A es cero si y solo si lo es el de B.

Sabemos tambien que A es invertible si y solo si tiene rango n, es decir, B tiene npivotes. En tal caso, comoB es cuadrada, los pivotes deben estar situados en la diagonal.Al serB triangular superior, su determinante es el producto de los pivotes, y es por tantodistinto de cero.

Si, por el contrario, A no es invertible, entonces B tiene menos de n pivotes, por loque debe tener una fila de ceros y su determinante (y el de A) es igual a cero.

Una de las propiedades mas importantes del determinante es su compatibilidad con elproducto de matrices

Teorema 1.14 Para cualesquiera A,B ∈Mn(k) se tiene que det(AB) = det(A) det(B).

Demostracion

Supongamos en primer lugar que det(A) = 0. Por eliminacion gaussiana obtene-mos una matriz invertible E tal que EA esta en forma escalonada. Como A tiene ran-go menor que n, EA debe tener una fila de ceros, ası que (EA)B = E(AB) tam-bien tiene una fila de ceros. Por tanto, EAB tiene rango menor que n. Pero entoncesrango(AB) = rango(E−1(EAB)) = rango(EAB) < n, ası que AB es singular, y en parti-cular det(AB) = 0 = det(A) det(B).

Supongamos ahora que det(A) 6= 0, es decir, A es invertible. Si A es una matriz ele-mental, el resultado es consecuencia de como cambia el determinante al realizar ope-raciones elementales por filas. En general, podemos descomponer A como producto dematrices elementales, A = E1E2 · · ·Er, ası que

det(AB) = det(E1E2 · · ·ErB) = det(E1) det(E2 · · ·ErB) = . . .

. . . = det(E1) det(E2) · · · det(Er) det(B) = . . .

. . . = det(E1) det(E2 · · ·Er) det(B) = det(E1E2 · · ·Er) det(B) =

= det(A) det(B).

Teorema 1.15 Para toda matriz A ∈Mn(k) se tiene que det(At) = det(A).

Page 26: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

26 TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

Demostracion

Si A es singular, entonces At tambien lo es, por lo que det(At) = det(A) = 0. Si A esuna matriz elemental, At tambien es una matriz elemental del mismo tipo, y el resultadoes evidente.

En general, si A es regular podemos descomponerla como producto de matrices ele-mentales: A = E1E2 · · ·Er, y entonces At = Et

r · · ·Et2E

t1. Se tiene entonces que

det(At) = det(Etr · · ·Et

2Et1) = det(Et

r) · · · det(Et2) det(Et

1) =

= det(Er) · · · det(E2) det(E1) = det(E1E2 · · ·Er) = det(A).

Una consecuencia importante del resultado anterior es que, en toda proposicion queconcierna al determinante, se pueden sustituir filas por columnas y la proposicion seguirasiendo cierta. Por ejemplo, si intercambiamos dos columnas de una matriz el determinan-te cambia de signo; y si multiplicamos una columna por un escalar el determinante quedamultiplicado por el mismo escalar.

1.9. Determinantes: desarrollo por filas y columnas

El desarrollo por filas (o columnas) es una formula util para calcular determinantes dematrices en las que haya filas (o columnas) con muchos ceros. Dada una matriz A, denote-mos por Aij la matriz obtenida al eliminar la fila i y la columna j de A.

Teorema 1.16 Sea A ∈Mn(k). Para todo i = 1, . . . , n se tiene que

det(A) =n∑j=1

(−1)i+jaij det(Aij)

(desarrollo por la fila i-esima), y para todo j = 1, . . . , n se tiene que

det(A) =n∑i=1

(−1)i+jaij det(Aij)

(desarrollo por la columna j-esima).

Demostracion

No daremos aquı la prueba detallada. En lıneas generales consiste, en el caso deldesarrollo por filas, en demostrar que el escalar definido por esta formula cumple las trespropiedades con las que definimos el determinante en la seccion anterior. El desarrollopor columnas se deduce directamente del desarrollo por filas usando que det(At) =det(A).

Page 27: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

1.9. DETERMINANTES: DESARROLLO POR FILAS Y COLUMNAS 27

Ejemplo

Usemos el desarrollo por filas para hallar el determinante de la matriz 4×4 siguiente0 −7 −3 01 5 4 20 2 0 02 1 2 3

Desarrollando por la tercera fila (en la que todos los elementos excepto uno son cero)obtenemos ∣∣∣∣∣∣∣∣

0 −7 −3 01 5 4 20 2 0 02 1 2 3

∣∣∣∣∣∣∣∣ = (−1) · 2

∣∣∣∣∣∣0 −3 01 4 22 2 3

∣∣∣∣∣∣ =

= (−2) · (−1) · (−3)

∣∣∣∣ 1 22 3

∣∣∣∣ = (−6) · (3− 4) = 6.

Gracias al desarrollo por filas podemos dar una formula para la inversa de una matrizen funcion del determinante

Definicion 1.21 Sea A ∈ Mn(k). La matriz adjunta de A es la matriz adj(A) ∈ Mn(k) cuyoelemento en la posicion (i, j) viene dado por

(−1)i+j det(Aij)

Teorema 1.17 Para toda matriz invertible A ∈Mn(k) se tiene

A−1 =1

det(A)adj(A)t

Demostracion

Sea B el producto A · adj(A)t. El elemento en la posicion (i, i) de B es

n∑k=1

aik(−1)i+k det(Aik),

que es justamente el desarrollo por la fila i-esima del determinante de A. Si i 6= j, elelemento de B en la posicion (i, j) es

n∑k=1

aik(−1)j+k det(Ajk),

I

Page 28: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

28 TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

Demostracion (cont)

que es el desarrollo por la fila j-esima del determinante de la matriz obtenida al sustituirla fila j de A por una copia de la fila i. Como esta matriz tiene dos filas iguales, sudeterminante es igual a cero. Por tanto, el producto A · adj(A)t es una matriz diagonalcuyos elementos diagonales son todos iguales a det(A), es decir,

A · adj(A)t = det(A)In,

por lo que

A ·(

1

det(A)adj(A)t

)= In.

Analogamante, usando desarrollos por columnas, se comprueba que(1

det(A)adj(A)t

)· A = In.

1.10. Submatrices. El metodo del orlado

A partir de una matriz dada, podemos construir nuevas matrices eliminando algunas desus filas y de sus columnas

Definicion 1.22 SeaA ∈Mm×n(k). Se denomina submatriz deA a toda matriz que se obtengaa partir de A eliminando algunas de sus filas y columnas. Un menor de orden r de A es eldeterminante de una submatriz cuadrada de A de tamano r × r.

Lema 1.18 Si B es una submatriz de A, entonces rango(B) ≤ rango(A).

Demostracion

Puesto que el rango es invariante por trasposicion, basta probar que el rango no pue-de aumentar al eliminar algunas columnas de A. Sea m el numero de filas de A, y su-pongamos que B se obtiene de A eliminando algunas de sus columnas. Mediante unasucesion de operaciones elementales por filas, podemos transformar A en una matrizescalonada A′ con el mismo rango. Eliminando las mismas columnas que antes en A′, seobtiene una matriz B′ que es equivalente por filas a B, y por tanto tiene el mismo rango.Al ser A′ escalonada, su rango es igual al numero de filas que no sean identicamentenulas. Pero toda fila identicamente nula en A′ lo es tambien en B′, por lo que su rango(que no puede ser mayor que el numero de filas distintas de cero) es menor o igual queel de A′.

Page 29: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

1.10. SUBMATRICES. EL METODO DEL ORLADO 29

El metodo del orlado es una forma alternativa de calcular el rango de una matriz, a vecesmas efectivo que la eliminacion gaussiana si la matriz tiene pocas filas o columnas. Se basaen el siguiente resultado.

Teorema 1.19 Supongamos que la matriz A ∈Mm×n(k) contiene una submatriz r× r S inver-tible, y que cualquier submatriz (r + 1) × (r + 1) de A que contenga a S es singular. Entonces,el rango de A es igual a r.

Demostracion

Intercambiando filas y columnas (lo que no cambia el rango de A) podemos suponerque S esta formada por las primeras r filas y columnas de A. Al ser S una submatriz deA, en lema anterior implica que rango(A) ≥ rango(S) = r.

Supongamos, por reduccion al absurdo, que el rango es mayor que r. Como S esinvertible, existe una sucesion de operaciones elementales por filas que transforma S enla matriz identidad. Realizando las mismas operaciones sobre A obtenemos una matrizde la forma (

Ir ∗∗ ∗

)Continuamos realizando operaciones elementales por filas hasta que la matriz quede enforma escalonada. Entonces habra pivotes en las r primeras entradas diagonales, y almenos en otro lugar mas. Supongamos que, aparte de los r primeros, hay otro pivote enla columna j > r. Entonces, la matriz B formada por las primeras r columnas de A juntocon la columna j-esima tiene rango r + 1.

Consideramos ahora la matriz Bt, que tiene la forma(St ∗

a1j · · · arj ar+1,j · · · anj

)y rango r + 1. Poniendola en forma escalonada igual que hicimos con A (primero St,luego el resto) tendremos pivotes en las primeras r entradas diagonales y otro mas enla fila r + 1. Supongamos que este ultimo pivote esta en la columna l > r. Entonces, lasubmatriz deBt formada por las primeras r columnas junto con la columna l tiene rangor+ 1. Como esta matriz es cuadrada, esto quiere decir que es invertible. Pero esta matrizes la traspuesta de la submatriz de A formada por las primeras r filas y columnas juntocon la fila l y la columna j, que es una submatriz (r + 1)× (r + 1) de A que contiene a S.Esto contradice la suposicion de que toda tal matriz debe ser singular.

Para calcular el rango de una matriz podemos seguir entonces este proceso: comenzamosbuscando un elemento no nulo (si no lo hay, el rango es obviamente cero). Despues busca-mos una submatriz 2 × 2 regular que contenga a este elemento. Si no la hay, el rango deberser 1. Si la hay, el rango es ≥ 2. Fijamos ahora esta submatriz, y buscamos una 3× 3 regularque la contenga. Si no la hay, el rango es 2. Si encontramos una, continuamos el proceso conella. Y ası sucesivamente, hasta que no exista ninguna submatriz cuadrada regular de ordenmayor que contenga a la que hemos encontrado en el paso anterior.

Page 30: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

30 TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

Ejemplo

Usemos el metodo del orlado para calcular el rango de la matriz siguiente

A =

1 0 −1 22 −1 2 11 1 −5 5

El elemento en la posicion (1, 1) es no nulo: empezamos con el. Buscamos un menor2 × 2 no nulo que lo contenga. Por ejemplo, el formado por las dos primeras filas y lasdos primeras columnas nos sirve: ∣∣∣∣ 1 0

2 −1

∣∣∣∣ = −1 6= 0

Continuamos el proceso con esta submatriz. Buscamos ahora una submatriz 3×3 regularque la contenga. Hay solo dos posibilidades, usar la tercera columna o la cuarta, y ambastienen determinante cero: ∣∣∣∣∣∣

1 0 −12 −1 21 1 −5

∣∣∣∣∣∣ = 0

∣∣∣∣∣∣1 0 22 −1 11 1 5

∣∣∣∣∣∣ = 0

Por tanto el metodo del orlado nos dice que el rango de la matriz A es igual a 2.

1.11. Regla de Cramer

Los sistemas de Cramer son un tipo particular de sistemas de ecuaciones con solucionunica, para los que existe una formula en funcion del determinante. Esta formula puede sermas practica para hallar la solucion del sistema que el metodo de eliminacion gaussiana enlos casos de 2 y 3 variables.

Definicion 1.23 Un sistema de ecuaciones lineales se dice un sistema de Cramer si cumple lasdos condiciones siguientes:

1. Tiene tantas ecuaciones como incognitas, es decir, su matriz de coeficientes es cuadrada.

2. Su matriz de coeficientes es invertible.

Un sistema de Cramer es compatible determinado: en efecto, como la matriz de coefi-cientes es invertible, los pivotes de su forma escalonada estan situados en la diagonal, y portanto no puede haber pivote en la columna de los terminos independientes de la matriz am-pliada (luego el sistema es compatible) y no hay ninguna variable libre (luego el sistema esdeterminado).

Page 31: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

1.11. REGLA DE CRAMER 31

Teorema 1.20 (Regla de Cramer) Sea

A · x = b

un sistema de Cramer, donde A es la matriz de coeficientes y b la matriz columna de terminosindependientes. Entonces, la unica solucion del sistema es (z1, . . . , zn), donde zi viene dada por

zi =det(Bi)

det(A)

siendo Bi la matriz obtenida al sustituir la i-esima columna de A por la columna b.

Demostracion

Sea z la matriz columna

z1...zn

. Se tiene entonces la igualdad matricial

A · z = b.

Como A es invertible, multiplicando ambos lados de la igualdad por A−1 a la izquierdaobtenemos

z = A−1b

o, usando la formula para la inversa en funcion del determinante,

z =1

det(A)adj(A)tb.

Comparando las filas i-esimas, obtenemos

zi =1

det(A)

((−1)i+1 det(A1i)b1 + · · ·+ (−1)i+n det(Ani)bn

).

La suma entre parentesis es justamente el desarrollo por la columna i-esima del de-terminante de Bi. Por tanto,

zi =det(Bi)

det(A).

Page 32: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

32 TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

Page 33: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

Tema 2

Espacios vectoriales

2.1. Espacios vectoriales: Definicion y ejemplos

Sea V = kn el conjunto de n-uplas de elementos de k. Denotaremos en negrita los ele-mentos de V , por ejemplo:

v = (v1, v2, . . . , vn)

con vi ∈ k para i = 1, . . . , n. Los escalares vi se llamaran las coordenadas de v.Dos elementos de V se pueden sumar coordenada a coordenada, es decir,

u + v = (u1 + v1, u2 + v2, . . . , un + vn)

y podemos multiplicar elementos de V por escalares multiplicando cada una de sus coorde-nadas por dicho escalar:

c · v = (cv1, cv2, . . . , cvn).

Estas operaciones verifican las siguientes propiedades. Para cualesquiera u,v,w ∈ V yc, d ∈ k se tiene:

1. Propiedad asociativa: (u + v) + w = u + (v + w)

2. Propiedad conmutativa: u + v = v + u

3. Existe un elemento 0 ∈ V tal que 0 + v = v para todo v

4. Para cada v existe un elemento −v ∈ V tal que v + (−v) = 0

5. 1 · v = v

6. c · (d · v) = (cd) · v

7. (c+ d) · v = c · v + d · v

8. c · (u + v) = c · u + c · vcomo puede comprobarse facilmente. Pero estas mismas propiedades se verifican tambienpara otros muchos conjuntos con sus correspondientes operaciones suma y producto porescalar.

Definicion 2.1 Un espacio vectorial sobre el cuerpo k (o un k-espacio vectorial) es un con-junto V con una operacion suma (v,w) 7→ v + w y una operacion producto por escalar(c,v) 7→ c · v tales que se verifican las propiedades (1)-(8) anteriores. Los elementos de V sedenominan vectores.

33

Page 34: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

34 TEMA 2. ESPACIOS VECTORIALES

Ejemplo

1. El conjunto V = kn con las operaciones definidas anteriormente es un espaciovectorial sobre k.

2. El conjuntoMm×n(k) de matricesm×n con coeficientes en k es un espacio vectorialsobre k con las operaciones suma y producto por escalar definidas en el tema 1.

3. El conjunto P(k) de polinomios con coeficientes en k es un espacio vectorial sobrek con las operaciones habituales. Tambien lo son los conjuntos Pn(k) formados porlos polinomios de grado menor o igual que n, para todo n ≥ 1.

4. El conjunto de funciones reales f : R→ R es un espacio vectorial sobre R. Tambienlo son los subconjuntos formados por las funciones continuas y por las funcionesdiferenciables.

5. El conjunto C de los numeros complejos es un espacio vectorial sobre sı mismo,sobre R y sobre Q. Es importante notar que, si cambiamos el cuerpo de escalares,el espacio vectorial obtenido es distinto, a pesar de que el conjunto V siga sien-do el mismo. Mas generalmente, si el cuerpo k esta contenido en otro cuerpo Kmas grande, K puede verse como un espacio vectorial sobre k (con la suma y elproducto definidos por los de K).

6. Un ejemplo “exotico”: Dado k = R, sea V = R+ el conjunto de los numeros realespositivos. Si definimos la “suma” de dos elementos v,w ∈ V como su producto,y el producto de v ∈ V por el escalar c ∈ R como vc, el conjunto V adquiere unaestructura de espacio vectorial sobre R.

A partir de las propiedades que definen un espacio vectorial se pueden deducir todas lasdemas. Por ejemplo:

Teorema 2.1 Sea V un espacio vectorial sobre k. Para cualesquiera c ∈ k y v ∈ V se tiene que:

1. c · 0 = 0

2. 0 · v = 0

3. (−1) · v = −v

4. Si c · v = 0, entonces c = 0 o v = 0.

Demostracion

Veamos por ejemplo (2). Como 0 + 0 = 0 en k, se tiene que

0 · v = (0 + 0) · v = 0 · v + 0 · vI

Page 35: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

2.2. DEPENDENCIA E INDEPENDENCIA LINEAL 35

Demostracion (cont)

sumando a los dos lados el opuesto de 0 · v obtenemos

0 = 0 · v + (−0 · v) = (0 · v + 0 · v) + (−0 · v) = 0 · v + (0 · v + (−0 · v)) = 0 · v + 0 = 0 · v.

Para probar (4), supongamos que c · v = 0 pero c 6= 0. Entonces, multiplicando a amboslados por c−1 y usando el apartado (1),

c−1 · (c · v) = c−1 · 0 = 0,

peroc−1 · (c · v) = (c−1c) · v = 1 · v = v.

2.2. Dependencia e independencia lineal

Sea V un espacio vectorial sobre el cuerpo k. Diremos que un vector es combinacionlineal de otros si puede obtenerse a partir de ellos mediante un numero finito de sumas yproductos por escalares. Mas concretamente,

Definicion 2.2 Un vector u ∈ V es combinacion lineal de un conjunto de vectores S ⊆ V siexisten vectores v1, . . . ,vr ∈ S y escalares c1, . . . , cr ∈ k tales que u = c1v1 + · · ·+ crvr.

Ejemplo

1. El vector 0 es combinacion lineal de cualquier conjunto no vacıo S ⊆ V , ya que0 · v = 0 para cualquier v ∈ V . Por convenio, tambien se considera que 0 escombinacion lineal del conjunto vacıo.

2. Sea ei = (0, 0, . . . , 1, . . . , 0) ∈ kn, donde el 1 esta situado en la posicion i-esima.Entonces todo vector de kn es combinacion lineal de {e1, . . . , en}: En efecto, v ∈ knpuede escribirse como v1e1 + · · ·+ vnen.

Definicion 2.3 Diremos que los vectores v1, . . . ,vr ∈ V son linealmente dependientes siexisten escalares c1, . . . , cr ∈ k no todos nulos tales que c1v1 + · · ·+ crvr = 0. En caso contrario,diremos que los vectores son linealmente independientes. Un subconjunto S ⊆ V se dicelinealmente dependiente si existen vectores distintos v1, . . . ,vr ∈ S linealmente dependientes,y linealmente independiente en caso contrario.

Page 36: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

36 TEMA 2. ESPACIOS VECTORIALES

Ejemplo

1. Un solo vector v es linealmente dependiente si y solo si v = 0. Un conjunto devectores linealmente independientes nunca puede contener al vector 0.

2. Dos vectores u,v son linealmente dependientes si y solo si uno de ellos es un multi-plo escalar del otro: en efecto, si c · u + d · v = 0 y, por ejemplo, c 6= 0, entoncesu = −d

c· v.

3. Los monomios 1, x, x2, . . . , xn son linealmente independientes en P(k).

4. Los vectores e1, . . . , en son linealmente independientes en kn.

Se deduce inmediatamente de la definicion que, si los vectores v1, . . . ,vr son linealmenteindependientes, un subconjunto cualquiera de ellos tambien lo son.

Teorema 2.2 Los vectores v1, . . . ,vr ∈ V son linealmente dependientes si y solo si uno de elloses combinacion lineal de los demas.

Demostracion

Si uno de ellos, por ejemplo vi, es combinacion lineal de los demas, existen escalaresc1, . . . , ci−1, ci+1, . . . , cr tales que

vi = c1v1 + · · ·+ ci−1vi−1 + ci+1vi+1 + · · ·+ crvr.

Entoncesc1v1 + · · ·+ ci−1vi−1 − vi + ci+1vi+1 + · · ·+ crvr = 0,

por lo que los vectores son linealmente dependientes. Recıprocamente, si son linealmen-te dependientes existen escalares c1, . . . , cr, no todos nulos, tales c1v1 + · · · + crvr = 0.Supongamos por ejemplo que ci 6= 0. Entonces

vi = −c1ci

v1 − · · · −ci−1ci

vi−1 −ci+1

civi+1 − · · · −

crci

vr,

ası que vi es combinacion lineal de los demas.

En particular, si a un conjunto de vectores linealmente independientes le anadimos unvector que no sea combinacion lineal de ellos, el conjunto resultante sigue siendo linealmen-te independiente.

Cuando V = kn, sea vi = (vi1, . . . , vin) para cada i = 1, . . . , r, y sea u = (u1, . . . , un).Entonces u es combinacion lineal de v1, . . . ,vr si y solo si el sistema de ecuaciones Ax = ut

es compatible, dondeA =

(vt1|vt2| · · · |vtr

)es la matriz n × r cuya columna i-esima contiene las coordenadas del vector vi para cadai = 1, . . . , r.

Page 37: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

2.3. SISTEMAS GENERADORES Y BASES 37

Los vectores v1, . . . ,vr son linealmente dependientes si y solo si el sistema homogeneoAx = 0 tiene alguna solucion no trivial, es decir, si es compatible indeterminado. Por tanto,los vectores son independientes si y solo si el sistema es determinado, lo cual es equivalentea decir que el rango de la matriz A es igual a r.

Teorema 2.3 Los vectores v1, . . . ,vr ∈ kn son linealmente independientes si y solo si la matrizque tiene dichos vectores por columnas tiene rango r.

En particular, deducimos que un conjunto de mas de n vectores en kn siempre es lineal-mente dependiente (puesto que el rango de la matriz nunca puede superar a su numero defilas, que es n).

2.3. Sistemas generadores y bases

Definicion 2.4 Un subconjunto S ⊆ V se dice un sistema generador del k-espacio vectorialV si todo vector u ∈ V es combinacion lineal de vectores de S. El espacio vectorial V se dicefinitamente generado si tiene un sistema generador finito.

Ejemplo

1. Los vectores e1, . . . , en forman un sistema generador de kn, por lo que es finitamen-te generado.

2. Sea Eij la matriz deMm×n(k) que tiene todas sus entradas iguales a cero exceptola situada en la fila i y la columna j, que es igual a 1. Entonces el conjunto {Eij|1 ≤i ≤ m, 1 ≤ j ≤ n} es un sistema generador deMm×n(k).

3. El cuerpo C como espacio vectorial sobre R tiene a {1, i} como sistema generador,y por tanto es finitamente generado.

4. Los monomios 1, x, x2, . . . generan el espacio vectorial P(k) de polinomios. Elespacio Pn(k) de polinomios de grado menor o igual que n esta generado por{1, x, . . . , xn}.

Si S ⊆ T ⊆ V son dos subconjuntos de V y S es sistema generador, tambien lo es T .Si T es sistema generador y, ademas, todo vector de T puede escribirse como combinacionlineal de vectores de S, entonces S tambien es sistema generador: basta escribir un vectorcualquiera como combinacion lineal de elementos de T y sustituir estos por las correspon-dientes combinaciones lineales de elementos de S.

Sea V = kn, y vi = (vi1, . . . , vin) para i = 1, . . . , r. Decir que v1, . . . ,vr forman un sistemagenerador de kn es lo mismo que decir que, para todo vector u ∈ kn, el sistema de ecuacionesAx = ut es compatible, donde A es la matriz n × r que tiene a los vectores v1, . . . ,vr como

Page 38: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

38 TEMA 2. ESPACIOS VECTORIALES

columnas. En particular, existe una matriz B ∈ Mr×n(k) tal que AB = In, y por tanto elrango de A debe ser al menos n. Como A tiene n filas, dicho rango es exactamente n.

Teorema 2.4 Los vectores v1, . . . ,vr ∈ kn forman un sistema generador de kn si y solo si lamatriz que tiene dichos vectores por columnas tiene rango n.

Definicion 2.5 Un subconjunto B ⊆ V se dice una base de V si es un sistema generadorlinealmente independiente.

Ejemplo

1. Los vectores e1, . . . , en forman una base del k-espacio vectorial kn.

2. Las matricesEi,j para 1 ≤ i ≤ m, 1 ≤ j ≤ n forman una base del k-espacio vectorialMm×n(k).

3. {1, i} es una base de C como espacio vectorial sobre R, pero no como espacio vec-torial sobre C.

4. El conjunto de monomios {1, x, x2, . . . , xn, . . .} forma una base del espacio vectorialP(k).

El siguiente resultado nos permitira construir bases de espacios vectoriales finitamentegenerados:

Teorema 2.5 Sea S ⊆ V un conjunto linealmente independiente y T ⊆ V un conjunto genera-dor finito tales que S ⊆ T . Entonces existe una base B de V tal que S ⊆ B ⊆ V .

Demostracion

Si S es sistema generador, tomamos B = S. De lo contrario, debe existir un vectorv de T que no sea combinacion lineal de S (puesto que T es sistema generador). SeaS1 = S ∪ {v}. Entonces S1 es tambien linealmente independiente, por lo que podemosrepetir el proceso con S1 en lugar de S. Este algoritmo debe acabar en algun momento(ya que T es finito), y entonces habremos obtenido una base de V formada por todos losvectores de S y algunos de T .

En particular, tomando S = ∅, todo espacio vectorial finitamente generado tiene una basecon un numero finito de elementos. Mas generalmente, todo sistema generador finito de V

Page 39: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

2.4. DIMENSION 39

contiene una base. Ademas, si V es finitamente generado, todo subconjunto finito S ⊆ Vlinealmente independiente puede extenderse a una base (aplicando el resultado anteriortomando como T la union de S y un sistema generador finito de V cualquiera).

2.4. Dimension

Sea V un espacio vectorial finitamente generado. Entonces V tiene muchas bases finitasdistintas: cualquier conjunto linealmente independiente puede extenderse a una de ellas.En esta seccion veremos que todas las posibles bases de V tienen en comun su numero deelementos.

Teorema 2.6 Sea R = {u1, . . . ,ur} un conjunto de vectores de V linealmente independientes yS = {v1, . . . ,vs} un sistema generador finito de V . Entonces r ≤ s.

Demostracion

Como S es un sistema generador, para cada i = 1, . . . , r el vector ui ∈ V puedeescribirse como combinacion lineal de v1, . . . ,vs: existen escalares ci1, . . . , cis tales queui = ci1v1 + · · ·+ cisvs.

Supongamos, por reduccion al absurdo, que s < r. Entonces el sistema de ecuacioneshomogeneo c11 · · · cr1

... . . . ...c1s · · · crs

x1

...xr

=

0...0

es indeterminado (puesto que tiene mas incognitas que ecuaciones). Si (a1, . . . , ar) es unasolucion no nula, esta claro que

a1u1 + · · ·+ arur = a1(c11v1 + · · ·+ c1svs) + · · ·+ ar(cr1v1 + · · ·+ crsvs) =

= (a1c11 + · · ·+ arcr1)v1 + · · ·+ (a1c1s + · · ·+ arcrs)vs = 0,

por lo que los vectores u1, . . . ,ur serıan linealmente dependientes.

Teorema 2.7 (de la base) Si V es finitamente generado, todas las bases de V son finitas y tienenel mismo numero de elementos.

Demostracion

Sea B una base de V y S un conjunto generador finito. Por el teorema anterior, elnumero de elementos de B no puede ser mayor que el de S, por lo que B es un conjuntofinito. Sea B′ otra base. Aplicando el teorema anterior con R = B y S = B′ deducimosque el numero de elementos de B es como mucho igual al numero de elementos de B′.

I

Page 40: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

40 TEMA 2. ESPACIOS VECTORIALES

Demostracion (cont)

Intercambiando los papeles de B y B′ tenemos la desigualdad contraria, por lo que elnumero de elementos de B y B′ debe ser el mismo.

Definicion 2.6 Si V es finitamente generado, la dimension de V es el numero de elementos decualquier base de V . Se denota por dim(V ). Si V no es finitamente generado, se dice que V tienedimension infinita.

Ejemplo

1. El espacio V = kn tiene dimension n, puesto que la base B = {e1, . . . , en} tiene nelementos.

2. El espacio V =Mm×n(k) tiene dimension mn: la base B = {Ei,j|1 ≤ i ≤ m, 1 ≤ j ≤n} tiene mn elementos.

3. El espacio V = Pn(k) de polinomios de grado menor o igual que n tiene dimensionn+1, puesto que {1, x, . . . , xn} es una base con n+1 elementos. El espacio V = P(k)tiene dimension infinita.

4. V = C tiene dimension 1 como espacio vectorial sobre C, y dimension 2 comoespacio vectorial sobre R.

Teorema 2.8 Sea V un espacio vectorial sobre k de dimension n. Entonces,

1. Un subconjunto S ⊆ V linealmente independiente tiene a lo sumo n vectores. Si S tiene nvectores, entonces es una base de V .

2. Un sistema generador S ⊆ V tiene como mınimo n vectores. Si S tiene n vectores, entonceses una base de V .

3. Si W es otro espacio vectorial sobre k y W ⊆ V , entonces W es finitamente generado ydim(W ) ≤ dim(V ). Ademas, si dim(W ) = dim(V ) entonces W = V .

Demostracion

1. Todo conjunto linealmente independiente S se extiende a una base B. Como Btiene n elementos, S tiene a lo sumo n elementos. Ademas, si tiene exactamente nentonces debe ser igual a B.

I

Page 41: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

2.5. COORDENADAS 41

Demostracion (cont)

2. Todo sistema generador S de V contiene una base B. Como B tiene n elementos,S debe tener como mınimo n elementos. Ademas, si tiene exactamente n debe serigual a B.

3. Si W no fuera finitamente generado, podrıamos construir una sucesion infinita devectores de W linealmente independientes (simplemente anadiendo, uno a uno,vectores que no sean combinacion lineal de los que ya tenemos). Pero estos vectorestambien serıan linealmente independientes en V , lo cual es imposible: en V nopuede haber mas de n vectores linealmente independientes.

Sea B′ una base de W . Entonces B′ es linealmente independiente (tanto en W comoen V ), ası que se extiende a una base B de V . Como B′ ⊆ B, el numero de elementosde B′ (que es la dimension de W ) es menor o igual que el numero de elementos deB (que es la dimension de V ). Si estos dos numeros son iguales, es porque B′ = B,y por tanto W = V .

En particular, aplicando lo que ya sabemos en kn, se tiene

Teorema 2.9 Los vectores v1, . . . ,vn ∈ kn forman una base de kn si y solo si la matriz que tienedichos vectores por columnas es invertible.

2.5. Coordenadas

Las coordenadas con respecto a una base nos permitiran realizar operaciones en un es-pacio vectorial finitamente generado arbitrario como si se tratara de kn.

Teorema 2.10 Sea B = {v1, . . . ,vn} una base del k-espacio vectorial V . Para cada u ∈ B,existen escalares unicos c1, . . . , cn ∈ k tales que u = c1v1 + · · ·+ cnvn.

Demostracion

Tales escalares existen, porque B es un sistema generador de V . Supongamos queexisten otros escalares d1, . . . , dn ∈ k con la misma propiedad. Restando las igualdadesu = c1v1 + · · ·+ cnvn y u = d1v1 + · · ·+ dnvn obtenemos

0 = (c1 − d1)v1 + · · ·+ (cn − dn)vn.

Como v1, . . . ,vn son linealmente independientes concluimos que ci− di = 0, y por tantoci = di, para todo i = 1, . . . , n.

Page 42: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

42 TEMA 2. ESPACIOS VECTORIALES

Definicion 2.7 Las coordenadas de u con respecto a B = {v1, . . . ,vn} son la unica n-uplade escalares (c1, . . . , cn) ∈ kn tal que u = c1v1 + . . .+ cnvn. Se denotan por (u)B.

Las coordenadas con respecto a B nos dan entonces una biyeccion entre V y kn. Ademas,es facil ver que si u1,u2 ∈ V y c ∈ k, entonces (u1 + u2)B = (u1)B + (u2)B y (cu1)B = c(u1)B.Es decir, la operacion “tomar coordenadas con respecto a B” preserva las operaciones dek-espacio vectorial. En particular, se tiene:

Teorema 2.11 Sean u1, . . . ,ur ∈ V y B una base de V .

1. Un vector u ∈ V es combinacion lineal de u1, . . . ,ur si y solo si (u)B ∈ kn es combinacionlineal de (u1)B, . . . , (ur)B.

2. Los vectores u1, . . . ,ur son linealmente dependientes en V si y solo si (u1)B, . . . , (ur)B loson en kn.

3. Los vectores u1, . . . ,ur son un sistema generador de V si y solo si (u1)B, . . . , (ur)B lo sonde kn.

4. Los vectores u1, . . . ,un forman una base de V si y solo si (u1)B, . . . , (un)B forman una basede kn.

Demostracion

Veamos por ejemplo la primera. Si u = c1u1 + · · ·+ crur, entonces (u)B = (c1u1 + · · ·+crur)B = c1(u1)B + · · ·+ cr(ur)B.

Recıprocamente, si (u)B = d1(u1)B+· · ·+dr(ur)B, entonces (u)B = (d1u1+· · ·+drur)B,y por tanto u = d1u1 + · · ·+ drur (ya que un vector esta unıvocamente determinado porsus coordenadas con respecto a B).

Sea B′ = {v′1, . . . ,v′n} otra base de V . Las coordenadas de un vector u ∈ V con respecto aB y con respecto a B′ son distintas pero, ¿hay alguna relacion entre ellas?

Como B es una base de V , las coordenadas de sus vectores con respecto a B′ forman unabase de kn. Es decir, la matriz que tiene como columnas (v1)B′ , . . . , (vn)B′ es invertible.

Definicion 2.8 La matriz de cambio de base de B a B′ es la matriz M(B,B′) ∈ Mn(k) quetiene como columnas las coordenadas de los vectores v1, . . . ,vn de B con respecto a B′.

Esta matriz nos permite pasar directamente de coordenadas con respecto a B a coorde-nadas con respecto a B′:

Page 43: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

2.6. SUBESPACIOS 43

Teorema 2.12 Para todo u ∈ V , si (u)tB denota las coordenadas de u con respecto a B vistascomo vector columna, se tiene

(u)tB′ = M(B,B′)(u)tB.

Demostracion

Como tomar coordenadas con respecto a una base preserva la suma y el producto porescalares, es evidente que si la igualdad se cumple para dos vectores se cumple tambienpara su suma y para el producto de cualquiera de ellos por un escalar. Por tanto, bastaprobar la igualdad para los vectores de un sistema generador de V , por ejemplo B.

Sea vi ∈ B, entonces sus coordenadas con respecto a B son ei, y por tantoM(B,B′)(vi)tB es la i-esima columna de M(B,B′). Por definicion de M(B,B′), esta co-lumna es justamente (vi)B′ .

Teorema 2.13 Sea B,B′ y B′′ tres bases de V . Entonces

1. M(B,B) = In

2. M(B,B′′) = M(B′,B′′)M(B,B′)

3. M(B′,B) = M(B,B′)−1

Demostracion

La primera propiedad es evidente por definicion. Para la segunda, notemos que paracada i = 1, . . . , n la columna i-esima de M(B,B′′) es

M(B,B′′)ei = M(B,B′′)(vi)tB = (vi)tB′′

mientras que la columna i-esima de M(B′,B′′)M(B,B′) es

M(B′,B′′)M(B,B′)ei = M(B′,B′′)M(B,B′)(vi)tB = M(B′,B′′)(vi)tB′ = (vi)tB′′

y por tanto coinciden. La ultima propiedad se deduce de esta tomando B′′ = B:

M(B′,B)M(B,B′) = M(B′,B′) = In.

2.6. Subespacios

Definicion 2.9 Un subconjunto no vacıoL ⊆ V de un k-espacio vectorial se dice un subespaciode V si

Page 44: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

44 TEMA 2. ESPACIOS VECTORIALES

1. Para todos u,v ∈ L se tiene que u + v ∈ L.

2. Para todo v ∈ L y todo escalar c ∈ k se tiene que c · v ∈ L.

Si L es un subespacio de V , entonces L es tambien un espacio vectorial sobre k, con lasmismas operaciones que V . Solo hay que comprobar las propiedades (3) y (4) de la definicionde espacio vectorial, ya que las demas se heredan directamente de V : se tiene que 0 · v = 0y (−1) · v = −v para todo v ∈ L, ası que tanto 0 como −v estan en L.

Ejemplo

1. En todo espacio vectorial V , los subconjuntos L = {0} y L = V son subespacios.Los restantes subespacios se dicen propios.

2. Si v ∈ V , el conjunto de multiplos escalares de v es un subespacio de V .

3. Sea A ∈ Mm×n(k) una matriz. El conjunto de soluciones del sistema homogeneoA · x = 0 es un subespacio de kn. Por el contrario, si b ∈ km es un vector no nulo,el conjunto de soluciones del sistema A · x = bt no es un subespacio de kn.

4. Los subconjuntos de Mn(k) formados por las matrices diagonales, triangularessuperiores, triangulares inferiores, simetricas, o antisimetricas son subespacios deMn(k). Si k = C, el subconjunto formado por las matrices hermıticas no es unsubespacio (no es estable para el producto por escalares).

5. El subconjunto R ⊂ C es un subespacio si vemos C como espacio vectorial sobrek = R. No lo es si vemos C como espacio vectorial sobre k = C.

Definicion 2.10 Sea S ⊆ V un subconjunto. El subespacio de V generado por S es el con-junto 〈S〉 ⊆ V formado por los vectores que son combinacion lineal de vectores de S.

Recordemos que el vector 0 es combinacion lineal de cualquier conjunto, incluido elvacıo. Por tanto 〈∅〉 = {0}. En general, 〈S〉 es un subespacio de V , y es el menor de ellosque contiene a los vectores de S, ya que todo subespacio que contenga a S debe contenertambien a cualquier combinacion lineal de vectores de S. Las siguientes propiedades se de-ducen facilmente de la definicion:

Teorema 2.14 1. 〈S〉 = V si y solo si S es un sistema generador de V .

2. Si S ⊆ T ⊆ V entonces 〈S〉 ⊆ 〈T 〉.

3. Si L ⊆ V es un subespacio, entonces 〈L〉 = L.

Page 45: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

2.6. SUBESPACIOS 45

Si V es finitamente generado, todo subespacio L ⊆ V tambien lo es, y por tanto se puededescribir dando un conjunto finito de generadores. Veamos ahora otra forma de determinarun subespacio de V , dependiente de las coordenadas con respecto a una base.

Dado un subespacio L ⊆ V y una base B de V , sea LB = {(v)B|v ∈ L} el subconjuntode kn formado por las coordenadas de los vectores de L. Entonces LB es un subespacio dekn, y esto nos da una correspondencia biunıvoca entre el conjunto de subespacios de V y elconjunto de subespacios de kn.

Sea v1, . . . ,vr un conjunto de generadores de L. Entonces (v1)B, . . . , (vr)B forman un con-junto de generadores de LB. Es decir, LB es el conjunto de vectores de kn que son combina-cion lineal de (v1)B, . . . , (vr)B. Para que un vector x = (x1, . . . , xn) ∈ kn este en LB, se tieneque cumplir entonces que

rango((v1)

tB| · · · |(vr)tB|xt

)= rango

((v1)

tB| · · · |(vr)tB

).

Supongamos ahora que v1, . . . ,vr son linealmente independientes (es decir, forman una ba-se de L). Entonces el rango de la matriz ((v1)

tB| · · · |(vr)tB) es r. Para que el rango de la matriz

ampliada sea tambien igual a r, todos los menores de orden r+ 1 deben anularse. Cada unode estos menores nos da una ecuacion lineal cuyas incognitas son las coordenadas de x. Elsistema homogeneo obtenido de esta forma tiene como soluciones el conjunto de coordena-das de los vectores de L con respecto a B.

Definicion 2.11 Un sistema de ecuaciones implıcitas de L con respecto a B es un sistemade ecuaciones homogeneo cuyo conjunto de soluciones esta formado por las coordenadas de losvectores de L con respecto a B.

El proceso anterior nos da un metodo para obtener un sistema de ecuaciones implıcitasde cualquier subespacio a partir de un sistema de generadores: primero extraemos una basede dicho sistema, y despues construimos el sistema de ecuaciones homogeneas correspon-diente.

Recıprocamente, dado un sistema de ecuaciones implıcitas de un subespacio L de V conrespecto a una base B es posible obtener una base de L. Basta hallar sus coordenadas conrespecto a B, que forman una base del conjunto de soluciones del sistema en kn. Suponga-mos que la matriz de coeficientes del sistema tiene rango r. Al poner la matriz en formaescalonada, obtendremos r pivotes y n− r columnas sin pivotes, que corresponden a varia-bles libres. Para cada valor que le demos a cada una de ellas, obtenemos una solucion delsistema. Sean u1, . . . ,un−r las soluciones obtenidas al asignarle a una de las variables libresel valor 1 y a las restantes 0. Entonces la solucion obtenida al asignarle a la i-esima variablelibre el valor ci es justamente c1u1 + · · · + cn−run−r. Por tanto, u1, . . . ,un−r forman un siste-ma generador del subespaico de soluciones del sistema. Por otra parte, en la combinacionlineal c1u1 + · · · + cn−run−r la coordenada correspondiente a la i-esima variable libre es ci.Por tanto, la solucion identicamente nula solo puede obtenerse si c1 = · · · = cn−r = 0. Esdecir, u1, . . . ,un−r son linealmente independientes, ası que forman una base del conjunto desoluciones del sistema. Hemos probado:

Teorema 2.15 El conjunto de soluciones de un sistema de ecuaciones homogeneo con n incogni-tas cuya matriz de coeficientes tiene rango r es un subespacio de kn de dimension n− r.

Page 46: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

46 TEMA 2. ESPACIOS VECTORIALES

Un sistema de ecuaciones implıcitas de un subespacio L ⊆ V depende, por supuesto, dela base elegida. Si usamos otra base, el sistema obtenido cambiara.

Teorema 2.16 Sea L ⊆ V un subespacio y B, B′ dos bases de V , y sea A · x = 0 un sistema deecuaciones implıcitas de L con respecto a B. Entonces, un sistema de ecuaciones implıcitas de Lcon respecto a B′ viene dado por B · x = 0, donde B = A ·M(B′,B).

Demostracion

Un vector u ∈ V esta en L si y solo si sus coordenadas con respecto a B son unasolucion del sistema A ·x = 0, es decir, si y solo si A · (u)tB = 0. Por la formula del cambiode base, (u)tB = M(B′,B) · (u)tB′ , ası que u ∈ L si y solo si

A ·M(B′,B) · (u)tB′ = 0.

Es decir, las coordenadas de los vectores de L con respecto a B′ son las soluciones delsistema A ·M(B′,B) · x = 0.

2.7. Operaciones entre subespacios

SeanL1 yL2 dos subespacios del k-espacio vectorial V . Su interseccionL1∩L2 es entoncesotro subespacio de V : Si u,v ∈ L1∩L2 y c ∈ k, la suma u+v y el producto c ·v estan tanto enL1 como en L2, y por tanto estan en la interseccion L1∩L2. Mas generalmente, la interseccionde un numero cualquiera de subespacios de V es un subespacio.

La union L1 ∪ L2, sin embargo, no es un subespacio en general: por ejemplo, si V = k2,L1 = 〈(1, 0)〉 y L2 = 〈(0, 1)〉, entonces los vectores (1, 0) y (0, 1) estan en L1∪L2 pero su sumano lo esta.

Definicion 2.12 La suma de dos subespacios L1, L2 de V es el subespacio L1 +L2 generado porla union de L1 y L2.

Es decir, L1 + L2 es el menor subespacio de V que contiene tanto a L1 como a L2.

Teorema 2.17 La suma L1 + L2 es el conjunto de vectores v ∈ V que pueden expresarse en laforma v1 + v2 con v1 ∈ L1 y v2 ∈ L2.

Page 47: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

2.7. OPERACIONES ENTRE SUBESPACIOS 47

Demostracion

El conjunto de vectores que pueden escribirse de esa forma es claramente un subes-pacio de V , y contiene a L1 y a L2 (puesto que todo u ∈ L1 se puede expresar como u + 0y todo v ∈ L2 como 0 + v). Ademas, todo subespacio de V que contenga a L1 y L2 debecontener tambien a todo vector de la forma v1 + v2 con v1 ∈ L1 y v2 ∈ L2. Por tanto esteconjunto es el subespacio generado por L1 ∪ L2.

Corolario 2.18 Si S1 y S2 son sistemas generadores de L1 y L2 respectivamente, la union S1∪S2

es un sistema generador de L1 + L2.

Mas generalmente, la suma de una familia arbitraria de subespacios de V se define comoel subespacio generado por la union de todos ellos, y esta generado por la union de unsistema de generadores para cada uno de los subespacios.

Teorema 2.19 Sean L1, L2 y L3 subespacios de V .

1. Si L1 ⊆ L2, entonces L1 ∩ L2 = L1 y L1 + L2 = L2.

2. Si L1 ⊆ L3, entonces L1 + (L2 ∩ L3) = (L1 + L2) ∩ L3.

Demostracion

El apartado (1) es evidente por definicion, ya que L1 ∪ L2 = L2. Supongamos queL1 ⊆ L3, y sea v ∈ L1+(L2∩L3). Entonces v puede escribirse como v1+v2, donde v1 ∈ L1

y v2 ∈ L2 ∩ L3. Como L2 ∩ L3 ⊆ L2 tenemos que v2 ∈ L2, ası que v = v1 + v2 ∈ L1 + L2.Ademas, como v1 ∈ L1 ⊆ L3 y v2 ∈ L2 ∩ L3 ⊆ L3, la suma v = v1 + v2 tambien esta enL3, y por tanto esta en la interseccion (L1 + L2) ∩ L3.

Recıprocamente, sea v ∈ (L1 + L2) ∩ L3. Como v ∈ L1 + L2, se puede expresar comov1 +v2 con v1 ∈ L1 y v2 ∈ L2. Ademas, como L1 ⊆ L3, v y v1 estan en L3, por lo que v2 =v−v1 tambien lo esta. De modo que v2 ∈ L2∩L3, y por tanto v = v1+v2 ∈ L1+(L2∩L3).

No es cierto que la interseccion de un sistema generador de L1 y uno de L2 sea un sis-tema generador de L1 ∩ L2 (de hecho, lo mas probable es que dicha interseccion sea vacıa).Para calcular la interseccion de dos subespacios, es necesario pasar a ecuaciones implıcitas.Fijada una base B de V , un sistema de ecuaciones implıcitas de L1 ∩ L2 son respecto a B seobtiene uniendo las ecuaciones de un sistema de ecuaciones implıcitas de L1 y de un sistemade ecuaciones implıcitas de L2. En efecto, las coordenadas de los vectores de L1 (respectiva-mente de L2) con respecto a B son las soluciones del primer sistema (respectivamente delsegundo), por lo que las coordenadas de los vectores que estan tanto en L1 como en L2 seranlas soluciones del sistema formado por todas estas ecuaciones simultaneamente.

Page 48: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

48 TEMA 2. ESPACIOS VECTORIALES

Teorema 2.20 (de la dimension) Sean L1 y L2 dos subespacios finitamente generados de V .Entonces se tiene que

dim(L1 + L2) = dim(L1) + dim(L2)− dim(L1 ∩ L2).

Demostracion

Como L1 y L2 son finitamente generados, tambien lo son L1 ∩ L2 y L1 +L2. Sean d, e y s las dimensiones de L1, L2 y L1 ∩ L2 respectivamente. Fije-mos una base B = {u1, . . . ,us} de L1 ∩ L2. Entonces B es un conjunto lineal-mente independiente en L1 y en L2, por lo que puede extenderse a bases B1 ={u1, . . . ,us,v1, . . . ,vd−s} de L1 y B2 = {u1, . . . ,us,w1, . . . ,we−s} de L2. Veamos que losvectores u1, . . . ,us,v1, . . . ,vd−s,w1, . . . ,we−s forman una base de L1 + L2, y por tanto sudimension sera s+ (d− s) + (e− s) = d+ e− s.

En primer lugar, estos vectores forman un sistema generador de L1 + L2, puestoque son la union de B1, que es un sistema generador de L1, y de B2, que es un sis-tema generador de L2. Veamos que son linealmente independientes. Supongamos quec1, . . . , cs, a1, . . . , ad−s, b1, . . . , be−s son escalares tales que

c1u1 + · · ·+ csus + a1v1 + · · ·+ ad−svd−s + b1w1 + · · ·+ be−swe−s = 0.

Entonces el vector u = c1u1 + · · ·+ csus + a1v1 + · · ·+ ad−svd−s = −b1w1− · · · − be−swe−sesta tanto en L1 (por ser combinacion lineal de B1) como en L2 (por ser combinacionlineal de B2). Por lo tanto esta en L1 ∩ L2, ası que se puede escribir como combinacionlineal de u1, . . . ,us. Es decir, existen escalares d1, . . . , ds tales que

c1u1 + · · ·+ csus + a1v1 + · · ·+ ad−svd−s = d1u1 + · · ·+ dsus.

Pero como B1 es una base, un vector de L1 se puede expresar de una unica forma comocombinacion lineal de los vectores de B1, y por tanto ci = di y ai = 0 para todo i. Entoncesla combinacion lineal anterior queda

c1u1 + · · ·+ csus + b1w1 + · · ·+ be−swe−s = 0.

Al ser u1, . . . ,us,w1, . . . ,we−s linealmente independientes, concluimos que ci y bi tam-bien deben ser 0 para todo i.

2.8. Suma directa

Definicion 2.13 Sean L1 y L2 dos subespacios de V . Se dice que V es suma directa de L1 y L2

si L1 ∩ L2 = {0} y L1 + L2 = V . En ese caso escribimos V = L1 ⊕ L2.

Page 49: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

2.8. SUMA DIRECTA 49

Ejemplo

1. El espacio kn es suma directa del subespacio L1 generado por {e1} y el subespacioL2 de soluciones de la ecuacion x1 = 0.

2. El espacioMn(k) es suma directa del subespacio de matrices simetricas y el subes-pacio de matrices antisimetricas.

3. El espacio vectorial C sobre R es suma directa del subespacio formado por losnumeros reales y el subespacio formado por los numeros imaginarios puros.

Por el teorema de la dimension, si V = L1 ⊕ L2, entonces dim(V ) = dim(L1) + dim(L2).

Teorema 2.21 Sean L1, L2 dos subespacios de V . Entonces, las siguientes propiedades son equi-valentes:

1. V = L1 ⊕ L2.

2. Todo vector u ∈ V se escribe de manera unica como u1 + u2, donde u1 ∈ L1 y u2 ∈ L2.

3. Si v1, . . . ,vr forman una base de L1 y w1, . . . ,ws forman una base de L2, entoncesv1, . . . ,vr,w1, . . . ,ws forman una base de V .

Demostracion

Supongamos que V = L1 ⊕ L2. Entonces V = L1 + L2, por lo que todo vector u ∈ Vpuede expresarse de la forma u1 +u2 con u1 ∈ L1 y u2 ∈ L2. Supongamos que existe otraexpresion de este tipo, u = u′1+u′2. Entonces u1+u2 = u′1+u′2, por lo que u1−u′1 = u′2−u2.Este vector esta en L1 (por ser suma de dos vectores de L1) y en L2 (por ser suma de dosvectores de L2). Como L1 ∩ L2 = {0}, debe ser el vector 0. Por tanto u1 = u′1 y u2 = u′2.

Supongamos ahora que se cumple la propiedad (2), y sea u ∈ V . Entonces podemosescribir u de manera unica como u1 + u2 con ui ∈ Li. Como u1 es combinacion linealde v1, . . . ,vr y u2 es combinacion lineal de w1, . . . ,ws, su suma es combinacion lineal dev1, . . . ,vr,w1, . . . ,ws. Supongamos que 0 = c1v1+ · · ·+crvr+d1w1+ · · ·+dsws. Entoncesel vector 0 se puede escribir como la suma de c1v1+· · ·+crvr ∈ L1 y d1w1+· · ·+dsws ∈ L2,y tambien como la suma de 0 ∈ L1 y 0 ∈ L2. Por la unicidad de la descomposicion,deducimos que c1v1 + · · · + crvr = d1w1 + · · · + dsws = 0. Y como los vi y los wi sonlinealmente independientes, todos los coeficientes ci y di deben ser iguales a cero. Portanto los r + s vectores v1, . . . ,vr,w1, . . . ,ws son independientes, ası que forman unabase de V .

Supongamos finalmente que se cumple la propiedad (3). Como V esta generado porla union de un sistema generador de L1 y de un sistema generador de L2, se tiene queV = L1 + L2. De la propiedad (3) deducimos que dim(V ) = dim(L1) + dim(L2). Por laformula de la dimension concluimos que L1 ∩ L2 = {0}.

Mas generalmente, diremos que el espacio vectorial V es suma directa de los subespaciosL1, . . . , Lr ⊆ V si V = L1 + . . . + Lr y, para todo i, la interseccion de Li con la suma de los

Page 50: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

50 TEMA 2. ESPACIOS VECTORIALES

restantes Lj es {0}. Esto equivale a que todo vector u ∈ V pueda escribirse de forma unicacomo una suma v1 + . . .+ vr con vi ∈ Li.

Definicion 2.14 Sea L ⊆ V un subespacio. Un subespacio complementario de L en V es unsubespacio L′ ⊆ V tal que V = L⊕ L′.

Un subespacio L tiene, en general, muchos subespacios complementarios distintos. Paracalcular uno de ellos podemos extender una base de L a una base de V , y tomar como L′ elsubespacio generado por los vectores que hemos anadido para obtener esta base.

Definicion 2.15 Sean V y W dos espacios vectoriales sobre k. La suma directa de V y W es elespacio vectorial V ⊕W que tiene como conjunto subyacente el producto cartesiano V ×W , y enel que las operaciones estan definidas de la siguiente forma:

(v1,w1) + (v2,w2) = (v1 + v2,w1 + w2) para todos v1,v2 ∈ V y w1,w2 ∈ W

c · (v,w) = (c · v, c ·w) para todos v ∈ V,w ∈ W y c ∈ k.

Es facil ver que, con estas operaciones, V ⊕W es un espacio vectorial sobre k. Ademas,V ⊕W contiene dos subespacios L1 = {(v,0)|v ∈ V } y L2 = {(0,w)|w ∈ W} que podemosidentificar con V y W respectivamente, tales que V ⊕W es la suma directa de L1 y L2. Enparticular, si V yW son finitamente generados, se tiene que dim(V ⊕W ) = dim(V )+dim(W ).

2.9. Producto escalar

Durante el resto de este tema supondremos que el cuerpo de escalares k es el cuerpo Rde los numeros reales o el cuerpo C de los numeros complejos. Esto es importante porquenecesitaremos tomar la raız cuadrada de cualquier escalar positivo, lo cual no es posible enun cuerpo arbitrario.

Definicion 2.16 Sea V un espacio vectorial sobre k. Un producto escalar en V es una aplica-cion V × V → k que asigna a cada par de vectores u,v ∈ V un escalar, que denotaremos 〈u,v〉,de manera que se cumplen las siguientes propiedades:

1. 〈u1 + u2,v〉 = 〈u1,v〉+ 〈u2,v〉 para todos u1,u2,v ∈ V y〈c · u,v〉 = c〈u,v〉 para todos u,v ∈ V , c ∈ k (lineal en la primera variable)

2. 〈v,u〉 = 〈u,v〉 para todos u,v ∈ V , donde c denota el conjugado del numero complejo c.

3. 〈v,v〉 es positivo para todo v ∈ V distinto de 0.

Un espacio vectorial finitamente generado dotado de un producto escalar se denomina unespacio de Hilbert.

Page 51: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

2.9. PRODUCTO ESCALAR 51

De las propiedades (1) y (2) se deduce que 〈u,v1 + v2〉 = 〈u,v1〉 + 〈u,v2〉 y 〈u, c · v〉 =c〈u,v〉 para todos u,v,v1,v2 ∈ V y c ∈ k. Si V es un espacio de Hilbert, cualquier subespaciosuyo tambien es un espacio de Hilbert con el mismo producto escalar.

Ejemplo

1. Sea V = kn. Entonces 〈u,v〉 = u1v1 + · · · + unvn define un producto escalar enV . Este espacio de Hilbert se denomina el espacio euclıdeo de dimension n. A partirde ahora, si no especificamos un producto escalar en kn, supondremos que nosestamos refiriendo a este.

2. En V = kn, la formula 〈u,v〉 = u1v1 + · · ·+unvn define un producto escalar si k = R(de hecho es el mismo que en el ejemplo anterior) pero no si k = C, ya que noverifica la propiedad (2).

3. En V = R2, 〈u,v〉 = u1v1 − u2v2 no define un producto escalar, ya que no verificala propiedad (3): 〈(0, 1), (0, 1)〉 = −1 < 0.

4. En V = Mn(k) la formula 〈A,B〉 = tr(AB∗) (donde B∗ = Bt es la conjugadatraspuesta de B) define un producto escalar.

5. Sea V el R-espacio vectorial de funciones reales continuas definidas en el intervalo[0, 1] ⊂ R. Entonces, 〈f, g〉 =

∫ 1

0f(x)g(x)dx define un producto escalar en V .

Supongamos que V es finitamente generado, y sea B = {v1, . . . ,vn} una base de V . Sean(c1, . . . , cn) y (d1, . . . , dn) las coordenadas de los vectores u y v con respecto a B. Usando laspropiedades (1) y (2) del producto escalar, deducimos que

〈u,v〉 =n∑

i,j=1

cidj〈vi,vj〉.

Es decir, un producto escalar esta completamente determinado por su valor en todos lospares de elementos de una base. En forma matricial, podemos expresarlo como

〈u,v〉 = (c1 · · · cn)A

d1...dn

= (u)B · A · (v)∗B

donde A ∈ Mn(k) es la matriz que tiene 〈vi,vj〉 en la posicion (i, j), que llamaremos lamatriz del producto escalar con respecto a B. Por ejemplo, en el espacio euclıdeo kn, la matrizdel producto escalar con respecto a la base estandar es la matriz identidad. En general, porla propiedad (2), la matriz A es siempre hermıtica. El producto escalar esta determinado poresta matriz, pero no toda matriz hermıtica determina un producto escalar de esta manera:por ejemplo, 〈vi,vi〉 es el elemento diagonal de la matriz en la posicion (i, i), por lo quepara que se cumpla la propiedad (3) es necesario (aunque no suficiente) que los elementosdiagonales de la matriz sean positivos.

Page 52: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

52 TEMA 2. ESPACIOS VECTORIALES

Definicion 2.17 Sea V un espacio de Hilbert. Dos vectores u,v ∈ V se dicen ortogonales operpendiculares, y se denota u ⊥ v, si 〈u,v〉 = 0.

Definicion 2.18 Sea V un espacio de Hilbert. El modulo de un vector u ∈ V es el numero real||u|| =

√〈u,u〉 ≥ 0.

Por ejemplo, en Rn o en Cn, el modulo de u = (u1, . . . , un) es√|u1|2 + . . .+ |un|2. En Rn

se puede expresar de la forma mas habitual√u21 + · · ·+ u2n.

Teorema 2.22 Para todos u,v ∈ V y c ∈ k se tiene que:

1. ||c · u|| = |c| · ||u||

2. ||u|| = 0 si y solo si u = 0

3. Desigualdad de Cauchy-Schwarz: |〈u,v〉| ≤ ||u|| · ||v||, con igualdad si y solo si u y v sonlinealmente dependientes.

4. Desigualdad triangular: ||u + v|| ≤ ||u||+ ||v||

5. Teorema de Pitagoras: Si u ⊥ v, entonces ||u + v||2 = ||u||2 + ||v||2

Demostracion

La primera propiedad se deduce de las propiedades (1) y (2) del producto escalar,ya que cc = |c|2. La segunda es consecuencia directa de la propiedad (3) del productoescalar.

La desigualdad (3) es evidente (y de hecho una igualdad) si u = 0. Supongamos queu 6= 0. Entonces, para todo t ∈ k, se tiene que

0 ≤ 〈tu + v, tu + v〉 = tt〈u,u〉+ t〈u,v〉+ t〈v,u〉+ 〈v,v〉.

Tomando t = − 〈v,u〉〈u,u〉 , obtenemos

0 ≤ 〈u,v〉〈v,u〉〈u,u〉

− 〈u,v〉〈v,u〉〈u,u〉

− 〈u,v〉〈v,u〉〈u,u〉

+ 〈v,v〉 = 〈v,v〉 − |〈u,v〉|2

〈u,u〉

de donde|〈u,v〉|2 = 〈u,v〉〈v,u〉 ≤ 〈u,u〉〈v,v〉 = ||u||2||v||2.

La desigualdad (3) se obtiene tomando raız cuadrada. Ademas, por (2), se tiene la igual-dad si y solo si v − 〈v,u〉

〈u,u〉u = 0, lo cual ocurre si y solo si u y v son linealmente depen-dientes.

I

Page 53: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

2.9. PRODUCTO ESCALAR 53

Demostracion (cont)

Veamos ahora (4). Usando (3), tenemos que

||u + v||2 = 〈u + v,u + v〉 = 〈u,u〉+ 〈u,v〉+ 〈v,u〉+ 〈v,v〉 =

= ||u||2+2<〈u,v〉+||v||2 ≤ ||u||2+2|〈u,v〉|+||v||2 ≤ ||u||2+2||u||·||v||+||v||2 = (||u||+||v||)2

donde < denota la parte real de un numero complejo. Concluimos tomando raız cua-drada. Ademas, si u ⊥ v entonces 〈u,v〉 = 0, por lo que se obtiene (5) como parte de laigualdad anterior.

Definicion 2.19 Sea V un espacio de Hilbert y L ⊆ V un subespacio. El complemento or-togonal de V es el conjunto L⊥ formado por los vectores de V que son ortogonales a todos losvectores de L.

Por linearidad, un vector v ∈ V es ortogonal a todos los vectores de L si y solo si esortogonal a todo vector de un sistema generador de L.

Teorema 2.23 Para todo subespacio L de un espacio de Hilbert finitamente generado V , su com-plemento ortogonal L⊥ ⊆ V es un subespacio complementario de L.

Demostracion

Veamos que L⊥ es un subespacio. Sean u,v ∈ L⊥. Entonces 〈u,w〉 = 〈v,w〉 = 0 paratodo w ∈ L, por lo que 〈u + v,w〉 = 〈u,w〉 + 〈v,w〉 = 0 y 〈cu,w〉 = c〈u,w〉 = 0 paratodo w ∈ L y todo c ∈ k. Por tanto u + v y cu estan en L⊥.

Veamos ahora que L⊕L⊥ = V . Sea u ∈ L∩L⊥. Entonces u es ortogonal a todo vectorde L, en particular a sı mismo, por lo que 〈u,u〉 = 0, ası que u debe ser el vector 0. Por laformula de la dimension tenemos entonces que dim(L + L⊥) = dim(L) + dim(L⊥). Paraprobar que L + L⊥ = V basta entonces probar que dim(L) + dim(L⊥) es igual a n, ladimension de V .

Fijemos una base de L y extendamosla a una base B de V , y sea A la matriz delproducto escalar con respecto a B. Un vector x = (x1, . . . , xn) es ortogonal a L si y solosi es ortogonal a los vectores de un sistema generador de L, por ejemplo los primeros rvectores de B (donde r = dim(L)). Las coordenadas de estos vectores con respecto a Bson e1, . . . , er, ası que x ∈ L⊥ si y solo si

ei · A · x∗ = 0 ⇔ ei · A · xt = 0.

Es decir, las coordenadas de los vectores de L⊥ con respecto a B son las soluciones delsistema de ecuaciones homogeneo cuya matriz de coeficientes esta formada por las pri-meras r filas de A conjugadas. En particular, la dimension de L⊥ es n menos el rango deesta matriz, el cual es como maximo r. Por tanto dim(L + L⊥) = dim(L) + dim(L⊥) ≥r + (n− r) = n. Como V tiene dimension n, la dimension de L+ L⊥ debe ser igual a n.

Page 54: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

54 TEMA 2. ESPACIOS VECTORIALES

En particular se tiene la igualdad dim(L) + dim(L⊥) = dim(V ).

Teorema 2.24 Sea V un espacio de Hilbert finitamente generado. Entonces,

1. V ⊥ = {0} y {0}⊥ = V .

2. Para todo subespacio L ⊆ V , (L⊥)⊥ = L.

3. Para todo par de subespacios L1, L2 ⊆ V , (L1 + L2)⊥ = L⊥1 ∩ L⊥2 .

4. Para todo par de subespacios L1, L2 ⊆ V , (L1 ∩ L2)⊥ = L⊥1 + L⊥2 .

Demostracion

(1) es consecuencia directa de la formula de la dimension anterior. Para el apartado(2), es evidente por definicion que L ⊆ (L⊥)⊥ (ya que todo vector de L es ortogonala todo vector de L⊥). Pero por la formula anterior ambos subespacios tienen la mismadimension, ası que deben ser iguales.

Para probar (3) elijamos bases B1 y B2 de L1 y L2. Entonces v ∈ L⊥1 ∩ L⊥2 si y solo si ves ortogonal a todo vector de B1 y a todo vector de B2, es decir, si y solo si es ortogonala todo vector de B1 ∪ B2. Pero B1 ∪ B2 es un sistema generador de L1 + L2, por lo tantoesto es equivalente a ser ortogonal a todo vector de L1 + L2.

Finalmente, (4) se deduce de (2) y (3):

(L1 ∩ L2)⊥ = ((L⊥1 )⊥ ∩ (L⊥2 )⊥)⊥ = ((L⊥1 + L⊥2 )⊥)⊥ = L⊥1 + L⊥2 .

Este resultado nos permite dar un metodo sencillo para calcular el complemento orto-gonal de un subespacio L del espacio euclıdeo kn. Supongamos primero que L esta gene-rado por un unico vector v = (v1, . . . , vn). Entonces L⊥ es el conjunto de vectores ortogo-nales a v, es decir, los vectores (x1, . . . , xn) que verifican la ecuacion v1x1 + · · · + vnxn = 0.En general, si L esta generado por los vectores v1, . . . ,vr, su complemento ortogonal serala interseccion de los complementos ortogonales de los subespacios generados por cadavi = (vi1, . . . , vin), y por tanto sera el conjunto de soluciones del sistema formado por lasecuaciones vi1x1 + · · ·+ vinxn = 0 para i = 1, . . . , r. Es decir,

Teorema 2.25 Sea L = 〈v1, . . . ,vr〉 ⊆ kn. Entonces L⊥ es el conjunto de soluciones del sistemaA · x = 0, donde A ∈ Mr×n(k) es la matriz cuyas filas son los conjugados de los vectoresv1, . . . ,vr.

Recıprocamente, si L esta definido como el conjunto de soluciones de un sistema homogeneoB · x = 0, L⊥ es el subespacio de V generado por los conjugados de los vectores fila de B.

Page 55: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

2.10. BASES ORTONORMALES 55

2.10. Bases ortonormales

Definicion 2.20 Sea V un espacio de Hilbert. Una base B de V se dice ortogonal si los vectoresde B son ortogonales dos a dos, y ortonormal si es ortogonal y, ademas, cada vector de B tienemodulo 1.

Ejemplo

1. En el espacio euclıdeo kn, la base estandar {e1, . . . , en} es ortonormal.

2. En el subespacio del espacio euclıdeo R4 definido por la ecuacion x1+x2+x3+x4 =0, la base {(1

2, 12,−1

2,−1

2), (1

2,−1

2, 12,−1

2), (1

2,−1

2,−1

2, 12)} es ortonormal.

La principal ventaja de las bases ortonormales es que hallar las coordenadas de cual-quier vector con respecto a ella es inmediato: supongamos que B = {u1, . . . ,un} es una baseortonormal de V , y sea v ∈ V . Si v = c1u1 + · · ·+ cnun, entonces para cada i = 1, . . . , n:

〈v,ui〉 = c1〈u1,ui〉+ · · ·+ cn〈un,ui〉 = ci〈ui,ui〉 = ci,

ası que

Teorema 2.26 Si B = {u1, . . . ,un} es una base ortonormal de V , las coordenadas del vector vcon respecto a B son (〈v,u1〉, . . . , 〈v,un〉).

En un espacio de Hilbert finitamente generado V , la matriz del producto escalar conrespecto a una base ortonormal B cualquiera es la matriz identidad. Por tanto, si u,v ∈ Vtienen coordenadas con respecto a B (c1, . . . , cn) y (d1, . . . , dn) respectivamente, el productoescalar de u y v viene dado por c1d1 + · · · + cndn. En particular, una segunda base B′ esortonormal si y solo si la matriz de cambio de base verifica que M(B,B′) ·M(B,B′)∗ = In.

Definicion 2.21 Una matriz A ∈ Mn(C) se dice unitaria si A · A∗ = In. Si A ∈ Mn(R) estoes equivalente a A · At = In, y en ese caso A se dice ortogonal.

Una matriz es unitaria si y solo si sus columnas forman una base ortonormal de kn.Veamos ahora como construir una base ortonormal de cualquier espacio de Hilbert fi-

nitamente generado V a partir de una base arbitraria, mediante un algoritmo llamado deGram-Schmidt. Lo haremos en dos pasos: en primer lugar construimos una base ortogonala partir de la base dada, y finalmente multiplicamos cada vector de esta base por el inversode su norma para obtener una base ortonormal.

Page 56: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

56 TEMA 2. ESPACIOS VECTORIALES

Algoritmo de Gram-Schmidt

Comenzamos con una base B = {v1, . . . ,vn} de V . En el paso i-esimo, construimosel vector wi ∈ V de la siguiente forma: para i = 1, w1 = v1. Supongamos que hemosconstruido w1, . . . ,wi−1 y que estos vectores son ortogonales entre sı. El vector wi serade la forma wi = vi − c1w1 − . . . − ci−1wi−1. Para hallar los coeficientes c1, . . . , ci−1,imponemos que wi sea ortogonal a wj para j < i:

0 = 〈wi,wj〉 = 〈vi − c1w1 − . . .− ci−1wi−1,wj〉 = 〈vi,wj〉 − cj〈wj,wj〉

por lo que debemos tomar cj =〈vi,wj〉〈wj ,wj〉 . Es decir,

wi = vi −〈vi,w1〉〈w1,w1〉

w1 − . . .−〈vi,wi−1〉〈wi−1,wi−1〉

wi−1.

Obtenemos ası una base ortogonal B′ = {w1, . . . ,wn} de V . Para obtener la base orto-normal, concluimos multiplicando cada vector wi por el inverso de su modulo:

ui =1

||wi||wi.

Los vectores u1, . . . ,un forman entonces una base ortonormal de V .

Apliquemos el algoritmo para obtener una base ortonormal del subespacio L de R4 de-finido por la ecuacion x1 + x2 − x3 − x4 = 0. Una base de L esta formada por los vectoresv1 = (1,−1, 0, 0), v2 = (1, 0, 1, 0) y v3 = (1, 0, 0, 1). Mediante el algoritmo de Gram-Schmidtobtenemos

w1 = (1,−1, 0, 0)

w2 = (1, 0, 1, 0)− 〈(1, 0, 1, 0), (1,−1, 0, 0)〉〈(1,−1, 0, 0), (1,−1, 0, 0)〉

(1,−1, 0, 0) = (1, 0, 1, 0)−1

2(1,−1, 0, 0) =

(1

2,1

2, 1, 0

)w3 = (1, 0, 0, 1)− 〈(1, 0, 0, 1), (1,−1, 0, 0)〉

〈(1,−1, 0, 0), (1,−1, 0, 0)〉(1,−1, 0, 0)−

〈(1, 0, 0, 1), (12, 12, 1, 0)〉

〈(12, 12, 1, 0), (1

2, 12, 1, 0)〉

(1

2,1

2, 1, 0

)=

= (1, 0, 0, 1)− 1

2(1,−1, 0, 0)− 1

3

(1

2,1

2, 1, 0

)=

(1

3,1

3,−1

3, 1

)y, finalmente, dividiendo cada wi por su modulo,

u1 =1√2w1 =

(1√2,− 1√

2, 0, 0

), u2 =

1√3/2

w2 =

(1√6,

1√6,

√2√3, 0

)

y u3 =

√3

2w3 =

(1

2√

3,

1

2√

3,− 1

2√

3,

√3

2

).

Page 57: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

Tema 3

Homomorfismos de espacios vectoriales

3.1. Homomorfismos: definicion y ejemplos

Los homomorfismos entre espacios vectoriales son aplicaciones que preservan las opera-ciones de espacio vectorial.

Definicion 3.1 Sean V y W dos k-espacios vectoriales. Un homomorfismo entre V y W esuna aplicacion f : V → W tal que

1. f(u + v) = f(u) + f(v) para todos u,v ∈ V .

2. f(c · v) = c · f(v) para todos c ∈ k, v ∈ V .

El conjunto de homomorfismos entre V y W se denota por Hom(V,W ). Si V = W , se dice que fes un endomorfismo de V .

Si f : V → W es un homomorfismo, entonces f(0) = f(0 · 0) = 0 · f(0) = 0. Ademas, siun vector v ∈ V es combinacion lineal de v1, . . . ,vr ∈ V , entonces su imagen f(v) ∈ W escombinacion lineal de f(v1), . . . , f(vr) ∈ W (con los mismos coeficientes). En particular, siv1 . . . ,vr son linealmente dependientes, tambien lo son f(v1), . . . , f(vr).

Ejemplo

1. La aplicacion f : V → W dada por f(v) = 0 para todo v ∈ V es un homomorfismo.

2. La aplicacion f : V → V dada por f(v) = v es un endomorfismo de V , llamadoidentidad.

3. Para todo c ∈ k, la aplicacion f : V → V dada por f(v) = c ·v es un endomorfismode V . Para c = 0 es el homomorfismo cero, y para c = 1 es la identidad.

4. Sea A ∈ Mm×n(k) una matriz. La aplicacion f : kn → km dada por f(v)t = A · vt(donde los vectores de kn y km se escriben como matrices columna) es un homo-morfismo.

5. Sea V = P(k) el espacio vectorial de polinomios con coeficientes en k. La aplicacionf : V → V dada por f(P ) = P ′ (derivacion) es un homomorfismo.

I

57

Page 58: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

58 TEMA 3. HOMOMORFISMOS DE ESPACIOS VECTORIALES

Ejemplo (cont)

6. Sea V =Mn(k). La aplicacion traza tr : V → k es un homomorfismo. Sin embargo,la aplicacion determinante det : V → k no lo es.

7. Sea B = {v1, . . . ,vn} una base de V . La aplicacion f : V → kn dada por f(v) = (v)Bes un homomorfismo.

8. Sea V = C. La conjugacion z 7→ z es un endomorfismo de C como R-espaciovectorial, pero no como C-espacio vectorial.

Veamos que el ejemplo (4) describe todos los homomorfismos entre kn y km.

Teorema 3.1 Sea f : kn → km un homomorfismo. Existe una matriz A ∈ Mm×n(k) tal quef(v)t = A · vt para todo v ∈ kn.

Demostracion

Sea {e1, . . . , en} la base canonica de kn. Entonces v = v1e1 + · · ·+ vnen, ası que f(v) =v1f(e1) + · · ·+ vnf(en). Es decir,

f(v)t = A · vt

donde A ∈Mm×n(k) es la matriz que tiene por columnas f(e1)t, . . . , f(en)t.

Sean ahora V yW dos k-espacios vectoriales de dimensiones n ym, y seanB = {v1, . . . ,vn}y C = {w1, . . . ,wm} bases de V y W . Sea f : V → W un homomorfismo. Dado v ∈ V , sean(c1, . . . , cn) sus coordenadas con respecto a B. Entonces v = c1v1 + · · · + cnvn, y por tantof(v) = c1f(v1) + · · ·+ cnf(vn). Tomando coordenadas con respecto a C, tenemos que

(f(v))C = c1(f(v1))C + · · ·+ cn(f(vn))C,

es decir,(f(v))tC = A · (v)tB

donde A ∈Mm×n(k) es la matriz que tiene por columnas (f(v1))tC, . . . , (f(vn))tC .

Definicion 3.2 La matriz de f : V → W con respecto a B y C es la matriz M(f)B,C ∈Mm×n(k) que tiene por columnas (f(v1))

tC, . . . , (f(vn))tC . Si V = W y B = C se denota simple-

mente por M(f)B, y se denomina matriz de f con respecto a B.

Esta matriz es la unica que verifica que (f(v))C = M(f)B,C(v)B para todo v ∈ V .

Page 59: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

3.1. HOMOMORFISMOS: DEFINICION Y EJEMPLOS 59

Ejemplo

1. La matriz del homomorfismo cero f : V → W con respecto a cualquier par debases es la matriz cero.

2. La matriz del endomorfismo identidad f : V → V con respecto a las bases B y B′de V es justamente la matriz de cambio de base de B a B′. En particular, si B = B′,es la matriz identidad.

3. Si V = M2(k), la matriz del homomorfismo traza V → k con respecto a las basescanonicas es

(1 0 0 1

).

4. Si V = C como R-espacio vectorial, la matriz del endomorfismo conjugacion con

respecto a la base {1, i} es(

1 00 −1

).

Al igual que las coordenadas con respecto a una base B de V nos dan una correspon-dencia biunıvoca entre los vectores de V y los de kn, las matrices con respecto a las basesB = {v1, . . . ,vn} de V y C = {w1, . . . ,wm} de W nos dan una correspondencia biunıvocaentre el conjunto de homomorfismos f : V → W y el espacio de matricesMm×n(k).

Teorema 3.2 Sean f : U → V y g : V → W dos homomorfismos de k-espacios vectoriales.Entonces la composicion g ◦ f : U → W tambien es un homomorfismo. Si B, C y D son bases deU, V y W respectivamente, se tiene que

M(g ◦ f)B,D = M(g)C,D ·M(f)B,C.

Demostracion

Sean u,v ∈ U . Entonces (g ◦ f)(u + v) = g(f(u + v)) = g(f(u) + f(v)) = g(f(u)) +g(f(v)) = (g ◦f)(u)+(g ◦f)(v). Si c ∈ k, entonces (g ◦f)(c ·v) = g(f(c ·v)) = g(c ·f(v)) =c · g(f(v)) = c · (g ◦ f)(v). Por tanto, g ◦ f es un homomorfismo.

Ademas, para todo u ∈ U se tiene que

((g ◦ f)(u))D = (g(f(u)))D = M(g)C,D · (f(u))C = M(g)C,D ·M(f)B,C · (u)B,

ası que, por la unicidad de la matriz de un homomorfismo,

M(g ◦ f)B,D = M(g)C,D ·M(f)B,C.

Sean ahora B′ y C ′ otras bases de V y W respectivamente. Para todo v ∈ V se tieneentonces que (v)B = M(B′,B)(v)B′ y, para todo w ∈ W , (w)C′ = M(C, C ′)(w)C . Por tanto,

(f(v))C′ = M(C, C ′)(f(v))C = M(C, C ′)M(f)B,C(v)B = M(C, C ′)M(f)B,CM(B′,B)(v)B′ .

Por la unicidad de M(f)B′,C′ se tiene entonces

Page 60: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

60 TEMA 3. HOMOMORFISMOS DE ESPACIOS VECTORIALES

Teorema 3.3 (cambio de base) Sean B,B′ dos bases de V , C, C ′ dos bases de W y f : V → Wun homomorfismo. Entonces

M(f)B′,C′ = M(C, C ′) ·M(f)B,C ·M(B′,B).

En particular, si V = W ,

M(f)B′ = M(B′,B)−1 ·M(f)B ·M(B′,B).

Un homomorfismo esta unıvocamente determinado por las imagenes de los elementosde una base:

Teorema 3.4 Sea B = {v1, . . . ,vn} una base de V , y sean w1, . . . ,wn ∈ W . Existe un unicohomomorfismo f : V → W tal que f(vi) = wi para todo i = 1, . . . , n.

Demostracion

Dado v ∈ V , existen escalares unicos c1, . . . , cn ∈ k tales que v = c1v1 + · · · + cnvn.Entonces, para que f sea un homomorfismo, debemos definir f(v) = c1f(v1) + · · · +cnf(vn) = c1w1 + · · · + cnwn. Es facil ver que la aplicacion definida de esta forma es, enefecto, un homomorfismo.

3.2. Nucleo e imagen

Teorema 3.5 Sea f : V → W un homomorfismo de k-espacios vectoriales, y L ⊆ V un subes-pacio. La imagen f(L) de L por f es entonces un subespacio de W .

Demostracion

La imagen f(L) es el conjunto de vectores de la forma f(v) con v ∈ L. Sean w1 y w2

in f(L). Entonces existen v1 y v2 en L tales que w1 = f(v1) y w2 = f(v2), y por tantow1 + w2 = f(v1 + v2) y cw1 = f(cv1) para todo c ∈ k, por lo que f(L) es un subespaciode w.

Si L esta generado por los vectores v1, . . . ,vr ∈ V , entonces f(L) esta generado porf(v1), . . . , f(vr) ∈ W .

Definicion 3.3 Sea f : V → W un homomorfismo de k-espacios vectoriales. La imagen de f esel subespacio im(f) = f(V ) ⊆ W .

Page 61: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

3.2. NUCLEO E IMAGEN 61

Si B y C son bases de V y W , el subespacio de coordenadas de im(f) con respecto a C estagenerado por las columnas de M(f)B,C . Por tanto, la dimension de im(f) es el rango de lamatriz M(f)B,C .

Teorema 3.6 Sea f : V → W un homomorfismo de k-espacios vectoriales, y L ⊆ W un subes-pacio. La imagen inversa f−1(L) de L por f es entonces un subespacio de V .

Demostracion

La imagen inversa f−1(L) es el conjunto de vectores v ∈ V tales que f(v) ∈ L. Seanu,v ∈ f−1(L). Entonces f(u + v) = f(u) + f(v) ∈ L y f(cv) = cf(v) ∈ L, puesto que Les un subespacio. Por tanto f−1(L) tambien es un subespacio.

Definicion 3.4 Sea f : V → W un homomorfismo de k-espacios vectoriales. El nucleo de f esel subespacio ker(f) = f−1({0}) = {v ∈ V |f(v) = 0} ⊆ V .

Sean B y C bases de V y W , y supongamos que un sistema de ecuaciones de L con res-pecto a C es A · x = 0. Es decir, w ∈ L si y solo si A · (w)tC = 0. Entonces v ∈ f−1(L) si y solosi

A · (f(v))tC = A ·M(f)B,C(v)tB = 0.

Por tanto, un sistema de ecuaciones de f−1(L) con respecto a B es A ·M(f)B,C · x = 0. Enparticular, un sistema de ecuaciones de ker(f) es M(f)B,C · x = 0. La dimension de ker(f) esigual, por tanto, a la dimension de V menos el rango de M(f)B,C .

Teorema 3.7 Sea f : V → W un homomorfismo de k-espacios vectoriales. Si V es finitamentegenerado, entonces tambien lo son im(f) y ker(f), y dim(im(f)) + dim(ker(f)) = dim(V ).

Demostracion

Supongamos que V es finitamente generado, y sea B una base de V . Entonces f(B) esun sistema generador de im(f), que es por tanto finitamente generado. Ademas, ker(f)es finitamente generado por ser un subespacio de V .

Sea u1, . . . ,ur una base de ker(f), y w1, . . . ,ws una base de im(f). Para cada i =1, . . . , s existe un vi ∈ V tal que f(vi) = wi. Veamos que {u1, . . . ,ur,v1, . . . ,vs} es unabase de V , y por tanto dim(V ) = r + s = dim(ker(f)) + dim(im(f)).

Para todo v ∈ V , f(v) esta en im(f), y por tanto existen d1, . . . , ds ∈ k tales quef(v) = d1w1 + · · ·+ dsws = d1f(v1) + · · ·+ dsf(vs) = f(d1v1 + · · ·+ dsvs). Entonces

f(v − d1v1 − · · · − dsvs) = f(v)− f(d1v1 + · · ·+ dsvs) = 0,I

Page 62: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

62 TEMA 3. HOMOMORFISMOS DE ESPACIOS VECTORIALES

Demostracion (cont)

ası que v−d1v1−· · ·−dsvs ∈ ker(f), por lo que existen c1, . . . , cr ∈ k tales que v−d1v1−· · ·−dsvs = c1u1 + · · ·+ crur, y v es por tanto combinacion lineal de u1, . . . ,ur,v1, . . . ,vs.

Veamos ahora que son linealmente independientes: supongamos que c1u1 + · · · +crur + d1v1 + · · · + dsvs = 0. Aplicando f y teniendo en cuenta que f(ui) = 0 para todoi = 1, . . . , r, deducimos que d1w1 + · · · + dsws = 0, y por tanto d1 = . . . = ds = 0 por serw1, . . . ,ws linealmente independientes. Se tiene entonces que c1u1 + · · ·+ crur = 0, y portanto c1 = . . . = cr = 0 por ser u1, . . . ,ur linealmente independientes.

3.3. Isomorfismos

Por la propia definicion de imagen, un homomorfismo de k-espacios vectoriales f : V →W es sobreyectivo si y solo si im(f) = W . En cuanto a la inyectividad, tambien hay uncriterio en funcion del nucleo:

Teorema 3.8 Sea f : V → W un homomorfismo de k-espacios vectoriales. Las siguientes pro-piedades son equivalentes:

1. f es inyectivo, es decir, las imagenes de dos vectores distintos de V son distintas.

2. ker(f) = {0}.

3. Para todos v1, . . . ,vr ∈ V linealmente independientes, sus imagenes f(v1), . . . , f(vr) ∈W son linealmente independientes.

Demostracion

Supongamos que f es inyectivo, y sea v ∈ ker(f). Entonces f(v) = 0 = f(0), y portanto v = 0. Ası que ker(f) = {0}.

Supongamos ahora que ker(f) = {0}, y sean v1, . . . ,vr ∈ V linealmente indepen-dientes. Sean c1, . . . , cr ∈ k tales que c1f(v1) + · · · + crf(vr) = f(c1v1 + · · · + crvr) = 0.Entonces c1v1 + · · ·+ crvr ∈ ker(f), y por tanto c1v1 + · · ·+ crvr = 0. Como v1, . . . ,vr sonlinealmente independientes, concluimos que c1 = . . . = cr = 0.

Finalmente, supongamos que se verifica la propiedad (3), y sean u,v ∈ V tales quef(u) = f(v). Entonces f(u− v) = 0. Como el conjunto {0} es linealmente dependiente,tambien debe serlo {u− v}, por lo que u− v = 0, de donde u = v.

Definicion 3.5 Un isomorfismo entre dos k-espacios vectoriales V y W es un homomorfismobiyectivo f : V → W . Los espacios vectoriales V yW se dicen isomorfos si existe un isomorfismoentre ellos.

Page 63: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

3.3. ISOMORFISMOS 63

Teorema 3.9 Sea f : V → W un isomorfismo de k-espacios vectoriales. Entonces la aplicacioninversa f−1 : W → V tambien es un isomorfismo.

Demostracion

La inversa f−1 es claramente biyectiva, por lo que basta probar que es un homo-morfismo. Sean w1,w2 ∈ W , v1 = f−1(w1) y v2 = f−1(w2). Entonces f(v1) = w1

y f(v2) = w2. Por definicion, f−1(w1 + w2) es el unico vector de V tal que su ima-gen por f es w1 + w2. Como f(v1 + v2) = f(v1) + f(v2) = w1 + w2, debe serf−1(w1 + w2) = v1 + v2 = f−1(w1) + f−1(w2). Analogamente, para todo c ∈ k f−1(cw1)es el unico vector de V tal que su imagen por f es cw1. Como cv1 cumple esa condicion,debe ser f−1(cw1) = cv1 = cf−1(w1). Por tanto f−1 es un homomorfismo.

Los criterios de sobreyectividad e inyectividad se pueden expresar en funcion de las ma-trices de los homomorfismos, si fijamos bases. Supongamos que V y W tienen dimensionesn y m respectivamente, y sean B y C bases de V y W . Entonces se tiene que

f es sobreyectiva si y solo si M(f)B,C tiene rango m.

f es inyectiva si y solo si M(f)B,C tiene rango n.

f es un isomorfismo si y solo si M(f)B,C es invertible.

Teorema 3.10 Sean V y W dos k-espacios vectoriales finitamente generados de la misma dimen-sion, y f : V → W un homomorfismo. Las siguientes propiedades son equivalentes:

1. f es inyectivo.

2. f es sobreyectivo.

3. f es un isomorfismo.

Demostracion

Obviamente basta probar que las condiciones (1) y (2) son equivalentes. Sea n =dim(V ) = dim(W ). Se tiene entonces que n = dim(ker(f)) + dim(im(f)), por lo quedim(ker(f)) = 0 (es decir, f es inyectivo) si y solo si dim(im(f)) = n (es decir, f essobreyectivo, ya que dim(W ) = n).

Dos espacios vectoriales isomorfos deben tener la misma dimension, y de hecho esta esla unica condicion necesaria:

Teorema 3.11 Dos k-espacios vectoriales finitamente generados V y W son isomorfos si y solosi tienen la misma dimension.

Page 64: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

64 TEMA 3. HOMOMORFISMOS DE ESPACIOS VECTORIALES

Demostracion

Supongamos que V y W son isomorfos, y sea f : V → W un isomorfismo. Entoncesdim(V ) = dim(ker(f)) + dim(im(f)) = dim({0}) + dim(W ) = dim(W ).

Recıprocamente, supongamos que dim(V ) = dim(W ) = n, y sean B = {v1, . . . ,vn}y C = {w1, . . . ,wn} bases de V y W . Sea f : V → W el unico homomorfismo tal quef(vi) = wi para todo i = 1, . . . , n. Como los vectores w1, . . . ,wn estan en im(f) y generanW , f es sobreyectiva. Concluimos por el resultado anterior.

3.4. Espacio dual

Definicion 3.6 Sea V un k-espacio vectorial. Una forma lineal definida en V es un homomor-fismo σ : V → k. El conjunto de formas lineales definidas en V se denota por V ∗.

Si σ ∈ V ∗, denotaremos por 〈σ,v〉 el valor σ(v) ∈ k obtenido al aplicar σ al vector v.

Ejemplo

1. Sea B = {v1, . . . ,vn} una base de V . Para cada v ∈ V , sea σ(v) ∈ k la primeracoordenada de v con respecto a B (la correspondiente a v1). La aplicacion σ : V → kes una forma lineal.

2. La aplicacion trazaMn(k)→ k es una forma lineal.

3. Sea V el espacio vectorial de funciones reales continuas definidas en el intervalo[0, 1] ⊂ R. La aplicacion σ : V → R dada por σ(f) =

∫ 1

0f(x)dx es una forma lineal.

Si σ, τ ∈ V ∗ son dos formas lineales, su suma σ + τ (es decir, la aplicacion que asocia acada v ∈ V el escalar σ(v) + τ(v)) tambien lo es. Ademas, para todo c ∈ k, la aplicacionc · σ : V → k tambien es una forma lineal.

Definicion 3.7 Con estas dos operaciones, el conjunto V ∗ adquiere una estructura de espaciovectorial sobre k, que llamaremos espacio dual de V .

Fijemos una base B = {v1, . . . ,vn} de un espacio vectorial finitamente generado V . Paracada i = 1, . . . , n definimos una aplicacion σi : V → k de la siguiente forma: si v ∈ V y lascoordenadas de v con respecto a B son (c1, . . . , cn), sea σi(v) = ci. Es facil ver que σi es unaforma lineal.

Page 65: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

3.5. AUTOVALORES Y AUTOVECTORES 65

Teorema 3.12 Con las notaciones anteriores, B∗ = {σ1, . . . , σn} es una base de V ∗, que llama-remos base dual de B. En particular, dim(V ∗) = dim(V ).

Demostracion

Notemos que 〈σi,vj〉 es igual a 1 si i = j, y a 0 si i 6= j. Veamos que σ1, . . . , σnson linealmente independientes. Sean c1, . . . , cn ∈ k tales que c1σ1 + · · · + cnσn sea laaplicacion cero V → k. Entonces 〈c1σ1 + · · · + cnσn,vi〉 = 0 para todo i = 1, . . . , n. Pero〈c1σ1 + · · · + cnσn,vi〉 = c1〈σ1,vi〉 + · · · + cn〈σn,vi〉 = ci, por lo que ci = 0 para todoi = 1, . . . , n.

Veamos ahora que σ1, . . . , σn generan V . Sea σ ∈ V ∗ una forma lineal, y definamosci = 〈σ,vi〉 para cada i = 1, . . . , n. Entonces σ y c1σ1 + · · ·+ cnσn son dos formas linealesen V cuyos valores coinciden en v1, . . . ,vn. Como estos vectores forman una base de V ,concluimos que las dos formas lineales deben ser iguales, y por tanto σ es combinacionlineal de σ1, . . . , σn.

3.5. Autovalores y autovectores

Definicion 3.8 Sea V un k-espacio vectorial y f : V → V un endomorfismo. Un vector v 6= 0se dice un autovector de f si f(v) = λ · v para un escalar λ ∈ k, que llamaremos el autovalorasociado a v.

Si A ∈Mn(k) es una matriz cuadrada, llamaremos autovectores y autovalores de A a losdel endomorfismo de kn dado por la multiplicacion (a la izquierda) por A.

Ejemplo

1. Todo v ∈ ker(f) distinto de 0 es un autovector de f asociado al autovalor 0.

2. Sea f : Mn(k) → Mn(k) es endomorfismo dado por la trasposicion. Una matrizsimetrica no nula es un autovector de f asociado al autovalor 1, y una matriz anti-simetrica no nula es un autovector de f asociado al autovalor −1.

Si u,v son autovectores de f asociados a λ ∈ k, entonces u + v y c · v para todo escalar ctambien lo son (si no son nulos). Por tanto, los autovectores de f asociados a λ junto con elvector 0 forman un subespacio de V , que llamaremos subespacio propio de f asociado a λ.

El subespacio propio de f asociado a λ esta formado por los vectores v tales que f(v) =λv = λ · IdV (v), es decir, tales que (λ · IdV − f)(v) = 0. Por tanto, el subespacio propio no esmas que ker(λ · IdV − f).

Fijemos una base B = {v1, . . . ,vn} de V , y sea A = M(f)B la matriz de f con respecto aB. Entonces la matriz de λ · IdV − f con respecto a B es λIn − A. Si λ es un autovalor de f ,

Page 66: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

66 TEMA 3. HOMOMORFISMOS DE ESPACIOS VECTORIALES

debe existir un vector no nulo en el nucleo de λ · IdV −f , por lo que el rango de λIn−A debeser menor que n. Es decir, la matriz λIn −A debe tener determinante nulo. Recıprocamente,si esta matriz tiene rango menor que n el sistema homogeneo correspondiente debe teneralguna solucion no nula, por lo que existe algun autovector asociado a λ. Por tanto,

Teorema 3.13 Sea A la matriz del endomorfismo f : V → V con respecto a una base B. Elescalar λ ∈ k es un autovalor de f si y solo si la matriz λIn − A es singular.

Para hallar los autovalores de f debemos entones hallar los λ tales que det(λIn −A) = 0.Notemos que este determinante es un polinomio en λ de grado n (la dimension de V ).

Definicion 3.9 Sea A ∈Mn(k) una matriz cuadrada. El polinomio caracterıstico de A es

P (t) = det(tIn − A) ∈ k[t].

Las raıces del polinomio caracterıstico de M(f)B son entonces los autovalores de f . Siusamos otra base B′, la matriz correspondiente sera M(f)B′ = M(B′,B)−1M(f)BM(B′,B).Veamos que el polinomio caracterıstico no varıa.

Definicion 3.10 Dos matrices A,B ∈Mn(k) se dicen semejantes si existe una matriz inverti-ble P ∈Mn(k) tal que B = P−1AP .

Si B y B′ son dos bases de V , las matrices M(f)B y M(f)B′ son semejantes.

Teorema 3.14 Dos matrices semejantes tienen el mismo polinomio caracterıstico.

Demostracion

Sea P ∈Mn(k) una matriz invertible tal queB = P−1AP . Entonces tIn−B = tP−1P−P−1AP = P−1(tIn − A)P , ası que

det(tIn−B) = det(P−1) det(tIn−A) det(P ) = det(P )−1 det(tIn−A) det(P ) = det(tIn−A).

Definicion 3.11 Sea f : V → V un endomorfismo. El polinomio caracterıstico de f es poli-nomio caracterıstico de la matriz de f con respecto a cualquier base de V .

Page 67: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

3.6. DIAGONALIZACION 67

Si k es algebraicamente cerrado (por ejemplo k = C) todo endomorfismo f : V → Vtiene al menos un autovalor, ya que todo polinomio tiene al menos una raız en k. Si k noes algebraicamente cerrado, pueden existir endomorfismos sin autovalores: por ejemplo, el

endomorfismo f : R2 → R2 dado por la multiplicacion por la matriz(

0 1−1 0

)no tiene

ningun autovalor.

Definicion 3.12 Sea V un k-espacio vectorial finitamente generado, f : V → V un endomorfis-mo y λ ∈ k un autovalor de f . La multiplicidad algebraica de λ es la multiplicidad de λ comoraız del polinomio caracterıstico de f . La multiplicidad geometrica de λ es la dimension delsubespacio propio asociado a λ.

Las multiplicidades algebraica y geometrica de un autovalor de f son siempre mayoreso iguales que 1.

Teorema 3.15 La multiplicidad geometrica de un autovalor λ del endomorfismo f : V → V esmenor o igual que su multiplicidad algebraica.

Demostracion

Sea Wλ ⊆ V el subespacio propio asociado a λ, y sea r su dimension (es decir, lamultiplicidad geometrica de λ). Sea B una base de V obtenida ampliando una base deWλ. Como todo vector v ∈ Wλ verifica que f(v) = λv, la matriz de f con respecto a Btiene la forma

A =

λ · · · 0 ∗ · · · ∗... . . . ...

... . . . ...0 · · · λ ∗ · · · ∗... . . . ...

... . . . ...0 · · · 0 ∗ · · · ∗

Desarrollando el determinante de tIn − A por las primeras columnas, vemos que su

polinomio caracterıstico tiene la forma P (t) = (t − λ)r · Q(t) para algun polinomio Q(t)de grado n− r, por lo que la multiplicidad de la raız λ es como mınimo igual a r.

En particular, si la multiplicidad algebraica del autovalor λ es 1 (es decir, si λ es una raızsimple del polinomio caracterıstico de f ), su multiplicidad geometrica tambien es igual a 1.

3.6. Diagonalizacion

Definicion 3.13 Sea V un k-espacio vectorial finitamente generado. Un endomorfismo f : V →V se dice diagonalizable si existe una base B de V tal que la matriz M(f)B sea diagonal. Unamatriz A ∈Mn(k) se dice diagonalizable si es semejante a una matriz diagonal.

Page 68: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

68 TEMA 3. HOMOMORFISMOS DE ESPACIOS VECTORIALES

Por la formula de cambio de base, un endomorfismo f : V → V es diagonalizable si ysolo si su matriz con respecto a una base cualquiera B de V es diagonalizable.

Teorema 3.16 Sea f : V → V un endomorfismo. Entonces f es diagonalizable si y solo si existeuna base B de V formada por autovectores de f .

Demostracion

Sea B = {v1, . . . ,vn} una base de V , y supongamos que M(f)B es diagonal.Sean c1, . . . , cn sus elementos diagonales. Entonces, aplicando la formula (f(v))B =M(f)B(v)B a los vectores de B, obtenemos f(vi) = civi, es decir, B esta formada porautovectores de f .

Recıprocamante, supongamos que los vectores de B son autovectores de f . Entoncesf(vi) = λivi para algun λi ∈ k, por lo que la matriz de f con respecto a B tiene la forma

λ1 0 · · · 00 λ2 · · · 0...

... . . . ...0 0 · · · λn

.

Sea n la dimension de V . Para cada autovalor λ de f , sea aλ su multiplicidad algebraicay gλ su multiplicidad geometrica. Recordemos que 1 ≤ gλ ≤ aλ, y ademas

∑aλ ≤ n (puesto

que la suma de las multiplicidades de las raıces del polinomio caracterıstico de f es comomucho igual a su grado).

Teorema 3.17 Sea f : V → V un endomorfismo. Son equivalentes:

1. f es diagonalizable.

2. La suma de los gλ es igual a n.

3. El polinomio caracterıstico de f se descompone como producto de factores lineales, y gλ = aλpara todo autovalor λ.

Veamos antes un lema tecnico

Lema 3.18 Sean f : V → V un endomorfismo, y v1, . . . ,vr ∈ V autovectores de f asociados aautovalores distintos. Entonces v1 + . . .+ vr 6= 0.

Page 69: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

3.6. DIAGONALIZACION 69

Demostracion

Supongamos que vi esta asociado al autovalor λi. Procedemos por induccion en r:para r = 1 es evidente, puesto que todo autovector debe ser distinto de 0. Supongamospor reduccion al absurdo que v1 + v2 + · · ·+ vr = 0. Aplicando f , obtenemos

f(v1) + f(v2) + · · ·+ f(vr) = λ1v1 + λ2v2 + · · ·+ λrvr = 0.

Por otra parte, multiplicando la suma original por λ1:

λ1v1 + λ1v2 + · · ·+ λ1vr = 0.

Restando ambas igualdades, se tiene

(λ2 − λ1)v2 + · · ·+ (λr − λ1)vr = 0.

Por hipotesis de induccion, esto es imposible, puesto que (λi − λ1)vi es un autovectorasociado a λi para todo i = 2, . . . , r.

Demostracion del teorema

Supongamos que f es diagonalizable, y sea B una base de V formada por autovecto-res de f . Cada autovector esta asociado a un autovalor λ. Para cada λ, sea bλ el numero deelementos de B asociados a λ. Como maximo hay gλ autovectores linealmente indepen-dientes asociados a λ, por lo que bλ ≤ gλ. Pero entonces n =

∑bλ ≤

∑gλ ≤

∑aλ ≤ n,

por lo que∑gλ = n.

Supongamos ahora que la suma de los gλ es igual a n. Entonces n =∑gλ ≤

∑aλ ≤ n,

por lo que∑aλ = n (es decir, el polinomio caracterıstico se descompone como producto

de factores lineales) y∑aλ =

∑gλ, lo cual implica que aλ = gλ para todo λ (ya que

gλ ≤ aλ).Finalmente, supongamos que el polinomio caracterıstico de f se descompone como

producto de factores lineales (es decir,∑aλ = n) y que gλ = aλ para todo autovalor λ.

Para cada λ, sea Bλ una base del subespacio propio asociado a λ. Entonces Bλ tiene gλelementos. Veamos que la union

⋃Bλ es una base de V , y entonces f sera diagonalizable,

ya que⋃Bλ esta compuesto por autovectores de f .

Como⋃Bλ tiene

∑gλ = n elementos, basta probar que es linealmente independien-

te. Sea B = {v1, . . . ,vn}, y c1, . . . , cn ∈ k tales que c1v1 + · · · + cnvn = 0. Denotemospor λ1, . . . , λr los autovalores de f , y agrupemos en la combinacion lineal anterior losterminos asociados al mismo autovalor:

(c1v1+ · · ·+cm1vm1)+(cm1+1vm1+1+ · · ·+cm2vm2)+ · · ·+(cmr−1+1vmr−1+1+ · · ·+cnvn) = 0

donde vmi−1+1, . . . ,vmison los elementos de Bλi . La suma del grupo i-esimo es, o bien

cero, o bien un autovector asociado a λi. Por el lema, todas las sumas debe ser igual acero: cmi−1+1vmi−1+1 + · · · + cmi

vmi= 0 para todo i = 1, . . . , r. Pero Bλi es linealmente

independiente, por lo que concluimos que todos los ci deben ser cero.

Notemos que, si k es algebraicamente cerrado (por ejemplo, k = C), la primera parte dela condicion (3) se cumple automaticamente por el teorema fundamental del algebra.

Un caso especial importante es el siguiente:

Page 70: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

70 TEMA 3. HOMOMORFISMOS DE ESPACIOS VECTORIALES

Corolario 3.19 Supongamos que f tiene n autovalores distintos. Entonces f es diagonalizable.

Demostracion

En ese caso, aλ = 1 para todo λ, por lo que gλ tambien es igual a 1 para todo λ y secumple la condicion (2) del teorema.

Ejemplo

La matriz 1 0 03 −1 40 0 2

tiene tres autovalores distintos 1, −1 y 2, por lo que es diagonalizable. La matriz 1 0 0

3 −1 40 0 −1

tiene dos autovalores 1 y −1, y para λ = −1 se tiene a−1 = 2 y g−1 = 1, por lo que no esdiagonalizable.

Si A es una matriz diagonalizable, sea B una base de kn formada por autovectores deA. Si denotamos por P la matriz invertible que tiene como columnas los vectores de B, setiene entonces que AP = PD, donde D es la matriz diagonal que tiene como elementosdiagonales los autovalores de A (asociados a los elementos correspondientes de B). Dichode otra forma, se tiene P−1AP = D.

En tal caso, es facil calcular An para todo n ≥ 1: como A = PDP−1, tenemos que

An = (PDP−1)n = (PDP−1)(PDP−1) · · · (PDP−1) = PDnP−1

y Dn se obtiene simplemente elevando a n cada una de sus entradas diagonales.

3.7. Teoremas espectrales

En esta seccion trabajaremos sobre el espacio euclıdeo Cn o Rn.

Definicion 3.14 Una matriz A ∈Mn(k) se dice normal si AA∗ = A∗A, es decir, si A conmutacon su conjugada traspuesta.

Page 71: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

3.7. TEOREMAS ESPECTRALES 71

Ejemplo

1. Las matrices diagonales son normales.

2. Si k = C, las matrices hermıticas (es decir, tales que A∗ = A) son normales.

3. Si k = R, las matrices simetricas y antisimetricas son normales.

4. Si k = C, las matrices unitarias (es decir, tales que AA∗ = In) son normales.

5. Si k = R, las matrices ortogonales (es decir, tales que AAt = In) son normales.

Teorema 3.20 (Lema de Schur) Sea A ∈Mn(C) una matriz. Entonces existe una matriz uni-taria U ∈Mn(C) tal que U∗AU es triangular superior.

Demostracion

Procedemos por induccion en n. Para n = 1 toda matriz es triangular, por lo que elresultado es evidente. Como C es algebraicamente cerrado, A tiene al menos un auto-vector v. Extendamos v a una base {v1 = v,v2, . . . ,vn} de Cn, y sea B = {u1, . . . ,un} labase ortonormal obtenida al aplicar el algoritmo de Gram-Schmidt a esta. Entonces u1

es un multiplo de v, por lo que es tambien un autovector de A, asociado a un autovalorλ. Si U1 es la matriz cuyas columnas son los vectores de B, U1 es unitaria y AU1 es de laforma (

λu1 Au2 · · · Aun).

Por tanto, U∗1AU1 es de la forma λ ∗ · · · ∗0... B0

donde B ∈ Mn−1(C). Por hipotesis de induccion, existe una matriz unitaria V ∈Mn−1(C) tal que V ∗BV es triangular superior. Sea

U2 =

1 0 · · · 00... V0

∈Mn(C),

entonces U2 es unitaria y, si denotamos U = U1U2, se tiene que

U∗AU = U∗2 (U∗1AU1)U2 =

λ ∗ · · · ∗0... V ∗BV0

I

Page 72: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

72 TEMA 3. HOMOMORFISMOS DE ESPACIOS VECTORIALES

Demostracion (cont)

es triangular superior.

Teorema 3.21 Una matriz A ∈ Mn(C) es normal si y solo si existe una matriz unitaria U ∈Mn(C) tal que U∗AU es diagonal.

Demostracion

Supongamos que A es normal. Por el lema de Schur, existe una matriz unitaria U ∈Mn(C) tal que U∗AU = T es triangular superior. Entonces T ∗T = (U∗AU)∗(U∗AU) =U∗A∗AU = U∗AA∗U = (U∗AU)(U∗AU)∗ = TT ∗, por lo que T tambien es normal. Paratodo i = 1, . . . , n, el elemento de T ∗T en la posicion (i, i) viene dado por t1it1i + t2it2i +· · · + tiitii = |t1i|2 + · · · + |tii|2, y el de TT ∗ viene dado por tiitii = |tii|2, por lo quet1i = t2i = · · · = ti−1,i = 0, es decir, T es diagonal.

Recıprocamente, supongamos que existe una matriz unitaria U tal que D = U∗AUes diagonal. Entonces A = UDU∗, por lo que A∗A = (UDU∗)∗(UDU∗) = UD∗DU∗ =UDD∗U∗ = (UDU∗)(UDU∗)∗ = AA∗.

Teorema 3.22 Sea A ∈Mn(C) una matriz normal, y u,v ∈ kn dos autovectores de A asociadosa autovalores distintos. Entonces u ⊥ v.

Demostracion

Supongamos en primer lugar que A es diagonal, y sean a1, . . . , an las entradas dia-gonales. Sean λ, µ los autovalores asociados a u, v. Entonces Aut = (a1u1, . . . , anun)t =λ(u1, . . . , un)t y Avt = (a1v1, . . . , anvn)t = µ(v1, . . . , vn)t, de donde aiui = λui y aivi = µvipara todo i = 1, . . . , n. Por tanto aiuivi = λuivi = µuivi para todo i. Como λ 6= µ, sededuce que uivi = 0 para todo i, es decir, o bien ui = 0 o bien vi = 0. En particular, u ⊥ v.

En general, sea U ∈ Mn(C) una matriz unitaria tal que D = U∗AU sea diagonal.Entonces U∗ut y U∗vt son autovectores de D asociados a autovalores distintos, por loque (U∗ut) ⊥ (U∗vt). En otras palabras, (U∗ut)∗(U∗vt) = 0, de donde u · vt = 0, es decir,u ⊥ v.

Teorema 3.23 Si A ∈Mn(C) es una matriz hermıtica, todos los autovalores de A son reales.

Page 73: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

3.7. TEOREMAS ESPECTRALES 73

Demostracion

Sea λ ∈ C un autovalor de A y v un autovector asociado a el. Entonces Avt = λvt, dedonde vA = vA∗ = (Avt)∗ = (λvt)∗ = λv. Por tanto

λ||v||2 = v(λvt) = vAvt = (λv)vt = λ||v||2

de donde λ = λ, es decir, λ ∈ R.

Corolario 3.24 Sea A ∈ Mn(R) una matriz simetrica. Entonces existe una matriz ortogonalO ∈Mn(R) tal que OtAO es diagonal. En particular, A es diagonalizable.

Demostracion

Si vemos A como matriz enMn(C) es diagonalizable, por ser normal. Pero tambienes hermıtica, por lo que sus autovalores son reales, y por tanto los autovectores puedentomarse tambien reales. La construccion de la prueba del lema de Schur nos da entoncesuna matriz ortogonal O tal que O∗AO = OtAO es diagonal.

Las columnas de O forman una base ortonormal de Rn con respecto a la cual el endo-morfismo dado por la multiplicacion por A tiene matriz diagonal. Para calcular dicha base,hallamos bases de los subespacios propios asociados a cada autovalor. Los vectores de basescorrespondientes a autovalores distintos son automaticamente ortogonales entre sı, por loque basta aplicar Gram-Schmidt a cada subespacio propio por separado, y unir las basesortonormales obtenidas de esta forma.

Teorema 3.25 Si A ∈ Mn(C) es una matriz unitaria (y, en particular, si A ∈ Mn(R) es unamatriz ortogonal), todos sus autovalores tienen valor absoluto 1.

Demostracion

Sea λ ∈ C un autovalor de A y v un autovector asociado. Entonces Avt = λvt, dedonde vA∗ = (Avt)∗ = λv. Por tanto

|λ|2||v||2 = λλvvt = (λv)(λvt) = vA∗Avt = vvt = ||v||2,

de donde |λ|2 = 1, y λ tiene valor absoluto 1.

Page 74: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

74 TEMA 3. HOMOMORFISMOS DE ESPACIOS VECTORIALES

Page 75: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

Tema 4

Espacio afın y euclıdeo

4.1. Espacio afın

El espacio afın sobre un cuerpo k es el marco en el que se desarrolla la geometrıa afın.Consta de dos tipos de objetos: puntos y vectores, y una operacion entre ellos.

Definicion 4.1 Sea k un cuerpo. El espacio afın n-dimensional sobre k consta de:

El conjunto kn (visto simplemente como conjunto de puntos), que denotaremos An(k).

El espacio vectorial V = kn. Para distinguir sus elementos de los de An(k), los denotaremosde la forma

−−−−−−−→(v1, . . . , vn).

Una operacion suma externa An(k) × V → An(k) que asocia al punto P = (a1, ..., an) yal vector v =

−−−−−−−→(v1, . . . , vn) el punto P + v = (a1 + v1, . . . , an + vn).

De la propia definicion de suma de deduce la siguiente propiedad “asociativa”: Paratodo punto P ∈ An(k) y u,v ∈ V se tiene que (P + u) + v = P + (u + v). En la expresion dela derecha, la primera suma es la suma externa del espacio afın, mientras que la segunda esla suma del espacio vectorial V .

Definicion 4.2 Dados dos puntos P,Q ∈ An(k), el unico vector v de V tal que P + v = Q sedenota por

−→PQ.

Es decir, por definicion se cumple la formula P +−→PQ = Q. En coordenadas, si P =

(a1, . . . , an) y Q = (b1, . . . , bn), entonces−→PQ =

−−−−−−−−−−−−−−−→(b1 − a1, . . . , bn − an).

Teorema 4.1 Para todos P,Q,R, S ∈ An(k), se tiene:

1.−→PQ+

−→QR =

−→PR

2.−→PP = 0

75

Page 76: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

76 TEMA 4. ESPACIO AFIN Y EUCLIDEO

3.−→PQ = −

−→QP

4.−→PQ =

−→RS ⇔

−→PR =

−→QS (formula del paralelogramo)

Demostracion

Todas las propiedades son consecuencia inmediata de la definicion. Veamos porejemplo la primera: se tiene que

P + (−→PQ+

−→QR) = (P +

−→PQ) +

−→QR = Q+

−→QR = R

pero como−→PR es el unico vector que sumado a P nos da R, debe ser igual a

−→PQ+

−→QR.

Definicion 4.3 Los puntos P0, P1, . . . , Pr ∈ An(k) se dicen afınmente dependientes o inde-pendientes si los vectores

−−→P0P1, . . . ,

−−→P0Pr ∈ V son linealmente dependientes o independientes,

respectivamente.

Por ejemplo, los puntos (1, 0), (0, 1) y (1, 1) de A2(R) son afınmente independientes, pero(1, 0), (0, 1) y (2,−1) son afınmente dependientes. Como el maximo numero de vectores li-nealmente independientes en kn es n, un conjunto de puntos afınmente independiente tienea lo sumo n+ 1 elementos.

Pongamos Pi = (ai1, . . . , ain) para cada i = 0, . . . , r. Entonces los puntos {P0, P1, . . . , Pr}son afınmente independientes si y solo si el rango de la matriz

a11 − a01 · · · ar1 − a01a12 − a02 · · · ar2 − a02

... . . . ...a1n − a0n · · · arn − a0n

es igual a r. Este rango es uno menos que el de la matriz

1 0 · · · 00 a11 − a01 · · · ar1 − a010 a12 − a02 · · · ar2 − a02...

... . . . ...0 a1n − a0n · · · arn − a0n

.

Sumando la primera fila multiplicada por a0i a la fila (i + 1)-esima para todo i = 1, . . . , n,este rango es el mismo que el de la matriz

1 0 · · · 0a01 a11 − a01 · · · ar1 − a01a02 a12 − a02 · · · ar2 − a02

...... . . . ...

a0n a1n − a0n · · · arn − a0n

.

Page 77: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

4.2. VARIEDADES LINEALES 77

Finalmente, sumando la primera columna a todas las demas, concluimos que

Teorema 4.2 Los puntos P0, . . . , Pr son afınmente independientes si y solo si el rango de lamatriz

1 1 · · · 1a01 a11 · · · ar1a02 a12 · · · ar2

...... . . . ...

a0n a1n · · · arn

es igual a r + 1.

En particular, el que los puntos sean o no afınmente dependientes no depende del or-den en que se tomen. Es decir, podemos elegir cualquiera de ellos como punto base paraconstruir los vectores que deben o no ser linealmente dependientes.

4.2. Variedades lineales

Dado un punto O ∈ An(k) y un subconjunto S ⊆ V , denotaremos por O + S el conjuntode puntos de An(k) de la forma O + v, para todo v ∈ S.

Definicion 4.4 Un subconjunto L ⊆ An(k) se dice una variedad lineal si es vacıo o si es de laforma O + W , donde O es un punto de An(k) y W un subespacio vectorial de V . En tal caso, elsubespacio W se denotara por D(L) y se llamara subespacio de direcciones de L.

Si P,Q ∈ O + W , entonces existen u,v ∈ W tales que P = O + u y Q = O + v, por loque Q = (O + u) + (v − u) = P + (v − u). Es decir, el vector

−→PQ = v − u esta en D(L).

Por tanto, D(L) es igual al conjunto de todos los vectores de la forma−→PQ para todo par de

puntos P,Q ∈ L y, en particular, no depende de O.

Ejemplo

Un conjunto L = {P} con un solo punto es una variedad lineal, y D(L) = {0}. Elespacio total L = An(k) tambien lo es, con D(L) = kn.

Sea O = (a1, . . . , an) y v1, . . . ,vr un sistema generador de W , donde vi =−−−−−−−−→(vi1, . . . , vin).

Entonces los puntos de O +W son los de la forma (x1, . . . , xn), donde

x1 = a1 + t1v11 + · · ·+ trvr1...

...xn = an + t1v1n + · · ·+ trvrn

para t1, . . . , tr ∈ k escalares cualesquiera. Llamaremos a esta expresion unas ecuaciones pa-rametricas de L.

Page 78: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

78 TEMA 4. ESPACIO AFIN Y EUCLIDEO

Sean ahora Cxt = 0 unas ecuaciones implıcitas de W (donde C es la matriz de coeficien-tes). Un punto P = (x1, . . . , xn) esta en L si y solo si el vector

−→OP =

−−−−−−−−−−−−−−−→(x1 − a1, . . . , xn − an)

esta en W , es decir, si y solo si

C ·

x1 − a1...

xn − an

=

0...0

⇔ C ·

x1...xn

=

b1...br

donde b1

...br

= C ·

a1...an

.

Es decir, una variedad lineal es siempre el conjunto de soluciones de un sistema de ecuacio-nes lineales (no necesariamente homogeneas). A un tal sistema lo llamaremos unas ecuacio-nes implıcitas de L.

Recıprocamente, el conjunto de soluciones de un sistema de ecuaciones lineales es siem-pre una variedad lineal. Si el sistema es incompatible es evidente, puesto que el conjuntovacıo es una variedad lineal por definicion. Si es compatible, sea O = (a1, . . . , an) una so-lucion del sistema, y sea W el subespacio de soluciones del sistema homogeneo correspon-diente. Entonces todo punto de la forma O + v con v ∈ W es tambien solucion del sistema,y toda solucion del sistema puede escribirse de esta forma, como se vio en el tema 1. Portanto el conjunto de soluciones forma una variedad lineal L, y ademas su subespacio dedirecciones D(L) esta formado por los vectores cuyas coordenadas son solucion del sistemahomogeneo correspondiente.

Definicion 4.5 Sea L ⊆ An(k) una variedad lineal no vacıa. Se define su dimension como ladimension del subespacio D(L) ⊆ kn.

En particular, la dimension de una variedad lineal no vacıa en An(k) es un numero enterocomprendido entre 0 y n. Las variedades de dimension 0 son los puntos, las de dimension 1y 2 se llaman rectas y planos respectivamente, y las de dimension n− 1 se llaman hiperplanos.Si una variedad no vacıa L1 esta contenida en otra variedad L2, entonces D(L1) ⊆ D(L2),por lo que dim(L1) ≤ dim(L2). Ademas, la igualdad se da unicamente cuando L1 = L2.

Definicion 4.6 Sea L ⊆ An(k) una variedad lineal. Un conjunto de puntos {P0, P1, . . . , Pr} deL se dice un sistema generador deL si los vectores

−−→P0P1, . . . ,

−−→P0Pr forman un sistema generador

de D(L), y se dice una base de L si los vectores−−→P0P1, . . . ,

−−→P0Pr forman una base de D(L).

Si Pi = (ai1, . . . , ain) para cada i = 0, . . . , r, el conjunto {P0, P1, . . . , Pr} es un sistemagenerador de L si y solo si el rango de la matriz

1 1 · · · 1a01 a11 · · · ar1a02 a12 · · · ar2

...... . . . ...

a0n a1n · · · arn

Page 79: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

4.3. SISTEMAS DE REFERENCIA 79

(que es uno mas que el rango de la matriz formada por los vectores−−→P0P1, . . . ,

−−→P0Pr) es igual

a dim(L)+1. En particular, si el conjunto es una base de L, este numero debe ser igual a r+1.

Teorema 4.3 Toda base de una variedad lineal L de dimension d tiene d+ 1 elementos.

4.3. Sistemas de referencia

Los sistemas de referencia jugaran el papel que jugaban las bases para los espacios vec-toriales: dado un sistema de referencia, podremos asociar unas coordenadas a cada puntode una variedad lineal.

Definicion 4.7 Un sistema de referencia de una variedad lineal L ⊆ An(k) es un par R =(O,B) formado por un punto O ∈ L (llamado el origen deR) y una base B de D(L).

Ejemplo

Si L = An(k), el punto O = (0, . . . , 0) ∈ An(k) y la base canonica de kn forman unsistema de referencia, que llamaremos sistema de referencia canonico.

Fijemos un sistema de referencia R de L. Dado un punto P ∈ L, las coordenadas delvector

−→OP ∈ D(L) con respecto a B se llamaran las coordenadas de P con respecto a R, y se

denotaran por (P )R. Si B = {v1, . . . ,vd}, decir que (P )R = (c1, . . . , cd) es equivalente a decirque P = O + c1v1 + · · ·+ cdvd. Esto nos da una correspondencia biunıvoca entre los puntosde L y los elementos de kd, donde d = dim(L).

Ejemplo

Sea L ⊆ A3(R) el plano definido por x+ y+ z = 1. Entonces D(L) es el subespacio deR3 definido por la ecuacion x+y+z = 0. El parR = ((1, 0, 0), {

−−−−−−−−−−−−−→(1,−1, 0), (1, 0,−1)}) es un

sistema de referencia de L. Con respecto a este sistema de referencia, las coordenadas delpunto (−1, 1, 1) ∈ L son (−1,−1), puesto que (−1, 1, 1) = (1, 0, 0)−

−−−−−−→(1,−1, 0)−

−−−−−−→(1, 0,−1).

Todo sistema de referenciaR = (O,B) de L determina una base, formada por los puntosO,O + v1, . . . , O + vd. Recıprocamente, toda base {P0, P1, . . . , Pd} de L determina el sistemade referencia formado por el punto P0 como origen y la base {

−−→P0P1, . . . ,

−−→P0Pd} de D(L). Ası,

dar un sistema de referencia de una variedad lineal es equivalente a dar una base.Sea ahora R′ = (O′,B′) otro sistema de referencia de L, y sea P ∈ L un punto con

coordenadas (c1, . . . , cd) con respecto aR. Entonces

P = O + c1v1 + · · ·+ cdvd = O′ +−−→O′O + c1v1 + · · ·+ cdvd

y por tanto las coordenadas de P con respecto a R′ son las coordenadas del vector−−→O′O +

c1v1 + · · · + cdvd con respecto a B′ = {v′1, . . . ,v′d}, que son la suma de las coordenadas de

Page 80: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

80 TEMA 4. ESPACIO AFIN Y EUCLIDEO

−−→O′O y las de c1v1 + · · · + cdvd. Las de

−−→O′O son las coordenadas de O con respecto a R′ por

definicion, y las de c1v1 + · · · + cdvd se obtienen multiplicando el vector (c1, . . . , cd)t por la

matriz de cambio de base M(B,B′). Es decir,

(P )tR′ = (O)tR′ +M(B,B′) · (P )tR

lo cual puede escribirse mas concisamente como(1

(P )tR′

)= M(R,R′) ·

(1

(P )tR

)donde

M(R,R′) =

(1 0 · · · 0

(O)tR′ M(B,B′)

),

que llamaremos matriz de cambio de sistema de referencia deR aR′.En particular, si O = O′, las coordenadas de P con respecto a R′ se obtienen a partir de

las coordenadas con respecto a R multiplicando por la matriz de cambio de base de B a B′.Si B = B′, las coordenadas de P con respecto a R′ se obtienen a partir de las coordenadascon respecto aR sumandoles el vector constante (O)R′ .

4.4. Operaciones con variedades

La interseccion de dos variedades lineales en An(k) es tambien una variedad lineal: bastaver cada una de ellas como el conjunto de soluciones de un sistema de ecuaciones lineales,y entonces la interseccion sera el conjunto de soluciones de la union de los dos sistemas. Launion de variedades lineales, sin embargo, no es una variedad lineal en general. Por ello esnecesario definir una nueva operacion entre variedades, la suma.

Definicion 4.8 Sea S ⊆ An(k) un subconjunto y O ∈ S. La variedad lineal generada por Ses la variedad L(S) = O+W , donde W es el subespacio de kn generado por los vectores

−→OP para

todo P ∈ S.

Es decir,L(S) es el conjunto de puntos de la formaO+c1−−→OP1+· · ·+cr

−−→OPr para cualesquie-

ra P1, . . . , Pr ∈ S y c1, . . . , cr ∈ k. La definicion de L(S) no depende del punto O ∈ S elegido:si O′ es otro punto de L, todo elemento que se pueda escribir como O + c1

−−→OP1 + · · ·+ cr

−−→OPr

se escribe tambien como

O′ + (1− c1 − · · · − cr)−−→O′O + c1

−−→O′P1 + · · ·+ cr

−−→O′Pr

y viceversa. La variedad L(S) es claramente la menor variedad lineal de An(k) que contienetodos los puntos de S.

Definicion 4.9 Sean L1, L2 dos variedades lineales en An(k). La suma de L1 y L2 es la variedadL1 + L2 = L(L1 ∪ L2) generada por L1 ∪ L2.

Page 81: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

4.4. OPERACIONES CON VARIEDADES 81

Si {P0, . . . , Pr} es un sistema generador de L1 y {Q0, . . . , Qs} un sistema generador de L2,la union {P0, . . . , Pr, Q0, . . . , Qs} es un sistema generador de L1 +L2. En particular, dim(L1 +L2) ≤ dim(L1) + dim(L2) + 1.

Teorema 4.4 Si L1 ∩ L2 6= ∅, entonces D(L1 ∩ L2) = D(L1) ∩ D(L2) y D(L1 + L2) =D(L1) +D(L2).

Demostracion

Sea O ∈ L1 ∩ L2. Entonces D(L1 ∩ L2) es el conjunto de vectores v ∈ V tales queO+ v ∈ L1 ∩L2. Es decir, el conjunto de vectores v tales que O+ v esta tanto en L1 comoen L2, que no es mas que D(L1) ∩D(L2).

Claramente D(L1) y D(L2) estan contenidas en D(L1 +L2) (puesto que L1 y L2 estancontenidas en L1 +L2). Por tanto, D(L1) +D(L2) ⊆ D(L1 +L2). Sea v ∈ D(L1 +L2). Pordefinicion deL1+L2, existen P1, . . . , Pr ∈ L1 yQ1, . . . , Qs ∈ L2 tales que v es combinacionlineal de

−−→OP1, . . . ,

−−→OPr,

−−→OQ1, . . . ,

−−→OQs. En particular, es suma de un vector de D(L1) (la

parte de la combinacion lineal que contiene a−−→OP1, . . . ,

−−→OPr) y uno de D(L2) (la parte de

la combinacion lineal que contiene a−−→OQ1, . . . ,

−−→OQs). Por tanto esta en D(L1) +D(L2).

Teorema 4.5 Si L1 ∩ L2 = ∅, entonces D(L1 + L2) = D(L1) +D(L2) + 〈−→PQ〉, donde P ∈ L1

y Q ∈ L2 son puntos cualesquiera.

Demostracion

Tanto D(L1) como D(L2) y 〈−→PQ〉 estan contenidos en D(L1 + L2), por lo que su su-

ma tambien lo esta. Veamos la contencion opuesta. Tomando P como punto base en ladefinicion de L1 + L2, tenemos que D(L1 + L2) es el conjunto de vectores v ∈ V quese escriben como c1

−−→PP1 + · · · + cr

−−→PPr + d1

−−→PQ1 + · · · + ds

−−→PQs, con P1, . . . , Pr ∈ L1 y

Q1, . . . , Qs ∈ L2. Entonces

v = (c1−−→PP1+· · ·+cr

−−→PPr)+(d1

−−→QQ1+· · ·+ds

−−→QQs)+(d1+· · ·+ds)

−→PQ ∈ D(L1)+D(L2)+〈

−→PQ〉.

Teorema 4.6 (de la dimension) Sean L1, L2 ∈ An(k) dos variedades lineales.

1. Si L1 ∩ L2 6= ∅, entonces dim(L1 + L2) = dim(L1) + dim(L2)− dim(L1 ∩ L2).

2. Si L1∩L2 = ∅, entonces dim(L1 +L2) = dim(L1)+dim(L2)+1−dim(D(L1)∩D(L2)).

Page 82: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

82 TEMA 4. ESPACIO AFIN Y EUCLIDEO

Demostracion

El caso L1∩L2 6= ∅ se deduce del teorema de la dimension para subespacios vectoria-les, puesto que en ese caso D(L1 + L2) = D(L1) +D(L2) y D(L1 ∩ L2) = D(L1) ∩D(L2).

En el segundo caso tenemos que D(L1 +L2) = D(L1)+D(L2)+ 〈−→PQ〉 donde P ∈ L1 y

Q ∈ L2 son puntos cualesquiera. El vector−→PQ no esta en D(L1) +D(L2): si lo estuviera,

podrıa escribirse como u + v, donde u ∈ D(L1) y v ∈ D(L2). Entonces Q = P + u + v o,equivalentemente, P+u = Q−v. Pero esto es imposible, porque P+u ∈ L1 yQ−v ∈ L2,con lo cual habrıa un elemento en la interseccion L1 ∩ L2.

Por tantoD(L1+L2) es suma directa deD(L1)+D(L2) y 〈−→PQ〉, ası que dim(L1+L2) =

dim(D(L1) + D(L2)) + 1. Aplicando ahora la formula de la dimension para subespa-cios vectoriales, concluimos que dim(D(L1) + D(L2)) = dim(D(L1)) + dim(D(L2)) −dim(D(L1) ∩D(L2)) = dim(L1) + dim(L2)− dim(D(L1) ∩D(L2))

Como aplicacion, veamos las posibles posiciones relativas de dos rectas r y s en el espacioafın de dimension 3. Como dim(r) = dim(s) = 1, la interseccion r ∩ s tiene como maximodimension 1. Si tiene dimension 1, es porque r ∩ s = r = s, es decir, las dos rectas coinciden.Si tiene dimension 0, se cortan en un punto, y entonces por la formula de la dimensiondim(r + s) = 2, es decir, las rectas estan en un mismo plano. Si la interseccion es vacıa, hayque mirar la dimension de D(r)∩D(s), que puede ser 1 o 0. En el primer caso, las rectas sonparalelas, y en el segundo se cruzan.

Definicion 4.10 Dos variedades lineales L1, L2 ⊆ An(k) se dicen paralelas si D(L1) ⊆ D(L2)o D(L2) ⊆ D(L1). Se dice que L1 y L2 se cruzan si L1 ∩ L2 = ∅ y D(L1) ∩D(L2) = {0}.

La siguiente tabla resume las posiciones relativas de dos rectas en A3(k):

dim(r ∩ s) dim(D(r) ∩D(s)) dim(r + s)1 1 1 coinciden0 0 2 se cortan en un punto∅ 1 2 son paralelas∅ 0 3 se cruzan

4.5. Espacio euclıdeo

En esta seccion supondremos que k es el cuerpo R de los numeros reales.

Definicion 4.11 El espacio euclıdeo n-dimensional es el espacio afın An(R), donde el espaciovectorial asociado V = Rn esta dotado del producto escalar 〈u,v〉 = u1v1 + · · ·+ unvn.

La existencia del producto escalar nos permite definir la distancia entre dos puntos

Page 83: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

4.5. ESPACIO EUCLIDEO 83

Definicion 4.12 Sean P,Q ∈ An(R) dos puntos. La distancia entre ellos se define comod(P,Q) = ||

−→PQ||.

Las propiedades del modulo de un vector se traducen en las siguientes propiedades dela distancia entre puntos. Para cualesquiera P,Q,R ∈ An(R), se tiene

1. d(P,Q) = 0 si y solo si P = Q.

2. d(P,Q) = d(Q,P ).

3. d(P,R) ≤ d(P,Q) + d(Q,R) (desigualdad triangular).

Definicion 4.13 Dos variedades L1, L2 ⊆ An(R) se dicen perpendiculares si D(L1) ⊆D(L2)

⊥ (o, equivalentemente, si D(L2) ⊆ D(L1)⊥).

Dados dos subconjuntos A,B ⊆ An(R), en general no existe una distancia mınima entreun punto de A y uno de B (por ejemplo, en A1(R), si A es el conjunto de numeros positivosy B el de numeros negativos, podemos encontrar puntos en A y en B tan cercanos comoqueramos, pero nunca dos puntos a distancia cero). Sin embargo, para variedades linealessiempre existe la distancia mınima.

Teorema 4.7 Sean L1, L2 ⊆ An(R) dos variedades lineales no vacıas y disjuntas. Entonces exis-ten dos puntos P ∈ L1 y Q ∈ L2 tales que la distancia entre P y Q es mınima entre todas lasposibles distancias entre un punto de L1 y uno de L2. Ademas, el vector

−→PQ es perpendicular a

L1 y a L2. Los puntos P y Q estan unıvocamente determinados si y solo si L1 y L2 se cruzan.

Demostracion

Sean P ′ ∈ L1 y Q′ ∈ L2 dos puntos cualesquiera, y sea W ⊆ Rn el subespacio D(L1) +

D(L2). Como Rn = W ⊕ W⊥, el vector−−→P ′Q′ se puede escribir de manera unica como

u + v, con u ∈ W y v ∈ W⊥. Ademas, u se puede escribir (no de manera unica engeneral) como u1 + u2, donde u1 ∈ D(L1) y u2 ∈ D(L2). Definamos P = P ′ + u1 yQ = Q′ − u2, y veamos que cumplen las condiciones del teorema.

En primer lugar,−→PQ =

−−→P ′Q′−u1−u2 = v, que es perpendicular tanto a L1 como a L2

por estar en W⊥ = D(L1)⊥ ∩D(L2)

⊥. Sean P ′′ ∈ L1 y Q′′ ∈ L2 otros dos puntos, veamosque d(P,Q) ≤ d(P ′′, Q′′). Por el teorema de Pitagoras,

d(P ′′, Q′′)2 = ||−−−→P ′′Q′′||2 = ||

−−→P ′′P +

−→PQ+

−−→QQ′′||2 = ||

−→PQ||2 + ||

−−→P ′′P +

−−→QQ′′||2 ≥ d(P,Q)2

ya que−→PQ es perpendicular a

−−→P ′′P +

−−→QQ′′ ∈ D(L1) + D(L2). Ademas, se da la igualdad

si y solo si−−→P ′′P +

−−→QQ′′ = 0, lo cual implica que

−−→PP ′′ =

−−→QQ′′ ∈ D(L1) ∩D(L2). Si D(L1)

y D(L2) se cruzan esto solo puede ocurrir cuando−−→PP ′′ =

−−→QQ′′ = 0, es decir, cuando

P = P ′′ y Q = Q′′. En tal caso los puntos P y Q estan unıvocamente determinados.

Page 84: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

84 TEMA 4. ESPACIO AFIN Y EUCLIDEO

Definicion 4.14 Sean L1, L2 ⊆ An(R) dos variedades. La distancia d(L1, L2) entre ellas es lamenor distancia entre un punto de L1 y un punto de L2.

El teorema anterior implica que, si dos variedades son disjuntas, entonces la distanciaentre ellas es positiva.

Como caso particular, calculemos la distancia entre un punto y un hiperplano. Un hiper-plano L es el conjunto de puntos definido por una unica ecuacion lineal a1x1+ · · ·+anxn = b.Sea P el punto (c1, . . . , cn) ∈ An(R). Por el teorema, la distancia entre P y un punto Q ∈ Lsera mınima cuando el vector

−→PQ sea perpendicular a L. Si Q = (t1, . . . , tn), dicho vec-

tor es−−−−−−−−−−−−−−→(t1 − c1, . . . , tn − cn). Por otra parte, D(L) es el subespacio definido por la ecuacion

a1x1 + · · · + anxn = 0, por lo que su complemento ortogonal es el subespacio generadopor−−−−−−−→(a1, . . . , an). Por tanto, necesitamos que

−−−−−−−−−−−−−−→(t1 − c1, . . . , tn − cn) = λ

−−−−−−−→(a1, . . . , an) para algun

λ ∈ R. Dicho de otra forma, ti = ci + λai para todo i = 1, . . . , n. Imponiendo que el punto Qcumpla la ecuacion de L, obtenemos que

a1c1 + · · ·+ ancn + λ(a21 + · · ·+ a2n) = b⇒ λ =b− a1c1 − · · · − ancn

a21 + · · ·+ a2n

por lo que

d(P,L) = d(P,Q) = ||λ−−−−−−−→(a1, . . . , an)|| = |λ| · ||

−−−−−−−→(a1, . . . , an)|| = |a1c1 + · · ·+ ancn − b|√

a21 + · · ·+ a2n.

4.6. Aplicaciones afines

Definicion 4.15 Una aplicacion f : An(k) → Am(k) entre dos espacios afines sobre k se diceuna aplicacion afın si existe un homomorfismo de espacios vectoriales

−→f : kn → km tal que,

para todo par de puntos P,Q ∈ An(k), se tiene que

−−−−−−→f(P )f(Q) =

−→f (−→PQ).

Dicho de otra forma, para todo P y Q se tiene que f(Q) = f(P ) +−→f (−→PQ). En particular,

una aplicacion afın esta completamente determinada si conocemos la imagen de un punto yel homomorfismo

−→f .

Sean R = (O,B) y S = (Q, C) sistemas de referencia de An(k) y Am(k) respectivamente.Las coordenadas de un punto P ∈ An(k) con respecto aR son, por definicion, las del vector−→OP con respecto a B. Las de f(P ) ∈ Am(k) con respecto a S son las del vector

−−−−→Qf(P ) con

respecto a C. Pero−−−−→Qf(P ) =

−−−−→Qf(O) +

−−−−−−→f(O)f(P ) =

−−−−→Qf(O) +

−→f (−→OP ), y las coordenadas de

−→f (−→OP ) con respecto a C se obtienen multiplicando las coordenadas de

−→OP con respecto a B

por la matriz de−→f con respecto a las bases B y C. Es decir,

(f(P ))tS = (−−−−→Qf(O))tC + (

−→f (−→OP ))tC = (f(O))tS +M(

−→f )B,C · (P )R,

Page 85: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

4.6. APLICACIONES AFINES 85

lo cual puede escribirse mas concisamente como(1

(f(P ))tS

)= M(f)R,S ·

(1

(P )tR

)donde M(f)R,S ∈M(m+1)×(n+1)(k) es la matriz dada por

M(f)R,S =

(1 0 · · · 0

(f(O))tS M(−→f )B,C

),

que llamaremos matriz de f con respecto a los sistemas de referencia R y S. Como es habitual,si n = m y R = S, se llamara simplemente matriz de f con respecto a R y se denotara porM(f)R. Si R′ y S ′ son otros dos sistemas de referencia de An(k) y Am(k) respectivamente,usando la formula para el cambio de sistema de referencia obtenemos:

Teorema 4.8 (cambio de sistemas de referencia) Para toda aplicacion afın f : An(k) →Am(k) se tiene que

M(f)R′,S′ = M(S,S ′) ·M(f)R,S ·M(R′,R).

Veamos ahora que ocurre con las imagenes directa e inversa de variedades lineales me-diante una aplicacion afın.

Teorema 4.9 Sea f : An(k)→ Am(k) una aplicacion afın, y L = O+W ⊆ An(k) una variedadlineal, donde W es un subespacio de kn. Entonces f(L) ⊆ Am(k) es una variedad lineal. Masconcretamente, f(L) = f(O) +

−→f (W ). En particular, la imagen por f de un conjunto generador

de L es un conjunto generador de f(L).

Demostracion

Los puntos de L son los de la forma O + v con v ∈ W , por lo que los puntos def(L) son los de la forma f(O + v) = f(O) +

−→f (v), es decir, los de la forma f(O) + w

con w ∈−→f (W ). Como

−→f (W ) es un subespacio de km, el conjunto f(L) es una variedad

lineal en Am(k).

Teorema 4.10 Sea f : An(k)→ Am(k) una aplicacion afın, y M ⊆ Am(k) una variedad lineal.Entonces f−1(M) ⊆ An(k) es una variedad lineal.

Page 86: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

86 TEMA 4. ESPACIO AFIN Y EUCLIDEO

Demostracion

En este caso es conveniente ver M como el conjunto de soluciones de un sistema deecuaciones lineales A · xt = bt. Sea B ∈ M(m+1)×(n+1)(k) la matriz de f con respecto alos sistemas de referencia canonicos. Entonces un punto P = (x1, . . . , xn) esta en f−1(M)si y solo si f(P ) esta en M , es decir, si y solo si f(P ) es una solucion del sistema deecuaciones dado. Esto se puede expresar como

A · (f(P ))t = bt ⇔(−bt A

)·(

1(f(P ))t

)= 0.

Usando que (1

(f(P ))t

)= B ·

(1

(P )t

)concluimos que los puntos de f−1(M) son los que verifican

(−bt A

)·B ·

(1

(P )t

)= 0

que es un sistema de ecuaciones lineales, y por tanto forman una variedad lineal.

Ejemplo

En el espacio euclıdeo An(R), sea L cualquier variedad no vacıa. Para cada puntoP ∈ An(R), existe un unico punto Q ∈ L tal que el vector

−→PQ es ortogonal a D(L). Si

P ∈ L, esta claro que el punto Q = P es el unico que lo cumple. Si P /∈ L, sabemos queQ existe por el teorema 4.7, y es unico porque si existiera otro punto Q′ ∈ L tal que

−−→PQ′

es ortogonal a D(L), el vector−−→QQ′ =

−−→PQ′ −

−→PQ tambien serıa ortogonal a D(L), lo cual

es imposible porque−−→QQ′ esta en D(L).

Veamos que la aplicacion pL : An(R) → An(R) que asocia a cada punto P ∈ An(R)el correspondiente Q es una aplicacion afın, que llamaremos la proyeccion ortogonal sobreL. Sean P ′ otro punto. Los puntos pL(P ) y pL(P ′) estan en L, por lo que

−−−−−−−−→pL(P )pL(P ′) ∈

D(L). Ademas,−−→PP ′ =

−−−−−−−−→pL(P )pL(P ′) + (

−−−−−→PpL(P )−

−−−−−−→P ′pL(P ′)), y como

−−−−−→PpL(P )−

−−−−−−→P ′pL(P ′) ∈

D(L)⊥, esta debe ser la (unica) descomposicion del vector−−→PP ′ como suma de un vector

en D(L) y uno en D(L)⊥. Por tanto−−−−−−−−→pL(P )pL(P ′) = −→pL(

−−→PP ′), donde −→pL : Rn → Rn es el

homomorfismo que asocia a cada vector v ∈ Rn el primer termino de su descomposicioncomo suma de un vector en D(L) y uno en D(L)⊥.

SeaO un punto de L y B = {v1, . . . ,vn} una base de Rn tal que los r primeros vectoresformen una base de D(L) y los n − r ultimos una base de D(L)⊥. Entonces pL(O) = O,−→pL(vi) = vi para i = 1, . . . , r y −→pL(vi) = 0 para i = r + 1, . . . , n, por lo que la matriz de pLcon respecto al sistema de referenciaR = (O,B) es

M(pL)R =

1 01×r 01×(n−r)0r×1 Ir 0r×(n−r)

0(n−r)×1 0(n−r)×r 0(n−r)×(n−r)

Page 87: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

4.7. AFINIDADES 87

Teorema 4.11 Sean f : An(k)→ Am(k) y g : Am(k)→ Ar(k) dos aplicaciones afines. Entoncesla composicion g ◦ f : An(k)→ Ar(k) tambien lo es, y se cumple que

−−→g ◦ f = −→g ◦

−→f . SiR,S, T

son sistemas de referencia de An(k), Am(k) y Ar(k) respectivamente, entonces

M(g ◦ f)R,T = M(g)S,TM(f)R,S .

Demostracion

Sean P,Q ∈ An(k). Entonces−−−−−−−−−−−−−−→(g ◦ f)(P )(g ◦ f)(Q) =

−−−−−−−−−−−→g(f(P ))g(f(Q)) =

−→g (−−−−−−→f(P )f(Q)) = −→g (

−→f (−→PQ)) = (−→g ◦

−→f )(−→PQ), ası que g ◦ f es una aplicacion lineal

con−−→g ◦ f = −→g ◦

−→f .

Ademas, para todo punto P ∈ An(k) se tiene que

((g ◦ f)(P ))tT = (g(f(P )))tT = M(g)S,T (f(P ))tS = M(g)S,TM(f)R,S(P )tR,

por lo que la matriz de g ◦ f con respecto aR y T es M(g)S,TM(f)R,S .

4.7. Afinidades

Definicion 4.16 Una afinidad es una aplicacion afın f : An(k)→ An(k) biyectiva.

Teorema 4.12 Sea f : An(k) → An(k) una aplicacion afın. Las siguientes condiciones sonequivalentes:

1. f es una afinidad.

2. f es inyectiva.

3. f es sobreyectiva.

4.−→f : kn → kn es un automorfismo.

Demostracion

Claramente (1) implica (2) y (3). Supongamos que f es inyectiva, veamos que−→f

tambien lo es (y por tanto sera un automorfismo). Sea v ∈ ker(−→f ) y sea P ∈ An(R).

Entonces f(P + v) = f(P ) +−→f (v) = f(P ) + 0 = f(P ). Como f es inyectiva, P + v debe

ser igual a P , por lo que v = 0.I

Page 88: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

88 TEMA 4. ESPACIO AFIN Y EUCLIDEO

Demostracion (cont)

Supongamos ahora que f es sobreyectiva, y sea w ∈ kn. Fijado un punto P ∈ An(k),debe existir otro punto Q tal que f(P ) + w = f(Q). Entonces w =

−−−−−−→f(P )f(Q) =

−→f (−→PQ),

por lo que w ∈ Im(−→f ). Por tanto

−→f es sobreyectiva, por lo que debe ser un automorfis-

mo.Finalmente, supongamos que

−→f es un automorfismo. Veamos que f es inyectiva:

sean P,Q ∈ An(R) tales que f(P ) = f(Q). Entonces 0 =−−−−−−→f(P )f(Q) =

−→f (−→PQ), por lo

que−→PQ = 0, es decir, P = Q. Ademas, dado R ∈ An(R), como

−→f es sobreyectiva, debe

existir un vector v ∈ kn tal que−→f (v) =

−−−−→f(P )R. Entonces R = f(P ) +

−→f (v) = f(P + v),

por lo que f es sobreyectiva.

En particular, f es una afinidad si y solo si el determinante de la matriz de f con respectoa cualquier sistema de referencia (que es el mismo que el de la matriz de

−→f con respecto a

la base de ese sistema de referencia) es no nulo.

Teorema 4.13 Sea f : An(k) → An(k) una afinidad. Entonces la aplicacion inversa f−1 :

An(k)→ An(k) tambien lo es, se cumple que−→f−1 =

−→f −1, y para todo sistema de referenciaR de

An(k) se tiene que M(f−1)R = M(f)−1R .

Demostracion

Sean P,Q ∈ An(k). Entonces f(f−1(P )) = P y f(f−1(Q)) = Q, por lo que−→PQ =

−→f (−−−−−−−−−−→f−1(P )f−1(Q)) o, equivalentemente,

−−−−−−−−−−→f−1(P )f−1(Q) =

−→f −1(

−→PQ). Por tanto, f−1 es

una aplicacion lineal y−→f−1 =

−→f −1. Como ademas es biyectiva, es una afinidad. La ulti-

ma afirmacion es consecuencia de la formula para la matriz de la composicion de dosaplicaciones afines, aplicada a IdAn(k) = f ◦ f−1.

Definicion 4.17 Sea f : An(k) → An(k) una afinidad. Una variedad lineal L ⊆ An(k) se dicefija por f si f(L) ⊆ L.

Como f es una afinidad,−→f es un isomorfismo, por lo que D(f(L)) =

−→f (D(L)) tiene la

misma dimension que D(L) para cualquier L. Por tanto, si L es fija, f(L) debe ser igual a L.En particular, L es fija para f si y solo si lo es para f−1.

Ejemplo

Es importante distinguir entre una variedad fija (es decir, tal que f(P ) ∈ L para todoP ∈ L) y una variedad de puntos fijos (es decir, tal que f(P ) = P para todo P ∈ L). Por

I

Page 89: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

4.7. AFINIDADES 89

Ejemplo (cont)

ejemplo, si f : A2(R)→ A2(R) es la afinidad que tiene como matriz 1 0 02 −1 00 0 1

(es decir, f(x, y) = (2 − x, y)), la recta x = 1 es una recta de puntos fijos, ya que todopunto de la forma (1, y) es fijo. La recta y = 0 es fija, pero no de puntos fijos.

Si A es la matriz de f con respecto al sistema de referencia canonico, los puntos fijos def son aquellos cuyas coordenadas son soluciones de la ecuacion A · xt = xt, y por tantoforman una variedad lineal. En general, una variedad lineal L = O+W es fija por f si y solosi f(O) ∈ L y

−→f (v) ∈ W para todo vector v de un sistema generador de W .

Hallar las variedades fijas por f es un problema difıcil en general. En el caso particularde los hiperplanos, tenemos el siguiente criterio:

Teorema 4.14 Sea f : An(k) → An(k) una afinidad con matriz M con respecto al sistema dereferencia canonico, y L ⊆ An(k) un hiperplano dado por la ecuacion a1x1 + · · · + anxn = b.Entonces L es fijo por f si y solo si el vector

−−−−−−−−−−→(−b, a1, . . . , an) es un autovector de M t.

Demostracion

El hiperplano L es fijo por f si y solo si es fijo por f−1. Como f es biyectiva, la imagende L por f−1 es la imagen inversa por f de L, que por el teorema 4.10 viene dada por laecuacion

(−b a1 · · · an

)M

1x1...xn

= 0.

Para que esta ecuacion defina el hiperplano L, debe ser un multiplo de la ecuaciona1x1 + · · ·+anxn = b, es decir, el vector (−b, a1, · · · , an)M debe ser un multiplo escalar de(−b, a1, · · · , an). Tomando la traspuesta, esto es equivalente a decir que (−b, a1, . . . , an)t

es un autovector de M t.

Por tanto, para hallar los hiperplanos fijos por f basta hallar los autovectores de M t,y descartar los que sean multiplos de (1, 0, . . . , 0) (que no corresponden a la ecuacion deningun hiperplano).

Page 90: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

90 TEMA 4. ESPACIO AFIN Y EUCLIDEO

Ejemplo

Sea f : An(k)→ An(k) una afinidad tal que el homomorfismo−→f sea la multiplicacion

por un escalar λ 6= 0. Entonces la matriz de f es de la forma1 0 · · · 0a1... λInan

donde (a1, . . . , an) = f(O). Es decir, f(x1, . . . , xn) = (a1 + λx1, . . . , an + λxn). Los puntosfijos de f son entonces las soluciones del sistema formado por las ecuaciones (λ− 1)xi =

−ai para i = 1, . . . , n. Si λ = 1 (es decir,−→f es la identidad), este sistema solo tiene

solucion cuando f(O) = O (en cuyo caso f es la identidad). Si λ = 1 y f(O) 6= O, sea v =−−−−→Of(O). Entonces para todo P se tiene que f(P ) = f(O)+

−→f (−→OP ) = O+v +

−→OP = P +v.

Es decir,−−−−→Pf(P ) = v para todo P , y diremos que f es una traslacion de vector v.

Si λ 6= 1, entonces f tiene un unico punto fijo, que llamaremos P . Entonces para todoQ ∈ An(k) se tiene que f(Q) = f(P ) +

−→f (−→PQ) = P + λPQ. Es decir, los puntos P,Q y

f(Q) estan siempre alineados, y el vector−−−−→Pf(Q) se obtiene multiplicando el vector

−→PQ

por λ. Diremos que f es una homotecia de centro P y razon λ. En el caso λ = −1, P es elpunto medio del segmento Qf(Q) para todo Q, y f se llamara simetrıa de centro P .

4.8. Movimientos

A partir de ahora trabajaremos en el espacio euclıdeo An(R).

Definicion 4.18 Una afinidad f : An(R) → An(R) se dice un movimiento si preserva lasdistancias, es decir, si d(f(P ), f(Q)) = d(P,Q) para todo par de puntos P,Q ∈ An(R).

Ejemplo

1. La traslacion de vector v ∈ Rn es un movimiento, puesto que d(f(P ), f(Q)) =

||−−−−−−→f(P )f(Q)|| = ||

−→PQ|| = d(P,Q).

2. Una homotecia de razon λ 6= 0, 1 es un movimiento si y solo si λ = −1, es decir, si ysolo si es una simetrıa central: d(f(P ), f(Q)) = ||

−−−−−−→f(P )f(Q)|| = ||λ

−→PQ|| = |λ|d(P,Q)

es igual a d(P,Q) si y solo si λ = −1.

Teorema 4.15 Sea f : An(R)→ An(R) una afinidad. Son equivalentes:

Page 91: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

4.8. MOVIMIENTOS 91

1. f es un movimiento.

2. ||−→f (v)|| = ||v|| para todo v ∈ Rn.

3. La matriz de−→f es ortogonal.

Demostracion

Fijemos O ∈ An(R). Si f es un movimiento, para todo v ∈ Rn se tiene qued(f(O), f(O + v)) = d(O,O + v) = ||v||. Pero d(f(O), f(O + v)) = ||

−−−−−−−−−−→f(O)f(O + v)|| =

||−→f (v)||, por lo que ||

−→f (v)|| = ||v||. Recıprocamente, si la condicion (2) se cumple,

para todo par de puntos P,Q ∈ An(R) se tiene que d(f(P ), f(Q)) = ||−−−−−−→f(P )f(Q)|| =

||−→f (−→PQ)|| = ||

−→PQ|| = d(P,Q).

Si la matriz A de−→f es ortogonal, entonces ||

−→f (v)||2 = ||Avt||2 = 〈Avt, Avt〉 =

(Avt)t(Avt) = vAtAvt = vvt = 〈v,v〉 = ||v||2 para todo v ∈ Rn, por lo que||−→f (v)|| = ||v||. Falta probar que la condicion (2) implica que la matriz de

−→f es orto-

gonal.Como las columnas de la matriz de

−→f son las imagenes por

−→f de los vectores de la

base canonica, basta probar que {−→f (e1), . . . ,

−→f (en)} es una base ortonormal de Rn. Cada

vector tiene modulo 1, puesto que ||−→f (ei)|| = ||ei|| = 1. Ademas, si i 6= j,

||−→f (ei)+

−→f (ej)||2 = 〈

−→f (ei)+

−→f (ej),

−→f (ei)+

−→f (ej)〉 = 〈

−→f (ei),

−→f (ei)〉+ 〈

−→f (ej),

−→f (ej)〉+

+2〈−→f (ei),

−→f (ej)〉 = ||

−→f (ei)||2 + ||

−→f (ej)||2 + 2〈

−→f (ei),

−→f (ej)〉 = 2 + 2〈

−→f (ei),

−→f (ej)〉.

Pero por otra parte, ||−→f (ei) +

−→f (ej)||2 = ||

−→f (ei + ej)||2 = ||ei + ej||2 = 2, de donde se

deduce que 〈−→f (ei),

−→f (ej)〉 = 0.

A partir de la definicion se deduce inmediatamente que tanto la composicion de dosmovimientos como la afinidad inversa de un movimiento son tambien movimientos.

Ejemplo

Sea L ⊆ An(R) una variedad lineal no vacıa. Dado un punto P ∈ An(R), sea pL(P )

su proyeccion ortogonal sobre L, y definamos σL(P ) = pL(P ) +−−−−−→PpL(P ) = P + 2

−−−−−→PpL(P ).

Veamos que σL es un movimiento, que llamaremos simetrıa de eje L.Descompongamos el vector

−→PQ como u + v, donde u ∈ D(L) y v ∈ D(L)⊥, y sea

R = P + u (por lo que Q = R + v). Por el teorema de Pitagoras, ||−→PQ||2 = ||u||2 + ||v||2.

Recordemos que−→pL es el homomorfismo que asigna a cada vector la parte en D(L) de sudescomposicion como suma de un vector en D(L) y uno en D(L)⊥, por lo que −→pL(v) = 0y −→pL(u) = u.

Entonces−−−−−−−−→σL(P )σL(Q) =

−−−−−−−−→σL(P )pL(P )+

−−−−−−−−→pL(P )pL(Q)+

−−−−−−−−→pL(Q)σL(Q) =

−−−−−→pL(P )P+

−−−−−→QpL(Q)+

u =−−−−−−−−→pL(P )pL(Q)−

−→PQ+u = u−(u+v)+u = u−v. Por tanto ||

−−−−−−−−→σL(P )σL(Q)||2 = ||u−v||2 =

||u||2 + ||v||2 = ||−→PQ||2 por el teorema de Pitagoras.

I

Page 92: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

92 TEMA 4. ESPACIO AFIN Y EUCLIDEO

Ejemplo (cont)

Con respecto a un sistema de referencia R formado por un punto O ∈ L y una baseortonormal B = {v1, . . . ,vn} de Rn tal que los primeros r vectores sean una base deD(L)y los n− r ultimos una base de D(L)⊥, la matriz de σL tiene la forma

M(σL)R =

1 01×r 01×(n−r)0r×1 Ir 0r×(n−r)

0(n−r)×1 0(n−r)×r −I(n−r)×(n−r)

4.9. Clasificacion de movimientos en A2(R)Es esta seccion vamos a estudiar con detalle los posibles movimientos en el plano euclıdeo.

Sea f : A2(R)→ A2(R) un movimiento. La matriz de f tiene la forma 1 0 0a

M(−→f )b

donde (a, b) = f(0, 0) y M(

−→f ) es una matriz ortogonal 2×2. Como los vectores de modulo 1

en R2 son de la forma (cos(α), sen(α)) para algun α ∈ [0, 2π), M(−→f ) se puede escribir como(

cos(α) cos(β)sen(α) sen(β)

)con α, β ∈ [0, 2π). Ademas las columnas deben ser ortogonales, por lo que cos(α) cos(β) +sen(α) sen(β) = cos(β−α) = 0. Por tanto β−α = ±π/2 o±3π/2. Si β = α+π/2 o β = α−3π/2,entonces sen(β) = cos(α) y cos(β) = − sen(α), y M(

−→f ) es de la forma(

cos(α) − sen(α)sen(α) cos(α)

).

Por el contrario, si β = α−π/2 o β = α+3π/2, entonces sen(β) = − cos(α) y cos(β) = sen(α),y M(

−→f ) es de la forma (

cos(α) sen(α)sen(α) − cos(α)

).

Los dos casos pueden distinguirse por el determinante: en el primer caso es 1, y en el segun-do es −1.

Caso 1: det(M(−→f )) = 1

Si α = 0, entonces M(−→f ) es la identidad. Este caso ya ha sido estudiado anteriormente,

f es la identidad si a = b = 0 o una traslacion de vector−−−→(a, b) si (a, b) 6= (0, 0). En este ultimo

caso no hay ningun punto fijo.Supongamos que α 6= 0. Los puntos fijos de f son las soluciones del sistema

a+ cos(α)x− sen(α)y = xb+ sen(α)x+ cos(α)y = y

.

Page 93: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

4.9. CLASIFICACION DE MOVIMIENTOS EN A2(R) 93

Su matriz de coeficientes es (cos(α)− 1 − sen(α)

sen(α) cos(α)− 1

),

que tiene determinante cos(α)2+1−2 cos(α)+sen(α)2 = 2(1−cos(α)) > 0 (puesto que α 6= 0).Ası que es un sistema de Cramer, y por tanto tiene solucion unica: f tiene un unico puntofijo, que llamaremos P . Dado cualquier otro punto Q ∈ A2(R), escribamos el vector

−→PQ en

forma polar:−→PQ =

−−−−−−−−−−−−→(r cos(θ), r sen(θ)) con r > 0 y θ ∈ [0, 2π). Entonces

−−−−→Pf(Q) =

−−−−−−→f(P )f(Q) =

−→f (−→PQ) =

(cos(α) − sen(α)sen(α) cos(α)

)(r cos(θ)r sen(θ)

)=

=

(r cos(θ) cos(α)− r sen(θ) sen(α)r cos(θ) sen(α) + r sen(θ) cos(α)

)=

(r cos(θ + α)r sen(θ + α)

),

es decir, el vector−−−−→Pf(Q) se obtiene a partir del vector

−→PQ girandolo un angulo α. Diremos

que f es un giro de centro P y angulo α. Si α = π, entonces P es el punto medio del segmentoQf(Q) para todo punto Q, y f se denomina tambien simetrıa de centro P .

Caso 2: det(M(−→f )) = −1

En primer lugar, vemos que el polinomio caracterıstico de M(−→f ) es∣∣∣∣ t− cos(α) − sen(α)

− sen(α) t+ cos(α)

∣∣∣∣ = t2 − cos(α)2 − sen(α)2 = t2 − 1,

ası que M(−→f ) tiene dos autovectores u y v (ortogonales entre sı, puesto que M(

−→f ) es

simetrica) asociados a los autovalores 1 y −1 respectivamente, es decir,−→f (u) = u y

−→f (v) =

−v.Supongamos que f tiene un punto fijo P . Entonces, como {u,v} es una base de R2, todo

punto Q es de la forma P + λu + µv con λ, µ ∈ R. Aplicando f , obtenemos f(Q) = f(P ) +

λ−→f (u)+µ

−→f (v) = P +λu−µv. En particular, la recta r = P +〈u〉 es de puntos fijos. El vector

−−−−→Qf(Q) = −2µv es perpendicular a r, y el punto medio del segmento Qf(Q) es P + λu, queesta en r. Por tanto, f es una simetrıa con eje r.

Supongamos ahora que f no tiene puntos fijos, y sea P ∈ A2(R) un punto cualquiera.Pongamos f(P ) = P + λu + µv. Sea g la composicion de f con la traslacion de vector −λu.Entonces g es tambien un movimiento de determinante −1. Veamos que Q = P + λ

2u + µ

2v

(el punto medio del segmento Pf(P )) es un punto fijo de g:

g(Q) = f(Q)− λu = f(P ) +λ

2

−→f (u) +

µ

2

−→f (v)− λu =

= P + λu + µv +λ

2u− µ

2v − λu = P +

λ

2u +

µ

2v = Q.

Por tanto, g es una simetrıa con eje la recta r = Q + 〈u〉, y f es la composicion de dichasimetrıa con la traslacion de vector λu. Diremos que f es una simetrıa con deslizamiento de ejer y vector λu. Notese que el vector de traslacion es paralelo el eje.

En la practica, dado un movimiento con determinante −1, para clasificarlo hallamos laimagen del punto P = (a

2, b2) (el punto medio entre (0, 0) y su imagen). Si f(P ) = P , f es una

simetrıa de eje P + 〈u〉. En caso contrario, f es una simetrıa con deslizamiento de eje la rectaque pasa por P con direccion

−−−−→Pf(P ) y vector

−−−−→Pf(P ).

Resumimos la clasificacion en la siguiente tabla:

Page 94: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

94 TEMA 4. ESPACIO AFIN Y EUCLIDEO

det(M(−→f )) α Puntos fijos Elementos

1

0 A2(R) identidad -0 ∅ traslacion vector vπ punto P simetrıa central centro P

α 6= 0, π punto P giro centro P , angulo α

−1recta r simetrıa eje r∅ simetrıa con deslizamiento eje r, vector v||r

4.10. Clasificacion de movimientos en A3(R)Sea f : A3(R) → A3(R) un movimiento. Al igual que en el caso de dimension 2, basare-

mos nuestra clasificacion en el determinante de M(−→f ), que puede ser 1 o −1.

Caso 1: det(M(−→f )) = 1

Como M(−→f ) es una matriz ortogonal, todos sus autovalores complejos tienen valor ab-

soluto 1. Ademas, los autovalores no reales siempre aparecen en pares conjugados, por loque al menos uno de ellos debe ser real. Si solo uno de ellos es real, los otros dos son de laforma a + bi y a − bi con b 6= 0, y su producto es a2 + b2 > 0. Como el determinante es elproducto de los autovalores y es igual 1 (positivo), el autovalor real debe ser igual a 1. Si lostres autovalores son reales (y por tango iguales a ±1), al menos uno de ellos debe ser igual a1 para que su producto sea 1.

En cualquier caso M(−→f ) tiene un autovalor igual a 1. Los otros dos pueden ser o bien 1

y 1, o bien −1 y −1, o bien un par de numeros complejos no reales conjugados. En el primercaso, como M(

−→f ) es diagonalizable, existe una base B de R3 tal que

−→f actua trivialmente

sobre sus vectores, por lo que−→f debe ser la identidad. Entonces f es la identidad (si f(O) =

O) o una traslacion de vector−−−−→Of(O) (si f(O) 6= O).

Supongamos ahora que M(−→f ) tiene autovalores 1 con multiplicidad 1 y −1 con multi-

plicidad 2. Sea {u,v,w} una base ortonormal de autovectores, con f(u) = u, f(v) = −vy f(w) = −w. Supongamos que f tiene un punto fijo P . Cualquier otro punto Q puedeescribirse como P + λu + µv + νw, con λ, µ, ν ∈ R. Entonces

f(Q) = f(P ) + λ−→f (u) + µ

−→f (v) + ν

−→f (w) = P + λu− µv − νw.

En particular, los puntos de la recta r = P + 〈u〉 son fijos. Ademas, el vector−−−−→Qf(Q) =

−2µv−2νw es perpendicular a r, y el punto medio del segmento Qf(Q), que es P +λu, estaen r. Por tanto f es la simetrıa de eje r.

Si f no tiene puntos fijos, sea P ∈ A2(R) un punto cualquiera. Pongamos f(P ) = P+λu+µv + νw. Sea g la composicion de f con la traslacion de vector −λu. Entonces g es tambienun movimiento y M(−→g ) = M(

−→f ). Veamos que Q = P + λ

2u + µ

2v + ν

2w (el punto medio del

segmento Pf(P )) es un punto fijo de g:

g(Q) = f(Q)− λu = f(P ) +λ

2

−→f (u) +

µ

2

−→f (v) +

ν

2

−→f (w)− λu =

= P + λu + µv + νw +λ

2u− µ

2v − ν

2w − λu = P +

λ

2u +

µ

2v +

ν

2w = Q.

Page 95: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

4.10. CLASIFICACION DE MOVIMIENTOS EN A3(R) 95

Por tanto, g es una simetrıa con eje la recta r = Q + 〈u〉, y f es la composicion de dichasimetrıa con la traslacion de vector λu. Diremos que f es una simetrıa (axial) con deslizamientode eje r y vector λu. Notese que el vector de traslacion es paralelo el eje.

Veamos ahora el caso en el que M(−→f ) tiene 1 como unico autovalor real, con multipli-

cidad 1. Entonces los otros dos autovalores complejos deben ser un par de conjugados devalor absoluto 1, es decir, son de la forma cos(α)± sen(α)i para algun α ∈ (0, π). Sea u ∈ R3

un autovector asociado a 1. Supongamos en primer lugar que f tiene un punto fijo P . Enton-ces f(P + λu) = f(P ) + λ

−→f (u) = P + λu, por lo que la recta r = P + 〈u〉 es de puntos fijos.

Sea W ⊆ R3 el complemento ortogonal de 〈u〉. Como M(−→f ) es ortogonal, W es invariante

por−→f . Sean z = v + iw y z = v − iw autovectores complejos asociados a cos(α) + sen(α)i y

cos(α) − sen(α)i respectivamente. Estos vectores son ortogonales entre sı y ortogonales a u,y entonces

0 = 〈v + iw,v − iw〉 = 〈v,v〉 − 〈w,w〉+ i〈v,w〉+ i〈w,v〉 = (||v||2 − ||w||2) + 2〈v,w〉i

por lo que ||v|| = ||w|| y v,w son tambien ortogonales entre sı (y ortogonales a u). Multi-plicando por un escalar, podemos suponer que tienen modulo 1. Calculemos la matriz de larestriccion de

−→f a W con respecto a la base ortonormal {v,w}:

−→f (v) =

1

2(−→f (z) +

−→f (z)) =

1

2((cos(α) + sen(α)i)z + (cos(α)− sen(α)i)z) =

=1

2((cos(α) + sen(α)i)(v + iw) + (cos(α)− sen(α)i)(v − iw)) = cos(α)v − sen(α)w

y analogamente,−→f (w) =

1

2i(−→f (z)−

−→f (z)) = sen(α)v + cos(α)w,

es decir, la matriz de−→f restringida a W es(

cos(α) − sen(α)sen(α) cos(α)

).

Como vimos en la seccion anterior, esta matriz corresponde a un giro de angulo α. Sea ahoraQ = P + λu + µv + νw un punto cualquiera, y sea R = P + λu (la proyeccion ortogonal deQ sobre r). Entonces f(Q) = f(P ) + λ

−→f (u) +

−→f (µv + νw) = R +

−→f (µv + νw), por lo que

−−−−→Rf(Q) =

−→f (µv + νw) =

−→f (−→RQ): el punto f(Q) se obtiene girando el punto Q un angulo α

con respecto al punto R. Diremos que f es un giro de eje r y angulo α. Notemos que hay dosmovimientos distintos que corresponden a esta descripcion: depende de en que sentido serealice el giro.

Supongamos ahora que f no tiene puntos fijos. Pongamos f(O) = O+λu+µv+νw, y seag la composicion de f con la traslacion de vector−λu. Entonces g es tambien un movimientoy −→g =

−→f . Dado un punto P = O + αu + βv + γw, tenemos que

g(P ) = g(O) + αu +−→f (βv + γw) = O + αu + µv + νw +

−→f (βv + γw)

y por tanto g(P ) = P si y solo si βv + γw = µv + νw +−→f (βv + γw)⇔ (Id−

−→f )(βv + γw) =

µv + νw. La matriz de Id−−→f con respecto a la base {v,w} es(

1− cos(α) sen(α)− sen(α) 1− cos(α)

)

Page 96: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

96 TEMA 4. ESPACIO AFIN Y EUCLIDEO

que tiene determinante 2−2 cos(α) 6= 0, por lo que la ecuacion (Id−−→f )(βv+γw) = µv+νw

tiene solucion unica en β, γ: en particular, g tiene puntos fijos y por tanto es un giro de anguloα con respecto a un cierto eje r, y f es la composicion de g con una traslacion de vector λu,paralelo a r. Diremos que f es un giro con deslizamiento o movimiento helicoidal de eje r, anguloα y vector λu.

En la practica, si f es una simetrıa axial o un giro (con o sin deslizamiento), para hallar eleje se toma un punto arbitrario P = (x, y, z) y se impone que el vector

−−−−→Pf(P ) que lo une con

su imagen por f sea paralelo al eje (cuya direccion es conocida: es la del autovector asociadoal autovalor 1). Esto nos da las ecuaciones implıcitas del eje, a partir del cual es facil hallarlos restantes elementos.

Caso 2: det(M(−→f )) = −1

Ahora hay tres posibilidades con respecto a los autovalores de−→f : −1 con multiplicidad

3, −1 con multiplicidad 1 y 1 con multiplicidad 2, o −1 con multiplicidad 1 y un par deconjugados no reales de la forma cos(α)± sen(α)i con α ∈ (0, π).

En el primer caso, como−→f es diagonalizable, existe una base B de R3 tal que todos sus

vectores cambian de signo al aplicarles−→f . Como la imagen de los vectores de B determina

−→f , concluimos que

−→f = −Id. Denotemos por P = O+ 1

2

−−−−→Of(O) el punto medio del segmento

Of(O). Sea Q = O + v cualquier otro punto. Entonces f(Q) = f(O) +−→f (v) = f(O) − v,

por lo que−−−−→Qf(Q) =

−−−−→Of(O) − 2v y Q + 1

2

−−−−→Qf(Q) = O + v + 1

2

−−−−→Of(O) − v = P . Es decir, para

cualquier punto Q, el punto medio del segmento Qf(Q) es el mismo punto P . Por tanto f esla simetrıa de centro {P}.

Veamos ahora el caso en el que−→f tiene autovalor 1 con multiplicidad 2, ademas del −1.

Sea B = {u,v,w} una base ortonormal de autovectores de−→f , con u y v asociados a 1 y w a

−1. Supongamos en primer lugar que f tiene un punto fijo P y sea Q = P + λu + µv + νw

otro punto cualquiera. Entonces f(Q) = f(P )+λ−→f (u)+µ

−→f (v)+ν

−→f (w) = P+λu+µv−νw.

El vector−−−−→Qf(Q) = −2νw es perpendicular al plano π = P + 〈u,v〉, y el punto medio del

segmento Qf(Q) es P + λu + µv, que esta en π. Por tanto f es la simetrıa de centro π.Supongamos ahora que f no tiene puntos fijos, y sea f(O) = O + λu + µv + νw. Sea g la

composicion de f con la traslacion de vector−λu−µv. Entonces g es tambien un movimientocon −→g =

−→f , y g(O) = O+ νw. Veamos que el punto P = O+ λ

2u + µ

2v + ν

2w (el punto medio

del segmento Of(O)) es fijo para g:

g(P ) = g(O) +λ

2

−→f (u) +

µ

2

−→f (v) +

ν

2

−→f (w) = O + νw +

λ

2u +

µ

2v − ν

2w = P,

ası que por lo visto anteriormente g es la simetrıa de centro π = P + 〈u,v〉, y f es la com-posicion de g con la traslacion de vector λu + µv. Diremos que f es una simetrıa (plana) condeslizamiento de centro π y vector λu + µv (paralelo a π).

Finalmente, veamos el caso en el que f tiene un par de autovalores no reales conjugados:cos(α) ± sen(α)i con α ∈ (0, π). Sea {u,v,w} una base ortonormal de R3 tal que w sea unautovector asociado a−1. Pongamos f(O) = O+λu+µv +νw, y sea P = O+ λ

2u+ µ

2v + ν

2w

el punto medio del segmento Of(O). Denotemos por π el plano P + 〈u,v〉, por σ la simetrıade centro π, y sea g = σ ◦

−→f . Como −→σ actua trivialmente sobre 〈u,v〉 y cambia el signo de

w, −→g actua trivialmente sobre w y actua igual que−→f sobre 〈u,v〉, es decir, con autovalores

cos(α) ± sen(α)i. Como vimos en el caso de determinante positivo, esto nos dice que g esun giro (posiblemente con deslizamiento) de eje una cierta recta r paralela a w. El vector de

Page 97: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

4.10. CLASIFICACION DE MOVIMIENTOS EN A3(R) 97

deslizamiento es la componente en la direccion de w del vector que une un punto cualquieracon su imagen. Tomemos, por ejemplo, el punto P . Entonces π(P ) = P , por lo que

g(P ) = f(P ) = f(O) +−→f (

λ

2u +

µ

2v) +

ν

2

−→f (w) = f(O) +

−→f (

λ

2u +

µ

2v)− ν

2w =

= O + λu + µv +−→f (

λ

2u +

µ

2v) +

ν

2w = P +

λ

2u +

µ

2v +−→f (

λ

2u +

µ

2v) ∈ P + 〈u,v〉

ası que el vector−−−−→Pg(P ) no tiene componente en la direccion de w, es decir, g es un giro

sin deslizamiento, y f es su composicion con la simetrıa de centro π (perpendicular al eje).Diremos que g es una simetrıa rotacional de centro π, eje r y angulo α. En este caso, como enel del giro directo, existen dos movimientos distintos que responden a esta descripcion, unopor cada sentido de giro. Notemos que una simetrıa rotacional tiene un unico punto fijo, lainterseccion de π y r. Conociendo el punto fijo P , la recta r sera P + 〈w〉, donde w es unautovector asociado a −1, y el plano π sera P + 〈w〉⊥.

Resumimos la clasificacion en la siguiente tabla:

det(M(−→f )) Autovalores de

−→f Puntos fijos Elementos

1

1, 1, 1 A2(R) identidad -1, 1, 1 ∅ traslacion vector v

1,−1,−1 recta r simetrıa axial recta r1,−1,−1 ∅ simetrıa axial con desl. recta r, vector v||r

1, cos(α)± sen(α)i recta r giro recta r1, cos(α)± sen(α)i ∅ giro con deslizamiento eje r, angulo α, vector v||r

−1

−1,−1,−1 punto P simetrıa central centro P1, 1,−1 plano π simetrıa plana plano π1, 1,−1 ∅ simetrıa plana con desl. plano π, vector v||π

−1, cos(α)± sen(α)i punto P simetrıa rotacional plano π, eje r, angulo α

Page 98: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

98 TEMA 4. ESPACIO AFIN Y EUCLIDEO

Page 99: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

Apendice A

Resultados auxiliares

A.1. Aplicaciones

Una aplicacion f : A → B de un conjunto A en un conjunto B es una regla que asocia acada elemento a ∈ A un elemento de B, que se denota por f(a) y se denomina imagen de apor f . El conjunto A se llama el dominio de f , y B el codominio.

Ejemplo

1. La aplicacion f : Z → Z que asocia a cada entero n ∈ Z su cuadrado, es decir,f(n) = n2.

2. La aplicacion f : R→ R que asocia a cada x ∈ R su seno: f(x) = sen(x).

3. La aplicacion f : R×R→ R que asocia a cada par de numeros reales (a, b) su suma:f(a, b) = a+ b.

Definicion A.1 Sean f : A → B y g : B → C dos aplicaciones. Su composicion es laaplicacion g ◦ f : A→ C que asocia a cada a ∈ A el elemento g(f(a)) ∈ C, es decir, el elementoobtenido al aplicar g a la imagen de a por f .

Definicion A.2 Sea f : A→ B una aplicacion.

f se dice inyectiva si las imagenes por f de dos elementos cualesquiera distintos de A sondistintas.

f se dice sobreyectiva si todo elemento de B es imagen por f de algun elemento de A.

f se dice biyectiva si es a la vez inyectiva y sobreyectiva.

Si f : A → B es biyectiva, todo elemento de B es imagen de un unico elemento de

99

Page 100: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

100 APENDICE A. RESULTADOS AUXILIARES

A. Podemos definir entonces una aplicacion de B en A que asocie a cada b ∈ B el unicoelemento a ∈ A tal que f(a) = b. Esta aplicacion se llama la inversa de f , y se denota por f−1.

Definicion A.3 Sea f : A→ B una aplicacion. SiC ⊆ A es un subconjunto, la imagen deC esel subconjunto f(C) ⊆ B formado por las imagenes por f de los elementos de C. Si D ⊆ B es unsubconjunto, la contraimagen de D es el subconjunto f−1(D) ⊆ A formado por los elementosde A cuya imagen esta en D.3

Ejemplo

Sea f : R → R la aplicacion dada por f(x) = x2. La imagen por f del intervalo[−1, 1] es el intervalo [0, 1]. La contraimagen del intervalo [−1, 1] es el intervalo [−1, 1].La contraimagen del intervalo [−2,−1] es el conjunto vacıo.

Teorema A.1 Sean C,C ′ ⊆ A y D,D′ ⊆ B. Entonces

1. f(C ∪ C ′) = f(C) ∪ f(C ′)

2. f(C ∩ C ′) ⊆ f(C) ∩ f(C ′)

3. C ⊆ f−1(f(C)). Si f es inyectiva, se da la igualdad.

4. f−1(D ∪D′) = f−1(D) ∪ f−1(D′)

5. f−1(D ∩D′) = f−1(D) ∩ f−1(D′)

6. f(f−1(D)) ⊆ D. Si f es sobreyectiva, se da la igualdad.

A.2. Operaciones y estructuras algebraicas

Definicion A.4 Una operacion en un conjunto A es una aplicacion ∗ : A×A→ A que asociaa cada par (a, b) de elementos de A un elemento a ∗ b ∈ A.

Ejemplo

La suma (a, b) 7→ a + b es una operacion en el conjunto de los numeros enteros, enel de los numeros racionales y en el de los numeros reales. Tambien lo son la resta y elproducto. El cociente no lo es, puesto que no esta definido si el segundo elemento escero.

3No confundir con la aplicacion inversa de f , que no tiene por que existir.

Page 101: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

A.2. OPERACIONES Y ESTRUCTURAS ALGEBRAICAS 101

Definicion A.5 Una operacion ∗ en el conjunto A se dice asociativa si (a ∗ b) ∗ c = a ∗ (b ∗ c)para todos a, b, c ∈ A. Una operacion ∗ se dice conmutativa si a ∗ b = b ∗ a para todos a, b ∈ A.

Ejemplo

La suma y el producto de numeros enteros son operaciones asociativas y conmutati-vas. La resta no es ni asociativa (por ejemplo, (3 − 2) − 1 6= 3 − (2 − 1)) ni conmutativa(3− 2 6= 2− 3).

Definicion A.6 Sea ∗ una operacion en el conjunto A. Un elemento neutro para ∗ es un ele-mento e ∈ A tal que e ∗ a = a ∗ e = a para todo a ∈ A.

Ejemplo

El 0 es un elemento neutro para la suma de numeros enteros, y el 1 es un elementoneutro para el producto.

Si existe un elemento neutro, es unico, puesto que si existieran dos e y e′, se tendrıa quee = e ∗ e′ = e′.

Definicion A.7 Sea ∗ una operacion en el conjunto A con elemento neutro e, y sea a ∈ A. Uninverso de a es un elemento a′ ∈ A tal que a ∗ a′ = a′ ∗ a = e.

Si el elemento a ∈ A tiene inverso, debe ser unico, puesto que si existieran dos a′ y a′′ setendrıa que a′ = a′ ∗ e = a′ ∗ (a ∗ a′′) = (a′ ∗ a) ∗ a′′ = e ∗ a′′ = a′′.

Ejemplo

El −1 es inverso de 1 para la suma de enteros. El 2 no tiene inverso para el productode enteros, pero sı para el producto de numeros racionales: 1

2.

Definicion A.8 Un grupo es un conjunto A con una operacion ∗ asociativa tal que existe unelemento neutro y todo elemento de A tiene inverso. Si la operacion es conmutativa, diremos queel grupo es abeliano.

Page 102: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

102 APENDICE A. RESULTADOS AUXILIARES

Ejemplo

El conjunto de los numeros enteros es un grupo abeliano con la operacion suma,pero no con la operacion producto (no todo elemento tiene inverso). El conjunto de losnumeros reales es un grupo abeliano con la operacion suma, pero no con la operacionproducto (el 0 no tiene inverso). Sin embargo, si le quitamos el 0, sı que es un grupo parael producto.

Definicion A.9 Un cuerpo es un conjunto k con dos operaciones, llamadas suma y producto,tales que:

1. k con la operacion suma es un grupo abeliano. Denotemos por 0 su elemento neutro.

2. k − {0} con la operacion producto es un grupo abeliano.

3. Se cumple la propiedad distributiva: a · (b+ c) = a · b+ a · c para todos a, b, c ∈ k.

Es decir, en un cuerpo se cumplen los requisitos necesarios para poder sumar, restar,multiplicar y dividir por cualquier elemento distinto de cero, de manera que se cumplan laspropiedades habituales. En particular, en un cuerpo toda ecuacion de la forma a · x + b = ctiene una unica solucion si a 6= 0.

Ejemplo

1. El conjunto Z de los numeros enteros con las operaciones habituales no es un cuer-po, puesto que solo 1 y −1 tienen inverso para el producto.

2. Los conjuntos Q de numeros racionales y R de numeros reales son cuerpos.

3. El conjunto {0, 1} es un cuerpo si definimos las operaciones siguientes: 0 + 0 =1 + 1 = 0, 1 + 0 = 0 + 1 = 1, 0 · 0 = 0 · 1 = 1 · 0 = 0, 1 · 1 = 1.

A.3. Polinomios

Sea k un cuerpo. Un polinomio con coeficientes en k es una expresion de la forma

P (x) = anxn + an−1x

n−1 + · · ·+ a1x+ a0

donde a0, a1, . . . , an ∈ k y x es una variable indeterminada. Si an 6= 0, diremos que P (x) tienegrado n. El conjunto de polinomios con coeficientes en k se denota por k[x]. Dos polinomiospueden sumarse y multiplicarse, teniendo en cuanta la regla de los exponentes xa ·xb = xa+b.El producto de dos polinomios de grados d y d′ es un polinomio de grado d+ d′. El conjuntok[x] es un grupo abeliano para la operacion suma (pero no para el producto).

Todo polinomio P (x) ∈ k[x] define una aplicacion (tambien denotada por P ) de k en sımismo, que asocia a cada a ∈ k el elemento P (a) obtenido al sustituir la variable x por a enP y realizar la operacion correspondiente en k.

Page 103: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

A.4. NUMEROS COMPLEJOS 103

Ejemplo

Si k = R y P (x) = 1 + 2x− x2, entonces P (0) = 1, P (1) = 2 y P (−1) = −2.

Definicion A.10 Sea P (x) ∈ k[x] un polinomio. Una raız de P (x) es un elemento a ∈ k talque P (a) = 0.

Teorema A.2 Un elemento a ∈ k es raız del polinomio P (x) ∈ k[x] si y solo si el polinomioP (x) es un multiplo de x − a, es decir, si y solo si existe un polinomio Q(x) ∈ k[x] tal queP (x) = (x− a)Q(x).

Si a es una raız de P (x), podemos escribir P (x) = (x− a)Q(x). Si ahora a es tambien raızde Q(x), se tiene que Q(x) = (x− a)R(x) para algun polinomio R(x), por lo que P (x) = (x−a)2R(x). Continuando de esta forma, llegamos a una expresion del tipo P (x) = (x−a)mS(x),donde a ya no es raız de S(x). El entero m es la multiplicidad de la raız a.

Definicion A.11 Si a ∈ k es una raız de P (x) ∈ k[x], la multiplicidad de a es el mayor enterom tal que P (x) sea multiplo de (x− a)m.

Supongamos que P (x) tiene raıces a1, . . . , ar con multiplicidades m1, . . . ,mr. EntoncesP (x) es multiplo de (x − a1)

m1 · · · (x − ar)mr , por lo que el grado de P (x) debe ser como

mınimo igual al grado de este ultimo polinomio, que es m1 + · · ·+mr.

Corolario A.3 La suma de las multiplicidades de las raıces de un polinomio P (x) ∈ k[x] es a losumo igual a su grado.

Es posible que un polinomio no tenga ninguna raız: por ejemplo, el polinomio x2 + 1 notiene raıces en R ni en Q.

A.4. Numeros complejos

Definicion A.12 Un numero complejo es una expresion z de la forma a + bi, donde a, b ∈ Rson numeros reales. Los numeros a y b se denominan respectivamente la parte real y la parteimaginaria de z, y se denotan por <(z) e =(z). El conjunto de los numeros complejos se denotapor C.

Page 104: Grado en F´ısica Notas de teor´ıa - Universidad de …...Sin embargo, si restamos la primera ecuacion de la segunda y le sumamos´ esta a la tercera,´ volvemos a obtener el sistema

Algebra Lineal y Geometrıa. Curso 2017/18. Departamento de Algebra. http://departamento.us.es/da/da.html

104 APENDICE A. RESULTADOS AUXILIARES

Los numeros reales pueden identificarse con los numeros complejos que tienen parteimaginaria 0, de manera que R ⊂ C. Dos numeros complejos a+ bi y c+ di pueden sumarsey multiplicarse mediante las formulas siguientes

(a+ bi) + (c+ di) = (a+ c) + (b+ d)i

(a+ bi) · (c+ di) = (ac− bd) + (ad+ bc)i

En particular, se cumple que i2 = −1.

Teorema A.4 Con estas operaciones, el conjunto C de numeros complejos es un cuerpo, conelemento neutro 0 para la suma y 1 para la multiplicacion.

Definicion A.13 El conjugado de un numero complejo z = a + bi es el numero complejoz = a− bi. El modulo o valor absoluto de z es el numero real |z| =

√a2 + b2.

La operacion de conjugacion es conmuta con sumas y productos: z1 + z2 = z1 + z2, yz1 · z2 = z1 · z2. El modulo conmuta con el producto: |z1 · z2| = |z1| · |z2|, pero no con la suma.

Si identificamos el numero complejo a + bi con el punto (a, b) del plano cartesiano, sumodulo no es mas que su distancia al origen de coordenadas. El producto z · z es igual aa2 + b2 = |z|2, ası que dividiendo por |z|2 obtenemos la siguiente formula para el inversomultiplicativo de z:

z−1 =z

|z|2.

La propiedad mas importante y mas util de los numeros complejos es:

Teorema A.5 (Fundamental del Algebra) Todo polinomio P (x) ∈ C[x] con coeficientes en Cde grado al menos 1 tiene una raız en C.

Por tanto, si P (x) tiene grado n, aplicando el teorema n − 1 veces deducimos que P (x)puede descomponerse como P (x) = an(x − α1) · · · (x − αn). Es decir, todo polinomio enC[x] de grado n tiene exactamente n raıces si las contamos tantas veces como indique sumultiplicidad.

Si P (x) ∈ R[x] es ahora un polinomio con coeficientes reales, y α ∈ C es una raız complejade P (x), entonces P (α) = 0. Tomando conjugados en esta igualdad, y teniendo en cuentaque el conjugado de un numero real es el mismo, vemos que P (α) = 0, es decir, α tambienes una raız de P (x). Ademas, un razonamiento similar muestra que α y α deben tener lamisma multiplicidad. Es decir, las raıces complejas de un polinomio con coeficientes realesaparecen siempre en pares conjugados. En particular, si P (x) tiene grado impar, debe teneral menos una raız real.