Post on 03-May-2020
Apuntes de ÁlgebraVersión 0.0.1
Valentín Barros Puertas
30 de octubre de 2018
Índice general
1. Tema 1 21.1. Cuerpo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21.2. Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2. Tema 2 212.1. Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3. Tema 3 263.1. Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4. Tema 4 474.1. Aplicaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
I
Apuntes de Álgebra, Versión 0.0.1
Índice:
Índice general 1
CAPÍTULO 1
Tema 1
1.1 Cuerpo
Propiedades de las operaciones + y · en R:
+
• Propiedad asociativa: (𝑎+ 𝑏) + 𝑐 = 𝑎+ (𝑏+ 𝑐) ∀𝑎, 𝑏, 𝑐 ∈ R
• Elemento neutro: 0 + 𝑎 = 𝑎 = 𝑎+ 0 ∀𝑎 ∈ R
• Elemento simétrico —o inverso— de otro: (−𝑎) + 𝑎 = 0 = 𝑎+ (−𝑎) ∀𝑎 ∈ R
• Propiedad conmutativa: 𝑎+ 𝑏 = 𝑏+ 𝑎 ∀𝑎, 𝑏 ∈ R
·
• Propiedad asociativa: (𝑎 · 𝑏) · 𝑐 = 𝑎 · (𝑏 · 𝑐) ∀𝑎, 𝑏, 𝑐 ∈ R
• Elemento neutro: 1 · 𝑎 = 𝑎 = 𝑎 · 1 ∀𝑎 ∈ R
• Elemento simétrico —o inverso— de otro: 1/𝑎 · 𝑎 = 1 = 𝑎 · 1/𝑎 ∀𝑎 ∈ R/𝑎 = 0
• Propiedad conmutativa: 𝑎 · 𝑏 = 𝑏 · 𝑎 ∀𝑎, 𝑏 ∈ R
Propiedad distributiva de · respecto de +: 𝑎 · (𝑏+ 𝑐) = 𝑎 · 𝑏+ 𝑎 · 𝑐 ∀𝑎, 𝑏, 𝑐 ∈ R
Definición
Un cuerpo K es un conjunto K con dos operaciones internas que denotamos por + y · tales que verifican las propiedadesanteriores.
Ejemplos de cuerpos: R, C, Q. . .
Es posible definir un cuerpo con dos elementos, {0, 1},
2
Apuntes de Álgebra, Versión 0.0.1
+ 0 10 0 11 1 0
· 0 10 0 01 0 1
Este cuerpo se llama Z2.
1.2 Matriz
Definición
Una matriz 𝐴 de orden 𝑚 × 𝑛 con entradas en un cuerpo K es una tabla de doble entrada con 𝑚 · 𝑛 elementos en Kdistribuidos en 𝑚 filas y 𝑛 columnas.
Al elemento de la matriz 𝐴 que está en la fila 𝑖 y en la columna 𝑗 lo denotaremos por 𝐴(𝑖, 𝑗) o por 𝑎𝑖𝑗 .
𝐴 =
⎛⎜⎜⎜⎝𝑎11 𝑎12 · · · 𝑎1𝑛𝑎21 𝑎22 · · · 𝑎2𝑛
......
. . ....
𝑎𝑚1 𝑎𝑚2 · · · 𝑎𝑚𝑛
⎞⎟⎟⎟⎠
Ejemplo
𝐵 =
(1 2 3−1 7 5
)∈ℳ2×3(R), 𝑏23 = 5 = 𝐵(2, 3)
1.2.1 Conjuntos de matrices
El conjunto de matrices de orden 𝑚× 𝑛 con entradas en un cuerpo K lo denotaremos porℳ𝑚×𝑛(K).
1.2.2 Igualdad de matrices
Dos matrices 𝐴 y 𝐵 de orden 𝑚× 𝑛 con entradas en el mismo cuerpo K son iguales si
𝐴(𝑖, 𝑗) = 𝐵(𝑖, 𝑗) ∀𝑖 = 1, · · · ,𝑚∀𝑗 = 1, · · · , 𝑛
1.2.3 Casos particulares
Matriz fila
(𝑎11 𝑎12 · · · 𝑎1𝑛
)∈ℳ1×𝑛(K)
1.2. Matriz 3
Apuntes de Álgebra, Versión 0.0.1
Matriz columna
⎛⎜⎜⎜⎝𝑎11𝑎21
...𝑎𝑚1
⎞⎟⎟⎟⎠ ∈ℳ𝑚×1(K)
Matrices cuadradas de orden 𝑛
Si 𝑚 = 𝑛
ℳ𝑚×𝑛(K) =ℳ𝑛(K)
Matriz diagonal de orden 𝑛
𝐴 ∈ℳ𝑛(K) es diagonal si 𝑎𝑖𝑗 = 0⇔ 𝑖 = 𝑗
Ejemplo ⎛⎝1 0 00 0 00 0 3
⎞⎠
Matriz identidad de orden 𝑛
𝐼𝑛 ∈ℳ𝑛(K) diagonal / 𝐼𝑛(𝑖, 𝑖) = 1 ∀𝑖 = 1, · · · , 𝑛
Delta de Kronecker
La matriz identidad también se puede expresar con la función delta de Kronecker, 𝛿𝑖𝑗 , definida como
𝛿𝑖𝑗 =
{1 si 𝑖 = 𝑗0 si 𝑖 = 𝑗
1.2.4 Operaciones con matrices
Suma
Sean 𝐴,𝐵 ∈ℳ𝑚×𝑛(K)
Se define la suma de 𝐴 y 𝐵 como una matriz de orden 𝑚× 𝑛 con entradas en K que denotamos 𝐴+𝐵 tal que
(𝐴+𝐵)(𝑖, 𝑗) := 𝑎𝑖𝑗 + 𝑏𝑖𝑗 ∈ K ∀𝑖 = 1, · · · ,𝑚∀𝑗 = 1, · · · , 𝑛
1.2. Matriz 4
Apuntes de Álgebra, Versión 0.0.1
Multiplicación por escalares
Sean 𝐴 ∈ℳ𝑚×𝑛(K) y 𝛼 ∈ K. Se define 𝛼𝐴 como una matriz de orden 𝑚× 𝑛 con entradas en K tal que
𝛼𝐴(𝑖, 𝑗) := 𝛼 · 𝑎𝑖𝑗 ∈ K ∀𝑖 = 1, · · · ,𝑚∀𝑗 = 1, · · · , 𝑛
Propiedades
Con 𝐴,𝐵,𝐶 ∈ℳ𝑚×𝑛(K) y 𝛼, 𝛽 ∈ K.
1. Propiedad asociativa de +
𝐴+ (𝐵 + 𝐶) = (𝐴+𝐵) + 𝐶
Demostración(𝐴+ (𝐵 + 𝐶)
)(𝑖, 𝑗) = 𝑎𝑖𝑗 + (𝑏𝑖𝑗 + 𝑐𝑖𝑗) =
1 (𝑎𝑖𝑗 + 𝑏𝑖𝑗) + 𝑐𝑖𝑗 =((𝐴+𝐵) + 𝐶
)(𝑖, 𝑗)
1 ↦→ Por la propiedad asociativa de la suma en K
2. Elemento neutro para la suma
0(𝑖, 𝑗) := 01
1 ↦→ Neutro de la suma en K
3. Simétrico
∃𝐴 ∈ℳ𝑚×𝑛(K)⇒ ∃−𝐴 ∈ℳ𝑚×𝑛(K)
−𝐴(𝑖, 𝑗) := −𝑎𝑖𝑗−𝐴 es la simétrica de 𝐴
4. Propiedad conmutativa
+
𝐴+𝐵 = 𝐵 +𝐴
Multiplicación por escalares
𝛼𝐴 = 𝐴𝛼
5. Distributiva de la multiplicación por escalares respecto de la suma de matrices
𝛼(𝐴+𝐵) = 𝛼𝐴+ 𝛼𝐵
6. Distributiva
(𝛼+ 𝛽)𝐴 = 𝛼𝐴+ 𝛽𝐴
7. Elemento neutro para la multiplicación
1𝐴 = 𝐴
1.2. Matriz 5
Apuntes de Álgebra, Versión 0.0.1
Matriz traspuesta
Definición
Sea 𝐴 ∈ℳ𝑚×𝑛(K).
Se define la traspuesta de 𝐴 como una matriz de orden 𝑛×𝑚 que se denota por 𝐴𝑡 tal que
𝐴𝑡(𝑖, 𝑗) := 𝐴(𝑗, 𝑖) ∀𝑖 = 1, · · · , 𝑛∀𝑗 = 1, · · · ,𝑚
Ejemplo
𝐴 =
(1 2 34 5 6
)
𝐴𝑡 =
⎛⎝1 42 53 6
⎞⎠
Propiedades
𝐴 ∈ℳ𝑚×𝑛(K)𝐵 ∈ℳ𝑛×𝑠(K)
𝐴𝑡 ∈ℳ𝑛×𝑚(K)𝐵𝑡 ∈ℳ𝑠×𝑛(K)
Se verifica
1. (𝐴𝑡)𝑡 = 𝐴
2. (𝐴𝐵)𝑡 = 𝐵𝑡𝐴𝑡
Demostración
(𝐴𝐵)𝑡(𝑖, 𝑗) := (𝐴𝐵)(𝑗, 𝑖) =
𝑛∑𝑘=1
𝑎𝑗𝑘𝑏𝑘𝑖 =1
𝑛∑𝑘=1
𝐵𝑡(𝑖, 𝑘)𝐴𝑡(𝑘, 𝑗) = (𝐵𝑡𝐴𝑡)(𝑖, 𝑗) ∀𝑖
∀𝑗1 ↦→ Por la propiedad conmutativa del producto en K
Definición
Con
𝐴 ∈ℳ𝑛(K) no singular
Se verifica
(𝐴−1)𝑡 = (𝐴𝑡)−1
1.2. Matriz 6
Apuntes de Álgebra, Versión 0.0.1
Producto de matrices
Siendo 𝐴 ∈ℳ𝑚×𝑛(K) y 𝐵 ∈ℳ𝑛×𝑠(K) se define
𝐴𝐵 ∈ℳ𝑚×𝑠(K) tal que
𝐴𝐵(𝑖, 𝑗) :=
𝑛∑𝑘=1
𝑎𝑖𝑘𝑏𝑘𝑗 ∀𝑖 = 1, · · · ,𝑚
∀𝑗 = 1, · · · , 𝑠
Propiedades
Sea 𝐴 ∈ℳ𝑚×𝑛(K)
1. Asociativa
𝐴𝐵 ⇒ 𝐵 ∈ℳ𝑛×𝑠(K)
(𝐴𝐵)𝐶 ⇒ 𝐶 ∈ℳ𝑠×𝑟(K)((𝐴𝐵)𝐶 = 𝐴(𝐵𝐶)
)∈ℳ𝑚×𝑟(K)
2. Elemento neutro
𝐼𝑚𝐴 = 𝐴
𝐴𝐼𝑛 = 𝐴
Y, en particular,
Si 𝐴 ∈ℳ𝑛(K) ∃𝐼𝑛 ∈ℳ𝑛(K)
tal que𝐴𝐼𝑛 = 𝐼𝑛𝐴 = 𝐴
3. Distributiva —por la izquierda y por la derecha
Con 𝐵′ ∈ℳ𝑛×𝑠(K)
𝐴(𝐵 +𝐵′) = 𝐴𝐵 +𝐴𝐵′
(𝐵 +𝐵′)𝐶 = 𝐵𝐶 +𝐵′𝐶
Con 𝛼 ∈ K
𝛼(𝐴𝐵) = (𝛼𝐴)𝐵 = 𝐴(𝛼𝐵)
Nota: El producto de matrices no verifica la propiedad conmutativa.
Observación
(𝑎11 · · · 𝑎1𝑛
)⎛⎜⎜⎜⎝𝑏11 · · · 𝑏1𝑠𝑏21 · · · 𝑏2𝑠
.... . .
...𝑏𝑛1 · · · 𝑏𝑛𝑠
⎞⎟⎟⎟⎠ = 𝑎11𝐹1(𝐵) + 𝑎12𝐹2(𝐵) + · · ·+ 𝑎1𝑛𝐹𝑛(𝐵)
Es decir, las filas de 𝐴𝐵 son combinación lineal de las filas de 𝐵.
1.2. Matriz 7
Apuntes de Álgebra, Versión 0.0.1
Ejemplo
(2 3
)(1 3 52 4 6
)=(2 · 1 + 3 · 2 2 · 3 + 3 · 4 2 · 5 + 3 · 6
)= 2
(1 3 5
)+ 3
(2 4 6
)
Consecuencia
Con 𝐴 ∈ℳ𝑚×𝑛(K) y 𝐵 ∈ℳ𝑛×𝑠(K)
𝐹𝑖(𝐴𝐵) = 𝑎𝑖1𝐹1(𝐵) + 𝑎𝑖2𝐹2(𝐵) + · · ·+ 𝑎𝑖𝑛𝐹𝑛(𝐵) ∀𝑖 = 1, · · · ,𝑚
Observación ⎛⎜⎜⎜⎝𝑎11 · · · 𝑎1𝑛𝑎21 · · · 𝑎2𝑛
.... . .
...𝑎𝑚1 · · · 𝑎𝑚𝑛
⎞⎟⎟⎟⎠⎛⎜⎜⎜⎝𝑏11𝑏21
...𝑏𝑛1
⎞⎟⎟⎟⎠ = 𝐶1(𝐴)𝑏11 + 𝐶2(𝐴)𝑏21 + · · ·+ 𝐶𝑛(𝐴)𝑏𝑛1
Es decir, las columnas de 𝐴𝐵 son combinación lineal de las columnas de 𝐴.
Ejemplo ⎛⎝1 20 13 −1
⎞⎠(57
)=
⎛⎝ 1 · 5 + 2 · 70 · 5 + 1 · 7
3 · 5 + (−1) · 7
⎞⎠ =
⎛⎝103
⎞⎠ 5 +
⎛⎝ 21−1
⎞⎠ 7
1.2.5 Matriz no singular
Definición
Una matriz 𝐴 = (𝑎𝑖𝑗) ∈ ℳ𝑛(K) es no singular —o inversible— si existe una matriz 𝐵 = (𝑏𝑖𝑗) ∈ ℳ𝑛(K) tal que𝐴𝐵 = 𝐼𝑛 = 𝐵𝐴.
No todas las matrices cuadradas tienen inversa.
Propiedades
Con 𝐴 = (𝑎𝑖𝑗) ∈ℳ𝑛(K) no singular,
1. Si existe inverso es único.
1.2. Matriz 8
Apuntes de Álgebra, Versión 0.0.1
Demostración
𝐴 tiene inverso ⇔ ∃𝐵 ∈ℳ𝑛(K) / 𝐴𝐵 = 𝐼𝑛 = 𝐵𝐴Si existiese 𝐵′ ∈ℳ𝑛(K) / 𝐴𝐵′ = 𝐼𝑛 = 𝐵′𝐴
}⇒? 𝐵 = 𝐵′
𝐵 = 𝐵𝐼𝑛 = 𝐵(𝐴𝐵′) =1 (𝐵𝐴)𝐵′ = 𝐼𝑛𝐵′ = 𝐵′
1 ↦→ Propiedad asociativa
2. Con 𝐴,𝐵 ∈ℳ𝑛(K) no singulares,
Se verifica que 𝐴𝐵 es no singular y (𝐴𝐵)−1 = 𝐵−1𝐴−1.
Demostración
∃𝐴−1 ∈ℳ𝑛(K)∃𝐵−1 ∈ℳ𝑛(K)
}𝐵−1𝐴−1 ∈ℳ𝑛(K)
(𝐵−1𝐴−1)(𝐴𝐵) =1 𝐵−1(𝐴−1𝐴)𝐵 = 𝐵−1𝐼𝑛𝐵 = 𝐵−1𝐵 = 𝐼𝑛
1 ↦→ Propiedad asociativa
1.2.6 Matrices elementales
𝐸 ∈ℳ𝑛(K) es una matriz elemental si es de uno de los siguientes tipos:
1. Si la matriz 𝐸 se obtiene de 𝐼𝑛 intercambiando dos filas: 𝐸𝑖↔𝑗
Nota: Estas matrices se llaman matrices de permutación.
2. Si la matriz 𝐸 se obtiene de 𝐼𝑛 multiplicando una fila por un escalar no nulo.
Con 𝛼 ∈ K y 𝛼 = 0
𝐸𝛼𝐹𝑖 =
⎛⎜⎜⎜⎜⎜⎜⎝1
. . .𝛼
. . .1
⎞⎟⎟⎟⎟⎟⎟⎠3. Si la matriz 𝐸 se obtiene de 𝐼𝑛 sumándole a una fila un múltiplo de otra fila: 𝐸𝐹𝑖+𝛼𝐹𝑗
con 𝑖 = 𝑗
Propiedades por filas
Con 𝐴 ∈ℳ𝑚×𝑛(K) se verifica:
1. 𝐸𝐹𝑖↔𝐹𝑗𝐴 es la matriz que se obtiene de 𝐴 al intercambiar su fila 𝑖-ésima por su fila 𝑗-ésima.
2. 𝐸𝛼𝐹𝑖𝐴 con 𝛼 = 0 es la matriz que se obtiene de 𝐴 multiplicando su fila 𝑖-ésima por el escalar 𝛼.
3. 𝐸𝐹𝑖+𝛼𝐹𝑗𝐴 con 𝑖 = 𝑗 es la matriz que se obtiene de 𝐴 sumando a su fila 𝑖-ésima 𝛼 veces su fila 𝑗-ésima.
1.2. Matriz 9
Apuntes de Álgebra, Versión 0.0.1
Propiedades por columnas
Con 𝐴 ∈ℳ𝑚×𝑛(K) se verifica:
1. 𝐴𝐸𝐹𝑖↔𝐹𝑗 = 𝐴𝐸′𝐶𝑖↔𝐶𝑗
es la matriz que se obtiene de 𝐴 al intercambiar su columna 𝑖-ésima por su columna𝑗-ésima.
2. 𝐴𝐸𝛼𝐹𝑖 = 𝐴𝐸′𝛼𝐶𝑖
con 𝛼 = 0 es la matriz que se obtiene de 𝐴 multiplicando su columna 𝑖-ésima por el escalar𝛼.
3. 𝐴𝐸𝐹𝑖+𝛼𝐹𝑗 = 𝐴𝐸′𝐶𝑗+𝛼𝐶𝑖
con 𝑖 = 𝑗 es la matriz que se obtiene de 𝐴 sumando a su columna 𝑗-ésima 𝛼 veces sucolumna 𝑖-ésima.
Corolario
Las matrices elementales son no singulares y su inversa es de nuevo una matriz elemental.
Demostración𝐸𝐹𝑖↔𝐹𝑗
𝐸𝐹𝑖↔𝐹𝑗= 𝐼 ⇒ (𝐸𝐹𝑖↔𝐹𝑗
)−1 = 𝐸𝐹𝑖↔𝐹𝑗
Con 𝛼 = 0, 𝐸𝛼−1𝐹𝑖𝐸𝛼𝐹𝑖
= 𝐼 = 𝐸𝛼𝐹𝑖𝐸𝛼−1⏟ ⏞
⇓(𝐸𝛼𝐹𝑖
)−1 = 𝐸𝛼−1𝐹𝑖
𝐸𝐹𝑖−𝛼𝐹𝑗𝐸𝐹𝑖+𝛼𝐹𝑗 = 𝐼 = 𝐸𝐹𝑖+𝛼𝐹𝑗𝐸𝐹𝑖−𝛼𝐹𝑗⏟ ⏞ ⇓
(𝐸𝐹𝑖+𝛼𝐹𝑗 )−1 = 𝐸𝐹𝑖−𝛼𝐹𝑗
1.2.7 Escalonamiento de matrices
Definición
Una matriz 𝐴 ∈ℳ𝑚×𝑛(K) es escalonada por filas si
1. Si tiene filas de ceros están al final.
2.Definición
El primer elemento no nulo de cada fila no nula se llamará pivote.
El pivote de cada fila está situado más a la derecha —i.e. en una columna posterior— que los pivotes de las filasanteriores.
Definición
Una matriz 𝐴 ∈ ℳ𝑚×𝑛(K) escalonada es escalonada reducida si todos los pivotes son 1 y además todos los otroselementos de la columna en donde hay pivote son 0.
1.2. Matriz 10
Apuntes de Álgebra, Versión 0.0.1
1.2.8 Matrices equivalentes
Definición
Dos matrices 𝐴,𝐵 ∈ ℳ𝑚×𝑛(K) son equivalentes por filas (𝐴 ∼𝑓 𝐵) si existen 𝐸1, · · · , 𝐸𝑠 matrices elementales deorden 𝑚 tal que 𝐴 = 𝐸𝑠 · · ·𝐸1𝐵
Propiedades
Reflexiva:
𝐴 ∼𝑓 𝐴
Simétrica:
𝐴 ∼𝑓 𝐵 ⇔ 𝐵 ∼𝑓 𝐴
Transitiva:
𝐴 ∼𝑓 𝐵𝐴 ∼𝑓 𝐶
}⇒ 𝐴 ∼𝑓 𝐶
Teorema
𝐴 ∈ℳ𝑚×𝑛(K)
𝐴 es equivalente por filas con alguna matriz escalonada y con una única matriz escalonada reducida.
Proposición
Sean 𝐴,𝐵 ∈ℳ𝑛(K) equivalentes por filas (𝐴 ∼𝑓 𝐵). Se verifica:
𝐴 es no singular ⇔ 𝐵 es no singular
Demostración
”⇒ ”𝐴 ∼𝑓 𝐵 ⇔ ∃𝐸1, · · · , 𝐸𝑠 matrices elementales / (𝐸𝑠 · · ·𝐸1𝐴)1 = 𝐵 ∧𝐵−1 = (𝐸𝑠 · · ·𝐸1𝐴)−1 = 𝐴−1𝐸−1
1 · · ·𝐸−1𝑠
”⇐ ”Como 𝐴 ∼𝑓 𝐵 ⇔ 𝐵 ∼𝑓 𝐴 se aplica el mismo razonamiento.
1 ↦→ Es no singular por ser producto de no singulares.
Observación
Sea 𝐴 ∈ℳ𝑛(K)
𝐴 tiene una fila nula —i.e. una fila de ceros⇓
𝐴 no tiene inversa
1.2. Matriz 11
Apuntes de Álgebra, Versión 0.0.1
Proposición
Con 𝐴 ∈ℳ𝑛(K) escalonada reducida
𝐴 no singular ⇔ 𝐴 = 𝐼𝑛
Demostración
𝐴 no singular ⇒ 𝐴 no tiene ninguna fila nula𝐴 escalonada
}⏟ ⏞
⇓número de pivotes = número de filas = 𝑛 = número de columnas
⇓
𝐴 reducida, 𝐴 =
⎛⎜⎜⎜⎜⎜⎜⎝1 0 · · · · · · 00 1 0 · · · 0... 0
. . ....
......
......
. . ....
0 0 · · · 0 1
⎞⎟⎟⎟⎟⎟⎟⎠ = 𝐼𝑛
Observación
Con 𝐴 ∈ℳ𝑛(K) se verifica
𝐴 matriz escalonada ∧𝐴 no singular.⇓
No tiene filas de ceros, es decir, en todas las filas hay un pivote.⇓
Hay 𝑛 pivotes.⇓
En cada columna hay un pivote.⇓
𝐴 es trangular superior.
Proposición
Con 𝐴 ∈ℳ𝑛(K)
𝐴 no singular ⇔ 𝐴 ∼𝑓 𝐼𝑛
1.2. Matriz 12
Apuntes de Álgebra, Versión 0.0.1
Demostración
”⇒ ”∃!𝐵 ∈ℳ𝑛(K) escalonada reducida / 𝐴 ∼𝑓 𝐵
𝐴 no singular ⇒ 𝐵 no singular
}⇒ 𝐵 = 𝐼𝑛
”⇐ ”𝐴 ∼𝑓 𝐼𝑛
𝐼𝑛 es no singular
}⇒ 𝐴 es no singular
Escalonamiento de matrices por filas utilizando matrices elementales
Operaciones elementales permitidas para escalonar matrices:
Matriz elemental Operación elemental𝐸𝐹𝑖↔𝐹𝑗
Intercambiar la fila 𝑖 por la fila 𝑗.𝐸𝛼𝐹𝑖 con 𝛼 ∈ K y 𝛼 = 0 Multiplicar la fila 𝑖 por un escalar no nulo.𝐸𝐹𝑖+𝛼𝐹𝑗
con 𝑖 = 𝑗 y 𝛼 ∈ K Sumarle a una fila un múltiplo de otra.
1.2.9 Cálculo de la inversa de una matriz
Con 𝐴 ∈ℳ𝑛(K) no singular
∃𝐸1, · · · , 𝐸𝑠 / 𝐸𝑠 · · ·𝐸1𝐴 = 𝐵 escalonada reducida = 𝐼𝑛
Es decir, existen 𝑡1, · · · , 𝑡𝑠 transformaciones elementales en filas que aplicadas sucesivamente transforman 𝐴 en unamatriz escalonada reducida.
Ejemplo
𝐴 =
(1 23 4
)−−−−−→𝐹2−3𝐹1
(1 20 −2
)−−−→−12 𝐹2
(1 20 1
)−−−−−→𝐹1−2𝐹2
(1 00 1
)= 𝐼2
O, lo que es lo mismo,
𝐸𝐹1−2𝐹2𝐸−1
2 𝐹2𝐸𝐹2−3𝐹1
𝐴 = 𝐼2⏟ ⏞ ⇓
𝐸𝐹1−2𝐹2𝐸−1
2 𝐹2𝐸𝐹2−3𝐹1
= 𝐴−1
𝐼2 −−−−−→𝐹2−3𝐹1
(1 0−3 1
)−−−→−12 𝐹2
(1 032
−12
)−−−−−→𝐹1−2𝐹2
(−2 132
−12
)= 𝐴−1
Por lo que, si 𝐴 ∈ℳ𝑛(K) es no singular, para calcular su inversa basta con ampliar 𝐴 con la identidad y transformarla parte de 𝐴 hasta convertirla en la identidad —de este modo la parte que inicialmente era la identidad se habrátransformado en 𝐴−1, es decir
(𝐴|𝐼𝑛) −→𝑡1· · · −→
𝑡𝑠
(𝐼𝑛𝐴−1
)
1.2. Matriz 13
Apuntes de Álgebra, Versión 0.0.1
1.2.10 Rango por filas
Definición
Sea 𝐴 ∈ℳ𝑚×𝑛(K)
Se define el rango por filas de 𝐴, 𝑟𝑓 (𝐴), como el número de pivotes de cualquier matriz escalonada equivalente porfilas con 𝐴.
Nota: Toda matriz escalonada equivalente con 𝐴 tiene el mismo número de pivotes.
Si 𝐵 es escalonada entonces el número de pivotes de 𝐵 es igual al número de pivotes de la única matriz escalonadareducida equivalente por filas con 𝐵.
Con 𝐵 escalonada,
𝑏𝑖𝑗 pivote de 𝐵 ⇔ 𝑏𝑖𝑗 = 0
Para pasar de 𝐵 a la escalonada reducida:
1. 1𝑏𝑖𝑗
𝐹𝑖 —todos los pivotes pasan a ser 1.
2. 𝐹𝑘 − 𝑏𝑘𝑗𝐹𝑖 ∀𝑘 < 𝑖 —la cual es una operación que conserva el número de pivotes.
Ejemplo ⎛⎝2 3 1 10 0 7 20 0 0 5
⎞⎠ −−−−−−−−−−→12𝐹1 ; 1
7𝐹2 ; 15𝐹3
⎛⎝1 32
12
12
0 0 1 27
0 0 0 1
⎞⎠ −−−−−→𝐹2− 2
7𝐹3
⎛⎝1 32
12
12
0 0 1 00 0 0 1
⎞⎠→ · · ·· · · −−−−−→
𝐹1− 12𝐹3
⎛⎝1 32
12 0
0 0 1 00 0 0 1
⎞⎠ −−−−−→𝐹1− 1
2𝐹2
⎛⎝1 32 0 0
0 0 1 00 0 0 1
⎞⎠ escalonada reducida
Corolario
Con 𝐴 ∈ℳ𝑛(K)
𝐴 no singular ⇔ 𝐴 ∼𝑓 𝐼𝑛 ⇔ 𝑟𝑓 (𝐴) = 𝑛
1.2.11 Determinantes
Con 𝐴 = (𝑎𝑖𝑗) ∈ℳ2(K) se define el determinante de 𝐴 como
det(𝐴) =
𝑎11 𝑎12𝑎21 𝑎22
= 𝑎11𝑎22 − 𝑎21𝑎12
Definición
Sea 𝐴 ∈ℳ𝑛(K)
1.2. Matriz 14
Apuntes de Álgebra, Versión 0.0.1
Si 𝑛 = 1 se define |𝐴| := 𝑎11
Si 𝑛 > 1
|𝐴| := 𝑎11𝛼11 + · · ·+ 𝑎𝑛1𝛼𝑛1
siendo
𝛼𝑖1 := (−1)𝑖+1|𝐴𝑖1| adjunto del elemento 𝑎𝑖1
y
𝐴𝑖𝑗 := matriz obtenida de 𝐴 eliminando la fila 𝑖 y la columna 𝑗
Lo que se conoce como el desarrollo de Laplace por la 1ª columna.
Desarrollo de Laplace por la fila 𝑖-ésima
Se verifica que
|𝐴| = 𝑎𝑖1𝛼𝑖1 + 𝑎𝑖2𝛼𝑖2 + · · ·+ 𝑎𝑖𝑛𝛼𝑖𝑛 ∀𝑖 = 1, · · · , 𝑛
Determinante de una matriz triangular superior
Definición
Con 𝐴 ∈ℳ𝑛(K) triangular superior se verifica
|𝐴| = 𝑎11𝑎22 · · · 𝑎𝑛𝑛
Demostración
Por inducción en 𝑛
Si 𝑛 = 1
|𝐴| = 𝑎11
Si 𝑛 > 1 la fórmula es cierta para 𝑛− 1.
Caso general:
𝐴 =
⎛⎜⎜⎜⎜⎜⎜⎝𝑎11 · · · · · · · · · · · ·0 𝑎22 · · · · · · · · ·... 0
. . ....
......
......
. . ....
0 0 0 0 𝑎𝑛𝑛
⎞⎟⎟⎟⎟⎟⎟⎠Por lo que tenemos que el desarrollo de Laplace por la 1ª columna es
|𝐴| = 𝑎11(−1)1+1|𝐴11| = 𝑎11𝑎22 · · · 𝑎𝑛𝑛
Con
𝐴11 ∈ℳ𝑛−1(K)
1.2. Matriz 15
Apuntes de Álgebra, Versión 0.0.1
Corolario
|𝐼𝑛| = 1
Propiedades de los determinantes
1.
𝐴,𝐴′, 𝐴′′ ∈ℳ𝑛(K)∃𝑖 / 𝐹𝑖(𝐴) = 𝐹𝑖(𝐴
′) + 𝐹𝑖(𝐴′′)
𝐹𝑗(𝐴) = 𝐹𝑗(𝐴′) = 𝐹𝑗(𝐴
′′) ∀𝑗 = 𝑖
⎫⎬⎭⇒ |𝐴| = |𝐴′|+ |𝐴′′|
Ejemplo
𝐴 =
⎛⎝1 2 34 5 67 8 9
⎞⎠ 𝐴′ =
⎛⎝1 2 33 2 57 8 9
⎞⎠ 𝐴′′ =
⎛⎝1 2 31 3 17 8 9
⎞⎠
2.
𝐴 ∈ℳ𝑛(K) tiene dos filas iguales ⇒ |𝐴| = 0
3. Si se intercambian dos filas de 𝐴 el determinante cambia de signo.
4. Si multiplicamos una fila de 𝐴 por un escalar 𝛽 ∈ K, el determinante de la nueva matriz es
𝛽|𝐴|
Luego,
𝐴 tiene una fila de 0⇒ |𝐴| = 0
5. Si a la fila 𝑖-ésima de 𝐴 le sumamos 𝛼 veces la fila 𝑗-ésima —con 𝑖 = 𝑗—, entonces el valor del determinanteno varía.
1.2. Matriz 16
Apuntes de Álgebra, Versión 0.0.1
Demostración de la propiedad 3 utilizando las propiedades 1 y 2
𝑖→𝑗 →
𝐹1(𝐴)...
𝐹𝑖(𝐴) + 𝐹𝑗(𝐴)𝐹𝑗(𝐴) + 𝐹𝑖(𝐴)
...𝐹𝑛(𝐴)
= 0 (El determinante es 0 por tener la matriz dos filas iguales)
𝑖→
𝑗 →
𝐹1(𝐴)...
𝐹𝑖(𝐴)...
𝐹𝑗(𝐴) + 𝐹𝑖(𝐴)...
𝐹𝑛(𝐴)
+
𝐹1(𝐴)...
𝐹𝑗(𝐴)...
𝐹𝑗(𝐴) + 𝐹𝑖(𝐴)...
𝐹𝑛(𝐴)
=
𝐹1(𝐴)...
𝐹𝑖(𝐴)...
𝐹𝑗(𝐴)...
𝐹𝑛(𝐴)
+
𝐹1(𝐴)...
𝐹𝑖(𝐴)...
𝐹𝑖(𝐴)...
𝐹𝑛(𝐴)
=
𝐹1(𝐴)...
𝐹𝑗(𝐴)...
𝐹𝑗(𝐴)...
𝐹𝑛(𝐴)
+
𝐹1(𝐴)...
𝐹𝑗(𝐴)...
𝐹𝑖(𝐴)...
𝐹𝑛(𝐴)
= 0
1.2.12 Determinantes y matrices equivalentes
Con 𝐴,𝐸 ∈ℳ𝑛(K) / 𝐸 elemental
|𝐸𝐴| = |𝐸||𝐴|
Observaciones
1.
𝐴 ∈ℳ𝑛(K) no singular ⇔ 𝐴 ∼𝑓 𝐼𝑛 ⇔ 𝐼𝑛 ∼𝑓 𝐴⇔ ∃𝐸1, · · · , 𝐸𝑟 ∈ℳ𝑛(K) elementales / 𝐸𝑟 · · ·𝐸1𝐼𝑛 = 𝐴⏟ ⏞ ⇓
|𝐴| = |𝐸𝑟 · · ·𝐸1| = |𝐸𝑟||𝐸𝑟−1 · · ·𝐸1| = |𝐸𝑟||𝐸𝑟−1| · · · |𝐸1| = 0
2.
𝐴 ∈ℳ𝑛(K) singular ⇔ 𝐴 ∼𝑓 𝐴′ ⇔ 𝐴′ ∼𝑓 𝐴⏟ ⏞ ⇕
∃𝐸1, · · · , 𝐸𝑠 ∈ℳ𝑛(K) elementales / 𝐴 = 𝐸𝑠 · · ·𝐸1𝐴′
⇓|𝐴| = |𝐸𝑠 · · ·𝐸1𝐴
′| = |𝐸𝑠||𝐸𝑠−1𝐴′| = |𝐸𝑠| · · · |𝐸2||𝐸1𝐴
′| = |𝐸𝑠| · · · |𝐸1||𝐴′| =1 0
𝐴′ escalonada reducidaNúmero de pivotes de 𝐴′ < 𝑛(𝐴′ tiene alguna fila de ceros)
1 ↦→ |𝐴′| = 0
Proposición
Con 𝐴 ∈ℳ𝑛(K)
𝐴 no singular ⇔ |𝐴| = 0
1.2. Matriz 17
Apuntes de Álgebra, Versión 0.0.1
Teorema
Con 𝐴,𝐵 ∈ℳ𝑛(K)
|𝐴𝐵| = |𝐴||𝐵|
Demostración
Caso 1: 𝐴 no singular⇕
∃𝐸1, · · · , 𝐸𝑟 elementales /𝐸𝑟 · · ·𝐸1 = 𝐴
∧|𝐴𝐵| = |𝐸𝑟 · · ·𝐸1𝐵| = |𝐸𝑟| · · · |𝐸𝑟−1𝐵| = · · · = |𝐸𝑟| · · · |𝐸2||𝐸1𝐵| = (|𝐸𝑟| · · · |𝐸2||𝐸1|)1|𝐵| = |𝐴||𝐵|
Caso 2: 𝐴 singular⇕
∃𝐸1, · · · , 𝐸𝑠 elementales /∃𝐴′ ∈ℳ𝑛(K) matriz con alguna fila de ceros /
𝐴 = 𝐸𝑠 · · ·𝐸1𝐴′ ∧𝐴𝐵 = (𝐸𝑠 · · ·𝐸1𝐴
′)𝐵 = 𝐸𝑠 · · ·𝐸1(𝐴′𝐵)2⏟ ⏞
⇓𝐴𝐵 ∼𝑓 (𝐴′𝐵)2
⇕𝐴𝐵 singular
⇓|𝐴||𝐵| = |𝐴𝐵| = 0
1 ↦→ |𝐸𝑟| · · · |𝐸2||𝐸1| = |𝐴|2 ↦→ 𝐴′𝐵 es una matriz con una fila de ceros
1.2.13 Determinantes y matrices traspuestas
Observación
(𝐸𝐹𝑖↔𝐹𝑗)𝑡 = 𝐸𝐶𝑖↔𝐶𝑗
= 𝐸𝐹𝑖↔𝐹𝑗
Con 𝛼 = 0, (𝐸𝛼𝐹𝑖)𝑡 = 𝐸𝛼𝐶𝑖
= 𝐸𝛼𝐹𝑖
Con 𝑖 = 𝑗, (𝐸𝐹𝑖+𝛼𝐹𝑗 )𝑡 = 𝐸𝐶𝑖+𝛼𝐶𝑗 = 𝐸𝐹𝑗+𝛼𝐹𝑖
Nota: En este último caso la matriz elemental traspuesta no coincide con la original, aunque siguen teniendo elmismo determinante.
Con 𝐴 ∈ℳ𝑛(K)
|𝐴| = |𝐴𝑡|
1.2. Matriz 18
Apuntes de Álgebra, Versión 0.0.1
Demostración
𝐴 no singular ⇔ 𝐴𝑡 no singular(𝐴−1)𝑡 = (𝐴𝑡)−1
𝐴 singular ⇔ 𝐴𝑡 singular
𝐴 singular ⇔ |𝐴| = 0⇕
𝐴𝑡 singular ⇔ |𝐴𝑡| = 0
⎫⎬⎭𝐴 no singular
⇕⏞ ⏟ ∃𝐸1, · · · , 𝐸𝑠 matrices elementales / 𝐴 = 𝐸𝑠 · · ·𝐸1 ⇒ |𝐴| = |𝐸𝑠| · · · |𝐸1| = |𝐸𝑡
𝑠| · · · |𝐸𝑡1| = |𝐸𝑡
1 · · ·𝐸𝑡𝑠| = |𝐴𝑡|
|𝐸𝑖| = |𝐸𝑡𝑖 | ∀𝑖 = 1, · · · , 𝑠
𝐴𝑡 = (𝐸𝑠 · · ·𝐸1)𝑡 = 𝐸𝑡
1 · · ·𝐸𝑡𝑠
Corolario
Con 𝐴 = (𝑎𝑖𝑗) ∈ℳ𝑛(K)
|𝐴| = 𝑎11𝛼11 + 𝑎12𝛼12 + · · ·+ 𝑎1𝑛𝛼1𝑛
(Desarrollo de Laplace por la 1ª fila)
Demostración
|𝐴| = |𝐴𝑡| = 𝑎11(−1)1+1|(𝐴𝑡)11|+ · · ·+ 𝑎1𝑛(−1)1+𝑛|(𝐴𝑡)𝑛1| = 𝑎11(−1)1+1|𝐴11|+ · · ·+ 𝑎1𝑛(−1)1+𝑛|𝐴1𝑛|(𝐴𝑡)𝑖1 = (𝐴1𝑖)
𝑡 ⇒ |(𝐴𝑡)𝑖1| = |(𝐴1𝑖)𝑡| = |𝐴1𝑖|
Proposición
|𝐴| = 𝑎𝑖1𝛼𝑖1 + · · ·+ 𝑎𝑖𝑛𝛼𝑖𝑛 ∀𝑖 = 1, · · · , 𝑛
|𝐴| = 𝑎1𝑗𝛼1𝑗 + · · ·+ 𝑎𝑛𝑗𝛼𝑛𝑗 ∀𝑗 = 1, · · · , 𝑛
Por lo que las propiedades de los determinantes enunciadas en Propiedades de los determinantes son aplicables tam-bién por columnas.
Proposición
1.2. Matriz 19
Apuntes de Álgebra, Versión 0.0.1
Con 𝐴 = (𝑎𝑖𝑗) ∈ℳ𝑛(K) no singular
𝐴−1 = 1|𝐴| (adj(𝐴))𝑡 = 1
|𝐴|
⎛⎜⎜⎜⎝𝛼11 · · · 𝛼𝑛1
𝛼12 · · · 𝛼𝑛2
......
𝛼1𝑛 · · · 𝛼𝑛𝑛
⎞⎟⎟⎟⎠adj(𝐴) = (𝛼𝑖𝑗)
𝛼𝑖𝑗 = (−1)𝑖+𝑗 |𝐴𝑖𝑗 |
Demostración
Con 𝐵 := 1|𝐴| adj(𝐴)𝑡
𝐵 = 𝐴−1 ⇔ 𝐴𝐵 = 𝐼𝑛
𝐴𝐵(𝑖, 𝑖) = 𝑎𝑖1𝐵(1, 𝑖) + 𝑎𝑖2𝐵(2, 𝑖) + · · ·+ 𝑎𝑖𝑛𝐵(𝑛, 𝑖)
𝐵(1, 𝑖) = 1|𝐴| (adj𝐴)𝑡(1, 𝑖) = 1
|𝐴| adj(𝐴)(𝑖, 1) = 1|𝐴|𝛼𝑖1
⎫⎬⎭⏟ ⏞ ⇓
𝐴𝐵(𝑖, 𝑖) = 𝑎𝑖11|𝐴|𝛼𝑖1 + · · ·+ 𝑎𝑖𝑛
1|𝐴|𝛼𝑖𝑛 = 1
|𝐴| (𝑎𝑖1𝛼𝑖1 + · · ·+ 𝑎𝑖𝑛𝛼𝑖𝑛)1 = 1
|𝐴| |𝐴| = 1
∀ 𝑖 = 𝑗 𝐴𝐵(𝑖, 𝑗) = 02
1 ↦→ Es el desarrollo de Laplace por la fila 𝑖-ésima.2 ↦→ Pendiente de demostrar.
Proposición
El desarrollo del determinante usando la regla de Laplace se puede hacer por cualquier fila o columna.
Demostración
Con 𝐴 = (𝑎𝑖𝑗) ∈ℳ𝑛(K)
𝐴′ := 𝐸𝐹1↔𝐹2𝐴 =
⎛⎜⎜⎜⎜⎜⎝𝑎21 · · · 𝑎2𝑗 · · · 𝑎2𝑛𝑎11 · · · 𝑎1𝑗 · · · 𝑎1𝑛𝑎31 · · · · · · · · · 𝑎3𝑛
......
...𝑎𝑛1 · · · · · · · · · 𝑎𝑛𝑛
⎞⎟⎟⎟⎟⎟⎠|𝐴| = −|𝐴′| = −
(𝑎21(−1)1+1|𝐴21|+ · · ·+ 𝑎2𝑛(−1)1+𝑛|𝐴2𝑛|
)= 𝑎21(−1)2+1|𝐴21|+ · · ·+ 𝑎2𝑛(−1)2+𝑛|𝐴2𝑛|
1.2. Matriz 20
CAPÍTULO 2
Tema 2
2.1 Sistemas de ecuaciones lineales
Una ecuación lineal sobre el cuerpo K con 𝑛 incognitas —o variables— 𝑥1, · · · , 𝑥𝑛 es una expresión de la forma
𝑎1𝑥1 + 𝑎2𝑥2 + · · ·+ 𝑎𝑛𝑥𝑛 = 𝑏 𝑎𝑖 ∈ K ∀𝑖 = 1, · · · , 𝑛𝑏 ∈ K
Los elementos 𝑎𝑖 se llamarán coeficientes, mientras que 𝑏 es el término independiente.
Ejemplo
𝑥+ 𝑦 = 0
Un elemento (𝛼1, · · · , 𝛼𝑛) ∈ K𝑛 es una solución de una ecuación lineal si se verifica
𝑎1𝛼1 + · · ·+ 𝑎𝑛𝛼𝑛 = 𝑏
Definición
Un sistema de ecuaciones lineales con coeficientes en K y con 𝑛 incógnitas —o variables— 𝑥1, · · · , 𝑥𝑛 es
𝑎11𝑥1 + · · ·+ 𝑎1𝑛𝑥𝑛 = 𝑏1𝑎21𝑥1 + · · ·+ 𝑎2𝑛𝑥𝑛 = 𝑏2
...𝑎𝑚1𝑥1 + · · ·+ 𝑎𝑚𝑛𝑥𝑛 = 𝑏𝑚
⎫⎪⎪⎪⎬⎪⎪⎪⎭𝑎𝑖𝑗 ∈ K ∀𝑖 = 1, · · · ,𝑚
∀𝑗 = 1, · · · , 𝑛𝑏𝑖 ∈ K ∀𝑖 = 1, · · · ,𝑚
Es decir, 𝑚 ecuaciones con coeficientes en K en las mismas 𝑛 incógnitas.
21
Apuntes de Álgebra, Versión 0.0.1
(𝛼1, · · · , 𝛼𝑛) ∈ K𝑛 es solución del sistema si es la solución de cada una de las 𝑚 ecuaciones lineales que loforman.
Si 𝑏𝑗 = 0 ∀𝑗 = 1, · · · ,𝑚 se dice que el sistema es homogéneo.
Si el sistema tiene solución se dice que es compatible, y será
• Compatible Determinado si la solución es única.
• Compatible Indeterminado si tiene más de una solución.
Si el sistema no tiene solución se dice que es Incompatible.
𝐴 = (𝑎𝑖𝑗) ∈ℳ𝑚×𝑛(K) es la matriz de coeficientes del sistema.
𝑏 =
⎛⎜⎜⎜⎝𝑏1𝑏2...𝑏𝑚
⎞⎟⎟⎟⎠ ∈ℳ𝑚×1 es la matriz de términos independientes del sistema.
𝐴𝑥 = 𝑏 es la expresión matricial del sistema —con 𝑥 =
⎛⎜⎜⎜⎝𝑥1
𝑥2
...𝑥𝑛
⎞⎟⎟⎟⎠(𝐴|𝑏) ∈ℳ𝑚×(𝑛+1) es la matriz ampliada del sistema.
Definición
Dos sistemas 𝑆 y 𝑆′ de ecuaciones lineales en K en las mismas 𝑛 incógnitas —𝑥1, · · · , 𝑥𝑛— son equivalentes si tienenel mismo conjunto de soluciones.
Nota: Si ambos son incompatibles tienen el mismo conjunto de soluciones.
Definición
Dado un sistema 𝐴𝑥 = 𝐵, el sistema de ecuaciones cuya matriz ampliada se obtiene de (𝐴|𝐵) después de una sucesiónfinita de operaciones elementales en filas, es un sistema equivalente a 𝐴𝑥 = 𝐵.
2.1. Sistemas de ecuaciones lineales 22
Apuntes de Álgebra, Versión 0.0.1
Demostración
(𝐴|𝐵) −−−−−−−−−−−−−−−−−−−−−−−−→Op. elemental en filas con la matriz elemental 𝐸
𝐸(𝐴|𝐵) = (𝐸𝐴|𝐸𝐵)
(𝛼1, · · · , 𝛼𝑛) ∈ K𝑛 es solución de 𝐴𝑥 = 𝐵⇕
𝐴
⎛⎜⎝𝛼1
...𝛼𝑛
⎞⎟⎠ = 𝐵
⇕
𝐸𝐴
⎛⎜⎝𝛼1
...𝛼𝑛
⎞⎟⎠ = 𝐸𝐵
⇕(𝛼1, · · · , 𝛼𝑛) ∈ K𝑛 es solución de (𝐸𝐴)𝑥 = 𝐸𝐵
Definición
El sistema 𝐴𝑥 = 𝐵 es escalonado si la matriz 𝐴 es escalonada.
A las incógnitas —o variables— correspondientes a las columnas de los pivotes se les llama incógnitas principales, ya las otras incógnitas libres.
Corolario
Todo sistema 𝐴𝑥 = 𝐵 es equivalente a un sistema escalonado.
Demostración
(𝐴|𝐵) es equivalente a una matriz escalonada (𝐴′|𝐵′), entonces los sistemas 𝐴𝑥 = 𝐵 y 𝐴′𝑥 = 𝐵′ son equivalentes.
2.1.1 Método de Gauss
Para resolver el sistema 𝐴𝑥 = 𝐵
1. Escalonamos la matriz (𝐴|𝐵), obteniendo la matriz equivalente (𝐴′|𝐵′).
2. Resolvemos 𝐴′𝑥 = 𝐵′ con el método de substitución hacia atrás. Si no es posible, el sistema no tiene solución.
2.1.2 Discusión de un sistema escalonado
1. Si existe un pivote en la última columna de la matriz ampliada, es decir 𝑟𝑓 (𝐴) = 𝑟𝑓 (𝐴|𝐵), el sistema esincompatible, ya que existe una ecuación de la forma 0𝑥1 + · · · + 0𝑥𝑛 = 𝑏𝑠 = 0 —siendo 𝑏𝑠 el pivote de lacolumna 𝐵.
2. Si no hay pivote en la última columna de la matriz ampliada, es decir 𝑟𝑓 (𝐴) = 𝑟𝑓 (𝐴|𝐵), el sistema es compati-ble:
2.1. Sistemas de ecuaciones lineales 23
Apuntes de Álgebra, Versión 0.0.1
a)
𝑟𝑓 (𝐴) = 𝑟𝑓 (𝐴|𝐵) = número de incógnitas ⇒ Sistema Compatible Determinado
b)
𝑟𝑓 (𝐴) = 𝑟𝑓 (𝐴|𝐵) < número de incógnitas⇓
Existen 𝑛− 𝑟𝑓 (𝐴) variables libres⇓
Sistema Compatible Indeterminado
Proposición
Con 𝐴𝑥 = 𝐵 sistema de 𝑛 ecuaciones lineales con 𝑛 incógnitas
El sistema es compatible y determinado⇔ 𝐴 es no singular
Demostración
”⇐ ”𝐴𝑥 = 𝐵
𝐴 no singular
}⇒ 𝐴−1𝐴𝑥 = 𝐴−1𝐵 = 𝐴−1𝐴𝑥 = 𝑥
”⇒ ”𝑟𝑓 (𝐴) = 𝑟𝑓 (𝐴|𝐵) = 𝑛⇒ 𝐴 ∼𝑓 𝐼𝑛 ⇒ 𝐴 es no singular
2.1.3 Regla de Cramer
Con 𝐴𝑥 = 𝐵 Sistema Compatible Determinado
𝑥𝑖 =
𝑖↓
𝑎11 · · · 𝑏1 · · · 𝑎1𝑛... · · ·
... · · ·...
𝑎𝑛1 · · · 𝑏𝑛 · · · 𝑎𝑛𝑛
|𝐴|
2.1. Sistemas de ecuaciones lineales 24
Apuntes de Álgebra, Versión 0.0.1
Demostración
𝐴−1 = 1|𝐴| (adj𝐴)𝑡⎛⎜⎝𝑥1
...𝑥𝑛
⎞⎟⎠ = 𝐴−1𝐵
𝑥𝑖 = 𝑋(𝑖, 1) = (𝐴−1𝐵)(𝑖, 1) =
𝑛∑𝑘=1
𝐴−1(𝑖, 𝑘)𝐵(𝑘, 1)
Observación−−−−−−→ (adj 𝐴)𝑡(𝑖, 𝑘) = (adj 𝐴)(𝑘, 𝑖) = 𝛼𝑘𝑖
𝑥𝑖 =1
|𝐴|
𝑛∑𝑘=1
𝛼𝑘𝑖𝑏𝑘⏟ ⏞ Desarrollo deLaplace por la
columna 𝑖
2.1. Sistemas de ecuaciones lineales 25
CAPÍTULO 3
Tema 3
3.1 Espacios Vectoriales
R3 C3 Q3
R𝑛 C𝑛 Q𝑛
ℳ𝑚×𝑛(R) ℳ𝑚×𝑛(K)
+ operación interna que cumple las siguientes propiedadesasociativa
elemento neutroopuesto
conmutativa
⎫⎪⎪⎬⎪⎪⎭ Grupo Abeliano
Definición
Con 𝑉 conjunto no vacío y K cuerpo, se dice que 𝑉 es un K-espacio vectorial si verifica
1. (𝑉,+) es un Grupo Abeliano.
2. La multiplicación por escalares,
K× 𝑉 → 𝑉
(𝛼, 𝑣) 𝛼𝑣
verifica las siguientes propiedades:
∀ 𝛼, 𝛽 ∈ K∀ 𝑣, 𝑤 ∈ 𝑉
a) (𝛼+ 𝛽)𝑣 = 𝛼𝑣 + 𝛽𝑣
b) 𝛼(𝑣 + 𝑤) = 𝛼𝑣 + 𝛼𝑤
c) (𝛼𝛽)𝑣 = 𝛼(𝛽𝑣)
d) 1𝑣 = 𝑣
26
Apuntes de Álgebra, Versión 0.0.1
Nota: A los elementos de 𝑉 se les llama vectores y a los elementos del cuerpo K se les llama escalares.
Ejemplo
𝑈 ={(𝑥, 𝑦, 𝑧) ∈ R3 / 𝑧 = 0
}⊂ R3
Definición
Con 𝑉 K-espacio vectorial, un subconjunto no vacío 𝑈 de 𝑉 es un subespacio vectorial de 𝑉 si
1. ∀𝑢, 𝑢′ ∈ 𝑈 𝑢+ 𝑢′ ∈ 𝑈
2. ∀𝑢 ∈ 𝑈 ∀𝛼 ∈ K 𝛼𝑢 ∈ 𝑈
Ejemplo
𝑈 ′ ={(𝑥, 𝑦) ∈ R2 / 𝑥 = 𝑦 − 1
}⊂ R2
𝑈 ′ no es un subespacio vectorial de R2 ya que
(0, 1) ∈ 𝑈 ′ ∧ 0 ∈ R ∧ 0(0, 1) /∈ 𝑈 ′
3.1.1 Propiedades
Con 𝑉 K-espacio vectorial, 0 el cero escalar y 0𝑉 el cero vectorial se verifica
1. 𝛼𝑣 = 0𝑉 ⇔ 𝛼 = 0 ∨ 𝑣 = 0𝑉 ∀𝛼 ∈ K,∀𝑣 ∈ 𝑉
Demostración
”⇐ ”
Con 𝛼 = 0,0𝑣 = (0 + 0)𝑣 = 0𝑣 + 0𝑣
0 = −(0𝑣) + 0𝑣 + 0𝑣 = 0 + 0𝑣 = 0𝑣”⇒ ”
𝛼𝑣 = 0𝑉𝛼 = 0
}⇒ 𝑣 = 0𝑉 ya que
𝛼𝑣 = 0𝑉𝛼 = 0∃𝛼−1 ∈ K
⎫⎬⎭⇒ 𝛼−1(𝛼𝑣) = (𝛼−1𝛼)𝑣 = 1𝑣 = 0𝑉 ⇔ 𝑣 = 0𝑉
2. (−𝛼)𝑣 = −(𝛼𝑣) = 𝛼(−𝑣) ∀𝛼 ∈ K,∀𝑣 ∈ 𝑉
3. 𝛼𝑣 = 𝛽𝑣 ⇒ 𝛼 = 𝛽 ∀𝛼, 𝛽 ∈ K, 𝑣 = 0𝑉 ∈ 𝑉
3.1. Espacios Vectoriales 27
Apuntes de Álgebra, Versión 0.0.1
3.1.2 Combinaciones lineales
Definición
Con 𝑉 K-espacio vectorial y 𝑆 = ∅ subconjunto de 𝑉 , una combinación lineal de elementos de 𝑆 es un vector de laforma 𝑣 = 𝛼1𝑣1 + · · ·+ 𝛼𝑟 + 𝑣𝑟 en donde 𝛼1, · · · , 𝛼𝑟 ∈ K y 𝑣1, · · · , 𝑣𝑟 ∈ 𝑆.
Ejemplo
𝑉 = R2
𝑆 = {(1, 1), (1, 0), (0,−1)}(3, 7) = 2(1, 1) + (1, 0)− 5(0,−1) = 7(1, 1)− 4(1, 0)
Definición
⟨𝑆⟩ :={𝛼1𝑣1 + · · ·+ 𝛼𝑛𝑣𝑛
⧸𝛼1, · · · , 𝛼𝑛 ∈ K𝑣1, · · · , 𝑣𝑛 ∈ 𝑆
}⊂ 𝑉
es el menor subespacio vectorial de 𝑉 que contiene al conjunto 𝑆. Este espacio vectorial se llama subespacio de 𝑉generado por el conjunto 𝑆.
Ejemplo
∅ = 𝑆 = {(1, 1)} ⊂ R2
⟨(1, 1)⟩ = {𝛼(1, 1)/𝛼 ∈ R} = {(𝛼, 𝛼)/𝛼 ∈ R}
Demostración
(1) 𝑆 ⊂ ⟨𝑆⟩𝑢 ∈ 𝑆 ∧ 𝑢 = 1𝑢 ∈ ⟨𝑆⟩
(2) ⟨𝑆⟩ subespacio de 𝑉∅ = ⟨𝑆⟩ ⊂ 𝑉 ya que 𝑆 = ∅ ∧ 𝑆 ⊂ ⟨𝑆⟩
(3) Menor subespacio de 𝑉 que contiene a 𝑆Si 𝑈 es un subespacio de 𝑉 / 𝑆 ⊂ 𝑈 ⇒? ⟨𝑆⟩ ⊂ 𝑈
𝛼1𝑣1 + · · ·+ 𝛼𝑛𝑣𝑛𝑣𝑖 ∈ 𝑆 ⊂ 𝑈 ⇒ 𝑣𝑖 ∈ 𝑈
𝛼𝑖 ∈ K ∀𝑖 = 1, · · · , 𝑛
⎫⎬⎭⇒ 𝛼𝑖𝑣𝑖 ∈ 𝑈 ⇒ 𝛼𝑖𝑣𝑖 + · · ·+ 𝛼𝑛𝑣𝑛 ∈ 𝑈
Proposición
Con 𝑆 y 𝑆′ subconjuntos no vacíos de 𝑉
⟨𝑆⟩ = ⟨𝑆′⟩ ⇔{𝑆 ⊂ ⟨𝑆′⟩𝑆′ ⊂ ⟨𝑆⟩
3.1. Espacios Vectoriales 28
Apuntes de Álgebra, Versión 0.0.1
Ejemplo
⟨𝑆⟩ = ⟨(1, 1), (0,−1)⟩ = ⟨(1, 0), (0,−1), (3, 4)⟩ = ⟨𝑆′⟩
Demostración”⇒ ”
𝑆 ⊂ ⟨𝑆⟩ = ⟨𝑆′⟩𝑆′ ⊂ ⟨𝑆′⟩ = ⟨𝑆⟩
”⇐ ”⟨𝑈⟩ es el menor subespacio vectorial que contiene a 𝑈
𝑆 ⊂ ⟨𝑆′⟩ ⇒ ⟨𝑆⟩ ⊂ ⟨𝑆′⟩𝑆′ ⊂ ⟨𝑆⟩ ⇒ ⟨𝑆′⟩ ⊂ ⟨𝑆⟩
⎫⎬⎭⇒ ⟨𝑆⟩ = ⟨𝑆′⟩
Observación
Con ∅ = 𝑆 = 𝑉 y 𝑢 ∈ 𝑉
⟨𝑆⟩ = ⟨𝑆 ∪ {𝑢}⟩ ⇔ 𝑢 ∈ ⟨𝑆⟩
Demostración
⟨𝑆⟩ = ⟨𝑆 ∪ {𝑢}⟩ ⇔{𝑆 ⊂ ⟨𝑆 ∪ {𝑢}⟩𝑆 ∪ {𝑢} ⊂ ⟨𝑆⟩
}⇔ 𝑢 ∈ ⟨𝑆⟩
Propiedades
Con 𝑣1, · · · , 𝑣𝑛 ∈ 𝑉 , 0 = 𝛼 ∈ K y 𝛽 ∈ K.
1.
⟨𝑣1, · · · , 𝑣𝑖, 𝑣𝑗 , · · · , 𝑣𝑛⟩ = ⟨𝑣1, · · · , 𝑣𝑗 , 𝑣𝑖, · · · , 𝑣𝑛⟩
Demostración
Trivial, ya que en los conjuntos no hay orden.
2.
⟨𝑣1, · · · , 𝑣𝑛⟩⏟ ⏞ 𝑆
= ⟨𝑣1, · · · , 𝛼𝑣𝑖, · · · , 𝑣𝑛⟩⏟ ⏞ 𝑆′
𝛼 = 0
Demostración𝑣𝑖 = 𝛼−1(𝛼𝑣𝑖) = 1𝑣𝑖 ⇒ 𝑆 ⊂ ⟨𝑆′⟩
𝛼𝑣𝑖 ⇒ 𝑆′ ⊂ ⟨𝑆⟩
3.1. Espacios Vectoriales 29
Apuntes de Álgebra, Versión 0.0.1
3.
⟨𝑣1, · · · , 𝑣𝑛⟩⏟ ⏞ 𝑆
= ⟨𝑣1, · · · , 𝑣𝑖 + 𝛽𝑣𝑗 , · · · , 𝑣𝑛⟩⏟ ⏞ 𝑆′
𝑖 = 𝑗
Demostración
𝑣𝑖 = (𝑣𝑖 + 𝛽𝑣𝑗)− 𝛽𝑣𝑗 ∈ ⟨𝑆′⟩ ⇒{𝑆 ⊂ ⟨𝑆′⟩𝑆′ ⊂ ⟨𝑆⟩
}⇐ 𝑣𝑖 + 𝛽𝑣𝑗 ∈ ⟨𝑆⟩
3.1.3 Intersección de subespacios
Con 𝑈,𝑊 subespacios de 𝑉
𝑈 ∩𝑊 = {𝑣 ∈ 𝑉 /𝑣 ∈ 𝑈 ∧ 𝑣 ∈𝑊}
es un subespacio de 𝑈 .
Demostración𝑈 ⊂ 𝑉𝑊 ⊂ 𝑉
}⇒ 𝑈 ∩𝑊 ⊂ 𝑉
0 ∈ 𝑈0 ∈𝑊
}⇒ 0 ∈ 𝑈 ∩𝑊 ⇒ 𝑈 ∩𝑊 = ∅
𝑣1, 𝑣2 ∈ 𝑈 ∩𝑊 ⇔1 𝑣1, 𝑣2 ∈ 𝑈𝑣1, 𝑣2 ∈𝑊
}⇒2 𝑣1 + 𝑣2 ∈ 𝑈
𝑣1 + 𝑣2 ∈𝑊
}⇒1 𝑣1 + 𝑣2 ∈ 𝑈 ∩𝑊
𝛼 ∈ K𝑣 ∈ 𝑈 ∩𝑊
}⇔ 𝑣 ∈ 𝑈
𝑣 ∈𝑊
}⇒ 𝛼𝑣 ∈ 𝑈
𝛼𝑣 ∈𝑊
}⇔ 𝛼𝑣 ∈ 𝑈 ∩𝑊
1 ↦→ Definición de intersección.2 ↦→ 𝑈 y 𝑊 son subespacios vectoriales.
3.1.4 Unión de subespacios
Con 𝑈,𝑊 subespacios de 𝑉
𝑈 ∪𝑊 = {𝑣 ∈ 𝑉 /𝑣 ∈ 𝑈 ∨ 𝑣 ∈𝑊}
en general no es un subespacio de 𝑉 .
Ejemplo
𝑉 = R2
𝑈 = {(𝑥, 0)/𝑥 ∈ R}
𝑊 = {(0, 𝑦)/𝑦 ∈ R}
(1, 0) ∈ 𝑈 ⊂ 𝑈 ∪𝑊(0, 1) ∈𝑊 ⊂ 𝑈 ∪𝑊
}∧ (1, 0) + (0, 1) = (1, 1) /∈ 𝑈 ∪𝑊
3.1. Espacios Vectoriales 30
Apuntes de Álgebra, Versión 0.0.1
3.1.5 Suma de subespacios
Con 𝑈,𝑊 subconjuntos de 𝑉
𝑈 +𝑊 := {𝑢+ 𝑤/𝑢 ∈ 𝑈 ∧ 𝑤 ∈𝑊} ⊂ 𝑉
Se verifica que 𝑈 +𝑊 es el menor subespacio de 𝑉 que continene a 𝑈 y a 𝑊 .
Además, si 𝑆 y 𝑆′ son subconjuntos no vacíos de 𝑉 tales que 𝑈 = ⟨𝑆⟩ y 𝑊 = ⟨𝑆′⟩ entonces
𝑈 +𝑊 = ⟨𝑆 ∪ 𝑆′⟩
Nota: Para entender esta proposición es útil entender las propiedades descritas bajo el epígrafe Propiedades.
Demostración
0 ∈ 𝑈0 ∈𝑊
0 = 0 + 0 ∈ 𝑈 +𝑊 ⇒ 𝑈 +𝑊 = ∅(1)
𝑢1 + 𝑤1 𝑢1 ∈ 𝑈 𝑤1 ∈𝑊𝑢2 + 𝑤2 𝑢2 ∈ 𝑈 𝑤2 ∈𝑊
}⏟ ⏞
⇓⏞ ⏟ (𝑢1 + 𝑤1) + (𝑢2 + 𝑤2) = 𝑢1 + 𝑢2⏟ ⏞
∈𝑈
+ 𝑤1 + 𝑤2⏟ ⏞ ∈𝑊
∈ 𝑈 +𝑊
(2)𝑢+ 𝑤 𝑢 ∈ 𝑈 𝑤 ∈𝑊
𝛼 ∈ K
}⏟ ⏞
⇓⏞ ⏟ 𝛼(𝑢+ 𝑤) = 𝛼𝑢⏟ ⏞
∈𝑈
+ 𝛼𝑤⏟ ⏞ ∈𝑊
∈ 𝑈 +𝑊
𝑈 ⊂ 𝑈 +𝑊 ∧𝑊 ⊂ 𝑈 +𝑊𝑢 ∈ 𝑈 𝑢 = 𝑢⏟ ⏞
∈𝑈
+ 0⏟ ⏞ ∈𝑊
∈ 𝑈 +𝑊
𝑤 ∈𝑊 𝑤 = 0⏟ ⏞ ∈𝑈
+ 𝑤⏟ ⏞ ∈𝑊
∈ 𝑈 +𝑊
Además de ser subespacio, es el menor subespacio de 𝑉 que contiene a 𝑈 y 𝑊 . Es decir, si 𝑇 fuese subespacio de 𝑉tal que 𝑈 ⊂ 𝑇 y 𝑊 ⊂ 𝑇 , entonces 𝑈 +𝑊 ⊂ 𝑇 .
Demostración
𝑢+ 𝑤 ∈ 𝑈 +𝑊𝑢 ∈ 𝑈 ∧ 𝑤 ∈𝑊
𝑢 ∈ 𝑈 ⊂ 𝑇𝑤 ∈𝑊 ⊂ 𝑇
}⇒1 𝑢+ 𝑤 ∈ 𝑇
1 ↦→ 𝑇 es subespacio.
3.1. Espacios Vectoriales 31
Apuntes de Álgebra, Versión 0.0.1
3.1.6 Suma directa
Definición
Con 𝑈 y 𝑊 subespacios de 𝑉 / 𝑉 = 𝑈 +𝑊 y 𝑈 ∩𝑊 = {0}
Todo vector de 𝑉 tiene una única representación de la forma 𝑢+ 𝑤 con 𝑢 ∈ 𝑈 y 𝑤 ∈𝑊 .
En este caso se dice que es una suma directa y se representa como 𝑈⨁
𝑊
Demostración
𝑉 = 𝑈 +𝑊
𝑣 ∈ 𝑉 = 𝑈 +𝑊 ∃𝑢 ∈ 𝑈∃𝑤 ∈𝑊
⧸𝑣 = 𝑢+ 𝑤
}Si además ∃𝑢′ ∈ 𝑈
∃𝑤′ ∈𝑊
⧸𝑣 = 𝑢′ + 𝑤′
}⏟ ⏞
⇓𝑢+ 𝑤 = 𝑢′ + 𝑤′ ⇔ −𝑢′ + 𝑢+ 𝑤 = 𝑤′ ⇔ −𝑢′ + 𝑢⏟ ⏞
𝑢1
= 𝑤′ − 𝑤⏟ ⏞ 𝑤2
∈ 𝑈 ∩𝑊⏟ ⏞ {0}
1 ↦→ 𝑈 es un subespacio2 ↦→𝑊 es un subespacio
3.1.7 Independencia lineal
Definición
Un subconjunto no vacío 𝑆 de 𝑉 es linealmente independiente si
𝛼1𝑣1 + · · ·+ 𝛼𝑛𝑣𝑛 = 0 𝛼𝑖 ∈ K, 𝑣𝑖 ∈ 𝑆 ∀𝑖 = 1, · · · , 𝑛⏟ ⏞ ⇓⏞ ⏟
𝛼𝑖 = 0 ∀𝑖 = 1, · · · , 𝑛
En caso contrario se dirá que 𝑆 es un subconjunto de 𝑉 linealmente dependiente.
3.1. Espacios Vectoriales 32
Apuntes de Álgebra, Versión 0.0.1
Ejemplo
𝑉 = R4
𝑆 = ⟨(1, 1, 1, 1), (0, 1, 1, 1), (0, 0, 1, 1)⟩ es linealmente independiente ya que
𝑥(1, 1, 1, 1) + 𝑦(0, 1, 1, 1) + 𝑧(0, 0, 1, 1) = (0, 0, 0, 0)⇕
(𝑥, 𝑥+ 𝑦, 𝑥+ 𝑦 + 𝑧, 𝑥+ 𝑦 + 𝑧) = (0, 0, 0, 0)⇕
𝑥 = 0𝑥+ 𝑦 = 0
𝑥+ 𝑦 + 𝑧 = 0𝑥+ 𝑦 + 𝑧 = 0
⎫⎪⎪⎬⎪⎪⎭⇒𝑥 = 0𝑦 = 0𝑧 = 0
Ejemplo
𝑉 = R3
𝑆 = ⟨(1, 1, 1), (0, 0, 1), (1, 1, 2)⟩ es linealmente dependiente ya que
(1, 1, 1) + (0, 0, 1)− (1, 1, 2) = (0, 0, 0)
Observaciones
Con 𝑉 espacio vectorial
1.
𝑆 = {𝑢} ⊂ 𝑉
𝑆 linealmente independiente ⇔ 𝑢 = 0
Demostración
𝛼𝑢 = 0⇔ 𝛼 = 0 ∨ 𝑢 = 0
2.
0 ∈ 𝑆 ⊂ 𝑉 ⇒ 𝑆 es linealmente dependiente.
Demostración
1 · 0 = 00 ∈ 𝑆
0 = 1 ∈ K
3.1. Espacios Vectoriales 33
Apuntes de Álgebra, Versión 0.0.1
3.
𝑆 = {𝑢, 𝑣} ⊂ 𝑉
𝑆 es linealmente dependiente⇕
∃𝛼 ∈ K / 𝑢 = 𝛼𝑣 ∨ ∃𝛽 ∈ K / 𝑣 = 𝛽𝑢
Desmostración
𝑆 linealmente dependiente⇓
∃𝛼, 𝛽 ∈ K / (𝛼 = 0 ∨ 𝛽 = 0) ∧ 𝛼𝑢+ 𝛽𝑣 = 0⇓
Si 𝛼 = 0 𝑢+ 𝛼−1𝛽𝑣 = 0⇒ 𝑢 = −𝛼−1𝛽𝑣 es decir, 𝛼 es múltiplo de 𝛽
4.
∅ = 𝑆1 ⊂ 𝑆2 ⊂ 𝑉
𝑆2 linealmente independiente⇒ 𝑆1 linealmente independiente𝑆1 linealmente dependiente⇒ 𝑆2 linealmente dependiente
Demostración
𝛼𝑖𝑣𝑖 + · · ·+ 𝛼𝑛𝑣𝑛 = 0
𝛼𝑖 ∈ K ∀𝑖 = 1, · · · , 𝑛𝑣𝑖 ∈ 𝑆1 ⊂ 𝑆2
}⏟ ⏞
⇓ 𝑆2 es linealmente independiente←−−−−−−−−−−−−−−−−𝛼𝑖 = 0 ∀𝑖 = 1, · · · , 𝑛
Proposición
Con 𝑉 K-espacio vectorial y ∅ = 𝑆 ⊂ 𝑉 linealmente independiente
𝑣 /∈ ⟨𝑆⟩ ⇔ 𝑆 ∪ {𝑣} linealmente independiente
3.1. Espacios Vectoriales 34
Apuntes de Álgebra, Versión 0.0.1
Demostración
”⇒ ”𝛼𝑣 + 𝛼1𝑣1 + · · ·+ 𝛼𝑛𝑣𝑛 = 0
𝛼, 𝛼1, · · · , 𝛼𝑛 ∈ K𝑣1, · · · , 𝑣𝑛 ∈ 𝑆
𝑣 ∈ 𝑆 ∪ {𝑣}Si 𝛼 = 0
𝑣 = −𝛼−1𝛼1𝑣1 · · · − 𝛼−1𝛼𝑛𝑣𝑛 ∈ ⟨𝑆⟩ [Contradicción]Luego 𝛼 = 0
𝛼1𝑣1 + · · ·+ 𝛼𝑛𝑣𝑛 = 0⇒ 𝛼𝑖 = 0 ∀𝑖 = 1, · · · , 𝑛𝛼1, · · · , 𝛼𝑛 ∈ K𝑣1, · · · , 𝑣𝑛 ∈ 𝑆⏟ ⏞
⇓𝑆 ∪ {𝑣} linealmente independiente
”⇐ ”𝑣 ∈ ⟨𝑆⟩ ⇒ 𝑆 ∪ {𝑣} linealmente dependiente
𝑣 ∈ ⟨𝑆⟩ ⇒ ∃𝑣𝑖, · · · , 𝑣𝑛 ∈ 𝑆𝛼𝑖, · · · , 𝛼𝑛 ∈ K
𝑣 = 𝛼1𝑣1 + · · ·+ 𝛼𝑛𝑣𝑛⇓
−𝑣 + 𝛼1𝑣1 + · · ·+ 𝛼𝑛𝑣𝑛 = 0⇓
𝑆 ∪ {𝑣} linealmente dependiente
Ejemplo
{(1, 1, 1), (0, 1, 1)} = 𝑆 ⊂ R3 𝑣 = (2, 5, 7)
𝑣 /∈ ⟨𝑆⟩ ya que
(2, 5, 7) = 𝛼(1, 1, 1) + 𝛽(0, 1, 1) = (𝛼, 𝛼+ 𝛽, 𝛼+ 𝛽)⇕⏞ ⏟
𝛼 = 2𝛼+ 𝛽 = 5𝛼+ 𝛽 = 7
⎫⎬⎭ Sistema Incompatible
⏟ ⏞ ⇓
(2, 5, 7) /∈ ⟨𝑆⟩
3.1.8 Base de un subespacio vectorial
Con 𝑉 = {0} K-espacio vectorial.
Definición
Un subconjunto ordenado 𝐵 de 𝑉 es una base si
3.1. Espacios Vectoriales 35
Apuntes de Álgebra, Versión 0.0.1
1. 𝐵 es un conjunto de generadores de 𝑉 —i.e. ⟨𝐵⟩ = 𝑉 .
2. 𝐵 es linealmente independiente.
Ejemplo
En R3
𝒞 = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} ⊂ R3
es una base que llamamos base canónica.
𝐵 = {(1, 1, 1), (0, 1, 1), (0, 0, 1)} ⊂ R3
es otra base de R3
Ejemplo
En R4
𝒞 = {(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)}
𝒞 es la base canónica de R4
(𝑎1, 𝑎2, 𝑎3, 𝑎4) ∈ R4
(0, 0, 0, 0) = 𝑎1(1, 0, 0, 0) + 𝑎2(0, 1, 0, 0) + 𝑎3(0, 0, 1, 0) + 𝑎4(0, 0, 0, 1)⏟ ⏞ ⇓
𝑎𝑖 = 0 ∀𝑖 = 1, 2, 3, 4
Ejemplo
R[𝑥] =
⎧⎨⎩𝑎0 + 𝑎1𝑥+ · · ·+ 𝑎𝑛𝑥𝑛
⧸𝑛 ∈ N𝑎𝑖 ∈ R
𝑖 = 0, · · · , 𝑛
⎫⎬⎭𝐵 = {1 = 𝑥0, 𝑥, 𝑥2, · · · , 𝑥𝑛, · · · } =
{𝑥𝑖⧸𝑖 ≥ 0
}Nota: Hay espacios vectoriales que tienen bases infinitas.
Proposición
Con ∅ = 𝐵 ⊂ 𝑉 , son equivalentes
1. 𝐵 base de 𝑉 .
2. Cualquier vector de 𝑉 se expresa como combinación lineal de elementos de 𝐵 de modo único.
3.1. Espacios Vectoriales 36
Apuntes de Álgebra, Versión 0.0.1
Demostración
(1)⇒ (2)𝐵 base⇓
⟨𝐵⟩ = 𝑉⇕
Cada vector de 𝑉 es combinación lineal de elementos de 𝐵, es decir
si 𝑣 ∈ 𝑉
⧸ 𝑣𝑖 ∈ 𝐵𝑣 = 𝛼1𝑣1 + · · ·+ 𝛼𝑛𝑣𝑛 𝛼𝑖 ∈ K𝑣 = 𝛽1𝑣1 + · · ·+ 𝛽𝑛𝑣𝑛 𝛽𝑖 ∈ K
∀𝑖 = 1, · · · , 𝑛⏟ ⏞ ⇓
0 = 𝛼1𝑣1 + · · ·+ 𝛼𝑛𝑣𝑛 − 𝛽1𝑣1 − · · · − 𝛽𝑛𝑣𝑛 = (𝛼1 − 𝛽1)𝑣1 + · · ·+ (𝛼𝑛 − 𝛽𝑛)𝑣𝑛⇓
𝛼𝑖𝛽𝑖 = 0⇔ 𝛼𝑖 = 𝛽𝑖
∀𝑖 = 1, · · · , 𝑛(2)⇒ (1)
Cada 𝑣 ∈ 𝑉 es combinación lineal de elementos de 𝐵⇕
⟨𝐵⟩ = 𝑉 (𝐵 genera 𝑉 )
Sea 𝛼1𝑣1 + · · ·+ 𝛼𝑛𝑣𝑛 = 0 = 0𝑣1 + · · ·+ 0𝑣𝑛𝛼𝑖 ∈ K𝑣𝑖 ∈ 𝐵
⎫⎬⎭ De modo único⇒ 𝛼𝑖 = 0 ∀𝑖 = 1, · · · , 𝑛
Definición
Con 𝑉 K-espacio vectorial y 𝐵 = {𝑣1, · · · , 𝑣𝑛} base de 𝑉 , si 𝑣 ∈ 𝑉 y 𝑣 = 𝛼1𝑣1 + · · · + 𝛼𝑛𝑣𝑛, al elemento(𝛼1, · · · , 𝛼𝑛) ∈ K𝑛 se le llama coordenadas de 𝑣 en la base 𝐵.
Ejemplo
𝑉 = R3
𝒞 = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} es base de R3
𝐵 = {(1, 1, 1), (0, 1, 1), (0, 0, 1)} es base de R3
𝑣 = (3, 5, 6) = 3(1, 1, 1) + 2(0, 1, 1) + (0, 0, 1) = 3(1, 0, 0) + 5(0, 1, 0) + 6(0, 0, 1)𝑣 = (3, 2, 1)𝐵 = (3, 5, 6)𝒞
Definición
Un espacio vectorial es finitamente generado cuando tiene un conjunto de generadores finito.
Proposición
3.1. Espacios Vectoriales 37
Apuntes de Álgebra, Versión 0.0.1
𝑉 es un K-espacio vectorial finitamente generado por 𝑆, es decir
∃𝑆 finito / 𝑉 = ⟨𝑆⟩
Entonces, existe un subconjunto 𝐵 de 𝑆 que es base de 𝑉 .
Nota:
𝑣 ∈ ⟨𝑆⟩ ⇔ ⟨𝑆⟩ = ⟨𝑆 ∖ {𝑣}⟩
Demostración
𝑉 = {0} ⇒ número de elementos no nulos de 𝑆 es ≥ 1
Con ⟨𝑆⟩ = 𝑉 ,
⎧⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎩
− 𝑆 linealmente independiente ⇒ 𝐵 = 𝑆− 𝑆 linealmente dependiente ⇒ ∃𝑣 ∈ 𝑆 / 𝑣 ∈ ⟨𝑆 ∖ {𝑣}⟩⏟ ⏞
⇓⟨𝑆⟩ = ⟨𝑆 ∖ {𝑣}⟩⏞ ⏟ ⎧⎪⎪⎨⎪⎪⎩
− ⟨𝑆 ∖ {𝑣}⟩ linealmente independiente ∧𝐵 = ⟨𝑆 ∖ {𝑣}⟩− ⟨𝑆 ∖ {𝑣}⟩ linealmente dependiente y esto continuaría
recursivamente hasta que ⟨𝑆 ∖ {𝑣}⟩ sea linealmenteindependiente.
Ejemplo
𝑉 = ⟨(1, 1, 1, 1)⏟ ⏞ 𝑣1
, (2, 2, 1, 1)⏟ ⏞ 𝑣2=𝑣1+𝑣3
, (1, 1, 0, 0)⏟ ⏞ 𝑣3
, (0, 0, 1, 0)⏟ ⏞ 𝑣4
, (1, 1, 1, 0)⏟ ⏞ 𝑣5
⟩
⇓𝑉 = ⟨(1, 1, 1, 1), (1, 1, 0, 0), (0, 0, 1, 0), (1, 1, 1, 0)⏟ ⏞
𝑣5=𝑣3+𝑣4
⟩
⇓𝑉 = ⟨(1, 1, 1, 1), (1, 1, 0, 0), (0, 0, 1, 0)⟩
𝐵 = {𝑣1, 𝑣3, 𝑣4} ⊂ 𝑆 = {𝑣1, 𝑣2, 𝑣3, 𝑣4, 𝑣5}
Corolario
Todo conjunto de generadores contiene a una base.
Proposición
Sea 𝑉 un K-espacio vectorial y 𝐵 = {𝑣1, · · · , 𝑣𝑛} base de 𝑉 .
Cualquier subconjunto de 𝑉 con más de 𝑛 elementos es linealmente dependiente.
3.1. Espacios Vectoriales 38
Apuntes de Álgebra, Versión 0.0.1
Demostración
𝑆 = {𝑢1, · · · , 𝑢𝑚} ⊂ 𝑉 𝑚 > 𝑛𝑢𝑗 = 𝑎1𝑗𝑣1 + 𝑎2𝑗𝑣2 + · · ·+ 𝑎𝑛𝑗𝑣𝑛 ∀𝑗 = 1, · · · ,𝑚
Sea 0 = 𝛼1𝑢1 + · · ·+ 𝛼𝑚𝑢𝑚
0 = 𝛼1(𝑎11𝑣1 + · · ·+ 𝑎𝑛1𝑣𝑛) + · · ·+ 𝛼𝑛(𝑎1𝑚𝑣1 + · · ·+ 𝑎𝑛𝑚𝑣𝑛)0 = (𝛼1𝑎11 + · · ·+ 𝛼𝑚𝑎1𝑚)𝑣1 + · · ·+ (𝛼1𝑎𝑛1 + · · ·+ 𝛼𝑚𝑎𝑛𝑚)𝑣𝑛
⇓ 𝐵 es base←−−−−−⏞ ⏟ 𝛼1𝑎11 + · · ·+ 𝛼𝑚𝑎1𝑚 = 𝑣
...𝛼1𝑎𝑛1 + · · ·+ 𝛼𝑚𝑎𝑛𝑚 = 0
⎫⎪⎬⎪⎭ Es un sistema homogéneo con 𝑚incógnitas y 𝑛 ecuaciones con 𝑚 > 𝑛⏟ ⏞ ⇓
Sistema Compatible Indeterminado⇓
Existen soluciones no triviales
Teorema
Si 𝑉 es K-espacio vectorial tal que 𝑉 = {0} entonces 𝑉 tiene una base.
Demostración
𝑉 = {0} ⇒ Cualquier conjunto de generadores de 𝑉 tiene al menos un vector no nulo
Con ⟨𝑆⟩ = 𝑉
⎧⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎩
− Si 𝑆 es linealmente independiente ⇒ 𝐵 = 𝑆 (𝑆 es base de 𝑉 )− Si 𝑆 es linealmente dependiente⏟ ⏞
⇓∃𝑣1 ∈ 𝑆 que es combinación lineal de los restantes,𝑣1 ∈ ⟨𝑆 ∖ {𝑣1}⟩ y
𝑉 = ⟨𝑆⟩ = ⟨𝑆 ∖ {𝑣1}⟩
⎧⎪⎪⎨⎪⎪⎩− 𝑆 ∖ {𝑣1} linealmente independiente ⇒ 𝑆 ∖ {𝑣1} base de 𝑉− 𝑆 ∖ {𝑣1} linealmente dependiente ⇒ ∃𝑣2 ∈ 𝑆 ∖ {𝑣1} que es
combinación lineal de los restantes.Y el proceso recursivo termina como muy tarde al quedar un elemento.
Teorema
Sea 𝑉 un K-espacio vectorial con una base 𝐵 = {𝑣1, · · · , 𝑣𝑛} con 𝑛 vectores.
Si 𝐵′ es otra base de 𝑉 entonces 𝐵′ tiene también 𝑛 vectores.
Demostración
3.1. Espacios Vectoriales 39
Apuntes de Álgebra, Versión 0.0.1
Cualquier subconjunto de 𝐵′ linealmente independiente tiene a lo sumo 𝑛 vectores —𝐵′ es un conjunto finito.
Sea 𝐵′ = {𝑢1, · · · , 𝑢𝑠}𝐵 = {𝑣1, · · · , 𝑣𝑛} es base
𝐵′ = {𝑢1, · · · , 𝑢𝑠} es linealmente independiente
}⇒ 𝑠 ≤ 𝑛
𝐵 = {𝑣1, · · · , 𝑣𝑛} es linealmente independiente𝐵′ = {𝑢1, · · · , 𝑢𝑠} es base
}⇒ 𝑠 ≥ 𝑛
Luego 𝑠 = 𝑛
3.1.9 Dimensión de un subespacio
Definición
Con 𝑉 K-espacio vectorial finitamente generado y 𝑉 = {0}
Se define dimensión de 𝑉 como el número de elementos de cualquier base de 𝑉 y se denota por dimK 𝑉 = dim𝑉 .
Nota: Por convenio, dim{0} := 0
Ejemplo
{(1, 0), (0, 1)} base de R2
dimR2 = 2dimR𝑛 = 𝑛
Ejemplo
{1} base de KdimK = 1
Ejemplo
ℳ𝑚×𝑛(K) =
⎧⎪⎪⎪⎨⎪⎪⎪⎩⎛⎜⎜⎜⎝1 0 · · · 00 0 · · · 0...
......
0 0 · · · 0
⎞⎟⎟⎟⎠ ,
⎛⎜⎜⎜⎝0 1 · · · 00 0 · · · 0...
......
0 0 · · · 0
⎞⎟⎟⎟⎠ , · · ·
⎫⎪⎪⎪⎬⎪⎪⎪⎭𝐸𝑖𝑗 = (𝑒𝑘𝑠) =
{𝑒𝑘𝑠 = 1 si 𝑘 = 𝑖 ∧ 𝑠 = 𝑗𝑒𝑘𝑠 = 0 en cualquier otro caso{
𝐸𝑖𝑗
⧸𝑖 = 1, · · · ,𝑚𝑗 = 1, · · · , 𝑛
}⊂ℳ𝑚×𝑛(K)
dimℳ𝑚×𝑛(K) = 𝑚𝑛
3.1. Espacios Vectoriales 40
Apuntes de Álgebra, Versión 0.0.1
Proposición
Con 𝑉 K-espacio vectorial y dim𝑉 = 𝑛 = 0 se verifica
1. Cualquier subconjunto de 𝑉 linealmente independiente y con 𝑛 vectores es una base de 𝑉 .
2. Cualquier conjunto generador de 𝑉 con 𝑛 vectores es una base.
Demostración
1.
Sea 𝑆 = {𝑢1, · · · , 𝑢𝑛} linealmente independiente⎧⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎩
− ⟨𝑆⟩ = 𝑉 ⇒ 𝑆 es base de 𝑉− ⟨𝑆⟩ ( 𝑉 ⇒ ∃𝑣 ∈ 𝑉 / 𝑣 /∈ ⟨𝑆⟩⏟ ⏞
⇓𝑆 ∪ {𝑣} = {𝑢1, · · · , 𝑢𝑛, 𝑣} es linealmente independiente,lo cual es una contradicción, ya que 𝑛+ 1 > 𝑛
2.
𝑆 = {𝑢1, · · · , 𝑢𝑛} / ⟨𝑆⟩ = 𝑉⇓
∃𝐵 ⊆ 𝑆 / 𝐵 es base de 𝑉⇓
𝐵 es una base con a lo sumo 𝑛 elementos y dim𝑉 = 𝑛⇓
𝐵 = 𝑆
Ejemplo
𝑈 ⊂ R4
dim𝑈 = 4⇓
∃𝐵 = {𝑢1, 𝑢2, 𝑢3, 𝑢4} base de 𝑈⇓
𝐵 ⊂ R4 es linealmente independiente
⇓ dimR4=4←−−−−−−𝑈 = R4
Proposición
Con 𝑉 K-espacio vectorial, dim𝑉 = 0 y 𝐵 = {𝑣1, · · · , 𝑣𝑛} base de 𝑉
Si 𝑆 = {𝑢1, · · · , 𝑢𝑠} es un subconjunto de 𝑉 linealmente independiente, ∃𝑣𝑖1 , · · · , 𝑣𝑖𝑛−𝑠 ∈ 𝐵 tales que 𝑆 ∪{𝑣𝑖1 , · · · , 𝑣𝑖𝑛−𝑠
} es base de 𝑉 .
3.1. Espacios Vectoriales 41
Apuntes de Álgebra, Versión 0.0.1
Demostración
𝑆 = {𝑣1, · · · , 𝑣𝑠} ⊂ 𝑉 linealmente independiente
⇓ dim𝑉=𝑛←−−−−−−
𝑠 ≤ 𝑛
⎧⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎩
− 𝑠 = 𝑛⇒ 𝑆 es base de 𝑉− Si 𝑠 < 𝑛, ⟨𝑢1, · · · , 𝑢𝑠⟩ ( 𝑉 = ⟨𝑣1, · · · , 𝑣𝑛⟩ ya que si⟨𝑢1, · · · , 𝑢𝑠⟩ = ⟨𝑣1, · · · , 𝑣𝑛⟩ = 𝑉 , 𝑉 tendría una base con 𝑠 elementos y𝑠 < 𝑛, lo cual es una contradicción.⏟ ⏞
⇓∃𝑣𝑖1 ∈ {𝑣1, · · · , 𝑣𝑛} / 𝑣𝑖1 /∈ ⟨𝑢1, · · · , 𝑢𝑠⟩
⇓{𝑢1, · · · , 𝑢𝑠, 𝑣𝑖1} linealmente independienteRepitiendo el proceso recursivamente 𝑛− 𝑠veces se obtiene una base de 𝑉
Proposición
Con 𝑉 K-espacio vectorial de dimensión finita y 𝑈 un subespacio de 𝑉
1. dim𝑈 ≤ dim𝑉
2. dim𝑈 = dim𝑉 ⇔ 𝑈 = 𝑉
Demostración
Con dim𝑉 = 𝑛
(1)Todo subconjunto de 𝑉
linealmente independiente tiene a lo sumo𝑛 elementos
⇓Cualquier subconjunto de 𝑈
linealmente independiente es un subconjunto de𝑉 linealmente independiente y por tanto tiene a lo sumo
𝑛 elementos⇓
dim𝑈 ≤ dim𝑉(2)
”⇐ ”Trivial
”⇒ ”𝑈 ⊂ 𝑉dim𝑈 = dim𝑉 = 𝑛
}Si {𝑢1, · · · , 𝑢𝑛} es una base de 𝑈⏟ ⏞ ⇓
{𝑢1, · · · , 𝑢𝑛} es un subconjunto de 𝑉 linealmente independiente con 𝑛 elementos
⇓ dim𝑉=𝑛←−−−−−−{𝑢1, · · · , 𝑢𝑛} base de 𝑉 y ⟨𝑢1, · · · , 𝑢𝑛⟩ = 𝑈 = 𝑉
3.1. Espacios Vectoriales 42
Apuntes de Álgebra, Versión 0.0.1
Ejemplo
𝑈 ⊂ R3
dim𝑈 = 3
}⇒ 𝑈 = R3
Fórmula de Grassman
Con 𝑈,𝑊 subespacios de 𝑉 y dim𝑉 = 𝑛
dim𝑈 + dim𝑊 = dim(𝑈 ∩𝑊 ) + dim(𝑈 +𝑊 )
Demostración
dim𝑈 = 𝑠 ≤ 𝑛 y sea 𝐵𝑈 = {𝑢1, · · · , 𝑢𝑠} base de 𝑈dim𝑊 = 𝑡 ≤ 𝑛 y sea 𝐵𝑊 = {𝑤1, · · · , 𝑤𝑡} base de 𝑊
𝑈 ∩𝑊 ⊂ 𝑈 ⇒ dim(𝑈 ∩𝑊 ) = 𝑟 ≤ 𝑠 (1)𝑈 ∩𝑊 ⊂𝑊 ⇒ dim(𝑈 ∩𝑊 ) = 𝑟 ≤ 𝑡 (2)𝐵𝑈∩𝑊 = {𝑣1, · · · , 𝑣𝑟} base de 𝑈 ∩𝑊 (3)
(1) ∧ (3)⇒ ∃𝑢𝑖1 · · ·𝑢𝑖𝑠−𝑟∈ 𝐵𝑈 / {𝑣1, · · · , 𝑣𝑟, 𝑢𝑖1 , · · · , 𝑢𝑖𝑠−𝑟
} es base de 𝑈 (4)(2) ∧ (3)⇒ ∃𝑤𝑗1 · · ·𝑤𝑗𝑡−𝑟 ∈ 𝐵𝑊 / {𝑣1, · · · , 𝑣𝑟, 𝑤𝑗1 , · · · , 𝑤𝑗𝑡−𝑟} es base de 𝑊 (5)
(4) ∧ (5)⇒ 𝑈 +𝑊 = ⟨𝑣1, · · · , 𝑣𝑟, 𝑢𝑖1 , · · · , 𝑢𝑖𝑠−𝑟, 𝑤𝑗1 , · · · , 𝑤𝑗𝑡−𝑟
⟩y {𝑣1, · · · , 𝑣𝑟, 𝑢𝑖1 , · · · , 𝑢𝑖𝑠−𝑟
, 𝑤𝑗1 , · · · , 𝑤𝑗𝑡−𝑟} linealmente independiente (Falta probarlo)⇓
dim(𝑈 +𝑊 ) = 𝑠+ 𝑡− 𝑟 = dim𝑈 + dim𝑊 − dim(𝑈 ∩𝑊 )
Ejemplo
Con 𝑈,𝑊 ⊂ R4 subespacios
dim𝑈 = 3dim𝑊 = 1dim(𝑈 ∩𝑊 ) = 0
⎫⎬⎭⇒ dim(𝑈 +𝑊 ) = 4⇒ 𝑈 +𝑊 = R4
3.1.10 Matrices, sistemas de ecuaciones lineales y subespacios
Definición
Con 𝐴 ∈ℳ𝑚×𝑛(K)
Se define el rango por columnas de 𝐴
𝑟𝑐(𝐴) := dim⟨𝐶1(𝐴), · · · , 𝐶𝑛(𝐴)⟩ = dim 𝒞(𝐴)
3.1. Espacios Vectoriales 43
Apuntes de Álgebra, Versión 0.0.1
Definición
Con 𝐴,𝐵 ∈ℳ𝑚×𝑛(K)
𝐴 es equivalente por columnas a 𝐵 —𝐴 ∼𝑐 𝐵— si haciendo una sucesión finita de operaciones elementales encolumnas se pasa de 𝐴 a 𝐵.
Teorema
𝑟𝑐(𝐴) = 𝑟𝑓 (𝐴)
Definición
Con 𝐴 ∈ℳ𝑚×𝑛(K)
rango𝐴 := dimℱ(𝐴) = 𝑟𝑓 (𝐴) = 𝑟𝑐(𝐴) = dim 𝒞(𝐴) = 𝑟(𝐴)
Proposición
Si 𝐴 y 𝐵 son matrices 𝑚 × 𝑛 sobre K equivalentes por filas, las columnas de 𝐴 y las columnas de 𝐵 verifican lasmismas relaciones de dependencia.
Demostración
𝐴 ∼𝑓 𝐵 ⇒ Los sistemas 𝐴𝑋 = 0 y 𝐵𝑋 = 0 son equivalentes
(𝛼1, · · · , 𝛼𝑛) solución de 𝐴𝑋 = 0 ⇔ (𝛼1, · · · , 𝛼𝑛) solución de 𝐵𝑋 = 0⇕ ⇕
𝐶1(𝐴)𝛼1 + · · ·+ 𝐶𝑛(𝐴)𝛼𝑛 = 0 𝐶1(𝐵)𝛼1 + · · ·+ 𝐶𝑛(𝐵)𝛼𝑛 = 0
Corolario
𝐴 ∼𝑓 𝐵 escalonada reducida⇓
𝑟𝑐(𝐴) = 𝑟𝑐(𝐵) = 𝑟𝑓 (𝐵) = 𝑟𝑓 (𝐴) = rango(𝐴) = rango(𝐵)
Corolario
Con 𝐴 ∈ℳ𝑛(K)
𝐴 no singular ⇔ 𝑟(𝐴) = 𝑛 ⇔ dimℱ(𝐴) = 𝑛⇕ ⇕
|𝐴| = 0 dim 𝒞(𝐴) = 𝑛
3.1. Espacios Vectoriales 44
Apuntes de Álgebra, Versión 0.0.1
Nota: El rango de 𝐵 ∈ℳ𝑚×𝑛(K) es el orden del mayor menor no nulo.
Proposición
Con 𝐴 ∈ℳ𝑛(K)
𝐴 no singular ⇔ 𝑟(𝐴) = 𝑛
Demostración
|𝐴| = 0⇔ 𝐴 no singular ⇔ 𝐴 ∼𝑓 𝐼𝑛 ⇔ 𝑟(𝐴) = 𝑛
3.1.11 Ecuaciones implícitas de un subespacio de K𝑛
Observaciones
Con 𝐴 ∈ℳ𝑚×𝑛(K)
{𝐹1(𝐴), · · · , 𝐹𝑚(𝐴)} ⊂ K𝑛
ℱ(𝐴) = ⟨𝐹1(𝐴), · · · , 𝐹𝑚(𝐴)⟩ ⊂subespacio
K𝑛
𝑟𝑓 (𝐴) = 𝑠⇔ 𝐴 ∼𝑓 𝐵 ∧𝐵 escalonada con 𝑠 pivotes
ℱ(𝐴) = ⟨𝐹1(𝐴), · · · , 𝐹𝑚(𝐴)⟩ = ⟨𝐹1(𝐵), · · · , 𝐹𝑠(𝐵)⟩ = ℱ(𝐵)
𝑟𝑓 (𝐴) = 𝑠, {𝐹1(𝐵), · · · , 𝐹𝑠(𝐵)} es base de ℱ(𝐴)
𝑟𝑓 (𝐴) = 𝑠 = dimℱ(𝐴)
En particular,Si 𝐴 ∈ℳ𝑚×𝑛(K)
𝑟𝑓 (𝐴) = 𝑚
}⇒ dimℱ(𝐴) = 𝑚⇔ {𝐹1(𝐴), · · · , 𝐹𝑚(𝐴)} es linealmente independiente
3.1. Espacios Vectoriales 45
Apuntes de Álgebra, Versión 0.0.1
Ecuaciones de 𝑈
Con 𝐴 = (𝑎𝑖𝑗) ∈ℳ𝑚×𝑛(K)
Sea 𝑈 = ⟨(𝑎11, · · · , 𝑎1𝑛)⏟ ⏞ 𝐹1(𝐴)
, (𝑎21, · · · , 𝑎2𝑛)⏟ ⏞ 𝐹2(𝐴)
, · · · , (𝑎𝑚1, · · · , 𝑎𝑚𝑛)⏟ ⏞ 𝐹𝑚(𝐴)
⟩ ⊂subespacio
K𝑛
{𝐹1(𝐴), · · · , 𝐹𝑚(𝐴)} es base de 𝑈⇓
(𝑥1, · · · , 𝑥𝑛) ∈ 𝑈 ⇔ {(𝑥1, · · · , 𝑥𝑛), 𝐹1(𝐴), · · · , 𝐹𝑚(𝐴)} linealmente dependiente⇕
𝑟
⎛⎜⎜⎜⎜⎜⎝𝑎11 · · · 𝑎1𝑛𝑎21 · · · 𝑎2𝑛
.... . .
...𝑎𝑚1 · · · 𝑎𝑚𝑛
𝑥1 · · · 𝑥𝑛
⎞⎟⎟⎟⎟⎟⎠ = 𝑚
Ejemplo
𝑈 = ⟨(1, 1, 1, 1), (0, 1, 2, 3), (0, 0, 5, 7)⟩ ⊂ R4
(𝑥, 𝑦, 𝑧, 𝑡) ∈ 𝑈 ⇔ 𝑟
⎛⎜⎜⎝1 1 1 10 1 2 30 0 5 7𝑥 𝑦 𝑧 𝑡
⎞⎟⎟⎠ = 3⇔ (1)
⎛⎜⎜⎝1 1 1 10 1 2 30 0 5 7𝑥 𝑦 𝑧 𝑡
⎞⎟⎟⎠ −−−−−→𝐹4−𝑥𝐹1
⎛⎜⎜⎝1 1 1 10 1 2 30 0 5 70 𝑦 − 𝑥 𝑧 − 𝑥 𝑡− 𝑥
⎞⎟⎟⎠→ · · ·
· · · −−−−−−−−→𝐹4−(𝑦−𝑥)𝐹2
⎛⎜⎜⎝1 1 1 10 1 2 30 0 5 70 0 𝑧 − 2𝑦 + 𝑥 𝑡− 3𝑦 + 2𝑥
⎞⎟⎟⎠ −−−−−−−−−→𝐹4− 𝑧−2𝑦+𝑥
5 𝐹3
⎛⎜⎜⎝1 1 1 10 1 2 30 0 5 70 0 0 𝑡− 3𝑦 + 2𝑥− 7
5 (𝑧 − 2𝑦 + 𝑥)
⎞⎟⎟⎠(1)⇕
𝑡− 3𝑦 + 2𝑥− 75 (𝑧 − 2𝑦 + 𝑥) = 0⇕
𝑡− 3𝑦 + 2𝑥− 75𝑧 +
145 𝑦 − 7
5𝑥 = 0⇕
5𝑡− 15𝑦 + 10𝑥− 7𝑧 + 14𝑦 − 7𝑥 = 0⇕
3𝑥− 𝑦 − 7𝑧 + 5𝑡 = 0⇓
𝑈 ={(𝑥, 𝑦, 𝑧, 𝑡) ∈ R4
⧸3𝑥− 𝑦 − 7𝑧 + 5𝑡 = 0
}
3.1. Espacios Vectoriales 46
CAPÍTULO 4
Tema 4
4.1 Aplicaciones lineales
Definición
Sean 𝑉 y 𝑉 ′ K-espacios vectoriales.
Una aplicación 𝑓 : 𝑉 → 𝑉 ′ es lineal si
1. 𝑓(𝑣1 + 𝑣2) = 𝑓(𝑣1) + 𝑓(𝑣2) ∀𝑣1, 𝑣2 ∈ 𝑉
2. 𝑓(𝛼𝑣) = 𝛼𝑓(𝑣) ∀𝛼 ∈ K ∀𝑣 ∈ 𝑉
Ejemplo
Los siguientes son ejemplos de aplicaciones lineales:
1.
𝑓 : 𝑉 → 𝑉 ′
𝑣 𝑓(𝑣) := 0 ∀𝑣 ∈ 𝑉
2.
1𝑉 = id𝑉 : 𝑉 → 𝑉𝑣 id𝑉 (𝑣) := 𝑣 ∀𝑣 ∈ 𝑉
3.
𝑓 : R2 → R(𝑥, 𝑦) 𝑓(𝑥, 𝑦) = 𝑥+ 2𝑦
47
Apuntes de Álgebra, Versión 0.0.1
Demostración
𝑓((𝑥, 𝑦) + (𝑥′, 𝑦′)
)= 𝑓(𝑥+ 𝑥′, 𝑦 + 𝑦′) = (𝑥+ 𝑥′) + 2(𝑦 + 𝑦′) = 𝑥+ 2𝑦 + 𝑥′ + 2𝑦′ = 𝑓(𝑥, 𝑦) + 𝑓(𝑥′, 𝑦′)𝑓(𝛼(𝑥, 𝑦)
)= 𝑓(𝛼𝑥, 𝛼𝑦) = 𝛼𝑥+ 2𝛼𝑦 = 𝛼(𝑥+ 2𝑦) = 𝛼𝑓(𝑥, 𝑦)
∀𝛼 ∈ R∀(𝑥, 𝑦) ∈ R2
4.
𝑓 : R3 → R2
(𝑥, 𝑦, 𝑧) 𝑓(𝑥, 𝑦, 𝑧) = (𝑥+ 𝑦 + 𝑧, 𝑥+ 2𝑧)
Los siguientes son ejemplos de aplicaciones no lineales:
1.
𝑓 : R2 → R(𝑥, 𝑦) 𝑓(𝑥, 𝑦) = 𝑥2 + 𝑦
2.
𝑓 : R2 → R3
(𝑥, 𝑦) 𝑓(𝑥, 𝑦) := (𝑥+ 𝑦, 𝑥− 𝑦, 1)
4.1.1 Propiedades
Con 𝑓 : 𝑉 → 𝑉 ′ aplicación lineal
1.
𝑓(0𝑉 ) = 0𝑉 ′
Demostración
𝑓(0) = 𝑓(0 + 0) =𝑓 lineal
𝑓(0) + 𝑓(0)⇒ 𝑓(0)− 𝑓(0)⏟ ⏞ 0
= 𝑓(0) + 𝑓(0)− 𝑓(0)⏟ ⏞ 0
= 𝑓(0)⇒ 𝑓(0) = 0
2.
𝑓(−𝑣) = −𝑓(𝑣) ∀𝑣 ∈ 𝑉
Demostración
𝑓(−𝑣) = 𝑓(𝑣) = 𝑓(−𝑣 + 𝑣) = 𝑓(0) = 0⇕
𝑓(−𝑣) = −𝑓(𝑣)
4.1. Aplicaciones lineales 48
Apuntes de Álgebra, Versión 0.0.1
3.
𝑓(𝛼1𝑣1 + · · ·+ 𝛼𝑛𝑣𝑛) = 𝛼1𝑓(𝑣1) + · · ·+ 𝛼𝑛𝑓(𝑣𝑛)∀𝛼1, · · · , 𝛼𝑛 ∈ K∀𝑣1, · · · , 𝑣𝑛 ∈ 𝑉
Demostración
𝑓(𝛼1𝑣1 + 𝛼2𝑣2) = 𝑓(𝛼1𝑣1) + 𝑓(𝛼2𝑣2) = 𝛼1𝑓(𝑣1) + 𝛼2𝑓(𝑣2)
4.
{𝑣1, · · · , 𝑣𝑛} ⊂ 𝑉 linealmente dependiente⇕
{𝑓(𝑣1), · · · , 𝑓(𝑣𝑛)} ⊂ 𝑉 ′ linealmente dependiente
Demostración
{𝑣1, · · · , 𝑣𝑛} ⊂ 𝑉 linealmente dependiente⇕{
∃𝛼1, · · · , 𝛼𝑛(no todos cero)
∈ K⧸
𝛼1𝑣1 + · · ·+ 𝛼𝑛𝑣𝑛 = 0
}⇓
𝛼1𝑓(𝑣1) + · · ·+ 𝛼𝑛𝑓(𝑣𝑛) = 𝑓(𝛼1𝑣1 + · · ·+ 𝛼𝑛𝑣𝑛) = 𝑓(0) = 0⇓
{𝑓(𝑣1), · · · , 𝑓(𝑣𝑛)} ⊂ 𝑉 ′ linealmente dependiente
4.1.2 Aplicaciones lineales y subespacios
Proposición
Sea 𝑓 : 𝑉 → 𝑉 ′ aplicación lineal.
Se verifica
1. Si 𝑈 es subespacio de 𝑉 entonces 𝑓(𝑈) := {𝑓(𝑢)/𝑢 ∈ 𝑈} ⊂ 𝑉 ′ es subespacio de 𝑉 ′.
Además 𝑈 = ⟨𝑢1, · · · , 𝑢𝑛⟩ ⇒ 𝑓(𝑈) = ⟨𝑓(𝑢1), · · · , 𝑓(𝑢𝑛)⟩. En particular, el subespacio 𝑓(𝑉 ) es la imagen dela aplicación 𝑓 y se denotará Im 𝑓 .
Im 𝑓 = 𝑓(𝑉 ) ⊂ 𝑉 ′ es un subespacio
4.1. Aplicaciones lineales 49
Apuntes de Álgebra, Versión 0.0.1
Demostración
(Conjunto no vacío)0 ∈ 𝑈 ⇒ 𝑓(0) ∈ 𝑓(𝑈)⇒ 𝑓(𝑈) = ∅
(Cerrado para la suma)𝑓(𝑢1) + 𝑓(𝑢2) =
𝑓 lineal𝑓(𝑢1 + 𝑢2) ∈ 𝑓(𝑈) 𝑢1 + 𝑢2 ∈ 𝑈
(Cerrado para la multiplicación por escalares)𝛼 ∈ K, 𝑢 ∈ 𝑈, 𝑓(𝑢) ∈ 𝑓(𝑈), 𝛼𝑓(𝑢) =
𝑓 lineal𝑓(𝛼𝑢) ∈ 𝑓(𝑈) 𝛼𝑢 ∈ 𝑈
(Generadores del subespacio)
𝑓(𝑈) := {𝑓(𝑢)/𝑢 ∈ 𝑈 = ⟨𝑢1, · · · , 𝑢𝑛⟩} ={𝑓(𝑢)
⧸𝑢 = 𝛼1𝑢1 + · · ·+ 𝛼𝑛𝑢𝑛
𝛼𝑖 ∈ K ∀𝑖 = 1, · · · , 𝑛
}= ⟨𝑓(𝑢1), · · · , 𝑓(𝑢𝑛)⟩
2. Sea 𝑊 un subespacio de 𝑉 ′
𝑓−1(𝑊 ) := {𝑣 ∈ 𝑉 /𝑓(𝑣) ∈𝑊} ⊂ 𝑉 es un subespacio de 𝑉
En particular, 𝑓−1(0𝑉 ′) = {𝑣 ∈ 𝑉 /𝑓(𝑣) = 0𝑉 ′} se llama núcleo de 𝑓 ≡ ker 𝑓 .
Ejemplo
R3 → R2
(𝑥, 𝑦, 𝑧) (𝑥, 𝑦)
𝑊 = {(𝑥, 0)/𝑥 ∈ R} ⊂ R2
𝑓−1(𝑊 ) ={(𝑥, 𝑦, 𝑧) ∈ R3
⧸𝑓(𝑥, 𝑦, 𝑧) = (𝑥, 𝑦) ∈𝑊
}=
{(𝑥, 𝑦, 𝑧)
⧸𝑦 = 0𝑥, 𝑧 ∈ R
}
4.1.3 Composición de aplicaciones lineales
Proposición
Si 𝑓 : 𝑉 →𝑊 y 𝑔 : 𝑊 → 𝐹 son aplicaciones lineales, entonces 𝑔 ∘ 𝑓 : 𝑉 → 𝐹 es también lineal.
𝑉
𝑔∘𝑓
77𝑓 // 𝑊
𝑔 // 𝐹
Demostración
(𝑔 ∘ 𝑓)(𝑣) := 𝑔(𝑓(𝑣)) ∀𝑣 ∈ 𝑉
(Cerrado para la suma)(𝑔 ∘ 𝑓)(𝑣1 + 𝑣2) = 𝑔(𝑓(𝑣1 + 𝑣2)) =
𝑓 lineal𝑔(𝑓(𝑣1) + 𝑓(𝑣2)) =
𝑔 lineal𝑔(𝑓(𝑣1)) + 𝑔(𝑓(𝑣2)) = (𝑔 ∘ 𝑓)(𝑣1) + (𝑔 ∘ 𝑓)(𝑣2) ∀𝑣1, 𝑣2 ∈ 𝑉
(Cerrado para la multiplicación por escalares)(𝑔 ∘ 𝑓)(𝛼𝑣) = 𝑔(𝑓(𝛼𝑣)) =
𝑓 lineal𝑔(𝛼𝑓(𝑣)) =
𝑔 lineal𝛼𝑔(𝑓(𝑣)) = 𝛼(𝑔 ∘ 𝑓)(𝑣) ∀𝑣 ∈ 𝑉
4.1. Aplicaciones lineales 50
Apuntes de Álgebra, Versión 0.0.1
4.1.4 Aplicaciones lineales inyectivas, sobreyectivas y biyectivas
Con 𝑓 : 𝐴→ 𝐵
1.
𝑓 inyectiva⇕
𝑓(𝑎1) = 𝑓(𝑎2)⇔ 𝑎1 = 𝑎2 ∀𝑎1, 𝑎2 ∈ 𝐴
2.
𝑓 sobreyectiva⇕
Im 𝑓 = {𝑓(𝑎)/𝑎 ∈ 𝐴} = 𝐵⇕
∀𝑏 ∈ 𝐵 ∃𝑎 ∈ 𝐴/𝑓(𝑎) = 𝑏
3.
𝑓 biyectiva⇕
𝑓 inyectiva ∧ 𝑓 sobreyectiva⇕
∃𝑔 : 𝐵 → 𝐴
⧸𝑔 ∘ 𝑓 = id𝐴𝑓 ∘ 𝑔 = id𝐵
Definición
Un isomorfismo lineal 𝑓 : 𝑉 →𝑊 es una aplicación lineal biyectiva.
Proposición
Con 𝑓 : 𝑉 →𝑊 una aplicación biyectiva (isomorfismo)
𝑓 es lineal ⇔ 𝑓−1 es lineal
4.1. Aplicaciones lineales 51
Apuntes de Álgebra, Versión 0.0.1
Demostración
𝑓 : 𝑉 →𝑊 𝑓−1 : 𝑊 → 𝑉
”⇒ ”(Cerrado para la suma)
𝑓−1(𝑤1 + 𝑤2)1?= 𝑓−1(𝑤1) + 𝑓−1(𝑤2)
𝑓(𝑓−1(𝑤1 + 𝑤2))1?= 𝑓(𝑓−1(𝑤1)) + 𝑓(𝑓−1(𝑤2))∀𝑤1, 𝑤2 ∈𝑊
(Demostración de 1)𝑓(𝑓−1(𝑤1) + 𝑓−1(𝑤2)) =
𝑓 lineal𝑓(𝑓−1(𝑤1)) + 𝑓(𝑓−1(𝑤2)) = 𝑤1 + 𝑤2 = 𝑓(𝑓−1(𝑤1 + 𝑤2))
(Cerrado para la multiplicación por escalares)
𝑓−1(𝛼𝑤)2?= 𝛼𝑓−1(𝑤)
𝑓(𝑓−1(𝛼𝑤))2?= 𝑓(𝛼𝑓−1(𝑤))
∀𝑤 ∈𝑊∀𝛼 ∈ K
(Falta la demostración de 2)
(Falta la demostración de ”⇐ ”)
4.1.5 Aplicaciones lineales, generadores y bases
Proposición
Con 𝑉 y 𝑉 ′ K-espacios vectoriales, 𝐵𝑉 = {𝑣1, · · · , 𝑣𝑛} base de 𝑉 y 𝑤1, · · · , 𝑤𝑛 ∈ 𝑉 ′, existe una única aplicaciónlineal
𝑓 : 𝑉 → 𝑉 ′ / 𝑓(𝑣𝑖) = 𝑤𝑖 ∀𝑖 = 1, · · · , 𝑛
4.1. Aplicaciones lineales 52
Apuntes de Álgebra, Versión 0.0.1
Demostración
𝑣 ∈ 𝑉 existen (y son únicos)
(Existencia)𝛼1, · · · , 𝛼𝑛 ∈ K/𝑣 = 𝛼1𝑣1 + · · ·+ 𝛼𝑛𝑣𝑛
𝑓 : 𝑉 → 𝑉 ′
𝑓(𝑣) :=
𝑛∑𝑖=1
𝛼𝑖𝑤𝑖
La aplicación es lineal y además 𝑓(𝑣𝑖) = 𝑤𝑖
(Unicidad)Con 𝑔 : 𝑉 → 𝑉 ′ aplicación lineal /𝑔(𝑣𝑖) = 𝑤𝑖 ∀𝑖 = 1, · · · , 𝑛
𝑔(𝑣) = 𝑔(𝛼1𝑣1 + · · ·+ 𝛼𝑛𝑣𝑛) =𝑔 lineal
𝑔(𝛼1𝑣1) + · · ·+ 𝑔(𝛼𝑛𝑣𝑛) =𝑔 lineal
𝛼1𝑔(𝑣1) + · · ·+ 𝛼𝑛𝑔(𝑣𝑛) = 𝛼1𝑤1 + · · ·+ 𝛼𝑛𝑤𝑛 = 𝑓(𝑣)
∀𝑣 = 𝛼1𝑣1, · · · , 𝛼𝑛𝑣𝑛 ∈ 𝑉
Ejemplo
R3 R2
𝒞 = {(1, 0, 0), (0, 1, 0), (0, 0, 1)}𝑤1 = (1, 1)𝑤2 = (2, 3)𝑤3 = (0, 7)
𝑓 : R3 → R2
(1, 0, 0) (1, 1)(0, 1, 0) (2, 3)(0, 0, 1) (0, 7)
(𝑥, 𝑦, 𝑧) = 𝑥(1, 0, 0) + 𝑦(0, 1, 0) + 𝑧(0, 0, 1)𝑓(𝑥, 𝑦, 𝑧) = 𝑥(1, 1) + 𝑦(2, 3) + 𝑧(0, 7) = (𝑥+ 2𝑦, 𝑥+ 3𝑦 + 7𝑧)
Proposición
Sea 𝑓 : 𝑉 → 𝑉 ′ aplicación lineal.
1. 𝑓 inyectiva⇔ ker 𝑓 = {0} ⇔ La imagen por 𝑓 de cualquier subconjunto de vectores de 𝑉 que sea linealmenteindependiente es un subconjunto de 𝑉 ′ de vectores linealmente independientes.
2. 𝑓 sobreyectiva⇔ Im 𝑓 = 𝑉 ′ ⇔ La imagen por 𝑓 de cualquier conjunto de generadores de 𝑉 es un conjunto degeneradores de 𝑉 ′.
3. 𝑓 biyectiva⇔ La imagen por 𝑓 de una base de 𝑉 es una base de 𝑉 ′.
Demostración
4.1. Aplicaciones lineales 53
Apuntes de Álgebra, Versión 0.0.1
1.
(I) 𝑓 inyectiva ?⇒ ker 𝑓 = {0}
ker 𝑓 := 𝑓−1({0}) = {𝑣 ∈ 𝑉 /𝑓(𝑣) = 0} = {0}ya que
𝑓(𝑣) = 0 = 𝑓(0) = 𝑣 = 0
𝑓 linealOO
𝑓 inyectivaOO
(II) ker 𝑓 = {0} ?⇒ 𝑓 inyectiva
𝑣, 𝑤 ∈ 𝑉
𝑓(𝑣) = 𝑓(𝑤)⇔ 0 = 𝑓(𝑣)− 𝑓(𝑤) = 𝑓(𝑣 − 𝑤)⇔ 𝑣 − 𝑤 ∈ ker 𝑓 = {0} ⇔ 𝑣 − 𝑤 = 0⇔ 𝑣 = 𝑤
𝑓 linealMM
hipótesisQQ
(III) ker 𝑓 = {0} ?⇒ La imagen por 𝑓 de cualquier...
{𝑣1, · · · , 𝑣𝑚} ⊂ 𝑉 linealmente independiente ?⇒ {𝑓(𝑣1), · · · , 𝑓(𝑣𝑚)} ⊂ 𝑉 ′ linealmente independiente
𝛼1, · · · , 𝛼𝑚 ∈ K𝑓 lineal
��0 = 𝛼1𝑓(𝑣1) + · · ·+ 𝛼𝑚𝑓(𝑣𝑚) = 𝑓(𝛼1𝑣1 + · · ·+ 𝛼𝑚𝑣𝑚)⏟ ⏞
𝛼1𝑣1 + · · ·+ 𝛼𝑚𝑣𝑚 ∈ ker 𝑓 = {0}⇓{
𝛼1𝑣1 + · · ·+ 𝛼𝑚𝑣𝑚 = 0{𝑣1, · · · , 𝑣𝑚} es linealmente independiente
⇓𝛼𝑖 = 0∀𝑖 = 1, · · · ,𝑚
(IV) La imagen por 𝑓 de cualquier... ?⇒ ker 𝑓 = {0}
𝑣 ∈ ker 𝑓?⇒ 𝑣 = 0⇔ ker 𝑓 = {0}
hipótesis
𝑣 = 0⇔ {𝑢} es linealmente independiente ⇒ {𝑓(𝑣)} es linealmente independiente⏟ ⏞ ⇓
𝑓(𝑣) = 0
4.1. Aplicaciones lineales 54
Apuntes de Álgebra, Versión 0.0.1
2.
(I) 𝑓 sobreyectiva ?⇔ Im 𝑓 = 𝑉 ′
𝑓 sobreyectiva⇕
∀𝑣′ ∈ 𝑉 ′ ∃𝑣 ∈ 𝑉 /𝑣′ = 𝑓(𝑣)⇕
Im 𝑓 = {𝑓(𝑣)/𝑣 ∈ 𝑉 } = 𝑉 ′
(II) 𝑓 sobreyectiva ?⇔ La imagen por 𝑓 de cualquier conjunto de generadores...
𝑉 = ⟨𝑣1, · · · , 𝑣𝑛⟩ ⇒ Im 𝑓 = 𝑓(𝑉 ) = ⟨𝑓(𝑣1), · · · , 𝑓(𝑣𝑛)⟩—siempre que 𝑓 sea lineal.
”⇒ ”𝑉 = ⟨𝑣1, · · · , 𝑣𝑛⟩
⇓𝑉 ′ = Im 𝑓 = ⟨𝑓(𝑣1), · · · , 𝑓(𝑣𝑛)⟩
𝑓 es inyectivaQQ
”⇐ ”Con 𝑉 = ⟨𝑣1, · · · , 𝑣𝑛⟩
hipótesis��
Im 𝑓 = 𝑓(𝑉 ) = ⟨𝑓(𝑣1), · · · , 𝑓(𝑣𝑛)⟩ = 𝑉 ′ ⇒ 𝑓 sobreyectiva
3.
𝑓 biyectiva ⇔ 𝑓 inyectiva ∧ 𝑓 sobreyectiva
”⇒ ”𝐵 = {𝑣1, · · · , 𝑣𝑛} base de 𝑉
⇓(por ser inyectiva) {𝑓(𝑣1), · · · , 𝑓(𝑣𝑛)} es linealmente independiente
(por ser biyectiva) {𝑓(𝑣1), · · · , 𝑓(𝑣𝑛)} es conjunto de generadores de 𝑉 ′
}⏟ ⏞
⇓{𝑓(𝑣1), · · · , 𝑓(𝑣𝑛)} es base de 𝑉 ′
”⇐ ”𝐵 = {𝑣1, · · · , 𝑣𝑛} base de 𝑉
Con 𝑤𝑖 ≡ 𝑓(𝑣𝑖) {𝑤𝑖, · · · , 𝑤𝑛} es base de 𝑉 ′
𝑓 biyectiva ⇔ 𝑓 tiene inversa
𝑉𝑓 // 𝑉 ′
∃∙𝑔 : 𝑉 ′ → 𝑉 /𝑔(𝑤𝑖) = 𝑣𝑖 ∀𝑖 = 1, · · · , 𝑛{𝑤1, · · · , 𝑤𝑛} es base de 𝑉 ′
𝑣1 · · · 𝑣𝑛 son elementos de 𝑉Se verifica 𝑔 ∘ 𝑓 = id𝑉 y 𝑓 ∘ 𝑔 = id𝑉 ′ —es decir, 𝑔 es la inversa de 𝑓
4.1. Aplicaciones lineales 55
Apuntes de Álgebra, Versión 0.0.1
Ejemplo
R2 𝑓 // R2
𝑓(1, 0) = (1, 1)𝑓(0, 1) = (2, 0)
(Comprobar que 𝑓 es biyectiva y calcular su inversa)𝒞 = {(1, 0), (0, 1)} base canónica de R2
(𝑥, 𝑦) = 𝑥(1, 0) + 𝑦(0, 1)𝑓(𝑥, 𝑦) = 𝑥𝑓(1, 0) + 𝑦𝑓(0, 1) = 𝑥(1, 1) + 𝑦(2, 0) = (𝑥+ 2𝑦, 𝑥)
{(1, 1), (2, 0)} ⊂ R2 es base de R2
ker 𝑓 ={(𝑥, 𝑦) ∈ R2
⧸𝑓(𝑥, 𝑦) = (𝑥+ 2𝑦, 𝑥) = (0, 0)
}=
{(𝑥, 𝑦) ∈ R2
⧸𝑥+ 2𝑦 = 0
𝑥 = 0
}= {(0, 0)} ⇒ 𝑓 inyectiva
Im 𝑓 = ⟨𝑓(1, 0), 𝑓(0, 1)⟩ = ⟨(1, 1), (2, 0)⟩ ⊂ R2
dim Im 𝑓 = 2Im 𝑓 ⊂ R2
}⇒ Im 𝑓 = R2 ⇒ 𝑓 sobreyectiva
(Inversa de 𝑓 )
R2 𝑔 // R2
𝑔(1, 1) = (1, 0)𝑔(2, 0) = (0, 1)
𝑔(𝑥, 𝑦) = 𝛼(1, 1) + 𝛽(2, 0) = (𝛼+ 2𝛽, 𝛼)⇕(
1 2 𝑥1 0 𝑦
)𝛼 = 𝑦
𝛽 = 𝑥−𝑦2
--
𝛼+ 2𝛽𝛼 = 𝑦
}
⇓(𝑥, 𝑦) = 𝑦(1, 1) + 𝑥−𝑦
2 (2, 0)𝑔(𝑥, 𝑦) = 𝑦𝑔(1, 1) + 𝑥−𝑦
2 𝑔(2, 0) = 𝑦(1, 0) + 𝑥−𝑦2 (0, 1) = (𝑦, 𝑥−𝑦
2 )
Proposición
Con 𝑉, 𝑉 ′ K-espacios vectoriales de dimensión finita
1. 𝑉 y 𝑉 ′ son isomorfos⇔ dim𝑉 = dim𝑉 ′
4.1. Aplicaciones lineales 56
Apuntes de Álgebra, Versión 0.0.1
Demostración
”⇒ ”𝑉 ≃ 𝑉 ′ ⇔ ∃𝑓 : 𝑉 → 𝑉 ′ isomorfismo
Con 𝐵 = {𝑣1, · · · , 𝑣𝑛} base de 𝑉
}⏟ ⏞
⇓{𝑓(𝑣1), · · · , 𝑓(𝑣𝑛)} base de 𝑉 ′
⇓dim𝑉 ′ = 𝑛 = dim𝑉
”⇐ ”Con 𝐵𝑉 = {𝑣1, · · · , 𝑣𝑛} base de 𝑉y 𝐵𝑉 ′ = {𝑤1, · · · , 𝑤𝑛} base de 𝑉 ′
}⏟ ⏞
⇓∃∙𝑓 : 𝑉 → 𝑉 ′ aplicación lineal /𝑓(𝑣𝑖) = 𝑤𝑖 ∀𝑖 = 1, · · · , 𝑛∃∙𝑔 : 𝑉 ′ → 𝑉 aplicación lineal /𝑔(𝑤𝑖) = 𝑣𝑖 ∀𝑖 = 1, · · · , 𝑛
⧸𝑔 ∘ 𝑓 = id𝑉𝑓 ∘ 𝑔 = id𝑉 ′
}⏟ ⏞
⇓𝑓 es isomorfismo
2. dim𝑉 = 𝑛⇒ 𝑉 es isomorfo a K𝑛
Teorema de la dimensión
Sea 𝑓 : 𝑉 → 𝑉 ′ una aplicación lineal.
Se verifica:
dimker 𝑓 + dim Im 𝑓 = dim𝑉
4.1. Aplicaciones lineales 57
Apuntes de Álgebra, Versión 0.0.1
Demostración
ker 𝑓 subespacio de 𝑉 ⇒ 𝑟 = dimker 𝑓 ≤ dim𝑉 = 𝑛
{𝑣1, · · · , 𝑣𝑟} base de ker 𝑓⇓
{𝑣1, · · · , 𝑣𝑟} ⊂ 𝑉 linealmente independiente⇓
∃𝑣𝑟+1, · · · , 𝑣𝑛 ∈ 𝑉 /{𝑣1, · · · , 𝑣𝑟, 𝑣𝑟+1, · · · , 𝑣𝑛} base de 𝑉⇓
1 ⟨𝑓(𝑣𝑟+1), · · · , 𝑓(𝑣𝑛)⟩ = Im 𝑓 = ⟨𝑓(𝑣1)⏟ ⏞ 0
, · · · , 𝑓(𝑣𝑟)⏟ ⏞ 0
, 𝑓(𝑣𝑟+1), · · · , 𝑓(𝑣𝑛)⟩
2 {𝑓(𝑣𝑟+1), · · · , 𝑓(𝑣𝑛)} es linealmente independiente (pendiente de demostrar)
12
}⇒{{𝑓(𝑣𝑟+1), · · · , 𝑓(𝑣𝑛)} base de Im 𝑓dim Im 𝑓 = 𝑛− 𝑟 = dim𝑉 − dimker 𝑓
({𝑓(𝑣𝑟+1), · · · , 𝑓(𝑣𝑛)} es linealmente independiente)𝛼𝑟+1, · · · , 𝛼𝑛 ∈ K
0 = 𝛼𝑟+1𝑓(𝑣𝑟+1) + · · ·+ 𝛼𝑛𝑓(𝑣𝑛) = 𝑓(𝛼𝑟+1𝑣𝑟+1 + · · ·+ 𝛼𝑛𝑣𝑛)⇓
𝛼𝑟+1𝑣𝑟+1 + · · ·+ 𝛼𝑛𝑣𝑛 ∈ ker 𝑓∃𝛼1, · · · , 𝛼𝑟 ∈ K/𝛼𝑟+1𝑣𝑟+1 + · · ·+ 𝛼𝑛𝑣𝑛 = 𝛼1𝑣1 + · · ·+ 𝛼𝑟𝑣𝑟
⇓−𝛼1𝑣1 − · · · − 𝛼𝑟𝑣𝑟 + 𝛼𝑟+1𝑣𝑟+1 + · · ·+ 𝛼𝑛𝑣𝑛 = 0
{𝑣1, · · · , 𝑣𝑛} es linealmente independiente 22 ⇓𝛼𝑖 = 0 ∀𝑖 = 1, · · · , 𝑛
Ejemplo
𝑓 : R3 → R2
𝑓(𝑥, 𝑦, 𝑧) (𝑥− 𝑧, 𝑦 + 𝑧)dimR3 = 3 dimR2 = 2
ker 𝑓 ={(𝑥, 𝑦, 𝑧) ∈ R3
⧸(𝑥− 𝑧, 𝑦 + 𝑧) = (0, 0)
}=
{(𝑥, 𝑦, 𝑧) ∈ R3
⧸𝑥− 𝑧 = 0𝑦 + 𝑧 = 0
}= {(𝑧,−𝑧, 𝑧)/𝑧 ∈ R} = ⟨(1,−1, 1)⟩⏟ ⏞
⇓dimker 𝑓 = 1
𝐵ker 𝑓 = {(1,−1, 1)⏟ ⏞ 𝑣1
}
𝑣2 = (0, 1, 0)𝑣3 = (0, 0, 1)
{𝑣1, 𝑣2, 𝑣3} es base de R3
Im 𝑓 = ⟨𝑓(𝑣1), 𝑓(𝑣2), 𝑓(𝑣3)⟩ = ⟨(0, 1), (−1, 1)⟩ ⇒ dim Im 𝑓 = 2
𝑓(𝑣1) = 0
MM
Corolario
4.1. Aplicaciones lineales 58
Apuntes de Álgebra, Versión 0.0.1
Con 𝑓 : 𝑉 → 𝑉 aplicación lineal y dim𝑉 = 𝑛 (endomorfismo de 𝑉 )
Son equivalentes:
𝑓 biyectiva (isomorfismo).
𝑓 inyectiva.
𝑓 sobreyectiva.
Demostración
Se verifica que dim𝑉 = dimker 𝑓 + dim Im 𝑓
𝑓 inyectiva⇕
ker 𝑓 = {0}⇕
dimker 𝑓 = 0⇕
dim𝑉 = dim Im 𝑓
Im 𝑓 ⊂ 𝑉 55 ⇕Im 𝑓 = 𝑉⇕
𝑓 sobreyectiva
Ejemplo
¿Existe 𝑓 : R3 → R4 aplicación lineal y sobreyectiva?
No
3 = dimker 𝑓 + dim Im 𝑓 ⇒ dim Im 𝑓 ≤ 3⇒ Im 𝑓 ( R4
4.1.6 Matriz asociada a una aplicación lineal
Con dim𝑉 = 𝑛, dim𝑊 = 𝑚, 𝐵𝑉 = {𝑣1, · · · , 𝑣𝑛} base de 𝑉 y 𝐵𝑊 = {𝑤1, · · · , 𝑤𝑛} base de 𝑊 .
Definición
Sea 𝑓 : 𝑉 →𝑊 una aplicación lineal tal que
𝑓(𝑣𝑗) =
𝑚∑𝑖=1
𝑎𝑖𝑗𝑤𝑖 = 𝑎1𝑗𝑤1 + · · ·+ 𝑎𝑚𝑗𝑤𝑚 ∀𝑗 = 1, · · · , 𝑛
A la matriz (𝑎𝑖𝑗) le llamaremos matriz asociada a 𝑓 respecto de las bases 𝐵𝑉 y 𝐵𝑊 y se denota por
(𝑓)𝐵𝑉 ,𝐵𝑊= (𝑎𝑖𝑗) ∈ℳ𝑚×𝑛(K)
4.1. Aplicaciones lineales 59
Apuntes de Álgebra, Versión 0.0.1
Ejemplo
id : R3 → R3
(𝑥, 𝑦, 𝑧) id(𝑥, 𝑦, 𝑧) = (𝑥, 𝑦, 𝑧)
𝐵 = {𝑣1, 𝑣2, 𝑣3} base de R3
(id)𝐵,𝐵 =
⎛⎝1 0 00 1 00 0 1
⎞⎠𝐵′ = {(1, 1, 1), (0, 1, 1), (0, 0, 1)}𝒞 = {(1, 0, 0), (0, 1, 0), (0, 0, 1)}
(id)𝐵′,𝒞 =
⎛⎝1 0 01 1 01 1 1
⎞⎠
Ejemplo
R2 → R3
(𝑥, 𝑦) 𝑓(𝑥, 𝑦) = (𝑥+ 𝑦, 𝑥− 𝑦, 2𝑦)
𝐵R2 = {(1, 1), (0, 2)}𝐵R3 = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} = 𝒞R3
𝑓(1, 1) = (2, 0, 2) = 2(1, 0, 0) + 0(0, 1, 0) + 2(0, 0, 1)𝑓(0, 2) = (2,−2, 4) = 2(1, 0, 0)− 2(0, 1, 0) + 4(0, 0, 1)
(𝑓)𝐵R2 ,𝒞R3=
⎛⎝2 20 −22 4
⎞⎠
Nota:
(𝑓)𝐵 := (𝑓)𝐵,𝐵
Proposición
Si 𝑣 ∈ 𝑉 y 𝑣 =
𝑛∑𝑖=1
𝛼𝑖𝑣𝑖 y denoto (𝑣)𝐵𝑉≡
⎛⎜⎝𝑥1
...𝑥𝑛
⎞⎟⎠ entonces se verifica
(𝑓(𝑣))𝐵𝑊= (𝑓)𝐵𝑉 ,𝐵𝑊
· (𝑣)𝐵𝑉
4.1. Aplicaciones lineales 60
Apuntes de Álgebra, Versión 0.0.1
Demostración
𝑓(𝑣) = 𝑓
(𝑛∑
𝑖=1
𝛼𝑖𝑣𝑖
)=
𝑛∑𝑖=1
𝑓(𝛼𝑖𝑣𝑖) =
𝑛∑𝑖=1
𝛼𝑖𝑓(𝑣𝑖) =
𝑛∑𝑖=1
𝛼𝑖𝑓
(𝑚∑
𝑘=1
𝑎𝑘𝑖𝑤𝑘
)= · · ·
aplicación lineal
KK KK
· · · =𝑛∑
𝑖=1
𝑚∑𝑘=1
𝛼𝑖𝑎𝑘𝑖𝑤𝑘 =
𝑚∑𝑘=1
(𝑛∑
𝑖=1
𝛼𝑖𝑎𝑘𝑖
)𝑤𝑘
Ejemplo
Sea 𝑓 : R3 → R2 la aplicación lineal cuya matriz asociada en 𝐵R3 = {(1, 1, 1), (0, 1, 1), (0, 0, 1)} y 𝐵R2 = 𝒞R2 es(1 1 0−1 2 5
)Calcular 𝑓(1, 2, 3).
𝑣 = (1, 2, 3) = 𝛼(1, 1, 1) + 𝛽(0, 1, 1) + 𝛾(0, 0, 1) ∈ R3
(𝑣)𝐵R3=
⎛⎝𝛼𝛽𝛾
⎞⎠ (𝑓(𝑣))𝒞 =
(1 1 0−1 2 5
)⎛⎝𝛼𝛽𝛾
⎞⎠
Observación
1. Con 𝐴 = (𝑎𝑖𝑗) ∈ ℳ𝑚×𝑛(K), 𝑉 K-espacio vectorial, dim𝑉 = 𝑛, 𝐵𝑉 = {𝑣1, · · · , 𝑣𝑛}, 𝑊 K-espaciovectorial, dim𝑊 = 𝑚 y 𝐵𝑊 = {𝑤1, · · · , 𝑣𝑛} existe una única aplicación lineal 𝑓 : 𝑉 → 𝑊 cuya matrizasociada respecto de 𝐵𝑉 y 𝐵𝑊 es la matriz 𝐴 = (𝑓)𝐵𝑉 ,𝐵𝑊
Demostración
𝑓 : 𝑉 →𝑊
𝑓(𝑣𝑗) :=
𝑚∑𝑘=1
𝑎𝑘𝑗𝑤𝑘 ∀𝑗 = 1, · · · , 𝑛
y se verifica(𝑓)𝐵𝑉 ,𝐵𝑊
= 𝐴
2.
id𝑉 : 𝑉 → 𝑉𝑣 id𝑉 (𝑣) = 𝑣
(id𝑉 )𝐵𝑉=
⎛⎝1 0 00 1 00 0 1
⎞⎠ = 𝐼𝑛
Si 𝐵𝑉 y 𝐵′𝑉 = {𝑣′1, · · · , 𝑣′𝑛} son bases de 𝑉 a la matriz (id𝑉 )𝐵𝑉 ,𝐵′
𝑉se le llama matriz de cambio de base de
𝐵𝑉 a 𝐵′𝑉
4.1. Aplicaciones lineales 61
Apuntes de Álgebra, Versión 0.0.1
Ejemplo
R2 id // R2 𝐵 = {(1, 1), (0,−1)}
(id𝑉 )𝐵,𝒞R2=
(1 01 −1
)
Proposición
Sean 𝑓 : 𝑉 → 𝑊 aplicación lineal, 𝐵𝑉 = {𝑣1, · · · , 𝑣𝑛} base de 𝑉 , 𝐵𝑊 = {𝑤1, · · · , 𝑤𝑚} base de 𝑊 , 𝑔 : 𝑊 → 𝑉 ′
aplicación lineal y 𝐵𝑉 ′ = {𝑣′1, · · · , 𝑣′𝑠} base de 𝑉 ′
Si 𝐴 = (𝑓)𝐵𝑉 ,𝐵𝑊∈ℳ𝑚×𝑛(K) y 𝐵 = (𝑔)𝐵𝑊 ,𝐵𝑉 ′ ∈ℳ𝑠×𝑚(K) entonces (𝑔 ∘ 𝑓)𝐵𝑉 ,𝐵𝑉 ′ = 𝐵𝐴.
En particular, si 𝑓 es un isomorfismo (𝑛 = 𝑚)
𝑉𝑓 // 𝑊
𝐴 = (𝑓)𝐵𝑉 ,𝐵𝑊∈ℳ𝑛(K)⏟ ⏞
⇓𝐴 es no singular
Corolario
Con 𝑓 : 𝑉 →𝑊 aplicación lineal, 𝐵 = {𝑣1, · · · , 𝑣𝑛} base de 𝑉 y 𝐵′ = {𝑤1, · · · , 𝑤𝑛} base de 𝑊 se verifica
𝑓 isomorfismo⇕
(𝑓)𝐵,𝐵′ = 𝐴 es no singular
4.1. Aplicaciones lineales 62
Apuntes de Álgebra, Versión 0.0.1
Demostración
” ⇓ ”
𝑉𝑓 // 𝑊
𝑓−1
// 𝑉
𝐵 𝐵′ 𝐵
∃𝑓−1 : 𝑊 → 𝑉 inversa de 𝑓
⧸𝑓−1 ∘ 𝑓 = id𝑉 : 𝑉 → 𝑉𝑓 ∘ 𝑓−1 = id𝑊 : 𝑊 →𝑊
𝐼𝑛 = (𝑓−1 ∘ 𝑓)𝐵,𝐵 = (𝑓−1)𝐵′,𝐵 · (𝑓)𝐵,𝐵′⏟ ⏞ ⇓
𝐴 es no singular
” ⇑ ”𝐴 no singular ⇔ ∃𝐴−1 inversa de 𝐴
𝑔 : 𝑊 → 𝑉
𝑔(𝑤𝑗) :=
𝑛∑𝑖=1
𝐴−1(𝑖, 𝑗)𝑣𝑖 aplicación lineal
(𝑔)𝐵′,𝐵 = 𝐴−1 y 𝑔 es inversa de 𝑓
Definición
Con 𝑉 espacio vectorial, 𝐵 = {𝑣1, · · · , 𝑣𝑛} y 𝐵′ = {𝑣′1, · · · , 𝑣′𝑛} bases de 𝑉
Se llama matriz de cambio de base de la base 𝐵 a la base 𝐵′ a la matriz asociada a id𝑉 respecto de las bases 𝐵 y 𝐵′
(id𝑉 )𝐵,𝐵′ es una matriz no singular ya que la aplicación identidad es biyectiva.
Proposición
Toda matriz de orden 𝑛 y no singular 𝐴 es una matriz de cambio de base.
Demostración
Con 𝑉 K-espacio vectorial, dim𝑉 = 𝑛 y 𝐵′ = {𝑤1, · · · , 𝑤𝑛} base de 𝑉 definimos
𝑣𝑗 :=
𝑛∑𝑖=1
𝑎𝑖𝑗𝑤𝑖 ∀𝑗 = 1, · · · , 𝑛
El conjunto {𝑣1, · · · , 𝑣𝑛} = 𝐵 es base de 𝑉 ya que 𝐴 es no singular
(id)𝐵,𝐵′ = 𝐴
4.1. Aplicaciones lineales 63
Apuntes de Álgebra, Versión 0.0.1
4.1.7 Isomorfismo de asignación de coordenadas
Definición
Con dim𝑉 = 𝑛 y 𝐵 = {𝑣1, · · · , 𝑣𝑛} base de 𝑉
Existe un isomorfismo 𝑓𝑖 : 𝑉 → K𝑛 definido por 𝑓(𝑣𝑖) = 𝑒𝑖 ∀𝑖 = 1, · · · , 𝑛 al que llamamos isomorfismo deasignación de coordenadas.
𝑓 es lineal y es isomorfismo ya que la imagen de una base del dominio es una base del rango.
𝑣 ∈ 𝑉 𝑣 = 𝛼1𝑣1 + · · ·+ 𝛼𝑛𝑣𝑛𝑓(𝑣) = 𝛼1𝑓(𝑣1) + · · ·+ 𝛼𝑛𝑓(𝑣𝑛) = 𝛼1(1, 0, · · · , 0) + · · ·+ 𝛼𝑛(0, · · · , 0, 1) = (𝛼1, 𝛼2, · · · , 𝛼𝑛)
4.1. Aplicaciones lineales 64