Espacios vectoriales

182
Algebra lineal

description

4.1 Espacios vectoriales4.2 Subespacios vectoriales4.3 Combinaciones lineales4.4 Dependencia e independencia lineal4.5 Base y dimensión4.6 Kernel, imagen, espacio columna y espacio fila de una matriz4.7 Ecuaciones lineales y espacios vectoriales4.8 Cambio de base4.9 Espacio cociente4.10 Sumas y sumas directas

Transcript of Espacios vectoriales

Page 1: Espacios vectoriales

Algebra lineal

Page 2: Espacios vectoriales

Espacios vectoriales

Un espacio vectorial E=(V,F) Es un conjunto de elementos llamados

vectores sobre un campo F donde x+y=y+x y pertenece a V x+(y+z)=(x+y)+z Existe el vector 0, tal que 0+x=x+0=x Para cada vector x existe el –x, tal que x-

x=0

Page 3: Espacios vectoriales

Espacios vectoriales

Cada elemento dol campo es llamado un escalar µ(x+y)= µx+µy µx= xµ (µ1+ µ2)x= µ1(x)+ µ2(y) 1x=x 1 la unidad multiplicativa del

campo

Page 4: Espacios vectoriales

Espacios vectoriales

ejemplos

Page 5: Espacios vectoriales

Espacios vectoriales

Teorema 0v=v0=0

0v=0v+0v-0v=(0+0)v-0v=0v-0v=0 (-1)v=-v

v+(-1)v=1v+(-1)v=(1-1)v=0v=0 Agregando –v a ambos lados se tiene el

resultado

Page 6: Espacios vectoriales

Subespacio

Sea (V,F) un espacio, entonces (S,F) es un subespacio de (V,F) si preserva todas las características de espacio y S es un subconjunto de V

Page 7: Espacios vectoriales

Subespacio

ejemplos

Page 8: Espacios vectoriales

Creación de espacios

Teorema. Espacio vectorial (V,F) S subconjunto de V

Si v1,…vn están en S, entonces también 1v1+…+nvn, donde i son elementos del campo

(S,F) es un subespacio Demo en clase por los alumnos

Page 9: Espacios vectoriales

Creación de espacios

Preguntas importantes ¿En qué condiciones dos conjuntos S1,

S2 crean el mismo espacio vectorial? ¿Cúal es la cardinalidad mínima de QS

tal que Q y S crean el mismo espacio vectorial?

¿Cúando S crea el mismo espacio que contiene a los vectores de S?

Page 10: Espacios vectoriales

Dependencia e independencia lineal Definición. Sea S={v1,v2,...vn} un

conjunto de vectores. El vector y=1v1+2v2+...+nvn donde los coeficientes son escalares será llamada combinación lineal de S.

Page 11: Espacios vectoriales

Dependencia e independencia lineal Definición. Sea S={v1,v2,...vn} un

conjunto de vectores. S es linealmente independiente si 1v1+2v2+...+nvn=0 tiene como única solución la trivial. De lo contrario se llamarán linealmente dependientes.

Page 12: Espacios vectoriales

Dependencia e independencia lineal Definición. Sea S={v1,v2,...vn} un

conjunto de vectores. Si S es linealmente independiente, entonces el espacio creado por S será llamado espacio generado por S.

Page 13: Espacios vectoriales

Dependencia e independencia lineal Sea S={v1,v2,...vn} un conjunto de

vectores. Para mostrar si es linealmente independiente se resuelve la ecuación:

[v1 v2 ... vn] =0

1

2

...

n

Page 14: Espacios vectoriales

Dependencia e independencia lineal Entonces ya podemos aplicar Gauss

para resolver el sistema y ver su solución Si la matriz [v1 ...vn] es de rango n

entonces tiene solución única Si la matriz [v1 ... vn] es de rango

menor a n, entonces tiene más de una solución.

Page 15: Espacios vectoriales

Dependencia e independencia lineal Ejemplos en clase

Page 16: Espacios vectoriales

Bases, Dimensión y coordenadas Definición. Sea (V,F) un espacio

vectorial, entonces el conjunto S={v1, v2, ...vn} será una base para (V,F) si S genera (V,F). S es linealmente independiente S genera (V,F)

Page 17: Espacios vectoriales

Bases, Dimensión y coordenadas ejemplos de bases en diferentes

espacios

Page 18: Espacios vectoriales

Bases, Dimensión y coordenadas Notita. Si z es una C.L. (combinación

lineal) de los vectores x1,...,xr; y xi es una C.L. de los vectores y1,...,ys. Entonces z es una C.L. de los vectores y1,...,ys.

z=a1x1+...+arxr

z=a1(b11y1+...+b1sys)+...+ar(br1y1+...+brsys) Es una propiedad de transitividad

Page 19: Espacios vectoriales

Bases, Dimensión y coordenadas Notita. Si algunos vectores x1,...,xn son

linealmente dependientes (L.D.) entonces todo el sistema x1,...,xn son L.D.

Suponer que x1,...,xk (k<n) son L.D. a1x1+...+akxk=0 con ai diferente de nulo. a1x1+...+akxk+0xk+1+...+0xn=0 es solución y el sistema es L.D.

Page 20: Espacios vectoriales

Bases, Dimensión y coordenadas La base B={v1, ..., vn} es un

conjunto, pero tiene un orden para facilitar trabajos futuros.

Representación. Un vector v se puede reescribir en términos de una base. v=1v1+2v2+...+nvn, a donde

1

2

...

n

Es la representación del vector

Coordenadas

Page 21: Espacios vectoriales

Bases, Dimensión y coordenadas Ejemplos de representación de

vectores

Page 22: Espacios vectoriales

Bases, Dimensión y coordenadas Teorema. La representación del

vector es única v=1v1+2v2+...+nvn=

1’v1+2’v2+...+n’vn (1-1’)v1+...+ (n-n’)vn=0 base L.I. entonces la única

solución es cero (i-i)=0 i=i’

Page 23: Espacios vectoriales

Bases, Dimensión y coordenadas Notita. El teorema anterior es cierto

si dice que z=a1x1+...+akxk los ai son únicos ssi los xi son L.I.

Page 24: Espacios vectoriales

Bases, Dimensión y coordenadas Definición. Sea (V,F) un espacio

vectorial. Dos subespacios de (V,F); (V1,F) y (V2,F) se dicen equivalentes si los vectores de uno se pueden escribir como C.L. del otro y viceversa.

Page 25: Espacios vectoriales

Bases, Dimensión y coordenadas Teorema. Suponer que B={v1, ...,vp}

es una base para (V,F) y suponer que D={u1,...,uq} es un subconjunto L.I. en (V,F), entonces qp

Demostración. Como B es una base, entonces uiD,

(V,F) se puede expresar como una C.L. de B

Page 26: Espacios vectoriales

Bases, Dimensión y coordenadas S1={u1,e1,...,ep} es L.I. Existe un vector

que es C.L. de los anteriores, digamos que es ei.

Por transitividad el resto {u2,...,uq} es una C.L. de S1-{ei} y se puede aplicar el mismo procedimiento

Como se observa el procedimiento no puede eliminar todos los vp vectores antes de que los ui vectores se hayan agotado y qp.

Page 27: Espacios vectoriales

Bases, Dimensión y coordenadas Teorema. Número de vectores en la base.

Suponer que para un espacio (V,F) se tiene una base con p vectores. Entonces todas las bases tienen p vectores.

Demo. Aplicar teorema anterior suponiendo que se tiene otra base con q vectores. qp. Aplicar partiendo de la base con q vectores pq q=p.

Page 28: Espacios vectoriales

Bases, Dimensión y coordenadas Definición. Al número de vectores en la base de un

espacio (V,F) se le llama dimensión de (V,F). En especial, todos los subespacios equivalentes

también tienen un conjunto de vectores que lo generan (ya que son un espacio en sí) y se tiene una base y por tanto también tienen su dimensión. En tal caso es más adecuado hablar de rango que de dimensión, ya que podemos hablar de un subespacio en R3, pero de rango 2.

A su vez, a la dimensión del espacio completo se le puede llamar rango, pero es mejor hablar de dimensión.

Page 29: Espacios vectoriales

Bases, Dimensión y coordenadas El espacio Rn tiene timensión n. Si la dimensión de un espacio es p

cualquier conjunto con s vectores s>p es L.D.

En efecto, la base tiene p vectores y el resto será una C.L. de la base.

Page 30: Espacios vectoriales

Bases, Dimensión y coordenadas Teorema. Un espacio tiene dimensión finita

k ssi k es el maximo número de vectores que se pueden obtener en el espacio.

Demo. Si la dimensión es k la base tiene k vectores son L.I. y cualquier otro es una C.L. de la base (ya no es L.I.).

Si el máximo número de vectores L.I. es k estos generan todo el espacio y por tanto es una base k es la dimensión.

Page 31: Espacios vectoriales

Bases, Dimensión y coordenadas Ok, regresemos a la representación

de vectoresB1={ }1

0

0

1

4

4=4 +4

1

0

0

1

Page 32: Espacios vectoriales

Bases, Dimensión y coordenadas El mismo vector en otra base

B2={ }1

1

0

1

4

0=4 +0

1

1

0

1

Page 33: Espacios vectoriales

Bases, Dimensión y coordenadas Si el mismo vector se puede

representar en diferentes bases, ¿se podrá transformar de una en otra?

1 0

0 1

1 0

1 1

4

4

4

0=

Page 34: Espacios vectoriales

Bases, Dimensión y coordenadas

1 0

0 1

1 0

1 1

4

4

4

0=

-1

Matriz de cambio de base de B1 a B2

Page 35: Espacios vectoriales

Bases, Dimensión y coordenadas• El concepto fácilmente se puede

generalizar a cualquier par de bases• Lo que es más chido...

• (P[x]2,R) una posible base es B={1, x, x2}

• v1=1 en la base 1

0

0

Page 36: Espacios vectoriales

Bases, Dimensión y coordenadas• v2=x en la base

• v3=x2

0

1

0

0

0

1

Page 37: Espacios vectoriales

Bases, Dimensión y coordenadas• v4=1-x• v5=3+x• v6=-2+2x+x2

• v7=2+3x+7x2

• ¿Son L.I.?

¡¡¡Todo cambia a matrices!!!

Page 38: Espacios vectoriales

Espacios vectoriales

Kernel, imagen, espacio columna y espacio fila de una matriz

Ecuaciones lineales y espacios vectoriales Cambio de base Espacio cociente Sumas y sumas directas

Page 39: Espacios vectoriales

Pausa: Cosas de una Matriz Kernel.

Todos los x tales que Ax=0 Kernel={x|Ax=0}

Se puede hablar de dos kerneles, el izquierdo y el derecho KerI={y|yTA=0} KerD={x|Ax=0}

Page 40: Espacios vectoriales

Pausa: Cosas de una Matriz Imagen

Todos los y que son obtenidos de A multiplicado por un vector

Imagen={y|Ax=y}

Page 41: Espacios vectoriales

Pausa: Cosas de una Matriz Teorema (operaciones columna y dependencia

lineal). Suponer que una secuencia de operaciones elementales por renglón transforma la matriz A en la matriz B, entonces: Una colección de columnas de A es linealmente

dependiente (independiente) ssi la collección correspondiente de columnas de B es linealmente dependiente (independiente).

Una matriz renglón puede ser escrita como una combinación lineal de (esto es linealmente dependiendte de) todos los renglones de A ssi puede ser escrita como una combinación lineal de todos los renglones de B.

Page 42: Espacios vectoriales

Pausa: Cosas de una Matriz Demostración caso 1.- Sea F=E1E2...En la secuencia de matrices

elementales que realizan las operaciones elementales que transforman a A en B.

F tiene inversa=no singular FA=B Fx=0 x=0 (solución única) Si las columnas de A son L.D. entonces 1a1+2a2+...+nan=A[] FA[ ]=B[ ] Si A es LD hay muchas combinaciones

Page 43: Espacios vectoriales

Pausa: Cosas de una Matriz que dan cero esas mismas combinaciones en B

dan cero y sus columnas son LI. Si A tiene una sola combinación que da cero,

entonces en B será la única posibilidad de dar cero, ya que sólo es este caso FA[]=0

Apliquemos esto a cualquier colección de columnas de A y se tendrá la demostración de la primera parte.

Demostración caso 2.- Un matriz renglón y es una CL de los renglones de

A ssi y=xA para alguan matriz renglón x, pero y=xF-1FA=x’B, para x’=xF-1

Page 44: Espacios vectoriales

Pausa: Cosas de una Matriz como FA=B; y y=x´B ssi y es una CL

de los renglones de B.

Page 45: Espacios vectoriales

Pausa: Cosas de una Matriz Veamos más a fondo el método de

Gauss

1 -1 2 3

-1 1 1 2

1 2 4 1

1 3 1 2

1 -1 2 3

0 0 3 5

0 3 2 -2

0 4 -1 -1

Page 46: Espacios vectoriales

Pausa: Cosas de una Matriz Veamos más a fondo el método de

Gauss

1 -1 2 3

0 3 2 -2

0 0 3 5

0 4 -1 -1

1 -1 2 3

0 1 2/3 5/3

0 0 2 -2

0 0 -11/3

-23/3

Page 47: Espacios vectoriales

Pausa: Cosas de una Matriz Veamos más a fondo el método de

Gauss

1 -1 2 3

0 1 2/3 -5/3

0 0 1 -1

0 0 -11/3

-23/3

1 -1 2 3

0 1 2/3 5/3

0 0 1 -1

0 0 0 1

Page 48: Espacios vectoriales

Pausa: Cosas de una Matriz

1 1.5

0 1

2 3

1 1

Matriz Forma de Gauss

Columnas dominantes

Page 49: Espacios vectoriales

Pausa: Cosas de una Matriz

1 -1

0 0

1 -1

-1 1

Matriz Forma de Gauss

Columnas dominantes

Page 50: Espacios vectoriales

Pausa: Cosas de una Matriz

0 1

0 0

0 -1

0 1

Matriz Forma de Gauss

Columnas dominantes

Page 51: Espacios vectoriales

Matrices

1. Por intercambio de renglones hacer que el elemento (1,1) sea diferente de cero.

2. Si no es posible es porque toda la columna 1 es igual a cero, tacharla y tratar de hacer lo mismo para la submatriz generada

3. El proceso se repite hasta tener un elemento diferente de cero.

Page 52: Espacios vectoriales

Matrices

4. Todo el renglón se divide entre el elemento diferente de cero y se procede a hacer cero el resto de los elementos de esta columna de acuerdo al método de Gauss

Page 53: Espacios vectoriales

Matrices

5. Una vez hecho esto se tacha el renglón y se obtiene una nueva submatriz

6. Con esta nueva submatriz se procede desde el punto 1)

7. El resultado es la matriz en la forma de Gauss

Page 54: Espacios vectoriales

Matrices

Si se tiene un renglón diferente de cero, entonces a la primer columna diferente de cero se le llamará dominante o líder.

Page 55: Espacios vectoriales

Pausa: Cosas de una Matriz Teorema (matrices reducidas y

dependencias) Suponer que G es una matriz en la forma de Gauss y de rango k

a) El conjunto de las k columnas líderes es linealmente independiente

b) Cualquier columna a la izquierda de la primera columna líder es una columna cero. Cualquier columna a la izquierda de la i-ésima columna líder es combinación lineal de las anteriores columnas líderes.

Page 56: Espacios vectoriales

Pausa: Cosas de una Matriz Definición.- Sea A una matriz de p*q a) El espacio columna de A es el

subespacio que es generado por el conjunto de columnas de A

b) El espacio renglón de A es el subespacio generado por los renglones de A.

Page 57: Espacios vectoriales

Pausa: Cosas de una Matriz Poner ejemplos Dar las condiciones para que el

sistema tenga solución. Ax=b

Page 58: Espacios vectoriales

Pausa: Cosas de una Matriz Teorema. Sea una matriz A de rango k.

Entonces a) El espacio columna de A tiene diemnsión

k. Una base son las columnas líderes. b) El espacio renglón es de dimensión k, una

base son los renglones diferentes de cero. c) Una matriz p*p es no singular si sus

columnas son LI rango p d) Una matriz p*p es no singular si sus

renglones son LI rango p

Page 59: Espacios vectoriales

Matrices

Corolario Rango por columnas = rango por filas

Teorema (espacios renglón iguales). Sea A1 y A2 matrices de tamaño r*q y s*q respectivamente. El espacio renglón de A1 es igual al espacio rengloón de A2 ssi los renglones no cero de las matrices de Gauss coinciden.

Page 60: Espacios vectoriales

El maldito Kernel otra vez

Definición: Sea f:XY una función de X a Y. Con f se asocia una relación de equivalencia llamada equivalencia kernel de f y se denota por Ker f y está definida como sigue:

x1,x2X, x1~x2 ssi f(x1)=f(x2)

(mostrar que sí es una relación de equivalencia y por tanto particiona a X)

Page 61: Espacios vectoriales

Por qué se le llama equivalencia kernel Sucede que en el caso de homomorfismos

si f(x1)=f(x2) f(x1)-f(x2)=0 f(x1-x2)=0, i.e. x1-x2 está en el kernel de f.

Claramente una matriz A puede ser considereda como una función (y aún más, un homomerfismo, chequen en clase esto y verán que si la hace). Entonces el kernel que definimos de A es consistente con el kernel en homomerfismos y sucede que:

Page 62: Espacios vectoriales

Por qué se le llama equivalencia kernel El kernel de A es un subespacio La imagen de A es un subespacio Ya qué no saben qué, A/ker A es un

espacio y se le llama espacio cociente.

Page 63: Espacios vectoriales

Entendamos bien esto, que está demasiado fácil, salvo la primera vez Encontrar Kernel, imagen (range, no

rank), A/Ker A de la siguiente matriz A.

1 -1

-1 1

Page 64: Espacios vectoriales

Sistemas Lineales III:

Control Geométrico-1.8

Sean X y Y dos conjuntos cualesquiera. Sea A:XY una función cualquiera. Entonces se puede definir la relación Ker A de la siguiente forma:

x1~x2 ssi A(x1)=A(x2)

Note que la relación Ker A es una relación de equivalencia.

Como es una relación de equivalencia, entonces diremos que x1x2 (mod Ker A) –x1 es equivalente a x2 módulo Ker A- -También se dice que x1 es congruente a x2 vía Ker A o que la relación Ker A es una congruencia-

Page 65: Espacios vectoriales

Significado geométrico de esta relación

x2

x1

x4

x3

x6

x5y4

y3

y2

y1

Observe que hay tantos clusters como imágenes de A

clustersX Y

Podemos hacer el conjunto de los clusters

Imagen de A

Page 66: Espacios vectoriales

Significado geométrico de esta relación

(A menudo yo le llamo conjunto de clustercillos)

clusters

c1={x1, x2, x3}

c2={x4}

c3={x5, x6}

A este conjunto lo llamaremos X/Ker A, o conjunto cociente X/Ker A

Page 67: Espacios vectoriales

Significado geométrico de esta relaciónX/Ker A

c1={x1, x2, x3}

c2={x4}

c3={x5, x6}

Noten que la relación Ker A está dando una medida de la inyectividad de A. Si el número de clusters es igual al número de elementos en X, entonces A es inyectiva.

A los clusters se les llama coconjuntos (cosets) y son justamente los subconjuntos de X sobre los cuales A tiene diferente valor. También se les suele llamar las “fibras” de A.

Page 68: Espacios vectoriales

c1=[0 4 8]

c2=[1 5 9]

c3=[2 6]c4=[3 7]

0 4 81 5 9

2 6

3 7

X

01

2

3

YX/Ker A

Aquí está A

Ejem. A(x)=x módulo 4 -es el residuo de la división, no la congruencia

Como X/Ker A y la imagen de A tienen la misma cantidad de elementos, entoces hay un isomorfismo entre X/Ker A y Im(A) [X/Ker AIm(A)]

Significado geométrico de esta relación

Page 69: Espacios vectoriales

c1=[0 4 8]

c2=[1 5 9]

c3=[2 6]c4=[3 7]

0 4 81 5 9

2 6

3 7

X

01

2

3

YX/Ker A

Aquí está A

Significado geométrico de esta relaciónProposición. Sea A:XY y sea PA:XX/Ker A su proyección canónica, entonces g:X/ker Aim(A) tal que A=gPA, donde g es un isomorfismo.

PA

Page 70: Espacios vectoriales

Demostración Definir g(z)=A(x) ssi z=PA(x). Se afirma que g(z) es

función Cubre todo X. Como A es función, entonces a cubre todo

X, y por la definición anterior, g también cubrirá todo X Un valor de X/Ker A no está asociado a dos valores de Y.

Suponer que si es así, (z,y1), (z,y2)g. Entonces y1y2. Por la definición de g se tiene: z= PA(x1), y1=A(x1) y además z= PA(x2), y2=A(x2) Como PA(x1),= PA(x2) implica que A(x1)= A(x2) Entonces y1=y2, una contradicción, entonces Un valor de X/Ker A no está asociado a dos valores de Y

Por tanto g(z) si es función.

Page 71: Espacios vectoriales

Demostración Ahora veremos que g es un isomorfismo.

g es inyectiva. Suponer que no es así, i.e. (z,y),(z’,y)g Entonces zz’ Entonces z=PA(x) y z’=PA(x’) Además A(x)=A(x’)=y. Como tienen la misma y, entonces PA(x)=PA(x’), una

contradicción. Por tanto es inyectiva. g es sobre. Como g:X/Ker AIm(A), sólo abarca las

imágenes de A. Por definición de g, cualquier imagen de A tiene una preimagen en X/Ker A. Por lo tanto g es sobre.

Como es inyectiva y sobre, es un isomorfismo.

Page 72: Espacios vectoriales

Demostración Por definición A=goPA

Page 73: Espacios vectoriales

Significado geométrico de esta relaciónEstamos en los límites...

Si los conjuntos tienen estructura matemática, p.e. X, Y son espacios vectoriales y la función A resulta ser un operador lineal.

Ax1=Ax2 es la relación Ker A. Un caso particular es para la imagen cero.

En este caso todos los x, tales que Ax=0 formarán una clase de equivalencia. Las demás clases de equivalencia las obtendremos al estudiar las otras imágenes de A.

Sin embargo, este proceso puede resultar muy lento, sobre todo porque Y tiene un número infinito de elementos. Una forma más adecuada es estudiarlos a través de la clase de equivalencia del 0 [0].

Page 74: Espacios vectoriales

Significado geométrico de esta relaciónEstamos en los límites...Por ejemplo, si queremos estudiar el caso para la imagen y, entonces debemos encontrar todos los x tales que Ax=y.

x1, x2 [x], Ax1=Ax2=y, entonces A(x1-x2)=0. Entonces si x1[x], se tiene que x2[x] ssi (x1-x2)[0].

Como la clase [0] es un subespacio de X

De hecho si Ax=0 y Ay=0, entonces A(x+y)=0 y por tanto es un subespacio

entonces (x1-x2) span[0], o (x1-x2) = 1e1+2e2+...+nen

Si x1 está fijo, entonces x2= x1-1e1-2e2-...-nen.............................(1)

Como con la clase de equivalencia [0] se generan todas las demás, a está clase la llamaremos genéricamente Kernel de A.

Page 75: Espacios vectoriales

Significado geométrico de esta relaciónEstamos en los límites...

Como se observa, la ecuación (1) es un método para calcular todas las clases de equivalencia [x2].

Se puede ver que es un un espacio vectorial (el del Kernel) desplazado por x1 (cualquier vector de la clase).

A esta clase de equivalencia, y sólo cuando hablamos de operadores lineales en espacios vectoriales, le llamaremos una variedad lineal. No es un espacio, ya que en general, el cero no está incluído en dicha variedad, pero si será un espacio vectorial vía módulo algún vector de la clase.

Ejemplos

Page 76: Espacios vectoriales

Significado geométrico de esta relaciónEstamos en los límites...

A:22 tal que A([x y]T)=[x–y y-x]T. Claramente A es un operador lineal y un vector de la forma [k k]T está en la clase de equivalencia [0] o Kernel de A.

El vector [2 1]T no está en la clase [0], pero si está en la clase [[2 1]T]. Los vectores que pertenecen a esta clase, de acuerdo a la ecuación (1) son:

X=[2 1]T-[1 1]T

Page 77: Espacios vectoriales

Significado geométrico de esta relaciónEstamos en los límites...

Clase [0]

Clase [2 1]T

Page 78: Espacios vectoriales

Significado geométrico de esta relaciónEstamos en los límites...

En realidad, cada clase forma una línea paralela al Kernel de A.

Page 79: Espacios vectoriales

Significado geométrico de esta relación

Si tenemos un operador lineal A:VW, entonces el Kernel de A será un subespacio de V, y cada una de las clases de equivalencia será una variedad lineal paralela al Kernel de A.

Más aún, el conjunto de las clases de equivalencia se denotará en la forma común V/Ker A y será llamado el espacio cociente V/Ker A.

Proposición. Sea un operador lineal A:VW, entonces el conjunto V/Ker A es un espacio vectorial.

Demo. En este espacio, el vector nulo es la clase [0]. De hecho se tiene

Page 80: Espacios vectoriales

Significado geométrico de esta relación

[v1]=[v1]+[0] para cualquier v1V. De la ecuación (1) x2= v1-1e1-2e2-...-nen se observa que esto es cierto, ya que x2[v1].

Los escalares, son los del campo definido en V.

La suma de vectores [v1]+[v2]=[v3] se define como x1[v1], x2[v2] y x1+x2[v3]. Note que está bien definida ya que cualquier x1[v1] y x2[v2] sirven. De hecho v1- 1[0]+v2- 2[0]=v1+v2- [0]=[v3]

Todas las propiedades se pueden demostrar y resulta un espacio vectorial

Page 81: Espacios vectoriales

Significado geométrico de esta relación,... Pero hay más cosas

Claramente, Im(A)V/Ker A. Vimos que esto se cumple aún en el caso que no sean espacios vectoriales.

Ahora volvamos a los conjuntos.

Vimos que si A:XY, entonces Ker A es una relación de equivalencia.

Por la definición, cualquier función deja una relación de equivalencia en su dominio. Pero, además, nosotros sabemos que una relación de equivalencia sobre un conjunto X es equivalente a una partición de X

Page 82: Espacios vectoriales

Espacios vectoriales con producto interno

Page 83: Espacios vectoriales

Espacios vectoriales con producto interno

5.1 Producto interno 5.2 Desigualdad de Cauchy-Schwarz 5.3 Ortogonalidad 5.4 Procedimiento de Gram-Schmidt 5.5 Espacios normados

Page 84: Espacios vectoriales

Norma

Definición.- Una norma (o norma vectorial) en (V,F) es una funcional que asigna a cada vector v un número real no negativo, llamado norma del vector v, y es denotado por ||v|| y satisface: ||v||>0 para v0, y ||0||=0 ||v||=|| ||v|| escalar y v vector ||u+v||||u||+||v||

Page 85: Espacios vectoriales

Norma

Definición.- Para vectores x=[x1 x2 ... xp]T, las normas ||||1, ||||2, |||| son llamadas norma 1, norma 2 y norma infinito respectivamente y se definen como: ||||1=|x1|+|x2|+...+|xp| ||||2=(|x1|2+|x2|2+...+|xp|2)1/2

||||=max{|x1|, |x2|, ...,|xp|}

Page 86: Espacios vectoriales

Norma

Definición.- Sea |||| una norma en (V,F). Una secuencia de vectores vi se dice que converje al vector v ssi la secuencia de número reales ||vi-v|| Para vectores x=[x1 x2 ... xp]T, las normas ||||1, ||||2, |||| son llamadas norma 1, norma 2 y norma infinito respectivamente y se definen como: ||||1=|x1|+|x2|+...+|xp| ||||2=(|x1|2+|x2|2+...+|xp|2)1/2

||||=max{|x1|, |x2|, ...,|xp|}

Page 87: Espacios vectoriales

Norma

Teorema: Sean x, y dos vectores. Entonces |xTy|||x||2||y||2

Demostración. sabemos 0||x+y||=(x+y)T(x+y)=||x||2

2+ 2 ||y||

22+2 |xTy|

si =-||x||22/xTy, entonces

0-||x||22+(||x||2

4||y||22/xTy|2)

Despejando se llega a la desigualdad

Page 88: Espacios vectoriales

Producto interno

Definición. El producto interno en (V,F) sobre un par de vectores (u,v) que satisface: (u,v)=(v,u) (u+v,w)= (u,w)+ (v,w) (w,u+v)= (w,u)+ (w,v) (u,u)>0, y es igual a cero si u es cero.

Page 89: Espacios vectoriales

Producto interno

El producto interno (u,v)1/2 induce una norma en el espacio vectorial.

Definición. Sean el producto interno (,) u, v son ortogonales ssi (u,v)=0 Un conjunto de vectores son ortogonales ssi cada par de

vectores (u,v) son ortogonales Si un vector u es usado para producir u/||u|| tal que ||v||=1,

entonces u se dice ser normalizado para producir el vector normalizado v

Un conjunto de vectores se dice ortonormal ssi es ortogonal y ||v||=1 para todo vector v

Page 90: Espacios vectoriales

Producto interno

Diferentes productos internos (u,v)=uTv si f y g son funciones real valuadas continuas en

0t1, entonces (f,g)=0 )()( dttgtf

Page 91: Espacios vectoriales

Proyecciones ortogonales

Teorema. Sea (V,F) un espacio vectorial. Sea (V0,F) un subespacio generado por los vectores ortogonales S={v1,...,vq}. Defínase la proyección ortogonal como sigue. Para cualquier vector v

P0v=1v1+...+qvq, donde i=(vi,v)/(vi,vi)

entonces v-P0v es ortogonal a todo vector v en (V0,F) P0(u+v)=P0u+P0v P0(v)= P0v

Page 92: Espacios vectoriales

Proyecciones ortogonales

Demostración (vi,v-P0v)=(vi,v)-1(vi,v1)-...-q(vi,vq)=(vi,v)-

i(vi,vi)=0 Los otros puntos salen de la definición de los

coeficientes .

vi

v

P0v= vi

v-P0v

Page 93: Espacios vectoriales

Proyecciones ortogonales

Teorema. Sea (V,F) un espacio vectorial con producto interno y con su norma inducida por el producto interno ||||. Sea (V0,F) un subespacio generado por los vectores ortogonales S={v1,...,vq}. Entonces para cualquier v, P0v es el único punto más cercano en (V0,F) a v, y ||v-P0v|| es la distancia de v a (V0,F) ||v-P0v||<||v-v0|| para todo v0 diferente de P0v en (V0,F)

Page 94: Espacios vectoriales

Proyecciones ortogonales

Demostración. ||v-v0||2=(v-v0,v-v0)=(v-P0v+P0v-v0, v-P0v+P0v-v0)= (v-P0v,

v-P0v )+(v-P0v, P0v-v0)+(P0v-v0,v- P0v)+(P0v-v0, P0v-v0)

Sabemos que v- P0v es ortogonal a los vectores en (V0,F), entonces se obtiene que:

||v-v0||=||v- P0v||+|| P0v-v0||

entonces ||v-v0||>||v- P0v|| a menos que v0= ||v-v0||=||v- P0v||+||

Page 95: Espacios vectoriales

Proyecciones ortogonales

Sea S={v1,...,vq} un conjunto de vectores ortogonales, entonces estos vectores son linealmente independientes.

si se toma el vector 0=c1v1+...+cqvq, tenemos que saber el valor de cada ci.

0=(vi,0)=(vi,c1v1+...+cqvq)=ci(vi,vi) como (vi,vi)>0 ci=0 y son L.I.

Page 96: Espacios vectoriales

Proyecciones ortogonales

Se sigue que si el vector proyectado v está en el espacio (V0,F), entonces P0v será el mismo v y los valores de las i será la representación del vector en la base seleccionada S.

Page 97: Espacios vectoriales

Proyecciones ortogonales

Teorema. Sea B={v1,...vq} una base ortogonal. La representación del vector v se calcula como v=1v1+...+qvq, donde

i=(vi,v)/(vi,vi)

Note que si la base es ortonormal, entonces los i se calculan fácilmente

Page 98: Espacios vectoriales

Proyecciones ortogonales

Si tenemos S={v1,...,vq} un conjunto de vetores que genera (V,F) Tomar u1=v1,

desde 2 hasta q, ui=vi-Pi-1vi

Page 99: Espacios vectoriales

Transformaciones lineales

Page 100: Espacios vectoriales

Transformaciones lineales

6.1 Definición 6.2 Propiedades 6.3 Kernel e imagen de una transformación lineal 6.4 Representación matricial de una

transformación lineal 6.5 Isomorfismos 6.6 Operaciones con transformaciones lineales 6.7 Algebra de transformaciones lineales  

Page 101: Espacios vectoriales

Transformaciones lineales

Definición. Sean (V,F) y (W,G) dos espacios vectoriales. Una transformación lineal T de (V,F) a (W,G) es una correspondencia que asigna a cada vector v en V un vector w en W tal que:

T(v1+v2)=T(v1)+T(v2) T(v)= T(v)

Se sigue que T(0)=0, ya que T(v)=T(v+0)=T(v)+T(0) lo que implica que T(0) debe ser el cero de W.

Page 102: Espacios vectoriales

Transformaciones lineales

El espacio imagen Todos los vectores w en (W,G) tal que w=T(v) Solución. Si w es fijo, entonces existe v en (V,F) tal

que T(v)=w ssi w está en la imagen de T.

Se aplica Sobre

Claramente el problema Solución tiene solución si T es onto.

Page 103: Espacios vectoriales

Transformaciones lineales

Otro problema es si la solución es única. T(v1)=T(v2)=w

Se aplica Inyectividad

Claramente la solución es única si w esta en la imagen de T y T es inyectiva.

T(v1)=T(v2) T(v1)-T(v2)=0 T(v1-v2)=0

También T tiene kernel.

Page 104: Espacios vectoriales

Transformaciones lineales

Más propiedades de las transformaciones lineales T(u-v)=T[u+(-1)v]=T(u)+T[(-1)v]=T(u)+(-1)T(v)=T(u)-T(v) T(1v1+...+nvn)= 1v1+...+nvn Esto se puede ver por asociatividad e inducción

Teorema. Sea (V,F) un espacio vectorial de dimensión finita con base B={v1,...vn} y T1, T2 dos transformaciones lineales. Si T1(vi)=T2(vi) para todo vi en B, entonces T1(v)=T2(v) para v en (V,F).

Demo, como cualquier vector de (V,F) se escribe como v= 1v1+...+nvn, entonces T1(v)=T1(1v1+...+nvn)= T1(1v1)+...+T1(nvn)=T2(1v1)+...+T2(nvn)=T2(v)

Page 105: Espacios vectoriales

Transformaciones lineales

Teorema. Sea (V,F) un espacio vectorial de dimensión finita con base B={v1,...vn} y (W,G) un espacio vectorial que contiene a los vectores w1,...,wn, entonces existe una única transformación lineal tal que T(vi)=wi, para vi en B.

Demo. Como cualquier vector de (V,F) se escribe como v= 1v1+...+nvn, entonces T se define como T(v)=1w1+...+nwn

T será una transformación lineal T(u+v)=T[(1v1+...+nvn)+(1v1+...+ nvn)]=

=T[(1+1) v1+...+( n+n) vn] Por la definición de T, = (1+1) w1+...+( n+n) wn=T(u)+T(v)

Page 106: Espacios vectoriales

Transformaciones lineales

De igual forma T(u)=T[(1v1+...+ nvn)] Por la definición de T, 1w1+...+ nwn= T(u) Por teorema anterior se tiene la unicidad

Tarea: Sean (V,F) y (W,G) dos espacios vectoriales y T:(V,F)(W,G) una transformación lineal. Demsotrar que el kernel de T es un subespacio de (V,F) y que la imagen de T es un subespacio de (W,G).

Page 107: Espacios vectoriales

Transformaciones lineales

Definición. Sean (V,F) y (W,G) dos espacios vectoriales y T:(V,F)(W,G) una transformación lineal. Nulidad de T = (T) =dim (Ker (T)) rango de T = (T) = dim (Im (T))

Teorema. Sean (V,F) y (W,G) dos espacios vectoriales y T:(V,F)(W,G) una transformación lineal. (T)+ (T) = dim (V,F)

Demo. Suponer que (T)=r y que {v1,...vr} es una base para el kernel; además (T)=k y {w1,...wk} es una base para la imagen de T.

Entonces hay que demostrar que B={v1,...,vr,u1,...,uk}

Page 108: Espacios vectoriales

Transformaciones lineales

Sea un v que pertenece a (V,F). Como T(v)= 1w1+...+kwK Al Vector v lo podemos escribir como v= 1u1+...+kuK-v’ v´= 1u1+...+kuK-v T(v’)=T(1u1+...+kuK-v)= 1T(u1)+...+kT(uk)-T(v) = 1w1+...+kwK-T(v)=0 v’ está en el kernel de T

Como {v1,...vr} es una base de Kernel de T, existen escalares 1 ,.., r tal que v’= 1v1+ ... +rvr=1u1+...+kuK-v

Por tanto v= 1u1+...+kuK- 1v1- ... -rvr y {u1,...,uk, v1,..., vr} genera (V,F) Ahora hay que ver que sean L.I.

Page 109: Espacios vectoriales

Transformaciones lineales

Sea un vector 1u1+...+ kuK+ 1v1+ ... + rvr=0 Entonces T(1u1+...+ kuK+ 1v1+ ... + rvr)=0 Como los vi están en el kernel 0= 1w1+...+ kwK, como los wi son una base de la

magen, entonces son L.I. y la única solución es i=0 Entonces el vector se reescribe como 1v1+ ... + rvr=0 , como los vi son una base para el

kernel son L.I., entonces la única solución i=0 y los vectores son L.I.

y por lo tanto es una base y la dimensión de (V,F) es (T)+ (T) = dim (V,F)

Page 110: Espacios vectoriales

Transformaciones lineales

Sean (V,F) y (W,G) dos espacios vectoriales y T:(V,F)(W,G) , entonces existe una única matriz A (dim(v), dim(W)) tal que T(x)=Ax

A est la matriz de transformación correspondiente a T.

Demo sea B={e1,...,en} la base canónica en (V,F) T(ei)=wi Se puede formar la matriz A=[w1 wn] entonces Aei=wi (T(ei)=wi) En general T(x)=T(1e1+ ... +nen)= 1w1+ ... +nwn

También Ax=A[1e1+ ... +nen]= 1w1+ ... +nwn =T(x)

Page 111: Espacios vectoriales

Transformaciones lineales

Suponer que T(x)=Ax=Bx (A-B)x=0, para x=ei (A-B)ei=0 que la i-ésima columna de

(A-B) es cero, por lo que las matrices son iguales y A es única.

Teorema Sea A la matriz de transformación correspondiente a T, entonces

i) Im T Im A, pero isomorfo ii)(T)=(A) iii)Ker TKer A, pero isomorfo iv)(T)=(A)

Page 112: Espacios vectoriales

Transformaciones lineales

Teorema. Sean (V,F), (W,G) dos espacios vectoriales de dimensiones n y m respectivamente. Sea T(V,F)(W,G) una transformación lineal. Sean B1={v1,...,vn} y B2={w1,...,wm} las bases de los espacios respectivamente. Entonces existe una única matriz A (m,n) tal que: [T(x)]B2=A(xB1)

[T(x)]B2la representación de T(x) en B2 T(x)= 1w1+ ... +mwm [T(x)]B2=[1 ... m]T xB1 es la representación del vector en B1

La matriz A se conoce como la matriz de transformación correspondiente a T con respecto a las bases B1 y B2

Page 113: Espacios vectoriales

Transformaciones lineales

Considere los vectores T(v1, ...,T(vn), escríbase A=[[T(v1)]B2 ... [T(vn)]B2] Como AviB1=Aei= [T(vi)]B2 y xB1 es la representación del vector en B1, i.e. [1 ... n]T

entonces A xB1=[[T(v1)]B2 ... [T(vn)]B2] xB1= 1[T(v1)]B2+...+[T(vn)]B2]n Por otro lado T(xB1)=T(1v1+...+nvn)= 1T(v1)+...+nT(vn) Al poner cada uno de estos vectores en la representación de la base B2 se obtiene que: A xB1= T(xB1) La unicidad es similar al teorema anterior

Page 114: Espacios vectoriales

Transformaciones lineales

Teorema.- Sea A (m,n) la matriz de transformación correspondiente a T:(V,F)(W,G) con respecto a las bases B1={v1,...,vn} y B2={w1,...,wm} respectivamente.

Suponga que hay otras bases B1’={v1’,...,vn’} y B2’={w1’,...,wm’} de los espacios respectivos.

Entonces la matriz A’ correspondiente a la misma transformación T con respecto a las bases B1’ y B2’ está dada por: A’=P-1AQ

P es la matriz de transición (de paso) de la base B2’ en B2

Q es la matriz de transición (de paso) de la base B1’ en B1

Page 115: Espacios vectoriales

Transformaciones lineales

Demo. Sabemos que [T(x)]B2=AxB1 Ahora, xB1=QxB1’ y [T(x)]B2=P[T(x)]B2’ Por tanto P[T(x)]B2’=A QxB1’ [T(x)]B2’=P-1A QxB1’ A’=P-1AQ es la matriz de transformación

Page 116: Espacios vectoriales

Transformaciones lineales

En especial, si (V,F) y (W,G) son los mismos, entonces

A’=P-1AP Definición. Se dice que dos matrices cuadradas A y

B son similares si existe una matriz P no singular (determinante diferente de cero) tal que

B=P-1AP

Page 117: Espacios vectoriales

Transformaciones lineales

Transformaciones T Inyectiva Kernel T = {0} Sobre

Teorema. T:VW una transformación lineal y dim v=n y dim w=m

i) si n>m, T no es inyectiva ii) si m>n T no es sobre

Demo. Tarea.

Page 118: Espacios vectoriales

Transformaciones lineales

Definición. Una T.L es un Isomorfismos ssi es inyectiva y sobre.

La matriz de un isomorfismo es invertible. Definición. Se dice que (V,F) y (W,G) son isomorfos ssi existe

un isomorfismo entre ambos Teorema. Sean (V,F) y (W,G) dos espacios vectoriales de

dimensión finita. Entonces (V,F) y (W,G) son isomorfos si dim (V,F)=dim (W,G)

Demo. Obtener bases para cada uno. Entonces quedan representados en (Rn,R). Como son bases en el mismo espacio, existe una matriz de cambio de base A. por teoremas anteriores existe una T.L. asociada a A que es un isomorfismo.

Si existe el isomorfismo entre las representaciones, lo existe entre los espacios.

Page 119: Espacios vectoriales

Transformaciones lineales

Corolario. Cualquier espacio de dimensión n es isomorfo a (Rn,R)

Teorema. Si T:(V,F)(W,G) es un isomorfismo i) Si {v1,...vn} genera (V,F), entonces {T(v1),...,T(vn)} genera

(W,G) ii) Si {v1,...vn} son L.I., entonces {T(v1),...,T(vn)} son L.I. iii) si {v1,...vn} es una base, entonces {T(v1),...,T(vn)} es una

base. Demo.

i) v=1v1+ ... +nvn T(v)=w=1T(v1)+ ... +nT(vn) {T(v1),...,T(vn)} genera (W,G)

iii) Suponga que 0=T(v)=w=1T(v1)+ ... +nT(vn) , entonces T(1v1+ ... +nvn)=0, como T es isomorfismo T(0)=0 es el único. Entonces 1v1+ ... +nvn=0, pero como son L.I. i=0 y por tanto {T(v1),...,T(vn)} son L.I.

iii) se sigue de anteriores.

Page 120: Espacios vectoriales

Transformaciones lineales

Prop. Si T:(V,F)(W,G) es un isomorfismo, entonces para todo vector wW existe un único vector v V tal que

T-1(w)=v, donde T-1:(W,G)(V,F) es conocida como la transformación inversa de T.

Demo. 2 partes T-1 es T.L. y T-1(w)=v único T(v1)=w1; T-1(w1)=v1; T(v2)=w2 T-1(w2)=v2 T(v1+v2)=T(v1)+T(v2)=w1+w2 T-1(w1+w2)=v1+v2 T(v1)= T(v1)= w1 T-1(w1)= v1 Como T es isomorfiso, la definición de T-1 hace que

exista un único valor de regreso. Nota. T es T.L. A es su operador T-1 es la inversa de T, entonces A-1 es el operador

de T-1

Page 121: Espacios vectoriales

Transformaciones lineales

Operaciones con transformaciones lineales Sean (V,F) y (W,F) dos espacios vectoriales sobre

el mismo campo F. Hom(V,W) es el conjutno de todas las transformaciones lineales entre (V,F) y (W,F).

Sean T1 y T2 dos T.L. entre (V,F) y (W,F) Se define la suma T1+T2 como T1+T2:VW (T1+T2)(v)=T1(v)+T2(v) para todo F, T1 es (T1)(v)=T1(v)

Page 122: Espacios vectoriales

Transformaciones lineales

El conjunto Hom(V,W) definido anteriormente es un espacio vectorial sobre el campo F.

Demo. Tarea.

Page 123: Espacios vectoriales

Algebra de Transformaciones lineales

Definición. Un álgebra A sobre un campo F es un espacio vectorial sobre F en el que se tiene definida una operación producto que satisface para todos los elementos T1, T2, T3 A y F:

T1(T2+T3)=T1T2+T1T3 (T2+T3)T1=T2T1+T3T1 (T1T2)=(T1)T2=T1(T2) Si además se cumple que (T1T2)T3=T1(T2T3) entonces A es un álgebra asociativa

Page 124: Espacios vectoriales

Algebra de Transformaciones lineales

Definición. Sean V, U y W espacios vectoriales sobre el mismo campo F. Sean T1:VU y T2:UW dos transformaciones lineales.

Se define la composición de T2 seguida de T1 T2T1 como la función de V a W (T2T1) :VW tal que (T2T1)(v)=T2(T1(v))

Proposición. Si T1 y T2 son TL, entonces T2T1 también lo es.

Demo. Sean u,v V y , F, entonces (T2T1)(v+u)=T2(T1(v+u))=T2(T1(v)+T1(u)) = (T2T1)(v)+ (T2T1)(u) (T2T1) es T.L.

Puede verse que Hom(V,V) con la composición es un álgebra asociativa.

Page 125: Espacios vectoriales

Adicional de Transformaciones lineales

Sean A, B dos matrices de qxn y nxp con coeficientes en el mismo campo.

Entonces (A)+(B)-n (AB) min((A), (B)) Demo

(B)(A)

R(B)

R(A) R(AB)

n(B)n(A)

p nd

Page 126: Espacios vectoriales

Adicional de Transformaciones lineales

De la figura (AB)min((A), (B)). También (AB)= (B)-d (la intersección de R(B) y

n(A). La dimensión de n(A)=n- (A) d n+ (A) y se sigue que (AB) (A)-n+ (B)

Si B es no singular (A)+(B)-n = (A) (AB) min((A),n) = (A)

(B)(A)

R(B)

R(A) R(AB)

n(B)n(A)

p nd

Page 127: Espacios vectoriales

4. Valores y vectores propios

Page 128: Espacios vectoriales

Valores y vectores propios

Definición y propiedades Teorema de Cayley-Hamilton Diagonalización de matrices

Page 129: Espacios vectoriales

Valores y vectores propios

Definición. Sea V un espacio vectorial y T:VV una transformación lineal del espacio en sí mismo. Sea vV un vector diferente de cero pa el cual existe un escalar tal que T(v)=v,

entonces se dice que es un valor propio de T y que v es un vector propio de T asociado a .

Page 130: Espacios vectoriales

Valores y vectores propios

Cuando V es un espacio de dimensión finita, la transformación T la podemos representar como una matriz A de n,n. Entonces podemos redefir los valores y vectores propios de la siguiente forma.

Definición. Sea A una matriz de n,n. El escalar se denomina valor propio de A si existe un vector x diferente del nulo, tal que Ax= x

nuevamente x es el vector propio asociado a .

Page 131: Espacios vectoriales

Valores y vectores propios

Teorema. Sea A una matriz de n,n. Entonces es un valor propio de A ssi det(I-A)=0

Demo. Sólo si. Suponga que es un valor propio de

A; entonces existe un vector x diferente de cero tal que Ax= x

(I-A)x=0, como x diferente de cero (I-A) es singular det(I-A)=0

Page 132: Espacios vectoriales

Valores y vectores propios

(si). Si det( I-A)=0 ( I-A) es singular

( I-A)x=0 tiene soluciones diferentes de cero, entonces existe x diferente de cero tal que Ax= x.

Page 133: Espacios vectoriales

Valores y vectores propios

Definición. La ecuación det(I-A)=0 se conoce como ecuación característica de A, y el polinomio p()=det(I-A)

Observe que p()=(det(I-A)=a0+a1+...+an por el teorema fundamental del álgebra, cualquier

polinomio de grado n tiene n raíces (contando multiplicidades).

p()=(det(I-A)=a0+a1+...+an= (- 1)r1...(- m)rm

Los número ri son la multiplicidad algebraica de los valores propios de 1,..., m.

Page 134: Espacios vectoriales

Valores y vectores propios

Teorema. Sea un valor propio de A y E={x|Ax= x}. Entonces E es un subespacio vectorial de Cn

Nótese que E son las soluciones de (I-A)x=0, es decir el kernel de un operador lineal es un subespacio vectorial.

Page 135: Espacios vectoriales

Valores y vectores propios

Definición. Sean un valor propio de A. Entonces E se denomina espacio propio de A correspondiente a .

Definición. Sea E el espacio propio de A debido a . A la dimensión de E se le conoce como multiplicidad geométrica de .

Multiplicidad geométrica de =dim E=dim{Ker (I-A)}

Page 136: Espacios vectoriales

Valores y vectores propios

Ejemplos y procedimientos de cálculo.

4 -2

1 1

2 -1

-4 2

1 -1

2 -1

Page 137: Espacios vectoriales

Valores y vectores propios

Teorema. Sea un valor propio de A. Entonces se cumple que la multiplicidad geométrica de multiplicidad algebraica de

Page 138: Espacios vectoriales

Valores y vectores propios Teorema. Sean 1, 2, ..., m valores propios

diferentes de A (n,n), donde mn y sean x1, x2,..., xm sus vectores propios correspondientes. Entonces x1, x2, ..., xm son linealmente independientes.

Demostración. Suponga que {x1,...,xm} son L.D. y que xs es el

primer vector L.D. de los previos xs=1x1+2x2+...+s-1xs-1

Multiplicando por A Axs= 1Ax1+2Ax2+...+s-1Axs-1

Page 139: Espacios vectoriales

Valores y vectores propios sxs= 1 1 x1+2 2 x2+...+s-1 s-1 xs-1 Restando ecuaciones y multiplicando por s se

tiene 0=1(1-s)x1+2 (2-s) x2+...+s-1 (s-1-s)xs-1 Como xs es el primer vector L.D. entonces 1(1-s)=2 (2-s)=...=s-1 (s-1-s)=0 como is i=0 xs=0, lo cual contradice la

suposición las vectores son L.I.

Page 140: Espacios vectoriales

Valores y vectores propios

Teorema. La matriz A (n,n) tiene n vectores propios L.I. ssi la multiplicidad geométrica de cada valor propio es igual a su multiplicidad algebraica.

Tarea (Grossman, pag 545)

Page 141: Espacios vectoriales

Valores y vectores propios Definición. Sea F(x)=a0+a1x+a2x2+...+anxn un

polinomio y A una matriz cuadrada Se define el polinomio f(x) en la matriz A como: F(A)=a0I+a1A+a2A2+...+anAn

Sy f(A) es igual a la matriz cero, entonces se dice que A es raíz (o cero) del polinomio f(x).

Sea F() (n,n) una matriz polinomial en la variable , i.e.

F()=F0+F1+...+Fmm= F()=F0+F1+...+mFm

donde F0, F1,...,Fm son matrices cuadradas reales.

Page 142: Espacios vectoriales

Valores y vectores propios Se dice que F() es de orden n; y si Fm0, entonces

F() es de grado m. Además F() se dice regular si det(Fm)0

Definicion. Sean F() y G() matrices polinomiales de orden n., y G() es regular. Las matrices polinomiales Q() y R() se conocen como cociente derecho y residuo derecho respectivamente de F() dicidida por G() si

F()= Q() G() + R() y si el grado de R() es menor que el grado de G()

[R() puede ser cero]

Page 143: Espacios vectoriales

Valores y vectores propios

De manera similar se pueden definir el cociente izquierdo y residuo izquierdo

Sea A (n,n) y denota F(A) la evaluación por la derecha de A en la matriz polinomial F() , esto es, si

F()=F0+F1+...+Fmm=

F()= F0+F1A+...+FmAm

Page 144: Espacios vectoriales

Valores y vectores propios Teorema. Si la matriz polimial F() es dividida

por la derecha por la matriz (I-A) entonces el residuo es F(A), y si es dividida por la izquierda por (I-A) entonces el resiudo es F’(A) (por la izquierdA).

Demostración. Tarea. (teorema generalizado de Bezout,

Grantmatcher, pag 81)

Page 145: Espacios vectoriales

Valores y vectores propios Corolario. La matriz polinomial F() es divisible

por la derecha por la matriz (I-A) sin residuo (R()=0) ssi F(A)=0

(De manera similar se puede hacer por la izquierda)

Teorema (Cayley-Hamilton). Toda matriz A (n,n) es raíz de su polinomio característico.

Demostración. P()=det(I-A)=a0+a1+...+n

Hay que mostrar que P(A)=0

Page 146: Espacios vectoriales

Valores y vectores propios de teoremas previos (I-A)adj(I-A)=det(I-A)I=[adj(I-A)](I-A) Lo cual puede verse como P()=(I-A)Q()=Q()(I-A) donde Q()=adj(I-A) es una matriz polinomial en y P()=det(I-A)I=a0I+a1I+...+nI como P() es divisible por la derecha y por la

izquierda por (I-A) sin residuos, entonces P(A)=a0I+a1AI+...+AnI

Page 147: Espacios vectoriales

Valores y vectores propios

Definición. Se dice que el polinomio F() es un polinomio aniquilador de la matriz A (n,n) si F(A)=0

(p.e. el polinomio característico de A) Definición. Al polinomio aniquilador

mónico Q() de A de menor grado se le conoce como polinomio mínimo de A.

Page 148: Espacios vectoriales

Diagonalización de matrices Definición. Se dice que A (n,n) es

diagonalizable (bajo similaridad) si existe una matriz no singular P tal que P-1AP es diagonal

Page 149: Espacios vectoriales

Diagonalización de matrices Teorema. La matriz A (n,n) es diagonalizable

ssi tiene n vectores propios linealmente independientes

Si 1, 2, ..., n son los valores propios de A y los vectores propios x1, x2, ..., xn correspondientes a estos valores propios son linealmente independientes, entonces P-

1AP=diag{1, 2, ..., n}, donde P=[x1 x2 ... Xn]

Page 150: Espacios vectoriales

Diagonalización de matrices Demostración. (si) Suponga que A tiene n vectores propios L.I. x1 x2 ...

xn correspondientes a los valores propios 1, 2, ..., n (algunos pueden ser repetidos).

Sea P la matriz [x1 x2 ... xn], entonces AP= [Ax1 Ax2 ... Axn]= [1x1 2x2 ... nxn] = [x1 x2 ... xn]diag{1, 2, ..., n} =Pdiag{1, 2, ..., n} Como P es no singular tiene inversa P-1AP=diag{1, 2, ..., n}

Page 151: Espacios vectoriales

Diagonalización de matrices Demostración. (sólo si) Suponga que existe una matriz no

singular P tal que P-1AP=diag{1, 2, ..., n} AP=Pdiag{1, 2, ..., n} Para cada xi de P se tiene que: Axi= ix xi es vector propio de A i es valor propio de A P es no singular A tiene n vectores propios L.I.

Page 152: Espacios vectoriales

Diagonalización de matrices Corolario. La matriz A (n,n) es

diagonalizable ssi la multiplicidad geométrica de cada valor propio es igual a su multiplicidad algebraica. En particular A es diagonalizable si todos sus valores propios son distintos

Page 153: Espacios vectoriales

Diagonalización de matrices Teorema. Si A y B son similares,

entonces tienen el mismo polinomio característico, y por consiguiente los mismos valores propios.

Demo. det(I-B)=det(I-P-1AP)=det(P-

1P-P-1AP)=det(P-1(I-A)P)=det(P-

1)det(I-A)det(P)=det(I-A)

Page 154: Espacios vectoriales

Diagonalización de matrices Teorema. Si A y B son similares, i.e.

existe una matriz no singular tal que B=P-1AP. Entonces:

i) Bk=P-1AkP ii)Si f(x)=a0+a1x+...+anxn es un

polinomio cualquiera, entonces f(B)=P-1f(A)P

Page 155: Espacios vectoriales

Diagonalización de matrices

Demo Bk=(P-1AP)k= =(P-1AP)(P-1AP)...(P-1AP)= P-1AkP ii)Si f(B)=a0I+a1(P-1AP)+...+an(P-1AnP)=

=P-1(a0+a1A+...+anAn)P=P-1f(A)P

Page 156: Espacios vectoriales

Diagonalización de matrices

1 1 2

0 1 3

0 0 2

Page 157: Espacios vectoriales

Diagonalización de matrices

Tiene dos propio valores 1=1, 2=2 con multiplicidades algebraicas 2 y 1 y geométricas 1 y 1 respectivamente no es posible diagonalizar A, pero ¿es posible encontrar una bse donde A sea casi diagonal?

Page 158: Espacios vectoriales

Diagonalización de matrices

Definición.- Un vector v es llamado un vector propio generalizado de rango k de A asociado con iff (A- I)kv=0 (A- I)k-1v0

Note que si k=1 coincide con vector propio

Page 159: Espacios vectoriales

Diagonalización de matrices

Definición.- vk=v vector propio generalizado

vk-1=(A-I)v=(A-I)vk

vk-2=(A-I)2v=(A-I)vk-1

... v1=(A-I)k-1v=(A-I)v2

Page 160: Espacios vectoriales

Diagonalización de matrices

... vk-2=(A-I)2v=(A-I)vk-1

... Entonces para 1ik vi es un vector

propio generalizado de rango i, por ejemplo

(A-I)k-2vk-2=(A-I)k-2(A-I)2v=(A-I)kv=0 (A- I)k-1vk-2=(A-I)k-1v0

Page 161: Espacios vectoriales

Diagonalización de matrices

Definición.- Lleamaremos a los vectores {v1, v2,...,vk} una cadena de vectores propios generalizados si vk es un vector propio generalizado que dio origen a todos los demás vectores

Page 162: Espacios vectoriales

Diagonalización de matrices

Teorema. El conjunto de vectores propios generalizados v1, v2, ..., vk definidos anteriormente es L.I.

Demostración.- Suponer que v1, v2, ..., vk son L.D., entonces

existen soluciones diferentes de la trivial a: 1v1+2v2+...+kvk=0

Multiplicando por (A-I)k-1 y observando que vi=vk-(k-i)=(A-I)k-iv por definición

Page 163: Espacios vectoriales

Diagonalización de matrices

entonces (A-I)k-1vi=(A-I)2k-(i+1)v=0 para i=1,2,...,k-1 k(A-I)k-1vk=0 y sabiendo de la def. de vector propio generalizado

que (A-I)k-1vk0, k=0 Aplicando ahora (A-I)k-2 se demuestra que k-1=0 Siguiendo esto se tiene que i=0, lo que contradice

la suposición. son L.I.

Page 164: Espacios vectoriales

Diagonalización de matrices

Teorema: Los vectores propios generalizados de A asociados con diferentes propio valores son L.I.

Demostración. Sea v vector propio generalizado 1

vi=(A-1I)vi+1=(A-1I)k-iv Sea u vector propio generalizado 2

ui=(A-2I)ui+1=(A-2I)l-iu

Del teorema anterior los vi son L.I. y los ui son L.I, falta ver que {ui}, {vi} son L.I.

Page 165: Espacios vectoriales

Diagonalización de matrices

Suponer que vi es L.D. en {u1,...,ul} vi=1u1+2u2+...+lul

Aplicando (A-1I)i 0= (A-1I)i [1u1+2u2+...+lul ] Ahora aplicando (A-2I)l-1 y observando que (A-2I)l-1 (A-1I)i = (A-1I)i (A-2I)l-1

y el hecho de que (A-2I)l-1 uj=0, j=1,2,..., l-1 0=l(A-1I)i(A-2I)l-1ul=l(A-1I)iu1

Como (A-2I)u1=0 o Au1=2u1, la ecuación anterior se reduce a l(2-1)iu1=0

Page 166: Espacios vectoriales

Diagonalización de matrices

se reduce a l(2-1)iu1=0

lo cual implica que l=0. Un procedimiento similar llega a la

conclusión de que todos los i=0, lo que contradice la suposición y los vectores son L.I.

Page 167: Espacios vectoriales

Diagonalización de matrices

Teorema. Sean u y v propio vectores de rango o y l respectivamente, asociados con el mismo valor propio .

vi=(A-I)vi+1=(A-1I)k-iv

ui=(A-I)ui+1=(A-2I)l-iu

Si u1 y v1 son L.I. las cadenas son L.I.

Page 168: Espacios vectoriales

Diagonalización de matrices

El tratar de construir la forma casi diagonal (diagonal por bloques o forma de Jordan) se convierte en un proceso iterativo.

1.- se calculan propio valores y propio vectores de la forma tradicional.

2.- Si la multiplicidad algebraica es mayor que la geométrica tratar de encontrar una cadena lo suficientemente larga de vectores generalizados para construir los vectores L.I. independientes faltantes, de lo contrario construir cadenas más pequeñas hasta completarlos

Page 169: Espacios vectoriales

Matrices unitarias Si P es no singular B=P-1AP transformación

de similaridad Sirven para cambio de bases Más conveniente si las bases son ortogonales

y ortonormales Si {x1,...,xp} es un conjunto ortonormal

xiTxi=1 y xi

Txj=0

Si hacemos que P=[x1,...,xp] PTP=I o PT=P-1

Page 170: Espacios vectoriales

Matrices unitarias Definición. Una matriz P (de reales) para la cual

PT=P-1 tal que PTP=I, se dice ser unitaria. Teorema. a) P unitaria el conjunto de vectores columna

es ortonormal b) P unitiaria |det(P)|=1 c) P unitaria <PX,Py>=<x,y> d) P unitaria si valor propio de P ||=1 Demo. Clara

Page 171: Espacios vectoriales

Matrices unitarias Teorema. Si B=P-1AP donde P es unitaria (se dice

transformación de similaridad unitaria) todo lo que se vió de propiedades de similaridad sigue valiendo.

Page 172: Espacios vectoriales

Matrices unitarias Teorema. Si A es una matriz de pxp. a) A es similar unitaria a una matriz triangular superior

T; T=P-1AP con P unitaria y con los propiovalores de A en su diagonal principal. T es llamada la forma de Shur de A y la descomposición A=PTP-1= PTPT es la descomposición Shur de A.

Demo. Si p=1 ya terminamos. Suponer que para p=k es cierto Para p=k+1 tenemos.

Page 173: Espacios vectoriales

Matrices unitarias 1 es el propio valor asociado a x1, podemos

normalizar este vector para que ||x1||2=1 Entonces x1 entra a la base que ya teníamos de

propiovectores ortonormalizados {w1,...,wk} si no es otronormal a esta base, aplicamos Gram-Schmidt y tenemos la nueva base {x1,w1,...,wk}

U= [x1,w1,...,wk]=[x1,W]

A’=UTAU=[x1,W]TA[x1,W]=[x1,W]T[Ax1 AW]=

1 x1TAW

0 WTAW

1 bT

0 C=

Page 174: Espacios vectoriales

Matrices unitarias Definición. Una matriz A de pxp es

normal si ATA=AAT

Teorema. A normal D=PTAP, D es diagonal, y P es unitaria.

Por tanto los propio vectores de A son p linealmente independientes

Page 175: Espacios vectoriales

Matrices unitarias Veamos ahora el caso en que A=UVT,

con U y V unitarias de pxp y qxq, es pxq casi cero, excepto en la diagonal que vale ii=i que es un real no negativo.2 0 0

0 0 03 0 0

0 2 0

4 0

0 6

0 0

Así son

Page 176: Espacios vectoriales

Matrices unitarias Claramente se tendría AV=U Avi=iui para

1imin(p,q), dende los ui, vi son las columnas de U y V respectivamente.

Además ATA= (UVT)T (UVT)=VTUTUVT=V(T)VT

donde T=D=VTATAV es diagonal de qxq que los propio vectores de ATA sirven para

construir V y D tiene los valores propios D=T Similarmente para el caso AAT=U(T)UT en este caso D= T

Page 177: Espacios vectoriales

Matrices unitarias

Definición. A la descomposición que hemos venido manejando, A=UVT, se le conoce como descomposición en valores singulares de A.

Viendo lo que hicimos para la descomposición de Schur, podemos ver que la descomposición en valores singulares siempre existe.

Los valores singulares de A son los i, y el número de valores no cero es el rango de A. Los ui son los vetores singulares izquierdos y los vi los vectores singulares derechos relacionados con i.

Page 178: Espacios vectoriales

1 1

2 2

2 2

9 9

9 9A=

ATA

propiovalores 18 y 0. 1=18(1/2) y 2=0Un par de vectores propios de ATA normalizados son

v1=[1.71/2 1.71/2]T y v2=[1.71/2 -1.71/2]T

Entonces V=[V1 v2]

Page 179: Espacios vectoriales

1 1

2 2

2 2

A=AAT=

propiovalores 18 y 0. 1=18 y 2=0Vectores propios de AAT normalizados son

u1=[1/3 2/3 2/3]T u2=[(-2)51/2/5 51/2/5 0]T u3 =[(2)51/2/15 (4)51/2/15 (-1)51/2/3 ]T Entonces U=[u1 u2 u3]

2 4 4

4 8 8

4 8 8

Page 180: Espacios vectoriales

1 1

2 2

2 2

A=AAT=

2 4 4

4 8 8

4 8 8

3(2)1/2 0

0 0

0 0

Page 181: Espacios vectoriales

Mínimos cuadrados

Suponer que A=UVT, es la descomposición en valores singulares, donde A es de rango k. El problema es minimizar ||Ax-b||2 con respecto a x.

||Ax-b||2=||UVTx-b||2=||y-UTb||2

y=VTx ||Ax-b||2 es mínimo cra x ssi ||y-UTb||2 es mínimo cra y. ||y-b’||2

2=|1y1-b1’|2+...+|kyk-bk’|2+|bk+1’|2+...+|bp’|2

b’=UTb Es minimizado si yi=bi’/i

Page 182: Espacios vectoriales

Mínimos cuadrados

Entonces para ||Ax-b||2 con respecto a x. Encontrar A=UVT

Calcular b’=UTb Calcular yi=bi’/i para 1ik, yi=0 otro caso x0=Vy y=VTx ||Ax-b||2 es mínimo cra x ssi ||y-UTb||2 es mínimo cra y. ||y-b’||2

2=|1y1-b1’|2+...+|kyk-bk’|2+|bk+1’|2+...+|bp’|2

b’=UTb Es minimizado si yi=bi’/i