algebra y ecuaciones diferenciales lineales(a d martín).pdf

197
ALGEBRA Y ECUACIONES DIFERENCIALES LINEALES ´ AngelDur´anMart´ ın

Transcript of algebra y ecuaciones diferenciales lineales(a d martín).pdf

  • ALGEBRA Y ECUACIONES DIFERENCIALES

    LINEALES

    Angel Duran Martn

  • ALGEBRA Y ECUACIONES DIFERENCIALES LINEALESINGENIERO DE TELECOMUNICACION

    Curso: 1o; cuatrimestral.Caracter: obligatoria. Creditos: 6 = 3T + 3P (4 horas semanales).Profesores: Angel Duran. Departamento de Matematica Aplicada.Tutoras: Martes y jueves, de 9:30 h. a 12:30 h., en el despacho 2D052 de laETSI Telecomunicacion.Evaluacion: Un examen al final del cuatrimestre. Sin apuntes. Se permiteuna hoja con los resultados que el alumno considere oportunos.

    PROGRAMA

    PRELIMINARES

    Numeros complejos, polinomios y nociones basicas de combinatoria.

    BLOQUE 1. RESOLUCION DE SISTEMAS LINEALES

    Tema 1. Eliminacion gaussiana. Matrices y determinantes.

    Tema 2. Espacios vectoriales y aplicaciones lineales.

    BLOQUE 2. ORTOGONALIDAD Y PROBLEMAS DE AJUSTE

    Tema 3. Nociones basicas de espacios eucldeos.

    Tema 4. problemas de ajuste.

    BLOQUE 3. DIAGONALIZACION DE MATRICES

    Tema 5. Matrices diagonalizables. Caso simetrico.

    Tema 6. Matrices no diagonalizables. Aplicaciones.

    BLOQUE 4. ECUACIONES DIFERENCIALES LINEALES

    Tema 7. Sistemas de ecuaciones diferenciales lineales con coeficientesconstantes.

    Tema 8. Ecuaciones diferenciales lineales de orden superior.

    1

  • BIBLIOGRAFIA BASICA

    Burgos, J. de, Algebra Lineal, Mc Graw-Hill, 1997.

    Collatz, L, Differential Equations, J. Willey, 1986.

    Goldberg, L., Matrix Theory with Applications, McGraw-Hill, 1991.

    Grossman, G. I., Algebra Lineal, McGraw-Hill, 1997.

    Lipschutz, S., Algebra Lineal, Serie Schaum, McGraw-Hill, 2000.

    Nagle, R.K.; Saff, E.B., Fundamentals of Differential Equations, 5thed., Addison-Wesley, 2000.

    Noble, B.; Daniel, J. W., Algebra Lineal Aplicada, Prentice-Hall, 1989.

    Ross, S. L., Introduction to Ordinary Differential Equations, John Wi-ley and Sons, 1989.

    Simmons, G. F., Ecuaciones diferenciales con aplicaciones y notashistoricas, Mc Graw-Hill, 1993.

    Strang, G., Algebra Lineal y sus Aplicaciones, Addison-Wesley, 2003.

    2

  • BIBLIOGRAFIA COMPLEMENTARIA

    Aqu teneis una lista de libros de complemento a la bibliografa basicay que puede que manejemos en algun momento. Todos ellos se pueden con-sultar en la biblioteca de la Facultad de Ciencias o en la del departamento.

    Anton, H., Introduccion al Algebra lineal, Limusa, 1999.

    Arves, J., Alvarez, R., Marcelln, F., Algebra lineal y aplicaciones, Snte-sis, 1999.

    Edwards, Penney, Ecuaciones Diferenciales elementales. Prentice-Hall

    Fraleigh, J.B., Beauregard, R.A. Algebra Lineal, Addison-Wesley, 1989.

    Hefferon, J., Linear Algebra

    Kaplan, W. Ordinary Differential Equations, Addison-Wesley, 1961.

    Lang, S., Introduccion al Algebra lineal, Addison-Wesley, 1990.

    Lay, D.C. Algebra lineal y sus aplicaciones, Prentice Hall, 2000.

    Marcellan, F., Casasus, L., Zarzo, A., Ecuaciones diferenciales, prob-lemas lineales y aplicaciones, Mc Graw Hill, 1991.

    Pita, C., Ecuaciones diferenciales. Una introduccion con aplicaciones,Limusa, 1992.

    Rojo, J. Algebra lineal, Mc Graw-Hill, 2001.

    Tenenbaum, M., Pollard, H., Ordinary Differential Equations, Harper& Row, 1963.

    Torregrosa, J. R., Jordan, C. Algebra lineal y sus aplicaciones, McGraw-Hill, 1993.

    Zill, D.G., Ecuaciones dieferenciales con aplicaciones, Int. Thompson,1997.

    3

  • Indice general

    0.1. Numeros complejos . . . . . . . . . . . . . . . . . . . . . . . . 70.1.1. Definicion y propiedades . . . . . . . . . . . . . . . . . 70.1.2. Potenciacion, radicacion y exponenciacion de complejos 12

    0.2. Polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140.2.1. Operaciones con polinomios . . . . . . . . . . . . . . . 150.2.2. Races de polinomios . . . . . . . . . . . . . . . . . . . 17

    0.3. Numeros combinatorios . . . . . . . . . . . . . . . . . . . . . 180.3.1. Permutaciones . . . . . . . . . . . . . . . . . . . . . . 180.3.2. Numeros combinatorios . . . . . . . . . . . . . . . . . 19

    1. Eliminacion gaussiana. Matrices y determinantes 231.1. Algebra de matrices . . . . . . . . . . . . . . . . . . . . . . . 24

    1.1.1. Operaciones con matrices . . . . . . . . . . . . . . . . 251.2. Resolucion por eliminacion gaussiana . . . . . . . . . . . . . . 271.3. Interpretacion matricial de la eliminacion gaussiana . . . . . . 31

    1.3.1. Operaciones elementales . . . . . . . . . . . . . . . . . 321.3.2. Sistemas escalonados . . . . . . . . . . . . . . . . . . . 331.3.3. Sistema general . . . . . . . . . . . . . . . . . . . . . . 34

    1.4. Matriz inversa. Metodo de Gauss-Jordan . . . . . . . . . . . . 371.5. Resolucion por determinantes . . . . . . . . . . . . . . . . . . 40

    1.5.1. Desarrollo por los elementos de una lnea . . . . . . . 441.5.2. Matrices inversas y sistemas de Cramer . . . . . . . . 45

    2. Espacios vectoriales y aplicaciones lineales 522.1. Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . 52

    2.1.1. Combinaciones lineales. Subespacios vectoriales . . . . 542.1.2. Dependencia e independencia lineal. Bases y dimension 552.1.3. Coordenadas de un vector respecto a una base. Cam-

    bio de base . . . . . . . . . . . . . . . . . . . . . . . . 592.2. Subespacios fundamentales de una matriz . . . . . . . . . . . 61

    4

  • 2.2.1. Definicion y propiedades . . . . . . . . . . . . . . . . . 612.2.2. Aplicacion al estudio de un sistema lineal. Teorema de

    Rouche . . . . . . . . . . . . . . . . . . . . . . . . . . 672.3. Operaciones con subespacios . . . . . . . . . . . . . . . . . . . 68

    2.3.1. Interseccion de subespacios . . . . . . . . . . . . . . . 682.3.2. Suma de subespacios . . . . . . . . . . . . . . . . . . . 69

    2.4. Aplicaciones lineales . . . . . . . . . . . . . . . . . . . . . . . 702.4.1. Definicion y propiedades . . . . . . . . . . . . . . . . . 702.4.2. Matriz de una aplicacion lineal. Cambio de base . . . 71

    3. Espacios eucldeos 813.1. Producto escalar . . . . . . . . . . . . . . . . . . . . . . . . . 813.2. Sistemas y bases ortogonales y ortonormales . . . . . . . . . . 843.3. Metodo de ortogonalizacion de Gram-Schmidt . . . . . . . . . 853.4. Matrices ortogonales. Factorizacion QR . . . . . . . . . . . . 89

    4. Problemas de ajuste 934.1. Ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 944.2. Proyeccion ortogonal . . . . . . . . . . . . . . . . . . . . . . . 954.3. Problemas de ajuste . . . . . . . . . . . . . . . . . . . . . . . 97

    4.3.1. Ejemplo 1 . . . . . . . . . . . . . . . . . . . . . . . . . 974.3.2. Ejemplo 2 . . . . . . . . . . . . . . . . . . . . . . . . . 994.3.3. Ejemplo 3 . . . . . . . . . . . . . . . . . . . . . . . . . 101

    4.4. Distancia a un subespacio . . . . . . . . . . . . . . . . . . . . 102

    5. Matrices diagonalizables 1075.1. Semejanza de matrices . . . . . . . . . . . . . . . . . . . . . . 1085.2. Autovalores y autovectores. Polinomio caracterstico . . . . . 1095.3. Diagonalizacion . . . . . . . . . . . . . . . . . . . . . . . . . . 1145.4. Triangularizacion . . . . . . . . . . . . . . . . . . . . . . . . . 1185.5. Diagonalizacion ortogonal . . . . . . . . . . . . . . . . . . . . 121

    6. Matrices no diagonalizables 1266.1. Autoespacios generalizados . . . . . . . . . . . . . . . . . . . 1276.2. Teorema de descomposicion primaria . . . . . . . . . . . . . . 1306.3. Recurrencias vectoriales . . . . . . . . . . . . . . . . . . . . . 1336.4. Ecuaciones en diferencias . . . . . . . . . . . . . . . . . . . . 138

    6.4.1. Ecuacion homogenea . . . . . . . . . . . . . . . . . . . 1386.4.2. Ecuacion no homogenea . . . . . . . . . . . . . . . . . 144

    5

  • 7. Sistemas de EDOs lineales y de coeficientes constantes 1477.1. Presentacion . . . . . . . . . . . . . . . . . . . . . . . . . . . 1487.2. Sistemas lineales homogeneos . . . . . . . . . . . . . . . . . . 1497.3. Sistemas no homogeneos . . . . . . . . . . . . . . . . . . . . . 158

    8. EDOs lineales de coeficientes constantes y orden superior 1658.1. Teora basica . . . . . . . . . . . . . . . . . . . . . . . . . . . 1678.2. Representacion de soluciones . . . . . . . . . . . . . . . . . . 169

    8.2.1. Ecuacion homogenea . . . . . . . . . . . . . . . . . . . 1698.2.2. Ecuacion no homogenea . . . . . . . . . . . . . . . . . 171

    8.3. Calculo efectivo de soluciones. Ecuacion homogenea . . . . . 1718.4. Respuesta natural. Movimiento armonico simple y amortiguado1768.5. Calculo efectivo de soluciones. Ecuacion no homogenea . . . . 180

    8.5.1. Formula de variacion de las constantes . . . . . . . . . 1808.5.2. Coeficientes indeterminados . . . . . . . . . . . . . . . 188

    6

  • Preliminares

    Esta primera leccion es una introduccion a tres conceptos que manejare-mos a lo largo del curso y que es apropiado conocer o recordar: el numerocomplejo, los polinomios y los numeros combinatorios. Cuando los utilice-mos, puede ser util tener presente esta leccion preliminar.

    0.1. Numeros complejos

    Denotemos por R al cuerpo de los numeros reales. En R hay definidasuna suma + y una multiplicacion .de suerte que (R,+, .) es un cuerpo, esdecir:

    (a) (R,+) es un grupo.

    (b) (R-{0},.) es un grupo.(c) El producto .es distributivo respecto de la suma +.

    Otras propiedades muy importantes de R se derivan del hecho de que tam-bien hay definido un orden compatible con las operaciones y que es un ordencompleto. Estas nociones se desarrollan en la asignatura Calculo.

    0.1.1. Definicion y propiedades

    Llamamos numero complejo z a un par ordenado de numeros reales (a, b),a, b R. Escribimos z = (a, b) y definimos a = Re(z) como la parte real delcomplejo z y b = Im(z) como la parte imaginaria. Al conjunto de numeroscomplejos se denota por C.

    Se dice que dos numeros complejos z1 = (a1, b1), z2 = (a2, b2) son igualesz1 = z2 si y solo si a1 = a2 y b1 = b2.

    En C se definen las operaciones de suma y producto:z1 + z2 = (a1 + a2, b1 + b2)z1 z2 = (a1a2 b1b2, a1b2 + a2b1).

    7

  • Con estas operaciones, se comprueba que (C,+,) es un cuerpo, es decirque se cumplen las propiedades (a), (b) y (c) que senalabamos antes enrelacion con R. El elemento neutro para la suma es (0, 0) y para el producto(1, 0). Por otra parte, para z = (a, b) el opuesto es z = (a,b) y siz = (a, b) 6= (0, 0), su inverso es

    z1 =(

    a

    a2 + b2,

    ba2 + b2

    ).

    Los numeros complejos son una extension de los reales. El numero com-plejo de la forma (a, 0) se identifica con el numero real a. De este modo, porejemplo, (0, 0) = 0 y (1, 0) = 1. Esta identificacion es compatible con lasoperaciones, de modo que R se puede considerar como un subcuerpo de C.

    Representacion geometrica

    Los numeros complejos se representan geometricamente como puntosdel plano o como vectores del plano con base en el origen. La parte reales la componente del vector en el eje horizontal y la parte imaginaria lacomponente del vector en el eje vertical.

    z = (a, b)

    a

    b

    -

    6

    Se llama unidad imaginaria al numero complejo (0, 1), que se denota pori. De este modo, i2 = 1, (i)2 = 1, i3 = i . . .. A veces se utiliza la letraj, sobre todo en el contexto de la teora de circuitos, donde la letra i sereserva para denotar la intensidad.

    Forma binomica de un numero complejo

    Dado (a, b) C podemos escribir:(a, b) = (a, 0) + (b, 0) (0, 1) = a+ bi

    8

  • segun la identificacion ya introducida. Esta suele ser la notacion habitualy se denomina forma binomial o binomica del numero complejo. Esta re-presentacion identifica con la misma claridad las partes real e imaginaria deun numero complejo. Ademas, permite reconocer las operaciones: sumar doscomplejos es sumar partes reales y sumar partes imaginarias. Multiplicar doscomplejos se realiza como si fuesen reales, teniendo en cuenta que i2 = 1.Los numeros complejos (0, b) = bi (b R) se denominan imaginarios puros.

    Conjugado de un complejo

    Dado un numero complejo z = a+bi, se llama conjugado de z al numerocomplejo z = a bi. Geometricamente no es sino la reflexion de z respectodel eje real.

    z = a+ bi

    @@@@@R z = a bi

    Algunas propiedades del conjugado son las siguientes:

    (1) z + z = 2Re(z).

    (2) z z = 2iIm(z).(3) zz = (Re(z))2 + (Im(z))2.

    (4) z R z = z.(5) z1 + z2 = z1 + z2, z1z2 = z1z2.

    (6) z = z.

    (7) (z) = z.(8) Si z 6= 0, z1 = (z)1.

    9

  • Ejemplos. Expresamos en forma binomica

    z =(2 i)(1 + 3i)

    1 + i=

    2 + 6i i+ 31 + i

    =5 + 5i1 + i

    z =(5 + 2i)(1 + i)

    =(5 + 2i)(1 i)(1 + i)(1 i) =

    5 5i+ 2i+ 21 + 1

    =72 32i.

    z =1 + i3

    (1 i)3 =1 i

    (1 i)3 =1

    (1 i)2 =12i =

    2i4=

    i

    2.

    Modulo de un numero complejo

    Para cada numero complejo z = a+ bi se llama modulo de z al numeroreal no negativo definido por

    |z| = zz =(Re(z))2 + (Im(z))2 =

    a2 + b2.

    Por ejemplo, |22i| = 8, |1+3i| = 10. Geometricamente, |z| representala distancia entre el punto del plano z = (a, b) y el origen de coordenadas(0, 0), o sea, la longitud del vector del plano asociado a z.

    |z|

    z = a+ bi

    Algunas propiedades del modulo son las siguientes:

    (1) zz = |z|2.(2) |Re(z)| |z|, |Im(z)| |z|.(3) |z| 0z y |z| = 0 z = 0.(4) |z| = |z|.(5) |z1z2| = |z1||z2|, |z1 + z2| |z1|+ |z2|.

    10

  • El modulo define una distancia entre numeros complejos. Si z1, z2 C, en-tonces |z1 z2| representa la distancia entre los dos numeros.

    Forma trigonometrica y polar de un numero complejo

    Para cada numero complejo z = a + bi no nulo, se llama argumentoprincipal de z al unico numero real [0, 2pi) tal que

    cos() =a

    a2 + b2=Re(z)|z|

    sin() =b

    a2 + b2=Im(z)|z| .

    Este numero se suele denotar por = Arg(z). Geometricamente, Arg(z)representa la medida en radianes del angulo que forma el semieje real positivocon el vector plano definido por z (segun la orientacion habitual, el angulopositivo es el dado por el sentido antihorario).

    |z|

    Arg(z)

    z = a+ bi

    Se llaman argumentos de z a los angulosArg(z) + 2kpi, para k = . . . ,2,1, 0, 1, 2, . . ..

    Ejemplos

    z = 1, Arg(z) = 0, argumentos 2kpi, k = . . . ,2,1, 0, 1, 2, . . .z = 2 + 2i, Arg(z) = pi/4, argumentos pi/4 + 2kpi, k Zz = 2 + 2i, Arg(z) = 3pi/4, argumentos 3pi/4 + 2kpi, k Z.

    Si z = a+ bi es no nulo, llamando r = |z| y = Arg(z), se dira que(a) r es la forma polar o modulo argumental de z.

    (b) z = r(cos + i sin ) es la forma trigonometrica de z.

    11

  • Con esta representacion, dos numeros complejos r, r son iguales si r = r

    y = 2kpi para algun entero k.Ejemplos. Pasamos a forma trigonometrica

    z = 1 = 1(cos(0) + i sin(0))z = 2 + 2i = 2

    2(cos(pi/4) + i sin(pi/4))

    z = 1 +3i = 2(cos(pi/3) + i sin(pi/3)).

    Dados dos complejos z1 y z2 cuyas formas trigonometricas son zk = rk(cos k+i sin k), k = 1, 2, tendremos

    z1.z2 = r1(cos 1 + i sin 1).r2(cos 2 + i sin 2)= r1r2(cos 1 cos 2 sin 1 sin 2 + i(cos 1 sin 2 + sin 1 cos 2))= r1r2(cos(1 + 2) + i sin(1 + 2)),

    de suerte que acabamos de probar que el modulo del producto z1z2 es elproducto de los modulos de z1 y de z2. La suma de argumentos de z1 y dez2 es un argumento de dicho producto.

    Esta propiedad da la interpretacion geometrica de la multiplicacion com-pleja. Si tomamos en particular un complejo unitario u = (cos + i sin )deducimos que el producto z.u no es sino el efecto de un giro de angulo actuando sobre z.

    Analogamente, para cocientes podemos formular que el modulo del co-ciente z2/z1, supuesto que z1 6= 0, es el cociente de los modulos de z2 y dez1. La diferencia entre el argumento de z2 menos el de z1 es un argumentode dicho cociente.

    0.1.2. Potenciacion, radicacion y exponenciacion de comple-jos

    Iterando el proceso utilizado en la seccion anterior para hallar el productode dos numeros complejos, encontramos tambien que si z = r(cos + i sin )es un numero complejo no nulo, la potencia zn (n es un entero cualquiera)se escribe como

    zn = rn(cosn + i sinn).

    En particular, tomando r = 1 en la formula anterior se obtiene la Formulade DeMoivre:

    (cos + i sin )n = (cosn + i sinn).

    12

  • El problema de la radicacion es mas delicado. Sea n 1 un entero.Recordemos primero que todo real positivo r 0 posee exactamente unaraz n-esima positiva, que sin riesgo de confusion vamos a denotar por r

    1n .

    Dado z 6= 0 de forma polar r, planteamos el problema de obtener todoslos complejos w tales que wn = z. (Se dira que w es una raz n-esimacompleja de z). Si el w buscado tiene forma polar , de consideracionesanteriores obtendremos que wn, cuya forma polar es nn debe coincidir conz, cuya forma polar era r, luego n = r y n = + 2pik, con k entero. Enresumen, esta unvocamente determinado como

    = r1n ,

    mientras que para tenemos las expresiones

    k =

    n+ k

    2pin,

    con k entero libre. Cuando vamos dando los valores k = 0, 1, ..., n 1, loscomplejos

    wk = k , 0 k n 1,recorren los vertices de un polgono regular de n lados de centro el origen yque comienza en w0. Al llegar a k = n caemos de nuevo en w0, etc ... . Secomprende pues que solo existen n races n-esimas diferentes, que son las yadescritas wk, 0 k n 1.Ejemplo 1. Calculamos las races cubicas de z = i. En primer lugar halla-mos el modulo de z y su argumento principal. Tenemos |z| = 1, Arg(z) =pi/2. Entonces, si w = 3

    z se tiene que w3 = z. De aqu obtenemos que

    |w|3 = |z| = 1 y 3Arg(w) = Arg(z)+2kpi con k entero. Las tres races cubicasde z quedan determinadas por |w| = 1, Arg(w) =

    pi2 + 2kpi

    3, k = 0, 1, 2. Es

    decir,

    k = 0, w0 = cos(pi/6) + i sin(pi/6) = (3 + i)/2

    k = 1, w1 = cos(5pi/6) + i sin(5pi/6) = (3 + i)/2

    k = 2, w2 = cos(3pi/2) + i sin(3pi/2) = i.

    Ejemplo 2. Calculamos las races sextas de z = 8. Primero hallamosel modulo de z y su argumento principal. Tenemos |z| = 8, Arg(z) = pi.Entonces, si w = 6

    z se tiene que w6 = z. De aqu obtenemos que |w|6 =

    |z| = 8 y 6Arg(w) = Arg(z) + 2kpi con k entero. Las seis races sextas

    13

  • de z quedan determinadas por |w| = 68 = 2, Arg(w) = pi + 2kpi6

    , k =0, 1, 2, 3, 4, 5. Es decir,

    k = 0, w0 =2(cos(pi/6) + i sin(pi/6)) =

    2(3 + i)/2

    k = 1, w1 =2(cos(pi/2) + i sin(pi/2)) =

    2i

    k = 2, w2 =2(cos(5pi/6) + i sin(5pi/6)) =

    2(

    3 + i)/2

    k = 3, w3 =2(cos(7pi/6) + i sin(7pi/6)) =

    2(3 + i)/2

    k = 4, w4 =2(cos(3pi/2) + i sin(3pi/2)) = i

    2

    k = 5, w5 =2(cos(11pi/6) + i sin(11pi/6)) =

    2(3 i)/2.

    En la parte de las ecuaciones diferenciales lineales sera muy importantela exponenciacion compleja. Dado un numero complejo z = a+ bi, con a, breales, definiremos la exponencial ez como

    ez = ea(cos b+ i sin b),

    esto es,|ez| = ea > 0, b argumento de (ez).

    Se cumplen las propiedades

    (a) ez1+z2 = ez1 .ez2 (z1, z2 C),(b) (ez)1 = ez (z C).(c) eit, t R, es el complejo de modulo unidad y argumento t.(d) Todo numero complejo z 6= 0 con r = |z|, = Arg(z) puedeexpresarse en la forma z = rei.

    Ejemplos.

    z =1 + i

    3

    2= cos(pi/3) + i sin(pi/3) = e

    ipi3

    z = 2eipi = 2(cos(pi) + i sin(pi)) = 2.

    0.2. Polinomios

    Dados un numero natural n y los n + 1 numeros reales o complejosa0, a1, . . . , an, los llamados coeficientes, se define el polinomio p en la variablex como la funcion que hace corresponder al valor que tome x el valor

    p(x) = a0 + a1x+ a2x2 + + anxn.

    14

  • Se dice que el grado del polinomio p es n cuando an 6= 0. El polinomioidenticamente nulo 0(x) = 0 carece de grado.

    Dos polinomios p(x) = a0 + a1x + a2x2 + + anxn, q(x) = b0 + b1x +b2x

    2 + + bmxm son iguales p = q si tienen el mismo grado n = my son identicos los coeficientes de potencias iguales de la indeterminada:aj = bj , j = 1, . . . , n.

    0.2.1. Operaciones con polinomios

    Dados dos polinomios

    p(x) = a0 + a1x+ a2x2 + + anxn, q(x) = b0 + b1x+ b2x2 + + bmxm,

    con n > m, se llama polinomio suma a

    p(x) + q(x) = c0 + c1x+ c2x2 + + cnxn,

    cuyos coeficientes se obtienen sumando los coeficientes respectivos de igualespotencias de la indeterminada en las expresiones de p y q, es decir

    ci = ai + bi, i = 0, 1, . . . , n,

    donde, para n > m se tiene que suponer que los coeficientes bm+1, . . . , bnson iguales a cero.

    (1 + 2x) + (3 + x+ x2 + x3) = 4 + 3x+ x2 + x3.

    El grado de la suma sera igual a n si n > m. Para n = m, puede ocurrir queel grado de la suma sea menor que n, precisamente si bn = an.

    Se llama producto de los polinomios p(x), q(x) al polinomio

    p(x)q(x) = d0 + d1x+ d2x2 + + dn+mxn+m,

    cuyos coeficientes se determinan por

    di =

    j+k=i

    ajbk, i = 0, 1, . . . , n+m,

    es decir, el coeficiente di es el resultado de sumar todos los productos deaquellos coeficientes de los polinomios p y q, la suma de cuyos ndices esigual a i.

    (1 + 2x)(3 + x+ x2 + x3) =?.

    15

  • El grado del producto de dos polinomios es igual a la suma de sus grados.La suma verifica las propiedades conmutativa, asociativa, elemento neu-

    tro (0(x) = 0) y elemento opuesto.El producto verifica las propiedades conmutativa, asociativa, distributiva

    respecto de la suma y elemento unidad (p(x) = 1).Para el producto de polinomios no existe la operacion inversa, la division.Es decir, el cociente de dos polinomios no siempre es un polinomio. Cuandoel cociente p(x)/q(x) del polinomio p y el polinomio q es otro polinomio, sedice que q divide a p o que p es un multiplo de q. La division por el polinomionulo no esta permitida.

    En general, la division de un polinomio p dividendo por un polinomio qdivisor origina un polinomio cociente c(x) y polinomio resto r(x), de modoque

    p(x) = c(x)q(x) + r(x),

    donde el grado de r es menor que el de q o bien r es nulo. As, p/q sera unpolinomio cuando r = 0. Por ejemplo,

    1 + x 2x2 + x3 = (x+ 1)(x2 3x+ 2) + (2x 3).

    El maximo comun divisor (m.c.d) de dos polinomios p y q es el divisorcomun de mayor grado que a la vez es divisible por cualquier otro divisorcomun. Esta determinado salvo un factor de grado cero. Por ello, se puedeconvenir que el coeficiente dominante del m.c.d. de dos polinomios sea siem-pre igual a la unidad. El algoritmo de Euclides permite obtener el m.c.d dedos polinomios p y q de modo sencillo:

    p(x) = c1(x)q(x) + r1(x)q(x) = c2(x)r1(x) + r2(x)r1(x) = c3(x)r2(x) + r3(x)

    ... =...

    hasta que el resto sea nulo. El ultimo resto no nulo es el m.c.d. de p y q. Porejemplo, el m.c.d. de x4 3x2 + 2 y x4 + x3 x 1 es x2 1.Se dice que p y q son primos entre s si el m.c.d es el polinomio constante 1.Por ejemplo, los polinomios 8x310x2x+3 y 2x35x2x+6 son primosentre s.

    16

  • 0.2.2. Races de polinomios

    El teorema fundamental del Algebra afirma que todo polinomio p degrado n tiene al menos un cero, esto es, la ecuacion p(x) = 0 admite almenos una solucion, real o compleja.

    Teorema 1. Sea p(x) un polinomio y C. Entonces, es un cero de p(p() = 0) si y solo si p(x) es divisible por x, es decir, existe un polinomioq tal que p(x) = q(x)(x ).De este modo, si es un cero de p, se puede factorizar de la forma

    p(x) = q(x)(x ),donde x es un factor lineal y el grado de q es una unidad inferior algrado de p. Se podra volver a factorizar q y as sucesivamente hasta llegara la descomposicion en factores lineales de p:

    p(x) = a0 + a1x+ a2x2 + + anxn = an(x 1)(x 2) (x n).Los n ceros obtenidos, repetidos o no, 1, 2, . . . , n son ceros del polinomiop de grado n. Cuando los coeficientes del polinomio p son reales y p poseeun cero complejo = a + bi, entonces tambien el conjugado a bi es uncero de p. En este caso, se pueden agrupar los dos factores lineales (x (a+bi))(x (a bi)) en un factor cuadratico x2 + cx+ d.

    Si 1, 2, . . . , k son los ceros distintos del polinomio p dea grado n, conmultiplicidades m1,m2, . . . ,mk respectivamente, se puede factorizar p de laforma

    p(x) = a0 + a1x+ a2x2 + + anxn = an(x 1)m1(x 2)m2 (x k)mk .Se puede probar que si es un cero de p de multiplicidad m > 1, tambien es un cero de las derivadas de p hasta el orden de derivacion m 1.

    La regla de Ruffini se puede utilizar para evaluar un polinomio p en unnumero o para hallar el cociente y el resto de la division de un polinomiop(x) y un factor lineal x .Ejemplo. Division de p(x) = 5x4 + 10x3 + x 1 por x + 2. Aqu se tiene = 2:

    5 10 0 1 -1-10 0 0 -2

    -2 5 0 0 1 -3El cociente de la division de p(x) por x + 2 es 5x3 + 1 y el resto 3,

    precisamente el valor de p(2). Se tiene p(x) = (5x3 + 1)(x+ 2) 3.

    17

  • 0.3. Numeros combinatorios

    Se recuerda que el factorial del numero natural n es el producto de losnumeros naturales de 1 hasta n:

    n! = 1 2 3 n.Por convenio 0! = 1.

    0.3.1. Permutaciones

    Sea n 1 entero. Se llama permutacion de orden n a toda biyeccion : {1, 2, . . . , n} {1, 2, . . . , n},

    que tambien se suele denotar por

    :(

    1 2 3 n(1) (2) (3) (n)

    ).

    Por ejemplo,

    :(1 2 33 2 1

    )es una permutacion de tres elementos.El numero de permutaciones de orden n es n!. El conjunto de tales permuta-ciones se denota por Sn.Sea Sn. Tomemos dos ndices k y l con 1 k < l n. Se dira queforman una inversion para si (k) > (l). Por ejemplo, en la permutacionde orden tres anterior, 1 y 2 forman una inversion para , al igual que 1 y3 o 2 y 3.Sea inv() el numero total de inversiones de . La paridad de la permutacionse define como

    pi() = (1)inv(),que solo puede tomar los valores 1 o 1. En nuestro ejemplo anterior, pi() =1.Una trasposicion es una permutacion Sn tal que (i) = i, 1 i nexcepto para dos ndices , , 1 < n sobre los que

    () = , () = .

    Se puede demostrar que si Sn es una trasposicion, entonces pi() = 1.Nuestro ejemplo anterior es una trasposicion, pero no lo es por ejemplo

    :(1 2 32 3 1

    )

    18

  • 0.3.2. Numeros combinatorios

    Sean n, k 0 enteros con n k. Se define el numero combinatorio nsobre k como (

    nk

    )=

    n!k!(n k)! .

    Algunas propiedades de los numeros combinatorios son(n0

    )= 1,

    (nn

    )= 1.

    (n1

    )= n.

    (n

    n k)=(nk

    ).

    (n+ 1k

    )=(nk

    )+(

    nk 1

    ).

    La ultima propiedad permite obtener los numeros combinatorios de formarecursiva, dando origen al llamado triangulo de Pascal o de Tartaglia:

    n0 11 1 12 1 2 13 1 3 3 14 1 4 6 4 15 1 5 10 10 5 1

    Los numeros combinatorios aparecen como coeficientes del llamado binomiode Newton: si a, b C y n 0 es un entero

    (a+ b)n =(n0

    )an +

    (n1

    )an1b+

    (n2

    )an2b2 + +

    (nn

    )bn

    =n

    k=0

    (nk

    )ankbk.

    As, por ejemplo

    2n = (1 + 1)n =n

    k=0

    (nk

    ).

    19

  • EJERCICIOS

    Ejercicio 1. Expresa en forma binomica los siguientes numeros complejos:

    z =(3 + i)(1 2i)

    2 + i, w =

    1 + i3

    (1 i)3 , z =1 + i

    (3 i)2 .

    Ejercicio 2. Representa en el plano XY los siguientes numeros complejos:

    3 + 2i, 1 + 3,5i, 4 2i, 5 4i, 1 + i, 1 i, 1 + i, 1 i,3 + 2i1 i ,

    4i 23 + i

    ,5i

    7 + i, 3i, 3i, 4eipi/4, 2e3ipi/2, 1

    4eipi/2, ei7pi/4.

    Ejercicio 3. Determina los valores reales de x y y que satisfacen

    a) x+ iy = |x+ iy|, b) x+ iy = (x+ iy)2.Ejercicio 4. Describe geometricamente el conjunto de numeros complejosque satisfacen las relaciones siguientes:

    a) |z| = 1, b) |z| 1, c) |z| > 1, d) z + z = |z|,e) z + z = 1, f) z z = 1, g) z + z = i.

    Ejercicio 5. Que lugares geometricos del plano estan representados porlas siguientes ecuaciones y desigualdades?

    a) |z 1| = 1, b) Re(z2) = 1, c) 0 arg(1/z) pi/2.Ejercicio 6. (i) Representa en forma polar y en forma trigonometrica lossiguientes numeros complejos

    a) z = 2 + 2i, b) z = i, c) z = 1,d) z = 2 + 3i, e) z = 1 + i, f) z = 4 2i.

    (ii) Representa en forma binomica los siguientes numeros complejos

    a) z = 3e2pii, b) z = e(pi/2)i, c) z = 4e(3pi/4)i,

    d) z = 12e(pi/6)i, e) z = 2e(pi/7)i.

    Ejercicio 7. a) Escribe en terminos de exponenciales complejas las si-guientes expresiones:

    cos + sin ,12cos 2 3

    5sin 2,

    13cos 1

    4sin 3.

    20

  • b) Escribe en terminos de senos y cosenos las siguientes expresiones:

    4 +32ei 1

    4e2i, ei + e3+i + 2e2i, e3i + e3i, e3i e3i.

    Ejercicio 8. Calcula todos los valores de las siguientes races de numeroscomplejos:

    a) 81, b) 3

    2 + 2i, c) 54 + 3i, d) 3i, e) 1 i.Ejercicio 9. Prueba que las races n-esimas de 1 (tambien llamadas de launidad) vienen dadas por , 2, . . . , n, donde = e2pii/n. Prueba que lasraces distintas de 1 son tambien del n-esimo polinomio ciclotomico

    1 + x+ x2 + + xn1.

    Ejercicio 10. Expresa en funcion de cos() y sin():

    a) cos(5), b) cos(8), c) cos(6), d) sin(7).

    Ejercicio 11. Representa en forma de polinomio de primer grado en lasfunciones trigonometricas de los angulos multiplos de :

    a) sin3 , b) cos5 , c) sin2 , d) cos2 .

    Bibliografa recomendada:Burgos, J. de, Calculo infinitesimal de una variable, Mc Graw-Hill, Ap. 1.Spivak M. Calculus, Calculo Infinitesimal. Ed. Reverte. Cap 24.

    21

  • BLOQUE 1: RESOLUCION DESISTEMAS LINEALES

    Este primer bloque se dedica a la discusion y en su caso resolucion de unsistema lineal de ecuaciones, que es nuestro primer problema a resolver. Elprimer tema aborda el problema desde el punto de vista matricial mientrasque el segundo utiliza un enfoque mas formal usando la teora de espaciosvectoriales. Ambos conceptos, el de matriz y el de espacio vectorial, seranaprovechados en los siguientes bloques.

    22

  • Tema 1

    Eliminacion gaussiana.Matrices y determinantes

    Ejemplo introductorio. Un ejemplo tpico de sistemas lineales es el queviene a continuacion. Consideremos el siguiente grafico,

    400 450x6 x7

    500 600x1 x2

    D E F

    A B C

    350

    x3

    300

    600

    x4

    200

    400

    x5

    100

    -

    - - -

    ?

    ?

    ?

    ?

    ?

    ?

    6

    6

    6

    23

  • que representa cinco calles de una ciudad con sus cruces correspondientes.Las flechas indican el sentido en que el trafico se mueve en cada calle (lascalles tienen sentido unico) y en el grafico se senala el flujo de trafico que en-tra en cada calle y que sale de ella. Ya que el trafico vara considerablementedurante el da, se puede suponer que los numeros mostrados representan eltrafico promedio a las horas punta. Denotamos por x1 hasta x7 el flujo decoches entre los cruces, senalados por las letras A hasta F. Para que no segeneren atascos, el flujo que entra en cada cruce debe ser igual al que sale.El problema es determinar si, con los datos que se dan, es posible mantenerel trafico sin atascos. La cuestion puede completarse preguntando, por ejem-plo, si es posible cortar un trozo de calle, digamos entre E y F, para realizarobras, de manera que la circulacion siga siendo normal.

    En este primer tema se analiza un metodo practico de discusion y en sucaso resolucion de un sistema lineal de m ecuaciones y n incognitas, que esun conjunto de expresiones de la forma

    a11x1 + a12x2 + + a1nxn = b1a21x1 + a22x2 + + a2nxn = b2

    (1.1)am1x1 + am2x2 + + amnxn = bm,

    para m,n > 1. Aqu los datos conocidos son los numeros aij , 1 i m, 1 j n o coeficientes del sistema y los numeros bi, 1 i m o terminosindependientes. El problema consiste en determinar si hay valores para lasincognitas x1, . . . , xn que satisfagan las m ecuaciones de (1.1) y, en su caso,obtenerlos. Tales valores constituyen las soluciones del sistema.

    El sistema (1.1) se dice que es compatible si tiene alguna solucion. Cuan-do no tiene soluciones, se dice que es incompatible. Por otro lado, un sis-tema compatible o tiene una unica solucion, en cuyo caso el sistema se llamadeterminado, o tiene infinitas, en cuyo caso el sistema se dice que es inde-terminado.

    1.1. Algebra de matrices

    Una de las formas de tratar el problema es el llamado metodo de elimi-nacion gaussiana. Mas adelante veremos la sntesis del metodo y su analisis.Ahora introducimos una notacion matricial que nos sera util tanto en este co-mo en temas posteriores. Los coeficientes del sistema (1.1) se suelen disponer

    24

  • en lo que se llama una matriz rectangular de m filas y n columnas

    A =

    a11 a12 a1na21 a22 a2n am1 am2 amn

    = (aij) (1.2)de forma que el valor de aij se situa en la interseccion de la fila iesima conla columna jesima. El conjunto de todas las matrices mn se denota porMm,n(R) o Mm,n(C), dependiendo de si sus elementos son numeros realeso complejos. En el caso de que el numero de filas y de columnas coincidan(m = n) se dice que la matriz es cuadrada. Casos particulares de matricesson las matrices fila (m = 1), las matrices columna (n = 1), la matrizidentidad In = In,n, etc.

    1.1.1. Operaciones con matrices

    Para un uso posterior necesitamos dotar de una cierta estructura a esteconjunto de matricesMm,n(K) donde K = R o C, es decir, describir manerasde operar sobre ellas.

    Las matrices del mismo orden se suman elemento a elemento, producien-do otra matriz del orden en cuestion:

    a11 a12 a1na21 a22 a2n am1 am2 amn

    +b11 b12 b1nb21 b22 b2n bm1 bm2 bmn

    =

    a11 + b11 a12 + b12 a1n + b1na21 + b21 a22 + b22 a2n + b2n

    am1 + bm1 am2 + bm2 amn + bmn

    .Naturalmente, para poder sumar, las matrices han de tener el mismo tamanom n. Las propiedades de esta operacion son:(a) Asociativa: A,B,C Mm,n(K) (A+B) + C = A+ (B + C).(b) Conmutativa: A+B = B +A.(c) Elemento neutro: la matriz del orden correspondiente cuyos elementosson todos nulos.(d) Elemento opuesto: cada matriz posee su opuesta, que es la matriz obteni-da al tomar opuestos en todos los elementos.

    25

  • Tambien se puede multiplicar una matriz A Mm,n(K) por un numeroreal o complejo K, sin mas que multiplicar por cada elemento de A:

    A =

    a11 a12 a1na21 a22 a2n am1 am2 amn

    =a11 a12 a1na21 a22 a2n am1 am2 amn

    .Las propiedades de esta operacion son las siguientes:(a) Distributiva: (+ )A = A+ A,, K, A Mm,n(K).(b) Distributiva: (A+B) = A+ B(c) Asociativa: ()A = (A).(d) Si A es la matriz nula, entonces o bien = 0 o bien A es la matriznula.

    Finalmente hay otras dos operaciones sobre matrices que utilizaremosa lo largo del curso. En primer lugar, esta la trasposicion de matrices. Lamatriz traspuesta de una dada A = (aij) Mm,n(K) es la matriz que seobtiene intercambiando filas por columnas. Se denota por AT Mn,m(K) ysu elemento (i, j) es aji. Por ejemplo:

    A =

    1 23 45 6

    AT = ( 1 3 52 4 6

    ).

    Naturalmente, se tiene que (AT )T = A y (A+B)T = AT +BT .La otra operacion es la multiplicacion de matrices. Entendamos primero

    como se emparejan una matriz fila X = (x1, x2, . . . , xn) con una matrizcolumna Y = (y1, y2, . . . , yn)T , ambas con el mismo numero de elementos.El producto es un numero, dado por

    XY = x1y1 + x2y2 + + xnyn.

    Desde este punto de vista, no pueden multiplicarse matrices de cualquiertamano. Para que un producto AB tenga sentido, el numero de columnas deA ha de ser igual al numero de filas de B. En ese caso, la matriz productoC = AB tiene tantas filas como A y tantas columnas como B. La expresiongenerica de la matriz producto es la siguiente: si A = (aij) Mm,n(K) yB = (bjk) Mn,p(K) entonces C = AB = (cik) Mm,p(K) donde

    cik = ai1b1k + ai2b2k + + ainbnk =nj=1

    aijbjk.

    26

  • Es decir, cik es el producto de la fila iesima de A por la columna kesimade B. Algunos ejemplos pueden aclarar esta idea:

    Ejemplos.

    ( 1 4 0 2 )

    1123

    = 3 3 2 2 11 1 0 22 0 3 4

    4 1 12 4 01 1 02 2 1

    = 16 5 46 9 319 13 6

    .

    Propiedades destacables del producto son las siguientes:(a) Asociativa: A(BC) = (AB)C.(b) Distributiva respecto de la suma: A(B + C) = AB +AC.(c) Matrices cuadradas y elemento unidad; inversas: las matrices cuadradasde un orden determinado tienen un elemento unidad para el producto, quees la matriz identidad de tal orden. Sin embargo, hay matrices cuadradasque son diferentes de la matriz no nula y carecen de inversa para el producto.La nocion de matriz inversa sera tratada mas adelante.(d) El producto de matrices no es conmutativo: en general AB 6= BA.(e) Trasposicion y producto: (AB)T = BTAT .

    Finalmente, notemos que el sistema (1.1) puede escribirse en formulacionmatricial como

    A~x = ~b, (1.3)

    donde ~x = (x1, x2, . . . , xn)T y ~b = (b1, b2, . . . , bn)T .

    1.2. Resolucion por eliminacion gaussiana

    Vamos a presentar la metodologa del proceso a traves de varios ejemplosy despues justificaremos los pasos mas formalmente.Ejemplo 1. Discute y en su caso resuelve el sistema

    x+ 2y + z = 12x+ y + 3z = 0 (1.4)4x y 3z = 3

    27

  • El metodo consiste en pasar de este sistema a otro equivalente mas sencillo atraves de un proceso de eliminacion de incognitas. A tal efecto, eliminamosla incognita x de las ecuaciones segunda y tercera. Para ello, restamos a lasegunda ecuacion dos veces la primera y a la tercera cuatro veces la primera.Obtenemos

    x+ 2y + z = 13y + z = 29y 7z = 1.

    Ahora, eliminamos la incognita y de la tercera ecuacion, restando a esta tresveces la segunda. El resultado es

    x+ 2y + z = 13y + z = 2 (1.5)10z = 5.

    Hemos llegado a un sistema llamado de tipo triangular superior. Esto sig-nifica que la primera variable (x) solo aparece en la primera ecuacion, lasegunda (y) solo en las dos primeras ecuaciones y la ultima variable (z) entodas las ecuaciones. Parece claro que los sistemas (1.4) y (1.5) son equiv-alentes, en el sentido de que, o bien son ambos incompatibles o si tienensoluciones, son las mismas. Esto se debe a que el sistema (1.5) se obtiene de(1.4) simplemente operando con sus ecuaciones.

    Ahora bien, el sistema (1.5) puede discutirse sin aparente problema, y re-solverse despejando las incognitas desde la ultima ecuacion hasta la primera.Este proceso se llama sustitucion regresiva. As, la ultima ecuacion dice que

    z = 5/10 = 1/2.

    Llevando este valor a la segunda ecuacion, obtenemos

    y =2 z3 = 1/2,

    y sustituyendo en la primera ecuacion, se tiene

    x = 1 2y z = 1/2.

    Esto significa que el sistema (1.4) es compatible (tiene solucion) y determi-nado (la solucion es unica). La solucion es x = 1/2, y = 1/2, z = 1/2.

    28

  • Notas

    (1) Es importante indicar que cuando se elimina una variable, se comparanlas ecuaciones con una que queda fija mientras se este eliminando esa va-riable. Cuando se cambia de incognita a eliminar, tambien cambiamos deecuacion con la que comparar. As, en el ejemplo anterior, eliminar x implicacambiar las ecuaciones segunda y tercera comparandolas con la primera, quequeda fija. Una vez eliminada x, nos olvidamos de la primera ecuacion; paraeliminar y cambiamos la tercera ecuacion comparandola con la segunda, quees ahora la que queda fija. Este proceso es general: siempre se hace lo mismoindependientemente del numero de ecuaciones y de incognitas que tengamos:

    1. Eliminar la primera incognita de todas las ecuaciones salvo la primera,comparando aquellas con esta, que queda fija.

    2. Eliminar la segunda incognita de todas las ecuaciones salvo las dosprimeras, comparando todas las ecuaciones desde la tercera con lasegunda, que queda fija.

    3. Repetir el proceso hasta la penultima incognita, que se elimina de laultima ecuacion, comparando esta con la penultima, que queda fija.

    (2) El numero por el que hay que multiplicar a la ecuacion fijada para elimi-nar la incognita depende de los coeficientes que tenga esta en las ecuaciones.Por ejemplo, para eliminar y en la tercera ecuacion, hemos restado a esta(9)/(3) veces la segunda ecuacion, que es lo necesario para hacer cero laposicion de 9y: 9y (9/ 3)(3y) = 0.(3) Este algoritmo puede utilizarse para discutir y en su caso resolver cualquiersistema de ecuaciones (vease la hoja de ejercicios).(4) El sistema final del proceso siempre ha de quedar de tipo escalonado,en el sentido de que si hay solucion, se puedan ir despejando los valores delas incognitas desde abajo hacia arriba , en el proceso que hemos llamadosustitucion regresiva.Ejemplo 2. Discute y en su caso resuelve el sistema

    x y + 2z = 12x+ y = 3

    x+ 2y 2z = 0Repetimos el proceso del ejemplo 1. La eliminacion de la incognita x llevaal sistema

    x y + 2z = 1

    29

  • 3y 4z = 13y 4z = 1,

    la eliminacion de la incognita y nos lleva a

    x y + 2z = 13y 4z = 1

    0 = 2,Este es el sistema final. Notemos que la ultima ecuacion no puede darse.Este sistema no puede tener solucion pues la ultima ecuacion nunca puedecumplirse. As, el sistema final, y por tanto el original, es incompatible, notiene solucion.Ejemplo 3. Discute y en su caso resuelve el sistema

    3y + 14z = 42x+ 2y 3z = 54x+ 2y 2z = 10.

    Nuestro problema aqu esta en que aparentemente no podemos empezar elproceso, pues la incognita x no aparece en la primera ecuacion y s en lasdemas. Esto se resuelve cambiando de posicion dos ecuaciones, por ejemplolas dos primeras (esto se llama pivotaje),

    2x+ 2y 3z = 53y + 14z = 4

    4x+ 2y 2z = 10.Ahora s podemos empezar. Eliminando x de la ultima ecuacion (en la se-gunda ya no aparece, por lo que no hay que tocar la segunda ecuacion)

    2x+ 2y 3z = 53y + 14z = 42y + 4z = 0,

    y eliminando la incognita y de la ultima ecuacion, comparando con la se-gunda, tenemos

    2x+ 2y 3z = 53y + 14z = 4

    163

    z =83,

    30

  • de donde el sistema es compatible y determinado, con solucion x = 9/4, y =1, z = 1/2.Ejemplo 4. Discute y en su caso resuelve el sistema

    x+ 2y + z = 03x z = 2

    x y z = 1.

    El proceso (compruebese como ejercicio) lleva al sistema final

    x+ 2y + z = 06y 4z = 2

    0 = 0.

    La ultima ecuacion desaparece. Esto significa que no podemos despejar laincognita z de ella. A pesar de esto, el sistema final no da ninguin tipode incompatibilidad, lo unico que ocurre es que la variable z puede tomarcualquier valor. El sistema es compatible e indeterminado, es decir, tieneinfinitas soluciones. Estas dependen del valor arbitrario de z. Para cadavalor de z tenemos una solucion, obtenida del sistema

    x+ 2y = z6y = 2 + 4z,

    es decir, y = (1 + 2z)/3, x = (1 z)/3. El conjunto de soluciones es dela forma x = (1 z)/3, y = (1 + 2z)/3, con z arbitrario. As pues, laaparicion de una ecuacion trivial en el sistema final significa que la variableafectada toma cualquier valor, es lo que se llama una variable libre. Haytantas variables libres como ecuaciones triviales aparezcan en el sistemafinal. El sistema es indeterminado (tiene infinitas soluciones, una por cadavalor de z) y las soluciones se obtienen despejando el resto de las variables,llamadas basicas, en funcion de las libres.

    1.3. Interpretacion matricial de la eliminacion gaus-siana

    Pasamos ahora a dar la interpretacion matricial del proceso de elimi-nacion de incognitas, lo que permitira justificar los pasos dados en los ejem-plos anteriores.

    31

  • 1.3.1. Operaciones elementales

    La base del metodo de eliminacion gaussiana descansa sobre la idea deoperacion elemental. Se llama operacion elemental sobre las filas de unamatriz a aquella transformacion de la misma que consiste en llevar a cabouna de las tres manipulaciones siguientes:

    (1) Permutar dos filas entre s.

    (2) Multiplicar todos los elementos de una fila por un mismo numero nonulo.

    (3) Sumar a una fila otra paralela.

    Se sobreentiende que las filas no afectadas por los ndices que definen laoperacion elemental permanecen inalteradas. Fijemonos en que todos lospasos de la eliminacion gaussiana que hemos dado en los ejemplos anterio-res involucran alguno o varios de los tres tipos de operaciones elementales,con ecuaciones en lugar de filas (ya veremos que actuar sobre las ecuacionesequivale a actuar sobre las filas de la matriz del sistema y del termino inde-pendiente).

    En terminos matriciales, la accion de una operacion elemental sobre unamatriz A equivale a multiplicar por la izquierda la matrizA por una matriz Eapropiada asociada a la operacion. Si A Mm,n(K), la matriz E Mm,m(K)y tiene un aspecto distinto dependiendo de la operacion elemental:

    (1) Si la operacion consiste en permutar las filas r y s (r 6= s), entonces Ese obtiene de Im permutando las filas r y s de esta. De este modo, EA esuna matriz que se obtiene de A permutando sus filas r y s. Por ejemplo

    A =

    3 24 56 7

    , E = 0 0 10 1 01 0 0

    EA = 6 74 53 2

    .(2) Si la operacion consiste en multiplicar la fila r por un numero 6= 0,entonces E se obtiene de la identidad Im sustituyendo el 1 de la posicion(r, r) por . As, EA es una matriz que se obtiene de A multiplicando por su fila r. Por ejemplo

    A =(

    2 5 81 0 1

    ), E =

    (1 00 4

    ) EA =

    (2 5 84 0 4

    ).

    32

  • (3) Si la operacion consiste en sumar a la fila r la fila s (r 6= s) entonces Ese obtiene de Im incorporando a esta un 1 en la posicion (r, s). As, EA esuna matriz que se obtiene de A sumando a su fila r la fila s. Por ejemplo

    A =

    2 1 14 5 02 1 1

    , E = 1 0 00 1 01 0 1

    EA = 2 1 14 5 00 0 0

    .Por su interes para la eliminacion gaussiana, destacamos la matriz aso-

    ciada a la combinacion de operaciones elementales que consiste en sumar ala fila r la fila s (r 6= s) multiplicada por un numero 6= 0. La matriz Ese obtiene de la identidad Im incorporando a esta el valor en la posicion(r, s). Por ejemplo,

    A =

    2 1 14 5 02 1 1

    , E = 1 0 10 1 00 0 1

    EA = 0 0 04 5 02 1 1

    .1.3.2. Sistemas escalonados

    Pasamos ahora a una explicacion mas rigurosa del metodo de eliminaciongaussiana, utilizando una interpretacion matricial. Ya hemos visto que elsistema (1.1) puede escribirse en la forma matricial (1.3) A~x = ~b, donde lamatriz m n

    A =

    a11 a12 a1na21 a22 a2n am1 am2 amn

    se llama matriz de coeficientes de (1.1). El vector columna~b = (b1, b2, . . . , bm)T

    es la matriz de los terminos independientes de (1.1). Las incognitas estandispuestas en un vector columna ~x = (x1, x2, . . . , xn)T .

    La discusion y posible resolucion del sistema (1.1) parte justamente delfinal del proceso, es decir, de la discusion de los sistemas finales como losque hemos obtenido en los ejemplos, llamados sistemas con forma escalonadasuperior. Estos sistemas U~x = ~c tienen una matriz de coeficientes U llamadamatriz con forma escalonada superior, que se caracteriza por las siguientespropiedades:

    33

  • (a) Las primeras filas de U corresponden a filas no identicamente nulas. Elprimer elemento no nulo de cada una de estas filas se llama pivote.(b) Debajo de cada pivote hay una columna de ceros.(c) Cada pivote esta a la derecha del pivote de la fila anterior.

    Para sistemas lineales U~x = ~c con matriz de coeficientes U en formaescalonada superior se verifica:

    (1) El sistema es compatible si y solo si filas nulas de U corresponden acomponentes nulas del termino independiente c (recuerdense los ejem-plos 2 y 4).

    (2) El sistema es determinado si hay tantos pivotes como incognitas, encuyo caso se resuelve por sustitucion regresiva.

    (3) El sistema es indeterminado si hay menos pivotes que incognitas (ejem-plo 4). En ese caso, la solucion general se obtiene por ejemplo dandovalores arbitrarios a las incognitas asociadas a columnas sin pivote(variables libres) y hallando el valor de cada una de las incognitasasociadas a columnas con pivote (variables basicas) resolviendo porsustitucion regresiva el sistema triangular superior que se obtiene alpasar al termino independiente la contribucion de las variables libres(recuerdese el ejemplo 4).

    1.3.3. Sistema general

    Consideremos ahora el sistema lineal (1.1) general y definamos su matrizampliada, incorporando a la matriz A del sistema el termino independiente~b como ultima columna,

    A = [A|~b] Mm,n+1(K)Se dice que dos sistemas lineales con el mismo numero de incognitas sonequivalentes si, o bien son ambos incompatibles o bien son ambos compati-bles y comparten las mismas soluciones.

    El primer resultado que enunciamos esta demostrado en, por ejemplo ellibro de J. de Burgos:

    Teorema 1. Los sistemas lineales que se obtienen a partir de un sistemalineal dado mediante operaciones elementales sobre las filas de la matrizampliada sosn equivalentes al sistema lineal de partida.

    As, desde el punto de vista matricial, la eliminacion gaussiana consisteen aplicar operaciones elementales a las filas de la matriz ampliada A hasta

    34

  • llevar el sistema (1.1) a otro equivalente con matriz en forma escalonadasuperior. La equivalencia entre los sistemas establecida por el Teorema 1permite que discutir y en su caso resolver el sistema (1.1) sea equivalentea discutir y en su caso resolver el sistema escalonado obtenido. Por otraparte, las operaciones elementales involucradas son del tipo: sumar a una fila(ecuacion) otra multiplicada por un numero y probablemente intercambiarla posicion de dos filas (ecuaciones).

    Teorema 2. Dado el sistema (1.1) con matriz ampliada A, existe una se-cuencia de operaciones elementales por filas sobre A que llevan el sistema(1.1) a otro equivalente con forma escalonada superior.

    As pues, los pasos para discutir y resolver un sistema por eliminaciongaussiana son los siguientes:

    1. Utilizar las operaciones elementales indicadas sobre la matriz ampliadadel sistema para llevar este a uno equivalente con forma escalonadasuperior, haciendo ceros por debajo de los pivotes de cada fila.

    2. Discutir el sistema escalonado resultante, segun lo indicado en la sub-seccion 1.3.2. En caso de que el sistema sea compatible determina-do, resolver por sustitucion regresiva. Si el sistema es indeterminado,trasladar la contribucion de las variables libres al segundo miembro yresolver en las variables basicas tambien por eliminacion gaussiana.

    Ejemplo. Discute y resuelve en su caso el sistema

    x1 + 2x2 x3 + x4 2x5 = 12x1 2x2 + x3 x4 + x5 = 1

    4x1 10x2 + 5x3 5x4 + 7x5 = 12x1 14x2 + 7x3 7x4 + 11x5 = 1

    La matriz ampliada es

    A =

    1 2 1 1 2 | 12 2 1 1 1 | 14 10 5 5 7 | 12 14 7 7 11 | 1

    .Buscamos primero la forma escalonada superior equivalente. El pivote de laprimera fila es el 1 de la posicion (1, 1). Para conseguir la forma escalonada

    35

  • superior, tenemos que hacer ceros en todos los elementos de la primeracolumna por debajo del pivote. Para ello, restamos a la fila segunda laprimera multiplicada por dos (esta es una combinacion de operaciones el-ementales) a la fila tercera la primera multiplicada por cuatro y a la filacuarta la primera multiplicada por dos. Observemos que en este primer pa-so la fila del pivote, la primera, queda fija. El hecho de que la fila pivotalquede fija se repite en todo el proceso. Nos queda un sistema equivalentecon matriz ampliada

    1 2 1 1 2 | 10 6 3 3 5 | 10 18 9 9 15 | 30 18 9 9 15 | 3

    .Cambiamos ahora de fila pivotal. El pivote de la segunda fila es el 6 dela posicion (2, 2). Para llegar a la forma escalonada superior, hay que hacerceros en la columna del pivote por debajo de el, es decir, en las posiciones(3, 2) y (4, 2), comparando las filas tercera y cuarta con la del pivote, esdecir, la segunda. Se necesita entonces restar a la fila tercera la segundamultiplicada por tres y a la cuarta la segunda multiplicada por tres. Elresultado es un sistema equivalente con matriz ampliada

    [U |~c] =

    1 2 1 1 2 | 10 6 3 3 5 | 10 0 0 0 0 | 00 0 0 0 0 | 0

    .Las siguientes filas son identicamente nulas, ya no tenemos pivotes. Hemosalcanzado la forma escalonada superior equivalente, que corresponde al sis-tema

    x1 + 2x2 x3 + x4 2x5 = 16x2 + 3x3 3x4 + 5x5 = 1

    Fijemonos en que como filas nulas de U (tercera y cuarta) correspondena componentes nulas del termino independiente, el sistema es compatible.Puesto que solo hay dos columnas con pivote (primera y segunda) el sistemaes indeterminado y las variables libres son x3, x4 y x5. Pasando al terminoindependiente su contribucion, el sistema escalonado se escribe

    x1 + 2x2 = 1 + x3 x4 + 2x56x2 = 1 3x3 + 3x4 5x5.

    36

  • Para valores arbitrarios de x3, x4 y x5, las soluciones del sistema original sonde la forma x2 = (1 + 3x3 3x4 + 5x5)/6, x1 = (2 + x5)/3.

    Ejercicio: repite los ejemplos 1,2,3 y 4 con la correspondiente matrizampliada.

    1.4. Matriz inversa. Metodo de Gauss-Jordan

    Al comentar el producto de matrices, ya hemos visto que no toda ma-triz posee matriz inversa. Dada A Mn,n(K) se dice que otra matrizB Mn,n(K) es inversa de A si BA = AB = In. Se denota por B = A1.Cuando una matriz A admite inversa, se dice que es regular o no singular.Si A no admite inversa, se dice que es singular.

    IMPORTANTE: Solo las matrices cuadradas pueden tener inversa.

    La inversa de una matriz es util en muchas circunstancias. Por ejemplo,en nuestro contexto, si suponemos que el sistema A~x = ~b con A Mn,n(K),es tal que A tiene inversa, entonces el sistema tiene solucion unica, puesmultiplicando a ambos miembros del sistema por la inversa, se tiene

    A1A~x = A1~b x = A1~b,

    de modo que la matriz inversa determina el valor de la solucion del sistema.En esta seccion analizaremos como utilizar las operaciones elementales

    para determinar si una matriz cuadrada tiene inversa y en su caso calcularla.El metodo se llama de Gauss-Jordan y tiene relacion con la eliminaciongaussiana. Primero una serie de propiedades basicas.

    Propiedades1. La inversa de una matriz, si existe, es unica.2. Si A Mn,n(K) tiene inversa, ella es la inversa de su inversa, es decir,(A1)1 = A.3. Si A,B Mn,n(K) tienen inversa, entonces AB tiene inversa, dada por(AB)1 = B1A1.4. Si A Mn,n(K) tiene inversa, entonces su traspuesta AT Mn,n(K)tambien tiene inversa, dada por (AT )1 = (A1)T .5. Toda matriz E Mn,n(K) asociada a una operacion elemental poseeinversa. En efecto,

    Si se trata de permutar dos filas, E es su propia inversa.

    37

  • Si se trata de multiplicar una fila dada por 6= 0, entonces la inversade E es la matriz asociada con la multiplicacion de la misma fila por1/.

    Si se trata de sumar a la fila r la fila s (r 6= s), la inversa es FEF , dondeF es la matriz asociada con la operacion elemental: multiplicacion dela fila s por (1).

    Por ejemplo:

    E =

    0 0 10 1 01 0 0

    E1 = E,E =

    1 0 00 2 00 0 1

    E1 = 1 0 00 1/2 00 0 1

    ,E =

    1 0 10 1 00 0 1

    E1 = 1 0 00 1 00 0 1

    1 0 10 1 00 0 1

    1 0 00 1 00 0 1

    .El metodo de Gauss-Jordan para calcular la inversa de una matriz se basaen los siguientes resultados:

    Teorema 3. Sea A Mn,n(K). Entonces:(1) Si existe una secuencia finita de operaciones elementales por filas que

    llevan A a la matriz identidad,

    EpEp1 E1A = In,

    entonces A es invertible y A1 = EpEp1 E1.(2) Recprocamente, si A tiene inversa, es posible reducirla a la matriz

    identidad por medio de una secuencia finita de operaciones elementalespor filas.

    Este resultado proporciona la clave del metodo de Gauss-Jordan. Lainversa A1 de una matriz invertible A se puede hallar del siguiente modo:se realizan adecuadas operaciones elementales por filas en A y las mismasoperaciones en la matriz identidad, hasta conseguir que A se transformeen la identidad; en ese momento, la transformada de la identidad es A1.Espero que un ejemplo aclare el parrafo.

    38

  • Ejemplo. Calcula la matriz inversa de

    A =

    1 3 22 4 03 5 1

    Junto a la matriz A escribimos la matriz identidad del mismo tamano, 1 3 2 1 0 02 4 0 0 1 0

    3 5 1 0 0 1

    Realizamos operaciones elementales que llevan A a la matriz identidad.Hemos de repetir las mismas operaciones elementales sobre las filas de lamatriz identidad. Las operaciones por filas suelen hacerse por orden, sigu-iendo el de la eliminacion gaussiana. As, en nuestro ejemplo, hacemos cerospor debajo del primer pivote, el 1 de la posicion (1, 1), restando a la filasegunda la primera multiplicada por dos y a la fila tercera la primera mul-tiplicada por tres. Si hacemos esas mismas operaciones en la identidad, nosqueda 1 3 2 1 0 00 2 4 2 1 0

    0 4 5 3 0 1

    Pasando al segundo pivote, restamos a la fila tercera la segunda multiplicadapor dos, 1 3 2 1 0 00 2 4 2 1 0

    0 0 3 1 2 1

    Para la parte de la matriz A, nos acercamos a la identidad. Ya tenemosceros en el triangulo inferior. Nos queda hacer unos en las posiciones de ladiagonal y ceros en el triangulo superior. Para lo primero, multiplicamos por1/2 la segunda fila y por 1/3 la tercera. Si esto lo hacemos tambien a laderecha, nos queda, 1 3 2 1 0 00 1 2 1 1/2 0

    0 0 1 1/3 2/3 1/3

    Para la segunda tarea, hacemos lo mismo que para el triangulo inferior perodesde abajo hacia arriba, empezando por el tercer pivote. As, hacemos ceros

    39

  • en su columna por encima del tercer pivote, restando a la fila segunda latercera multiplicada por 2 y a la fila primera la tercera multiplicada por2. As, 1 3 0 1/3 4/3 2/30 1 0 1/3 5/6 2/3

    0 0 1 1/3 2/3 1/3

    Finalmente, pasando al segundo pivote, hacemos ceros por encima de el,restando a la fila primera la segunda multiplicada por tres, 1 0 0 2/3 7/6 4/30 1 0 1/3 5/6 2/3

    0 0 1 1/3 2/3 1/3

    entonces

    A1 =

    2/3 7/6 4/31/3 5/6 2/31/3 2/3 1/3

    Algunas advertencias a este proceso son las siguientes:

    Si la primera columna de A es nula, entonces A no admite inversa.

    Si en el proceso de reduccion de Gauss-Jordan encontramos un pasoen el cual la columna truncada por debajo del elemento de la derechadel pivote anterior es nula, entonces la matriz A no admite inversa.Por ejemplo, 4 2 6 1 0 03 0 7 0 1 0

    2 1 3 0 0 1

    1 1/2 3/2 1/4 0 00 3/2 5/2 3/4 1 00 0 0 1/2 0 1

    ,y la matriz

    A =

    4 2 63 0 72 1 3

    no tiene inversa.

    1.5. Resolucion por determinantes

    Otro punto de vista, mas teorico, para discutir la resolucion de un sistemalineal, viene dado por el concepto de determinante.

    40

  • Sea A = (aij) Mn,n(K). Se define el determinante de A como el numero

    det(A) =Sn

    pi()a1(1)a2(2) an(n)

    =

    a11 a12 a1na21 a22 a2n an1 an2 ann

    ,donde Sn es el conjunto de permutaciones de orden n y pi() la paridad dela permutacion . Cuando recorre Sn, los terminos a1(1)a2(2), . . . , an(n)describen todos los posibles productos de n factores extrados de los ele-mentos de A con la propiedad de que en dichos productos siempre figura unelemento de cada fila y de cada columna de A.

    En el calculo efectivo de un determinante no suele usarse la definicionsalvo en los ejemplos clasicos con n = 2 y n = 3 (este ultimo es la llamadaregla de Sarrus): a11 a12a21 a22

    = a11a22 a21a12a11 a12 a13a21 a22 a23a31 a32 a33

    = a11a22a33 + a31a12a23 + a21a32a13= a12a21a33 a11a32a23 a31a22a13.

    En el calculo de un determinante tienen mucha importancia una serie depropiedades, como las siguientes. Dada A = (aij) Mn,n(K), denotamossus filas por F1, . . . , Fn, es decir,

    A =

    F1F2......Fn

    .

    Las propiedades son las siguientes:1. det(A) es lineal en cada fila, es decir, si 1 k n,

    41

  • (a) Para K,

    F1F2...

    Fk...Fn

    =

    F1F2...Fk...Fn

    .

    (b) Si la fila Fk = F k + Fk es suma de otras dos, entonces

    F1F2...Fk...Fn

    =

    F1F2...F k...Fn

    +

    F1F2...F k...Fn

    .

    Por ejemplo 2 4 60 1 21 4 1

    = 21 2 30 1 21 4 1

    =

    1 2 30 1 21 4 1

    +1 2 30 1 21 4 1

    .2. El determinante cambia de signo al intercambiar dos filas entre s.Por ejemplo,

    2 4 60 1 21 4 1

    = 1 4 10 1 22 4 6

    .3. det(In) = 1, n = 1, 2, . . ..4. det(A) = ndet(A).5. Sea Sn y A la matriz obtenida al permutar las filas de A segun ,

    A =

    F(1)F(2)......

    F(n)

    .

    42

  • entonces det(A) = pi()det(A).Por ejemplo, si

    =(1 2 33 1 2

    ),

    entonces pi() = 1 y por tanto2 4 60 1 21 4 1

    =0 1 21 4 12 4 6

    .6. Si A tiene dos filas iguales, entonces det(A) = 0.Por ejemplo,

    2 4 61 2 30 1 1

    = 21 2 31 2 30 1 1

    = 0.7. El determinante no cambia cuando a una fila se le suma una combinacionlineal de las restantes filas.Por ejemplo,

    2 4 60 1 21 4 1

    =2 4 60 1 20 2 2

    =2 4 60 1 20 0 2

    .8. Sia A tiene una fila nula, entonces det(A) = 0.9. Si T = (tij) es una matriz triangular (superior o inferior), entoncesdet(T ) = t11t22 tnn.Por ejemplo,

    2 4 60 1 21 4 1

    =2 4 60 1 20 0 2

    = 4.10. det(AB) = det(A)det(B). En particular, si A es invertible, entoncesdet(A1) = 1/det(A).11. det(AT ) = det(A). En consecuencia, cada propiedad para las filas tieneuna analoga para las columnas.

    Lo aconsejable para calcular determinantes, sobre todo si son grandes,es hacer uso de estas propiedades fundamentales, aplicandolas para ir trans-formando el determinante en otros mas faciles de calcular. Lo usual suele ser

    43

  • reducir con operaciones elementales el calculo del determinante al de unamatriz triangular (vease el ejemplo en las propiedades 7 y 9). Por ejemplo,

    1 3 1 12 1 5 21 1 2 34 1 3 7

    =1 3 1 10 5 3 00 4 1 20 11 7 3

    1 3 1 10 5 3 00 0 7/5 20 0 68/5 3

    =1 3 1 10 5 3 00 0 7/5 20 0 0 115/7

    = 115.

    1.5.1. Desarrollo por los elementos de una lnea

    Otro metodo mas elaborado para calcular un determinante es el de-sarrollo por los elementos de una fila o una columna. Dada una matrizA = (aij) Mn,n(K) se llama menor complementario kl del elemento aklal determinante de la matriz (n 1) (n 1) obtenida de A al suprimir sufila k y su columna l. El cofactor de akl se define como

    Akl = (1)k+lkl.

    Entonces, para cualquier fila k se satisface la formula

    det(A) = ak1Ak1 + ak2Ak2 + + aknAkn,

    llamada desarrollo del determinante por los elementos de la fila k. Hayuna formula analoga para el desarrollo del determinante por una columnacualquiera l:

    det(A) = a1lA1l + a2lA2l + + anlAnl.

    Por ejemplo2 4 60 1 21 4 1

    = 2 1 24 1

    4 0 21 1+ 6 0 11 4

    = 4.2 4 60 1 21 4 1

    = 4 0 21 1

    + 2 61 1 4 2 60 2

    = 4.

    44

  • 1.5.2. Matrices inversas y sistemas de Cramer

    Dos son las utilidades que tienen los determinantes en relacion con lossistemas lineales: el calculo de la inversa de una matriz invertible y las lla-madas formulas de Cramer. Ambas son de uso limitado, precisamente porlo tedioso del calculo de los determinantes.

    Respecto a la primera aplicacion, dada una matriz A = (aij) Mn,n(K)se llama matriz de adjuntos o de cofactores de A a la matriz obtenida apartir de los cofactores de A que hemos definido anteriormente, es decir,

    Aadj = (Aij) =

    A11 A12 A1nA21 A22 A2n An1 An2 Ann

    .Entonces, se puede comprobar la formula

    A(Aadj)T = (Aadj)TA = det(A)In.

    Esto implica el siguiente resultado: A admite inversa si y solo si det(A) 6= 0,en cuyo caso se tiene

    A1 =1

    det(A)(Aadj)T .

    Por ejemplo, si

    A =

    2 4 60 1 21 4 1

    ,entonces, se puede comprobar que

    Aadj =

    9 2 120 4 414 4 2

    ,y por tanto

    A1 =14

    9 20 142 4 41 4 2

    .Por otra parte, se dice que un sistema de ecuaciones A~x = ~b es un sis-

    tema de Cramer si A es cuadrada y regular, es decir, si el sistema tiene

    45

  • el mismo numero de ecuaciones que de incognitas y el determinante de sumatriz de coeficientes es no nulo. Son, por tanto, sistemas compatibles de-terminados. Para este tipo de sistemas, se puede obtener la solucion a travesde determinantes, con las llamadas formulas de Cramer. El resultado es elsiguiente:

    Teorema 4. Para un sistema A~x = ~b con matriz A Mn,n(K) son equiva-lentes:

    (1) A~x = ~b tiene solucion cualquiera que sea ~b.

    (2) El sistema homogeneo A~x = ~0 posee unicamente la solucion trivial~x = ~0.

    (3) A es invertible.

    Ademas, la solucion ~x = (x1, x2, . . . , xn)T del sistema A~x = ~b se puedeescribir como

    xj =1

    det(A)det([C1, C2, . . . , Cj1, b, Cj+1, . . . , Cn]), 1 j n,

    siendo C1, . . . , Cn las columnas de A. Estas son las llamadas formulas deCramer.

    EJERCICIOS DEL TEMA 1

    Ejercicio 1. Halla con las matrices siguientes las operaciones que se indican:A 2B, 3A C,A+B + C,A2;

    A =

    1 1 23 4 50 1 1

    , B = 0 2 13 0 57 6 0

    , C = 0 0 23 1 00 2 4

    .Determina una matriz D tal que A + B + C +D sea la matriz nula 3 3.Determina una matriz E tal que 3C2B+8A4E sea la matriz nula 33.

    Ejercicio 2. Calcula los siguientes productos de matrices

    ( 1 4 0 2 )

    3 62 41 02 3

    , ( 1 4 0 2 )

    1123

    ,

    1123

    ( 1 4 0 2 ) ,

    46

  • ( 1 4 0 2 )

    3 62 41 02 3

    , 3 2 21 1 02 0 3

    4 1 12 4 01 1 0

    , 3 1 1 12 4 0 21 0 3 2

    2 12 01 13 2

    .

    Ejercicio 3. Estudia y, en los casos de compatibilidad, calcula la soluciongeneral de los sistemas lineales Ax = b con coeficientes reales, cuando A y bvalen

    A =

    3 1 1 20 1 0 26 2 1 53 3 1 1

    b =1054

    A =

    1 0 1 2 44 1 3 1 32 2 0 1 0

    b = 495

    A =

    2 1 04 2 00 2 12 1 12 5 2

    b =484012

    A =

    1 0 2 12 2 1 31 2 1 45 4 4 5

    b =0000

    Ejercicio 4. Resuelve los siguientes sistemas lineales

    x+ y + z + t = 7 x+ y + z + t = 7x+ y + 2t = 8 x+ y + 2t = 52x+ 2y + 3z = 10 2x+ 2y + 3z = 10x y 2z + 2t = 0 x y 2z + 2t = 0

    x y + 2z t = 8 2x+ 4y z = 5

    47

  • 2x 2y + 3z 3t = 20 x+ y 3z = 9x+ y + z = 2 4x+ y + 2z = 9x y + 4z + 3t = 4

    Ejercicio 5. Discute los siguientes sistemas en funcion de los parametros ay b:

    a)x+ ay + a2z = 1x+ ay + abz = abx+ a2y + a2bz = a2b

    b)x+ y + az = a2

    x+ ay + z = aax+ y + z = 1

    .

    Ejercicio 6. Halla todas las soluciones de cada uno de los sistemas:

    (3 2i)x1 + x2 6x3 + x4 = 0x1 ix2 x4 = 0

    2x1 + x2 (3 + i)x3 = 0x1 + x2 2x3 (1 + 2i)x4 = 0.

    x1 + 2ix3 2ix4 = 2x2 + 2x3 + 2x4 = 1

    x1 + (1 + i)x3 + (1 i)x4 = 0x1 + x2 = 0.

    Ejercicio 7. Para que valores b tiene solucion el sistema Ax = b, siendo Acualquiera de las matrices siguientes:

    a)

    1 2 3 12 3 1 12 2 2 15 5 2 0

    , b)2 1 2 1 22 3 1 2 21 0 1 2 61 2 1 1 04 1 3 1 8

    .

    Ejercicio 8. Calcula la matriz elemental E tal que EA = B:

    A =

    1 23 45 6

    , B = 1 25 63 4

    48

  • A =

    1 23 45 6

    , B = 1 20 25 6

    A =

    1 2 5 20 1 3 45 0 2 7

    , B = 1 2 5 20 1 3 40 10 27 3

    Ejercicio 9. Dados los cuatro sistemas lineales de tres ecuaciones y tresincognitas con la misma matriz de coeficientes

    2x 3y + z = 2 2x 3y + z = 6x+ y z = 1 x+ y z = 4

    x+ y 3z = 0 x+ y 3z = 5

    2x 3y + z = 0 2x 3y + z = 1x+ y z = 1 x+ y z = 0

    x+ y 3z = 3 x+ y 3z = 0

    a) Resuelve los sistemas lineales aplicando eliminacion gaussiana a la matrizaumentada 2 3 1 : 2 6 0 11 1 1 : 1 4 1 0

    1 1 3 : 0 5 3 0

    b) Resuelve los sistemas lineales aplicando el metodo de Gauss-Jordan a lamatriz anterior.c) Resuelve los sistemas lineales encontrando la inversa de la matriz delsistema y multiplicando.

    Ejercicio 10. Determina cuales de las siguientes matrices tienen inversa y,en caso afirmativo, hallala.

    A =

    4 2 63 0 72 1 3

    , B = 1 2 02 1 13 1 1

    C =

    1 1 1 11 2 4 22 1 1 51 0 2 4

    , D =

    2 3 1 22 4 1 53 7 3/2 16 9 3 7

    49

  • E =

    4 0 0 06 7 0 09 11 1 05 4 1 1

    , F =2 0 1 21 1 0 22 1 3 13 1 4 3

    Ejercicio 11. Sea A una matriz real 4x4 cuya inversa es

    A1 =

    1 2 3 42 5 7 91 3 5 74 8 2 0

    Sea B la matriz que se obtiene de A mediante las relaciones

    b3,j = a3,j a4,j + a1,j a2,j 1 j 4bi,j = ai,j i = 1, 2, 4 1 j 4.

    Halla B1.

    Ejercicio 12. (a) Da un ejemplo de dos matrices A y B para las cualesdet(A+B) 6=detA+detB.(b) Si B = P1AP , por que es detB =detA?(c) Una matriz formada por ceros y unos, tiene determinante igual a 0, 1o 1 ?(d) Demuestra que el determinante de una matriz antisimetrica de ordenimpar es 0.Nota: Una matriz A es antisimetrica si AT = A.

    Ejercicio 13. Sin desarrollar el determinante, demuestra que1 a b+ c1 b a+ c1 c a+ b

    = 0. a, b, c C.Ejercicio 14. Evalua los determinantes siguientes:

    6 2 1 0 52 1 1 2 11 1 2 2 33 0 2 3 11 1 3 4 2

    ,

    1 2 1 3 12 1 1 2 33 1 0 2 15 1 2 3 42 3 1 1 2

    .

    1 3 1 12 1 5 21 1 2 34 1 3 7

    ,1 1 2 40 1 1 32 1 1 01 1 2 5

    .

    50

  • 1 1 i 0i 0 3 2

    2 + 2i 2 2i 6 44i+ 5 1 3 i 0

    ,1 i 0 2i 2i0 1 2 21 0 1 + i 1 i1 1 0 0

    .Bibliografa recomendada:Strang, G. Algebra Lineal y sus aplicaciones. Addison-Wesley. Cap. 1.Lang, S. Introduccion al Algebra Lineal. Addison-Wesley. Cap. 2.Fraleigh, J.B. & Beauregard, R.A. Algebra Lineal. Addison-Wesley. Cap 1,apartados 1.3 - 1.7.Burgos, J. de. Algebra Lineal. Mc Graw Hill. Cap. 1 a 4.

    51

  • Tema 2

    Espacios vectoriales yaplicaciones lineales

    El objetivo de este tema es profundizar en los conceptos tratados previa-mente, formalizando en un nuevo lenguaje las ideas ya expuestas. La leccionnos servira tambien para los otros tres problemas de los que trata la asig-natura, pues establece una base teorica para entender los resultados que sepresentan.

    Se analiza aqu la estructura de espacio vectorial, estableciendo rela-ciones entre sus elementos los vectores, dando criterios para su descripciony analizando la conexion entre espacios vectoriales a traves de las aplica-ciones lineales. Todo ello da una nueva interpretacion de la resolucion de unsistema lineal.

    2.1. Espacios vectoriales

    Unicamente consideraremos espacios vectoriales sobre el cuerpo K = Ro C. Un espacio vectorial (e. v.) sobre el cuerpo K de escalares es un conjuntono vaco V dotado de una operacion interna + : V V V y de unaoperacion externa : KV V de manera que se verifican las propiedadessiguientes:

    (1) Para cualesquiera ~x, ~y, ~z V

    ~x+ (~y + ~z) = (~x+ ~y) + ~z.

    52

  • (2) Para cualesquiera ~x, ~y V

    ~x+ ~y = ~y + ~x.

    (3) Existe un elemento neutro ~0 V tal que para cada ~x V se tiene que~x+~0 = ~0 + ~x = ~x.

    (4) Para cada ~x V existe un elemento opuesto~x V tal que ~x+(~x) =(~x) + ~x = ~0.

    (5) Para cada ~x V y , K,

    ( ~x) = () ~x.

    (6) Para cada ~x V y , K,

    (+ ) ~x = ( ~x+ ~x).

    (7) Para cada ~x, ~y V y K,

    (~x+ ~y) = ( ~x+ ~y).

    (8) Si ~x V y K son tales que ~x = 0, entonces necesariamente = 0 o ~x = ~0.

    Los elementos de un espacio vectorial se llaman vectores.

    Ejemplos

    1. V = Rn con las operaciones

    (x1, . . . , xn) + (y1, . . . , yn) = (x1 + y1, . . . , xn + yn)(x1, . . . , xn) = (x1, . . . , xn), R,

    es un espacio vectorial para n = 1, 2, 3, . . ..

    2. V = Cn con las operaciones de antes puede ser un espacio vectorial sobreR o sobre C.

    3. V = Mm,n(K), con las operaciones definidas en el tema 1, es un espaciovectorial sobre K.

    53

  • 4. V = P [X], espacio de todos los polinomios en una variable y coeficientescomplejos, es, con las operaciones habituales de suma de polinomios y pro-ducto de un polinomio por un escalar, un espacio vectorial sobre K.

    5. V = Pn[X], espacio de los polinomios en una variable, coeficientes com-plejos y grado a lo sumo n es, con las operaciones habituales de suma depolinomios y producto de un polinomio por un escalar, un espacio vectorialsobre K.

    2.1.1. Combinaciones lineales. Subespacios vectoriales

    As pues, un hecho importante de los espacios vectoriales es que se puedensumar vectores y multiplicar vectores por escalares, es decir, formar combina-ciones lineales de vectores, obteniendo as nuevos elementos del espacio vec-torial. Dado un e.v. V sobre K, se dice que un vector ~v V es combinacionlineal del sistema finito {~v1, ~v2, . . . , ~vm} si existen escalares 1, 2, . . . , m demanera que

    ~v = 1~v1 + 2~v2 + + m~vm =mk=1

    k~vk.

    Notemos que el vector ~0 es combinacion lineal de cualquier sistema de vec-tores.

    Dentro de un espacio vectorial puede haber conjuntos que son en s mis-mos espacios vectoriales. Por ejemplo, cualquier plano que pase por el origenen R3. Son los llamados subespacios vectoriales, es decir, subconjuntos queson cerrados bajo las operaciones del espacio vectorial.

    Definicion. Sea V un e.v. sobre K. Se dice que un subconjunto no vacoW V es un subespacio vectorial si cumple:(i) ~x+ ~y W si ~x, ~y W .(ii) ~x W si K, ~x W .Esto equivale a la siguiente condicion:W es subespacio vectorial si y solo

    si toda combinacion lineal de elementos de W es a su vez un elemento deW . En particular, el vector ~0 esta en todo subespacio.

    Ejemplos

    (1) Para una matriz A Mm,n(K) el conjunto de soluciones del sistemalineal homogeneo A~x = ~0 es un subespacio vectorial de Kn.

    54

  • (2) El conjunto de vectores de R3,W = {(0, 0, 1)T , (0, 1, 0)T },

    no es un subespacio vectorial, pues el vector (0, 0, 1)T +(0, 1, 0)T = (0, 1, 1)T

    no pertenece a W .

    El concepto de subespacio sera importante al interpretar la resolucionde un sistema lineal en terminos de vectores.

    Todo conjunto de vectores G, aunque no sea un subespacio vectorial,lleva asociado uno. Es el llamado espacio generado por G y es el conjunto detodas las combinaciones lineales formadas con elementos de G. Es el mnimosubespacio vectorial que contiene a G y se denota por G o span(G).Ejemplos

    (1) Para una matriz A Mm,n(K) se puede definir: 1. El espacio columnade A, que es el subespacio de Km generado por las columnas de A. 2. Elespacio fila de A, que es el subespacio de Kn generado por las filas de A.

    (2) El conjunto de vectores de R3,G = {(0, 0, 1)T , (0, 1, 0)T },

    genera el subespacio vectorial

    G = {(x, y, z)T R3/x = 0}.

    2.1.2. Dependencia e independencia lineal. Bases y dimen-sion

    Una descripcion mas explcita de un e.v. puede darse a partir de rela-ciones entre sus elementos los vectores.

    Sea V un e.v. Se dice que los vectores ~x1, . . . , ~xn V son linealmentedependientes si existen escalares 1, . . . , n K no todos nulos verificando

    1~x1 + + n~xn = ~0.Esto significa que algun vector del sistema es combinacion lineal de losrestantes. Recprocamente, si un vector ~x V es combinacion lineal delos vectores ~x1, . . . , ~xn entonces existen escalares 1, . . . , n con

    ~x = 1~x1 + + n~xn,

    55

  • es decir,

    (1)~x+ 1~x1 + + n~xn = ~0,y los vectores ~x, ~x1, . . . , ~xn son linealmente dependientes.

    Se dice que los vectores ~x1, . . . , ~xn V son linealmente independientescuando no son linealmente dependientes, es decir, si ninguno de los vectoreses combinacion lineal de los restantes. Esto significa que si planteamos unacombinacion lineal nula

    1~x1 + + n~xn = ~0,entonces necesariamente 1 = = n = 0. Luego veremos un metodopractico para determinar la independencia lineal de un conjunto de vectoresdado.

    Supongamos que los vectores ~x1, . . . , ~xn V son linealmente indepen-dientes. Dado un vector ~x V que sea combinacion lineal de ellos, resultaque los coeficientes que dan la combinacion lineal estan unvocamente de-terminados. Esto tendra su importancia al hablar de las coordenadas de unvector.

    Teorema 1. Sean ~x1, . . . , ~xn V linealmente independientes y ~x V talque los vectores ~x, ~x1, . . . , ~xn son linealmente dependientes. Entonces ~x escombinacion lineal de ~x1, . . . , ~xn.

    Si consideramos los vectores como flechas desde el origen, no es difcilvisualizar la dependencia lineal en el espacio tridimensional. Dos vectoresson dependientes si estan en la misma recta, y tres vectores son dependientessi estan en el mismo plano.

    Por ejemplo, las columnas de la matriz

    A =

    1 3 02 6 11 3 3

    ,son linealmente dependientes, ya que la segunda columna es tres veces laprimera. Un poco mas complicado de ver es que las filas son tambien depen-dientes.

    Hay espacios vectoriales que pueden describirse completamente por unconjunto finito de vectores. Estos son los llamados espacios vectoriales degeneracion finita. Por ejemplo, todo vector de R3 (x, y, z)T es una combi-nacion lineal

    x(1, 0, 0)T + y(0, 1, 0)T + z(0, 0, 1)T

    56

  • de los vectores (1, 0, 0)T , (0, 1, 0)T , (0, 0, 1)T ; de este modo, R3 es un espaciovectorial de generacion finita, pues todo vector de R3 puede escribirse comocombinacion lineal de un conjunto finito de vectores.

    Sea V un e.v sobre K. Un conjunto finito S V de vectores se dice quees ligado cuando esta formado por vectores linealmente dependientes. Casode no ser ligado, se denomina libre.

    Se dice que una parte G V es un sistema generador de V si G = V ,es decir, si G genera todo el espacio V , o lo que es lo mismo, todo vector deV es combinacion lineal de los vectores de G. El espacio se dice de generacionfinita cuando admite una parte generadora finita.

    Se dice que un conjunto de vectores B V es una base de V cuando Bes un sistema generador y libre. En una palabra, no se desperdicia ningunvector en el conjunto B.

    Por ejemplo, los vectores ~v1 = (1, 0, 0)T , ~v2 = (0, 1, 0)T y ~v3 = (2, 0, 0)Tgeneran un plano dentro del espacio tridimensional. Lo mismo ocurre conlos dos primeros vectores solos, mientras que el primero y el tercero sologeneran una recta.

    Esta combinacion de propiedades significa que cada vector ~v V puedeexpresarse de una y solo una manera como combinacion de los vectores deuna base.Teorema 2. Todas las bases de un espacio vectorial de generacion finita Vson finitas y poseen el mismo numero de elementos. Este numero se denominadimension del e. v. V y se escribe dimKV .

    Ejemplos.

    (1)Bases canonicas. Ya hemos visto que los vectores (1, 0, 0)T , (0, 1, 0)T , (0, 0, 1)T

    constituyen un sistema generador de R3. Ademas, son linealmente indepen-dientes, pues cualquier combinacion lineal nula de ellos

    1(1, 0, 0)T + 2(0, 1, 0)T + 3(0, 0, 1)T = (0, 0, 0)T ,

    genera un sistema lineal de tres ecuaciones trivial con 1 = 2 = 3 = 0.De este modo, forman una base de R3 llamada base canonica. Por tantodimRR3 = 3.

    (2) En general, la base canonica de Rn como espacio vectorial sobre R es elconjunto de n vectores,

    ~e1 = (1, 0, 0, . . . , 0)T

    ~e2 = (0, 1, 0, . . . , 0)T

    57

  • ......

    ~en = (0, 0, 0, . . . , 1)T ,

    de modo que dimRRn = n, n = 1, 2, . . .. Cual sera la base canonica de Cnsobre C? Y sobre R?

    (3) Considerando el plano X Y , es decir, R2, observamos de los vectoresde la figura que el vector v1 solo es linealmente independiente, pero nogenera R2. Los tres vectores generan R2 pero no son independientes. Final-mente, dos cualesquiera de los tres vectores, digamos ~v1 y ~v2, tienen ambaspropiedades: generan y son independientes, luego forman una base. Tambiende este ejemplo se puede sacar la conclusion de que un espacio vectorial notiene una base unica.

    v1v2

    v3

    PPPPPPq

    Las siguientes propiedades establecen las formas para obtener bases desistemas generadores y de sistemas libres.

    Teorema 3. Sea V un espacio vectorial de dimension n. Se satisfacen lassiguientes propiedades:

    1. Un sistema generador G V es una base si y solo si no se puedereducir a un nuevo sistema generador.

    2. Siempre se puede obtener una base B de un sistema generador, descar-tando vectores si es necesario.

    3. Si G es un sistema generador, card(G) n. G es una base si y solo sicard(G) = n (card(G) es el llamado cardinal de G, es decir, el numerode elementos del conjunto G).

    58

  • 4. Un sistema libre L V es una base si y solo si no se puede ampliar aotro sistema libre.

    5. Cualquier sistema libre se puede extender a una base, anadiendo masvectores si es necesario.

    6. Si L es un sistema libre, card(L) n. L es una base si y solo sicard(L) = n.

    7. Todo subespacio W de V tiene dimension menor o igual que n. Si ladimension de W es n, entonces W = V .

    Por tanto, una base es un conjunto independiente maximo. No puede sermas grande porque entonces perdera la independencia. No puede ser menorporque entonces no generara todo el espacio.

    2.1.3. Coordenadas de un vector respecto a una base. Cam-bio de base

    Lo que hace el concepto de base algo util es que recurriendo a una deellas, cualquier vector queda identificado mediante los coeficientes de la unicacombinacion lineal que lo expresa en funcion de los vectores de aquella. Aestos coeficientes se les llama coordenadas. En un e. v. de dimension finita, sise dispone de una base, conocer un vector viene a ser lo mismo que conocersus coordenadas en la base.

    Sea V un e. v. sobre K con dim(V ) = n y sea B = {~b1,~b2, . . . ,~bn}una base de V . Cada vector ~x V se puede escribir de forma unica comocombinacion lineal de los elementos de B:

    ~x = x1~b1 + x2~b2 + + xn~bn.

    Se dice que x1, x2, . . . , xn son las coordenadas del vector ~x respecto de labase B. Cuando se sobreentiende cual es la base B, se suele escribir ~x =(x1, x2, . . . , xn)T o bien, en otro caso, M(~x,B) = (x1, x2, . . . , xn)T .

    Por ejemplo, el vector ~v = (1, 2, 3)T tiene coordenadas en la base canonica

    ~v = ~e1 + 2~e2 + 3~e3.

    Si se dispone de dos bases B y B en un mismo e. v. V , cada vector ~x Vtendra dos sistemas de coordenadas, uno respecto de cada base. Si se conoceuna base respecto de la otra, va a ser posible relacionar unas coordenadas con

    59

  • otras; las relaciones que ligan a los dos sistemas de coordenadas se llamanecuaciones del cambio de base.

    En efecto, sea V un e. v. sobre K de dimension n. Sea B = {~b1,~b2, . . . ,~bn}una base de V , en las que las coordenadas de un vector ~x V se denotan porM(~x,B) = (x1, x2, . . . , xn)T . Sea B = {~b1,~b2, . . . ,~bn} otra base de V , en laque las coordenadas de ~x V se denotan por M(~x,B) = (x1, x2, . . . , xn)T .Supongamos que se conocen los vectores de B en funcion de los de B, esdecir,

    ~b1 = q11~b1 + q21~b2 + + qn1~bn~b2 = q12~b1 + q22~b2 + + qn2~bn... =

    ...~bn = q1n~b1 + q2n~b2 + + qnn~bn.

    Entonces, las coordenadas M(~x,B) = (x1, x2, . . . , xn)T vendran, en funcionde las coordenadas M(~x,B) = (x1, x2, . . . , xn)T , dadas por las formulas

    ~x1 = q11~x1 + q12~x2 + + q1n~xn

    ~x2 = q21~x1 + q22~x2 + + q2n~xn

    ... =...

    ~xn = qn1~x1 + qn2~x2 + + qnn~xn,

    que matricialmente se escribe

    M(~x,B) = QM(~x,B), Q =M(B, B) =

    q11 q12 q1nq21 q22 q2n qn1 qn2 qnn

    .La matriz Q se llama matriz de cambio de base de B a B y es una ma-triz invertible. Precisamente, su matriz inversa es la matriz del cambio decoordenadas inverso, de B a B, es decir

    M(~x,B) = Q1M(~x,B) =M(B,B)M(~x,B).

    Este es, con frecuencia, el problema a resolver.

    Ejemplo. Calculemos las coordenadas del vector ~x = (3, 2, 1)T en la baseB = {~v1, ~v2, ~v3}, donde ~v1 = (1, 2, 0)T , ~v2 = (3,7, 1)T , ~v3 = (0,2, 1)T .

    60

  • La base de referencia donde esta dispuesto el vector ~x es la base canonica.La relacion entre las dos bases es

    ~v1 = ~e1 + 2~e2~v2 = 3~e1 7~e2 + ~e3~v1 = 2~e2 + ~e3.

    Entonces la matriz de cambio de base es

    Q =

    1 3 02 7 20 1 1

    .Luego, las nuevas coordenadas M(~x,B) = (x1, x2, x3)T deben verificar elsistema lineal 32

    1

    = 1 3 02 7 20 1 1

    x1x2x3

    ,que, resolviendo, nos da x1 = 3, x2 = 2, x3 = 3.

    2.2. Subespacios fundamentales de una matriz

    2.2.1. Definicion y propiedades

    Hasta ahora hemos sido mas bien descriptivos: sabemos lo que es unabase, pero no sabemos encontrar una. Necesitamos obtener una forma maso menos sistematica de calcular una base a partir de una descripcion clarade un subespacio.

    Varios son los problemas que se nos plantean en esta seccion:

    1. Como describir los subespacios de un espacio vectorial de dimensionfinita.

    2. Como determinar una base de un subespacio.

    3. Como obtener una base de un sistema generador dado.

    4. Como formar una base a partir de un sistema libre dado.

    Con respecto al problema 1, generalmente los subespacios (que no seanel formado exclusivamente por el vector nulo) se describen de dos maneras.

    61

  • La primera consiste en dar un sistema de generadores del subespacio (enparticular, una base) que pueden disponerse como el espacio fila o el espaciocolumna de una matriz. En la segunda, podemos dar una lista de restric-ciones acerca del subespacio; en lugar de decir cuales son los vectores enel subespacio, se dicen las propiedades que deben satisfacer. Generalmenteestas restricciones vienen dadas mas o menos explcitamente por un conjun-to de ecuaciones lineales, de modo que el subespacio queda descrito comoel conjunto de soluciones de un sistema lineal homogeneo A~x = ~0 y ca-da ecuacion del sistema representa una restriccion. En el primer tipo puedehaber filas o columnas redundantes y en el segundo puede haber restriccionesredundantes. En ninguno de los dos casos es posible dar una base (resolverel problema 2) por mera inspeccion, es necesario algun procedimiento sis-tematico.

    El procedimiento que aqu explicaremos esta basado en el proceso deeliminacion gaussiana de una matriz A dado en el tema 1 y la matriz Uescalonada superior que quedaba asociada a esta al final del proceso. Coneste procedimiento vamos tambien a poder resolver los problemas 3 y 4 y elproblema anadido de como pasar de una representacion de un subespacio ala otra.

    Definicion. Supongamos que reducimos una matriz A Mm,n(K) medianteoperaciones elementales a una matriz U de forma escalonada. Llamemos ral numero de pivotes de U , de tal modo que las ultimas m r filas de U sonidenticamente nulas. A este numero r se le llama rango de la matriz A.

    Hay una relacion entre el rango r y la independencia lineal: precisamente,r es el numero de filas linealmente independientes de la forma escalonada U(por que?).

    Los subespacios fundamentales de una matriz A Mm,n(K) son lossiguientes:

    1. Espacio fila fil(A).

    2. Espacio nulo Ker(A).

    3. Espacio columna col(A).

    4. Espacio nulo por la izquierda ker(AT ).

    La relacion entre los subespacios de una matriz y un subespacio dado es lasiguiente: si el subespacio viene dado por un sistema de generadores, sera elespacio fila (o el espacio columna) de la matriz cuyas filas (o columnas)

    62

  • sean los vectores del sistema generador. Si el subespacio viene dado porun conjunto de restricciones, se escribira como el espacio nulo o el espacionulo por la izquierda de una matriz, la del sistema homogeneo dado porlas restricciones. Queda claro entonces que para determinar una base de unsubespacio tenemos que analizar la manera de determinar una base de lossubespacios fundamentales de una matriz. En ello tendra que ver su formaescalonada obtenida por eliminacion gaussiana.

    1.Espacio fila de A. La eliminacion actua en A para producir una ma-triz escalonada U ; el espacio fila de U se obtiene directamente: su dimensiones el rango r y sus filas distintas de cero constituyen una base. Ahora bien,cada operacion elemental no altera el espacio fila, pues cada fila de la matrizU es una combinacion de las filas originales de A. Como al mismo tiempocada paso puede anularse mediante una operacion elemental, entonces

    fil(A) = fil(U),

    por tanto, fil(A) tiene la misma dimension r y la misma base. Hay quenotar que no comenzamos con las m filas de A, que generan el espacio filay descartamos m r para obtener una base. Podramos hacerlo, pero puedeser difcil decidir cuales filas descartar;