Algebra Lineal Con El Uso De Matlab Autores Omar Saldarriaga

   EMBED

Share

Preview only show first 6 pages with water mark for full document please download

Transcript

´ ALGEBRA LINEAL CON EL USO DE MATLAB AUTORES Omar Saldarriaga Ph.D., State University of New York at Binghamton Profesor Asociado Instituto de Matem´ aticas Universidad de Antioquia Hern´an Giraldo Ph.D., Universidad de S˜ao Paulo Profesor Asociado Instituto de Matem´ aticas Universidad de Antioquia ii c Copyright by Omar Saldarriaga, 2010. All rights reserved. ´Indice general ´ 1. Algebra de matrices 1.1. Sistemas de Ecuaciones Lineales 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.2. Operaciones con Matrices y Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 1.3. Inversa de una Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 1.4. Matrices Elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 1.5. Inversas Laterales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 2. Espacios Vectoriales 45 2.1. Definici´on y Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 2.2. Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 2.3. Independencia Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 2.4. Conjuntos generadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 2.5. Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 2.6. Subespacio generado por un conjunto de vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 2.7. Subespacios fundamentales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 2.8. Subespacio generado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 2.9. El Teorema de la base incompleta en Rm 81 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3. Transformaciones Lineales 85 3.1. Definici´on y Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 3.2. Transformaciones Lineales Inyectivas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90 3.3. Transformaciones Lineales Sobreyectivas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 3.4. Isomorfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 3.5. Espacios Vectoriales Arbitrarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 3.5.1. Transformaciones lineales entre espacios vectoriales arbitrarios. . . . . . . . . . . . . . . . 103 3.6. Propiedades de los Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 3.7. Suma Directa de Espacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 iii ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 4. Ortogonalidad en Rn 1 119 4.1. Producto interno en Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 4.2. Proyecci´ on Ortogonal sobre un Vector . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 4.2.1. La matriz proyecci´ on. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128 4.3. Proyecci´ on Ortogonal sobre un Subespacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130 4.4. M´ınimos Cuadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 4.5. El Proceso Gramm-Schmidt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142 4.6. La Factorizaci´on QR de una Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152 5. Determinantes 157 5.1. Definici´on y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 5.2. Determinantes y operaciones elementales de fila . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164 5.3. Propiedades del determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172 5.4. Matriz Adjunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174 5.5. La Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177 5.6. Interpretaci´ on Geom´etrica del Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179 6. Valores y Vectores Propios 187 6.1. Polinomio Caracter´ıstico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187 6.2. Matrices Similares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198 6.3. Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201 6.3.1. La matriz de una transformacion con respecto a dos bases . . . . . . . . . . . . . . . . . . 207 6.4. Diagonalizaci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213 6.5. Matrices Sim´etricas y Diagonalizaci´on Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . 217 6.6. Formas Cuadr´aticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219 6.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222 7. Aplicaciones 7.1. Potencia de una matriz 225 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225 7.1.1. Relaciones de recurrencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226 7.1.2. Cadenas de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227 7.2. Exponencial de una matriz diagonalizable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228 7.2.1. Sistemas Lineales de Ecuaciones diferenciales . . . . . . . . . . . . . . . . . . . . . . . . . 229 2 Cap´ıtulo 1 ´ Algebra de matrices En este cap´ıtulo veremos ... Las letras m,n, i, j y k denotar´an n´ umeros enteros positivos y denotaremos por R el conjunto de los n´ umeros reales ... m´ın{m, n} es el menor n´ umero entre m y n... el conjunto de matrices de taman˜o m × n ser´a denotado por Mmn (R) y por Mn (R) cuando m = n. El conjunto vac´ıo ?? 1.1. Sistemas de Ecuaciones Lineales Comenzamos esta secci´on ilustrando un ejemplo del tema central del cap´ıtulo, el cual es la soluci´ on de sistemas de ecuaciones lineales, y usaremos este ejemplo para introducir el m´etodo de soluci´ on conocido como reducci´on Gauss-Jordan en matrices. Consideremos el siguiente sistema de dos ecuaciones en dos inc´ognitas: x + 3y = 4 (1.1) 4x + 6y = 10 (1.2) Existen varios m´etodos para resolver este sistema, por la similitud con el m´etodo que expondremos en esta secci´on destacamos el de eliminaci´ on. Este m´etodo usa dos operaciones b´asicas para llevar a la soluci´ on de un sistema lineal las cuales son: 1. Sumar un m´ ultiplo de una ecuaci´ on a otra ecuaci´ on con el objetivo de eliminar una de las variables, por ejemplo la operaci´ on -4 Ecuaci´ on(1.1) + Ecuaci´ on(1.2) elimina la variable x y produce la ecuaci´ on −6y = −6. 2. Multiplicar una ecuaci´ on por una constante no cero con el objetivo de simplicarla, por ejemplo si multiplicamos la nueva ecuaci´ on −6y = −6 por − 16 obtenemos y = 1. 3 4 3. Si multiplicamos esta u ´ltima ecuaci´ on (y = 1) por -3 y se la sumamos a la Ecuaci´ on (1.1), obtenemos x = 1. Finalmente la soluci´ on al sistema est´ a dada por los valores: x = 1 y y = 1. Los m´etodos que veremos en este libro son: 1. El m´etodo de reducci´on Gauss-Jordan, el cual veremos en esta secci´on. 2. El m´etodo de multiplicaci´ on por la matriz inversa, este m´etodo solo funciona en algunos casos, ver Teorema 1.12 en la Secci´on 1.3. 3. El m´etodo de multiplicaci´ on por la inversa a la izquierda de la matriz, este m´etodo solo funciona en algunos casos, ver Secci´on 1.5 4. La regla de Cramer, ver Secci´on 5.5. Retomando las soluciones para un sistema, vale la pena notar que si tenemos un sistema de dos ecuaciones lineales en dos inc´ognitas, hay tres posibles respuestas y estas son: 1. El sistema tiene solucion u ´ nica (como en el ejemplo ilustrado anteriormente). 2. El sistema no tiene soluci´ on (o soluci´ on vac´ıa), caso en el cual, decimos que es inconsistente. 3. El sistema tiene infinitas soluciones, caso en el cual decimos que el sistema es redundante. Cuando se tiene una ecuaci´ on lineal en dos variables, esta representa una l´ınea recta en el plano, las tres posibles soluciones descritas corresponden a las diferentes posibilidades geom´etricas las cuales son: las rectas se intersectan (soluci´on u ´nica), las rectas son paralelas (soluci´on vac´ıa) o las rectas coinciden (infinitas soluciones). Estas se ilustran en la Figura 1.1. Cuando tratamos de resolver un sistema 3×3, de tres ecuaciones en tres inc´ognitas, tambi´en podemos obtener, al igual que en el caso anterior (caso 2×2), tres posibles respuestas: soluci´ on u ´nica, soluci´ on vac´ıa o infinitas soluciones. En este caso, una ecuaci´ on en tres variables representa un plano en el espacio, las posibilidades geom´etricas se muestran en las Figuras 1.1 y 1.1. Sin embargo, a diferencia del caso 2×2, la soluci´ on vac´ıa no se obtiene exclusivamente en el caso de que los planos sean paralelos como se observa en la Figura 1.1. Tambi´en se puede ver en la Figura 1.1 que hay diferentes casos que conducen a infinitas soluciones y no solo cuando los planos coinciden. Uno de los objetivos de la secci´on es mostrar que a´ un en dimensiones mayores se presentan exactamente las mismas tres posibilidades. El caso general lo resolveremos usando matrices, asociaremos a cada sistema lineal una de estas y aplicaremos operaciones elementales de fila para resolver el sistema. Las operaciones elementales de fila sobre matrices son simplemente operaciones equivalentes a las mencionadas en el m´etodo de eliminaci´ on al principio de la secci´on. ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 5 Definici´ on 1.1. Una matriz real es un arreglo rectangular de n´ umeros reales en m filas y n columnas   a11 · · · a1n   ..   .. .. ;  . . .    am1 · · · amn donde aij es un n´ umero real para i = 1, . . . , m y j = 1, . . . , n. A esta matriz se le llama una matriz de tama˜ no m × n. En esta secci´on se esta interesado en operaciondes de fila de una matriz, as´ı en esta secci´on se donotar´ a la i-´esima fila de una matriz A por Fi . Adem´ as, de ahora en adelante el conjunto de matrices de taman˜o m × n ser´a denotado por Mmn (R) y por Mn (R) cuando m = n.   1 −1  es una matriz de tama˜ no 2×2. Esta matriz la definimos en MatLab Ejemplo 1.1. (MatLab) A =  2 0 de la siguiente forma: >> A = [1, −1; 2, 0] y MatLab guardar´ıa la matriz como el arreglo rectangular A= 1 −1 2 0 En general, para definir matrices en MatLab se escriben las entradas entre corchetes, escribiendo las entradas de las filas separadas con coma y separando las filas con punto y coma. A un sistema lineal de m ecuaciones con n incognitas, a11 x1 + · · · + a1n xn = b1 .. . am1 x1 + · · · + amn xn = bm , se le asocia la matriz de tama˜ no m × (n + 1)  a11   ..  .  amn ··· .. . a1n .. . ··· a1n  b1  ..  .   bm llamada la matriz de coeficientes o matriz asociada. Cada fila de esta matriz tiene los coeficientes de cada una de las ecuaciones incluyendo el t´ermino constante al final de la misma y cada columna est´ a asociada a una incognita excepto la u ´ltima columna que contiene los t´erminos independientes.  1 le corresponde la matriz de coeficientes  Ejemplo 1.2. Al sistema lineal 4 4x + 5y = 6 x + 2y = 3 2 3 5 6  . Las operaciones descritas al principio de la secci´on que se realizan sobre las ecuaciones de un sistema lineal en el m´etodo de eliminac´on se traducen en operaciones de fila sobre matrices, llamadas operaciones elementales de fila, las cuales describimos a continuaci´on. 6 Definici´ on 1.2. Sea A una matriz de tama˜ no m × n, una operaci´ on elemental de fila sobre A es una de las siguientes operaciones: 1. Multiplicar una fila por una constante no cero. Se usar´ a la notaci´ on cFi → Fi para indicar que se multiplica la fila i por la constante c. 2. Sumar un m´ ultiplo de una fila a otra fila. Se usar´ a la notaci´ on cFi + Fj → Fj para indicar que se le suma c veces la fila i a la fila j. En estos dos pasos, la fila que aparece despu´es de la flecha es la fila que se debe modificar o simplemente, a la que se le debe aplicar la operaci´ on. 3. Intercambiar dos filas. Se usar´ a la notaci´ on Fi ↔ Fj para indicar que se debe intecambiar la fila i con la fila j. x + 3y = 4 Ejemplo 1.3. Al principio de la secci´ on resolvimos el sistema de ecuaciones aplicando las opera- 4x + 6y = 10 ciones 1. -4 Ecuaci´ on 1.1 m´ as Ecuaci´ on 1.2, de la cual obtenemos la ecuaci´ on −6y = −6, 2. multiplicamos esta u ´ltima ecuaci´ on por − 61 , obteniendo y = 1, 3. finalmente de, -3 ecuaci´ on (y = 1) m´ as Ecuaci´ on 1.1, obtenemos x = 1. Como en la matriz asociada a un sistema lineal las ecuaciones se representan en filas, estas operaciones se traducen en operaciones de fila, de hecho, la primera operaci´ on se traduce en la operaci´ on de fila −4F1 + F2 , la segunda en −1 6 F2 y la tercera en −3F2 + F1 . Al aplicar estas operaciones obtenemos       1 3 4 −3F2 +F1 →F1 1 0 1 3 4 1 3 4        0 1 4 6 10 −4F1 +F2 →F2 0 −6 −6 −1 F2 →F2 0 1 1  6 1 1   De esta u ´ltima matriz obtenemos las ecuaciones x = 1 y y = 1 las cuales nos dan la soluci´ on al sistema. Este u ´ltimo ejemplo ilustra el m´etodo de soluci´ on de un sistema lineal con operaciones de fila sobre matrices, el cual es el objetivo de la secci´on. Para ilustrar el caso general debemos mostrar como aplicar operaciones de fila sobre una matriz de una manera eficiente que garantice una soluci´ on, una manera efectiva es llevar la matriz a una “matriz en forma escalonada reducida”, la cual definimos a continuaci´on. Definici´ on 1.3. Sea A una matriz de tama˜ no m × n, decimos que A est´ a en forma escalonada reducida si A satisface las siguientes condiciones: 1. Todas las filas nulas (filas donde todas las entradas, en esa fila, son ceros) est´ an en la parte inferior de la matriz. 2. La primera entrada no cero de una fila no nula es un uno. A esta entrada se le llama pivote. 3. Si dos filas consecutivas son no nulas, entonces el pivote de la fila de arriba est´ a mas a la izquierda del pivote de la fila de abajo. ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 7 4. Todas las entradas de una columna donde haya un pivote son cero, excepto la entrada donde est´ a el pivote. Ejemplo 1.4.  1   A = 0  0 Las siguientes matrices est´ an   0 0 1 0     B = 0 1 1 0 ,   0 1 0 0  1 ∗   E = 0 0  0 0  ∗   0 ,  0 en forma escalonada reducida:    ∗ 1 ∗ 0       C =  0 0 1 , ∗ ,    0 0 0 0  0   F = 0  0 1 ∗    0 0  0 0 y   0 1   D = 0 0  0 0 0 0   G = 0 0  0 0  1   0 ,  0  0   1 ,  0 donde las entradas * representan un n´ umero real arbitrario. De hecho estas son todas las posibles formas escalonadas reducidas que se obtienen de matrices 3 × 3 no nulas. Ejemplo 1.5. (MatLab) La forma escalonada reducida de  −1 2   “rref ” como se muestra a continuaci´ on. Sea A =  0 3  2 −1 >> format rat, A = [−1, 2, 3, −1; 0, 3, −2, −1; 2, −1, −8, 1]; R R= 1 0 0 − 13 3 1 − 32 una matriz  se calcula en MatLab con el comando 3 −1   −2 −1,  −8 1 = rref (A) 1 3 − 31 0 0 0 0 El comando “format rat” se usa para que MatLab entregue la respuesta con n´ umeros racionales en cada entrada de la matriz. El proceso de aplicar operaciones elementales de fila sobre una matriz hasta llevarla a su forma escalonada reducida se le conoce como reducci´ on Gauss-Jordan. Este proceso nos lleva tambi´en a determinar si el sistema tiene soluci´ on y a encontrarla en el caso de que exista (ver Teorema 1.2). Primero debemos garantizar que es posible llevar cualquier matriz a una matriz en forma escalonada reducida por medio de operaciones elementales. Teorema 1.1. Aplicando reducci´ on Gauss-Jordan, toda matriz se puede llevar a una forma escalonada reducida. Mas que dar una idea de la prueba, lo que presentamos a seguir, es una descripci´on de un algoritmo para calcular la forma escalonada reducida de una matriz. Bosquejo de la demostraci´ on. La demostraci´ on se hace por inducci´on sobre el n´ umero de columnas de A. Si A tiene una columna y A = 0 entonces A ya est´ a en forma escalonada reducida. Si A 6= 0 tomamos ai1 la primera entrada no nula de A para alg´ un i, entonces intercambiamos la primera fila con la i-´esima fila 8 obteniendo la matriz ai1 0    ..   .   0 .  ai+1,1   .  .. (1.3) am1 Para reducir esta matriz, multiplicamos la primera fila por 1 ai1 obteniendo una matriz con un uno en la primera posici´on y a continuaci´on se usa esta entrada para anular el resto de las entradas como se muestra a continuaci´on  ai1 0   ..   .   0   ai+1,1   .  .. 1 ai1  1 0   ..   .   0   ai+1,1   .  .. F1 →F1 am1 1 0 −ai+1,1 F1 +Fi+1 →Fi+1 am1 .. . −am1 F1 +Fm →Fm  ..  . 0 0 . .. 0 como esta u ´ltima est´ a en forma escalonada reducida obtenemos el resultado para matrices con una columna. Ahora supongamos que el resultado es cierto para matrices con n − 1 columnas y sea A una matriz con n columnas, usando la inducci´on obtenemos que podemos reducir las primeras n − 1 columnas hasta obtener una matriz en la forma 1 ... 0 ... 0 0 ... 1 ... 0 . . .. . . .. .. .. .  .. 0  0 . .. a1n a2n .. .     ... 0 ... 1 akn  . ... 0 ... 0 ak+1,n  . . .. . . .. ..  .. .. . 0 ... 0 ... 0 amn Si las entradas ak+1,n , . . . , amn son todas iguales a cero, entonces esta u ´ltima matriz ya est´ a en forma escalonada reducida, en caso contrario, suponemos sin p´erdida de generalidad que ak+1,n 6= 0, ya que si esta es cero haciendo un intercambio de fila podemos llevar una entrada diferente de cero que este por debajo de ´esta, como se hizo en (1.3), despu´es multiplicamos la fila k + 1 por 1 ... 0 ... 0 0 ... 1 ... 0 .  .. 0  0 . .. . . .. . . .. .. .. a1n a2n .. . obteniendo 1     ... 0 ... 1 akn  ... 0 ... 0 ak+1,n  . . .. . . .. ..  .. .. . 0 ... 0 ... 0 1 ak+1,n ... 0 ... 0 a1n 0 ... 1 ... 0 a2n 1 ak+1,n Fk+1 →Fk+1 . . . .  . .. . .. . .  0 ... 0 ...  0 ... 0 ... . . . . .. . . .. . .  .. ..   . .  1 akn  0 1  .. ..  . . 0 ... 0 ... 0 amn amn Finalmente, usando este 1, empleamos operaciones elementales para anular las dem´ as entradas de esta columna como se muestra a continuaci´on 1 ... 0 ... 0 a1n 0 ... 1 ... 0 a2n . . . .  . .. . .. . .  0 ... 0 ...  0 ... 0 ... . . . . .. . . .. . . .. .. . . 1 akn 0 1 .. .. . . 0 ... 0 ... 0 amn − a 1 Fk+1 +F1 →F1 1n        − a 1 Fk+1 +F2 →F2 2n −a .. . − a 1 Fk+1 +Fk →Fk kn 1 Fk+1 +Fk+2 →Fk+2 k+2n .. . 1 Fk+1 +Fm →Fm − amn ... 0 ... 0 0  0 ... 1 ... 0 0 1  .. . 0 0 . .. . . .. . . .. ..  . . . . . ... 0 ... 1 0  , ... 0 ... 0 1   . . .. . . .. .. .. ... 0 ... 0 ... 0 0 como esta u ´ltima matriz est´ a en forma escalonada reducida obtenemos por inducci´on que cualquier matriz se puede reducir a una matriz en forma escalonada reducida. ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 9  1     Ejemplo 1.6. Calcular la forma escalonada de reducida de la matriz A = 2 2 1 4 .   3 3 2 6 Aunque sabemos que podemos usar MatLab para calcular esta reducci´ on, es importante tambi´en entender  0 0 1 el algoritmo propuesto en el teorema anterior, el cual basicamente nos dice que la reducci´ on la podemos hacer columna por columna. Como la primera columna no es nula pero su primera entrada es cero, entonces intercambiamos la fila cuya primera entrada sea no nula, en este caso la segunda fila, como esto se debe hacer usando operaciones elementales, entonces intercambiamos la  0   2  3 primera y la segunda fila   2 2 0 1 1 F ↔ F  2  1 0 0 2 1 4   3 3 3 2 6 Luego multiplicamos la primera fila por este pivote para anular  2   0  3 1 2 1 4    1 1  2 6 para obtener el pivote en la primera columna y despu´es usamos las dem´ as entradas de esta columna, como se muestra a     1 2 1 4 21 F1 → F1 1 1 12 2         0  0 0 1 1 0 1 1     3 2 6 3 3 2 6 −3F1 + F3 → F3 0 continuaci´ on  1 21 2   0 1 1 .  0 12 0 El pivote en la segunda columna, si existiera, deber´ıa estar en una fila debajo de la primera y como la segunda y tercera entrada son ceros, entonces no hay pivote en esta columna, por tanto la tercera entrada en la segunda fila es el siguiente pivote, usamos  1   0  0 esta entrada para anular las dem´ as   1 12 2 − 21 F2 + F1 → F1 1 1     0 0 0 1 1   0 12 0 − 21 F2 + F3 → F3 0 0 entradas en la tercera columna, as´ı  3 0 2  1 1 .  0 − 12 Finalmente, la cuarta entrada en la tercera fila debe ser el siguiente pivote, para convertirlo en un uno, multiplicamos la tercera fila por -2 y despu´es usamos el pivote para anular las dem´ as entradas en la cuarta columna, esto lo hacemos de la siguiente forma  1 1 0  3 2  1 1 0   + F1 → F1 1    1  −F3 + F2 → F2 0   1 0 3 3 2  − 2 F3 1 0 0         (1.4) 0 0 1 0 0 1 1 0 1 0 .     0 0 0 − 12 −2F3 → F3 0 0 0 0 0 1   1 1 0 0     Por tanto la matriz 0 0 1 0 es la forma escalonada reducida de A.   0 0 0 1 El algoritmo anterior es el que se deduce del bosquejo de la demostraci´ on del teorema anterior, en donde se calculan los pivotes columna por columna, otra forma de aplicar reducci´ on Gauss-Jordan es calculando los pivotes fila por fila en donde se debe aplicar la definici´ on paso a paso. 10 Por ejemplo, si queremos calcular la forma escalonada reducida de la matriz A de esta forma, n´ otese que el pivote en cada fila debe ser la primera entrada no nula de la fila, por tanto la tercera entrada de esta fila debe ser el primer pivote, luego usamos esa entrada para anular las dem´ as entradas en su respectiva columna como se indica a continuaci´ on  0   0 0 1     4 −F1 + F2 → F2 2 2   6 −2F1 + F3 → F3 3 3 0 1   2  3 2 1 3 2 1 1    0 3 .  0 4 Con estos pasos estamos garantizando el cumplimiento de la condiciones 2. y 4. de la Definici´ on 1.3. El siguiente paso es encontrar el pivote en la segunda fila convertirlo en un uno y usarlo para anular las restantes entradas en su respectiva columna. Para la segunda fila se tiene que el pivote corresponde a la primera entrada en esta fila, para convertirlo en un 1 se multiplica la segunda fila por  0   2  3 0 1 2 0 3 0   1 0 0    1 3 2 F2 → F2 1 1   3 3 4  1 1 0 3 . 2 0 4 1 2  despu´es se usa el pivote para anular las dem´ as entradas en su columna, en este caso, la primera columna.  0 0 1   1 1 0  3 3 0 1    0   1  4 −3F2 + F3 → F3 0 3  2  0 1 1 1 0 3 . 2 − 21 0 0  Antes de continuar con el siguiente pivote notemos que los pivotes en esta u ´ltima matriz no satisfacen la condici´ on 3. de la Definici´ on 1.3, ya que el pivote de la segunda fila est´ a a la derecha del primer pivote y no a la izquierda, para organizarlos, intercambiamos las dos primeras filas:  0 0   1 1  0 0   1 F1 ↔ F2 1 1    3  0 0 0 2  1 0 0 0 −2 1  3 2 0  1 .  1 0 − 21 Finalmente observamos que la primera entrada no nula de la tercera fila es la u ´ltima entrada en esta fila, para convertirla en un uno y anular la otras entradas de la u ´ltima columna repetimos los pasos que hicimos en (1.4)  1 1 0 0     y obtenemos nuevamente que la matriz 0 0 1 0 es la forma escalonada reducida de A.   0 0 0 1  2 4   Ejemplo 1.7. Calcule la forma escalonada reducida de la matriz A = 2 4  1 2  −2   2 .  1 ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 11 Las operaciones para reducir esta matriz son las siguientes:   → F1 1 2 −1         2 4 2 4 2  −2F1 + F2 → F2 2     1 2 1 −F1 + F3 → F3 1 2 1   1 2 0 F2 + F1 → F1     0 0 1 .   −2F1 + F3 → F3 0 0 0  2 4 −2  1 2 F1  1 2   0 0  0 0  −1   4  2 1 4 F2  1 2   → F2  0 0  0 0  −1   1  2 Ahora que sabemos que toda matriz se puede llevar, por medio de operaciones elementales, a una matriz en forma escalonada reducida, debemos tambi´en saber para que nos sirve este resultado en t´erminos de soluciones de sistemas de ecuaciones lineales. El siguiente teorema nos muestra la utilidad de poder reducir matrices a su forma escalonada reducida ya que de esta u ´ltima podemos determinar si un sistema tiene soluciones y en el caso afirmativo tambi´en nos permite saber si la soluci´ on es u ´nica o existen infinitas.  a11 x1 + · · · + a1n xn = b1 a11  ..  . Teorema 1.2. Considere el sistema de ecuaciones , sea A =  .. .   b1  ..  .   am1 x1 + · · · + amn xn = bm am1 · · · amn bm la matriz de coeficientes asociada al sistema y sea A′ la forma escalonada reducida de A. Tenemos los siguientes ··· .. . a1n .. . casos: 1. Si A′ tiene pivote en todas las columnas excepto la u ´ltima entonces el sistema tiene soluci´ on u ´nica. 2. Si A′ tiene pivote en la u ´ltima columna entonces el sistema tiene soluci´ on vac´ıa. 3. Si A′ no tiene pivote en la u ´ltima columna y hay al menos otra columna sin pivote entonces el sistema tiene infinitas soluci´ ones.  1 ··· 0  . .  Demostraci´ on. 1. En este caso tenemos que A′ =  .. . . . ..  0 ··· 1 al final, las cuales omitimos al no aportar ninguna informaci´on  c1  ..  y posiblemente algunas filas de ceros .  cn adicional. De esta matriz se obtienen las ecuaciones x1 = c1 , . . . , xn = cn la cuales corresponden a la u ´nica soluci´ on al sistema. 2. Como A′ tiene un pivote en la u ´ltima columna y un pivote es la primera entrada no nula de una fila h i entonces tenemos que la matriz A′ tiene una fila de la forma 0 · · · 0 1 y de esta fila se obtiene la ecuaci´ on 0 = 1, lo cual implica que el sistema es inconsistente. 3. Supongamos sin p´erdida de generalidad que las dos u ´ltimas columnas de A′ no tienen pivote y que las 12 dem´ as si, entonces A′ tiene la forma  1  . A′ =  ..  0 ··· .. . 0 .. . c1 .. . ··· 1 cn−1 d1 .. . dn−1      y posiblemente algunas filas cero de las cuales precindimos. As´ı obtenemos las ecuaciones x1 + c1 xn = d1 , . . . , xn−1 + cn−1 xn = dn−1 o equivalentemente x 1 = d1 − c 1 x n , ..., xn−1 = dn−1 − cn−1 xn . Las cuales corresponden a las soluciones del sistema y por cada valor asignado a la variable xn obtenemos una soluci´ on, por tanto el sistema tiene infinitas soluciones. Un razonamiento similar demuestra esta afirmaci´on cuando la columna sin pivote est´ a en una columna diferente y tambi´en en el caso en donde hay varias columnas sin pivotes. A las variables correspondientes a columnas sin pivote se les llamar´ a variables libres y a las dem´ as se les llamar´a variables b´ asicas o no libres. La siguiente obervaci´ on nos servir´a m´as adelante. Observaci´ on 1.1. Los rec´ıprocos de las tres afirmaciones del teorema anterior tambi´en son ciertos, en la Secci´ on 1.4 veremos que las operaciones elementales de fila son reversibles lo cual permite aplicar operaciones elementales de fila a A′ hasta recuperar la matriz A lo que nos lleva de las soluciones al sistema original. Corolario 1.3. Un sistema lineal con m´ as variables que ecuaciones (n > m) nunca tiene soluci´ on u ´nica. Ejemplo 1.8. En este ejemplo se muestra las posibles soluciones para sistemas 2 × 2 seg´ un sus matricces escalonadas reducidas. x + 2y = 3 le corresponde la matriz de coeficientes 4x + 5y = 6     1 0 1 1 2 3 . Por el Teorema 1.2 el sistema tiene so y que la matriz escalonada reducida era   0 1 1 4 5 6 luci´ on u ´nica y esta dada por x = 1 y y = 1, la cual se muestra en la Figura 1.1.   1 1 4 4 x + y = 1 3 3 2. Al sistema lineal 3 y su matriz escalonada le corresponde la matriz de coeficientes  3 1 1 1 1 x + y = 1 3  3 3 3  1 3 0 . Por el Teorema 1.2 el sistema tiene soluci´ on vac´ıa, lo cual se muestra en la Figura reducida es  0 0 1 1.1.   1 3 3 x + 3y = 3  y su matriz escalonada le corresponde la matriz de coeficientes  3. Al sistema lineal 2 6 6 2x + 6y = 6 1. En el Ejemplo 1.3 se obtuvo que al sistema lineal ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN  reducida es  1 3 3 0 0 0 Figura 1.1. 13  . Por el Teorema 1.2 el sistema tiene infinitas soluciones, lo cual se muestra en la Ejemplo 1.9. Determine si el sistema de forma param´etrica. x1 + x2 + x3 + x4 = 4 tiene soluciones y en el caso afirmativo escribalas x3 − x4 = 3  Soluci´ on. La matriz de coeficientes es  1 1 1 1 4 0 0 1 −1 3   y su forma escalonada reducida est´ a dada por A′ =  1 . Por el Teorema 1.2 el sistema tiene infinitas soluciones las cuales se pueden dar en forma  0 0 1 −1 3 param´etrica leyendo el sistema de ecuaciones de la matriz A′ , las cuales son x1 + x2 + 2x4 = 1 y x3 − x4 = 3,  1 1 0 2 y escribiendo las variables b´ asicas en t´erminos de las variables libres obtenemos x1 = 1 − x2 − 2x4 x3 = 3 + x4 . De acuerdo a estas ecuaciones las variables x2 y x4 toman valores arbitrarios y por cada par de valores que se le asignen a estas variables, se tiene una soluci´ on particular, si a estas variables les asignamos valores param´etricos x2 = t y x4 = u obtenemos todas las soluciones param´etricas al sistema: x1 = 1 − t − 2u x2 = t x3 = 3 + u x4 = u. Ejemplo 1.10. Considere el sistema  −1 2    0 3  2 −1 3 −1  −x + 2y + 3z = −1 a dada por A = 3y − 2z = −1 . La matriz asociada al sistema est´ 2x − y − 8z = 1   −2 −1 cuya forma escalonada reducida R fu´e calculada en en el Ejemplo 1.5  −8 1   1 1 0 − 13 3 3    R = 0 1 − 32 − 31  .   0 0 0 0 De aqu´ı tenemos que el sistema tiene infinitas soluciones las cuales estan dadas por x= 1 3 + 13 3 z y = − 31 + 23 z, 14 asignando el valor param´etrico z = t a la variable libre z, obtenemos las soluciones param´etricas al sistema: x= 1 3 + 13 3 t y = − 13 + 32 t z= t −x + 2y + 3z = −1 Ejemplo 1.11. (MatLab) El sistema 2x − 4y − 6z = −1 tiene matriz asociada al sistema dada por 2x − y − 8z = 1  −1 2 3 −1     A =  2 −4 −6 −1 .   2 −1 −8 1 Usando MatLab para calcular la forma escalonada reducida de A,  (>>format rat, A = [−1, 2, 3, −1; 2, −4, −6, −1; 2, −1, −8, 1]; R = rref (A)), obtenemos la matriz   1 0 − 13 0 3     2 R =  0 1 − 3 0 .   0 0 0 1 Como esta u ´ltima matriz tiene un pivote en la u ´ltima columna, entonces por el Teorema 1.2 el sistema no tiene soluci´ on. Del Teorema 1.2 tambi´en se desprende el siguiente corolario, para el cual necesitamos la siguiente definici´on. Definici´ on 1.4. Un sistema lineal homog´ eneo es un sistema lineal de la forma a11 x1 + · · · + a1n xn = 0 .. , . am1 x1 + · · · + amn xn = 0 es decir, un sistema donde todos los t´ erminos independientes son cero. Corolario 1.4. Un sistema lineal homog´eneo siempre tiene soluci´ on. Terminamos la secci´on con la definici´on de rango de una matriz. Definici´ on 1.5. Sea A una matriz y A′ su forma escalonada reducida. Definimos el rango de A, denotado por rango(A), como el n´ umero de pivotes de A′ . Ejemplo 1.12. Para las matrices del Ejemplo 1.4 se tiene que rango(A) = 3, rango(B) = rango(C) = rango(D) = 2 y rango(E) = rango(F ) = rango(G) = 1. ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 15 Problemas 1.1.1. Use el m´etodo Gauss-Jordan para resolver los siguientes sistemas. a. d. x − 2y + 3z = 7 2x + y − z = 7 b. 2x + 4y − 4z = 6 2x − 5y + 4z = 6 2x − y − z = 7 −x + 16y − 14z = −3 x + 2y + 3z = 1 x + 2y + 3z + w = 7 4x + 5y + 6z = 2 e. 4x + 5y + 6z + 2w = 7 c. x−y+z =4 2x + y + z = 3 x + 2y + 3z + 4w = 1 f. 7x + 8y + 9z + 4w = 7 7x + 8y + 9z = 4 x+y−z =7 x + 2y + 3z + 3w = 2 x + 2y + 2z + 2w = 3 x+ y+ z+ w =1 1.1.2. Encuentre las soluciones param´etricas al sistema y u ´selas para calcular dos soluciones particulares: x − 2y + 3z + w = 3 y =2 w=1 1.1.3. Demuestre que el sistema 2x − y + 3z = α 3x + y − 5z = β es consistente si y s´ olo si λ = 2α − 3β. −5x − 5y + 21z = λ 1.1.4. Para los sistemas cuyas matrices aumentadas est´ an dadas en los numerales desde a. hasta c. determine los valores α y β para los cuales el sistema tiene: I. Ninguna soluci´ on. II. Soluci´ on u ´nica. III. Infinitas  1   a. 0  0 soluciones y en este caso dar dos soluciones particulares.    1 0 α 0 0 α 0         b. 0 1 β 1 1 β 1    0 0 2α + β α + β − 1 0 α+β α−β−2 1.1.5. Muestre que el sistema ax + by = 0 cx + dy = 0 c.  1 0   0 1  0 0 α β α−β 0      α−β−2 1 tiene soluci´ on si y s´ olo si ad − bc = 0. 1.1.6. Haga una lista de todas las matrices 3×4 que esten en forma escalonada reducida. 1.1.7. Demuestre el Corolario 1.3 y el Corolario 1.4. 1.1.8. Muestre que si el n´ umero de ecuaciones en un sistema lineal homog´eneo es menor que el n´ umero de sus inc´ ognitas, entonces el sistema tiene una soluci´ on no trivial. 16 1.1.9. Muestre que efectuar operaciones elementales en un sistema de ecuaciones produce un sistema ecuaciones equivalente. Dos sistemas de ecuaciones son equivalentes si tienen las mismas soluciones. 1.1.10. Usando el Problema 1.1.9, muestre que un sistema de ecuaciones es equivalente al sistema de ecuaciones que se obtiene de la correspondiente matriz escalonada reducida. 1.1.11. Si A es una matriz de tama˜ no m × n, demuestre que el rango(A) ≤ m´ın{m, n}. 1.1.12. Demuestre que el sistema homogen´eo ax + by = 0 tiene infinitas soluciones si y s´ olo si ad − bc = 0 cx + dy = 0 1.2. Operaciones con Matrices y Vectores En esta secci´on se expondr´an las operaciones b´asicas entre matrices y vectores y se mostrar´an las propiedades que estas operaciones satisfacen. Definici´ on 1.6. Definimos vector columna (fila) como una matriz con una sola columna (fila).   1   h i   Ejemplo 1.13. v =  2  es un vector columna y w = 0 1 es un vector fila.   −1 Definici´ on 1.7. (Operaciones con matrices y vectores)    a11 · · · a1n b11    ..   .  . .. 1. (Suma de matrices) Sean A =  .. y B =  .. . .     am1 · · · amn bm1 definimos la matriz A + B como la matriz dada por:    A+B =  ··· a11 + b11 .. . ··· .. . a1n + b1n .. . am1 + bm1 ··· amn + bmn Similarmente, definimos la suma de los vectores x =  .. x .  1  xn  b1n  ..  matrices del mismo tama˜ no, .   bmn ··· .. .    .     x 1 + y1 y1     ..   . y y =  ..  como el vector x + y =  . .     x n + yn yn  " a1 # .. Identificando vectores v = con el vector en Rn iniciando en el origen y terminando en el punto . an (a1 , . . . , an ), obtenemos que la suma de vectores se rige por la “Ley del paralolegramo”, ver 1.7. En la   Figura   a  1 a1   siguiente figura vemos la representaci´ on geom´etrica de los vectores v =   en R2 y w = a2  en R3 .   a2 a3 ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 17   a11 · · · a1n   ..   . .. 2. (Producto de una matriz por un escalar) Sea A =  .. una matriz de tama˜ no m × n y α un . .    am1 · · · amn escalar (constante real arbitraria), definimos la matriz α · A como la matriz dada por  αa11   .. αA =  .  αam1 ··· .. . ···  αa1n  ..  . .   αamn  x1    .  Similarmente, definimos el producto de un vector x =  ..  por un escalar α ∈ R como el vector αx =   xn   αx1    ..   . .   αxn  1 2    −2 −2       Ejemplo 1.14. (MatLab) Sean A = −1 −3 y B =  3    1 0 1 2A en MatLab como sigue    1 . Podemos calcular las matrices A + B y  1 >> A = [1, 2; −1, −3; 0, 1]; B = [−2, −2; 3, 1; 1, 1]; A + B, 2 ∗ A Obteniedo las matrices:  −1   A+B = 2  1 0    −2  2  2 4      2 ∗ A = −2 −6 .   0 2 y Notaci´ on 1. Denotaremos por Omn a la matriz de ceros de tama˜ no m × n, o simplemente por O si no hay lugar a confusi´ on y al vector cero lo denotaremos por θn o simplemente θ si no hay lugar a confusi´ on. Si A es una matriz, denotamos por Ai el vector fila formado por la i-´esima fila de A y por Ai el vector columna formado por la i-´esima columna de A. El siguiente teorema establece las propiedades que satisfacen estas operaciones en matrices y vectores. Teorema 1.5. Sean A, B y C matrices de tama˜ nos m × n, α y β escalares, entonces tenemos 1. (A + B) + C = A + (B + C) 2. A + Omn = Omn + A = A 3. A + (−1A) = −1A + A = O 4. A+B =B+A 5. α(A + B) = αA + αB 6. (α + β)A = αA + βA 7. (αβ)A = α(βA) 8. 1A = A 18 De la Propiedad 3. de este teorema se observa que −1A es el inverso aditivo de A y este ser´a denotado por −A (el inverso aditivo de una matriz es u ´nico, ver Problema 1.2.4 ). En este sentido la diferencia de dos matrices A y B, A − B, se define como: A + (−B). El siguiente teorema establece las propiedades an´alogas que se cumplen para vectores. Teorema 1.6. Sean x, y y z vectores con n componentes, α y β escalares, entonces tenemos 1. (x + y) + z = x + (y + z) 2. x + θn = θn + x = x 3. x + (−1x) = −1x + x = θn 4. x+y =y+x 5. α(x + y) = αx + αy 6. (α + β)x = αx + βx 7. (αβ)x = α(βx) 8. 1x = x A continuaci´on se da la definici´on de producto interno de vectores y transpuesta de una matriz, lo cual permitir´a definir el producto de matrices.     x1 y1      ..   ..  Definici´ on 1.8. Sean x =  .  y y =  .  vectores columna de n componentes, definimos el producto     xn yn interno o producto escalar de los vectores x y y, denotado por x · y, por la f´ ormula x · y = x 1 y1 + · · · + x n yn = n X x i yi . i=1   a11 · · · a1n   ..   . .. Definici´ on 1.9. Sea A =  .. no m × n, definimos la matriz transpuesta  una matriz de tama˜ . .   am1 · · · amn t de A, denotada por A , como la matriz cuyas columnas son las filas de A, esto es:  a11  .  At =  ..  a1n ··· .. . ···  am1  ..  . .   amn Si una matriz A satisface que At = A, decimos que A es sim´ etrica. Si una matriz A satisface que At = −A, decimos que A es antisim´ etrica.     2 1   2 3 −1   entonces At =  3 2 Ejemplo 1.15. Si A =  .   1 2 1 −1 1   2 −1 1     Si B = −1 2 −1 entonces B t = B y B es una matriz sim´etrica.   1 −1 2 ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 19 Ejemplo1.16. (MatLab)El comando en MatLab para calcular la transpuesta de una matriz es “transpose”. 32 −10 78     Sea A =  3 56 −89, as´ı para calcular su transpuesta se hace:   45 0 9 >> A = [32, −10, 78; 3, 56, −89; 45, 0, 9]; T = transpose(A)   32 3 45     Obteniedo la matriz T = At = −10 56 0 .   78 −89 9 Ahora pasemos a definir el producto de matrices.  a11 · · · a1n   ..   . .. no m × n y B = Definici´ on 1.10. (Producto de matrices) Sea A =  ..  una matriz de tama˜ . .   am1 · · · amn   b11 · · · b1q   ..   .. .. de tama˜ no n × q. Definimos el producto A · B, usualmente denotado por AB, como la matriz  . . .    bn1 · · · bnq   c11 · · · c1q   Pn ..   . .. de tama˜ no m × q dada por AB =  ..  donde cij = k=1 aik bkj = ai1 b1j + ai2 b2j + · · · + ain bnj , . .   cm1 · · · cmq para i = 1, . . . , m y j = 1, . . . , q.  Notese que la ij-´esima entrada de la matriz AB es la suma de los productos de cada entrada en la fila i de A por la respectiva entrada de la columna j de B, esto es:  a  11  .  ..    a  i1  .  .  .  am1 ··· .. . ··· .. . ···  a1n  ..  .    b11  . . ain    .  ..  .  bn1  amn Este producto coincide con el producto escalar Ai columna de B. t ··· .. . b1j .. . ··· .. . b1q .. . ··· bnj ··· bnq    .  · Bj , donde Ai es la i-´esima fila de A y Bj es la j-´esima  Ejemplo 1.17. Calcular el producto AB donde A =  1 −1 2 2 0   2  yB= −2  −3 1  0   1 .  0 20 Soluci´ on. Vamos a calcular cada una de las entradas cij de la matriz AB:       2 1 2 h it              1 t c11 = A · B1 = 1 −1 0 · −2 = −1 · −2 = 2 + 2 + 0 = 4,       1 0 1       0 1 0 h it              1 t c12 = A · B2 = 1 −1 0 · 1 = −1 · 1 = 0 − 1 + 0 = −1,       0 0 0       2 2 2 h it              2 t c21 = A · B1 = 2 2 −3 · −2 =  2  · −2 = 4 − 4 − 3 = −3,       1 −3 1       0 2 0 h it              2 t c22 = A · B2 = 2 2 −3 · 1 =  2  · 1 = 0 + 2 + 0 = 2.       0 −3 0 De estos resultados tenemos  AB =   Ejemplo 1.18. (MatLab) Sean A =  1 2 podemos calcular el producto de matrices en c11 c12 c21 c22   = 4 −1 −3 2  .  0   −1 0   y B =  −2 1 las matrices del ejemplo anterior,   2 −3 1 0 MatLab usando el comando “*”, como se muestra a continuaci´ on:   2 >> A = [1, −1, 0; 2, 2, −3]; B = [2, 0; −2, 1; 1, 0]; C = A ∗ B, D = B ∗ A Obtienendo las matrices:   2  4 −1   y D = 0 C=  −3 2 1 −2 0    −3 .  −1 0 4 El ejemplo anterior nos muestra que el producto de matrices no es en general conmutativo pero si satisface la asociatividad. Teorema 1.7. Sean A, B y C matrices de tama˜ nos m × n, n × p y p × q, respectivamente. Entonces se tiene que A(BC) = (AB)C. Demostraci´ on. Sean aij , bij y cij las entradas de las matrices A, B y C respectivamente, y sean dij y eij las entradas de las matrices AB y BC respectivamente. Por definici´on del producto de matrices tenemos que dij = n X k=1 aik bkj y eij = p X h=1 bih chj . ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 21 Ahora, sean fij y gij las entradas de las matrices A(BC) y (AB)C respectivamente. Entonces fij = n X aik ekj = k=1 gij = p X h=1 n X aik k=1 dih chj = p X bkh chj = h=1 p X n X p n X X aik bkh chj = h=1 k=1 De las ecuaciones (1.5) y (1.6) tenemos que (AB)C = A(BC). aik bkh chj y (1.5) k=1 h=1 p n X X aik bkh chj . (1.6) k=1 h=1 Una matriz con igual n´ umero de filas y columnas, es de decir de tama˜ no n × n, se llama matriz cuadrada. El producto de matrices cuadradas satisface otras propiedades importantes, entre ellas la existencia de una matriz neutra bajo a la cual se le llama la matriz identidad y se denota por In . Esta matriz se   el producto, 1 ··· 0   .  .. . . define por In =  . . .. , es decir, la matriz identidad es la matriz cuyas entradas en la diagonal principal   0 ··· 1 son uno y ceros por fuera esta. Listamos a continuaci´on m´as propiedades de las operaciones con matrices. Teorema 1.8. Sean A y C matrices de tama˜ nos m × n y n × q respectivamente, entonces se tiene lo siguiente: 1. Im A = A y AIn = A. En particular si A es una matriz cuadrada de tama˜ no n × n entonces AIn = In A = A. 2. Okm A = Okn y AOnk = Omk para cualquier k = 1, 2, 3, · · · . En particular si A es una matriz cuadrada de tama˜ no n × n entonces AOnn = Onn A = Onn . 3. (A + B)C = AC + BC, donde B es una matriz de tama˜ no m × n. 4. A(B + C) = AB + AC, donde B es una matriz de tama˜ no n × q. A continuaci´on listamos tres propiedades, que aunque parecen no tener mucha importancia, ser´an muy u ´tiles en muchas demostraciones en el resto del libro.   A1    .  Lema 1.9. Sean A =  ..  una matriz de tama˜ no m × n donde A1 , . . . , Am son las filas de A, B =   Am   x1   h i  ..  no n × q donde B1 , . . . , Bq son las columnas de B y x =  .  un vector columna, B1 · · · Bq de tama˜   xq entonces 1. Las columnas del producto AB son los vectores columna AB1 , . . . , ABq , es decir h i AB = AB1 · · · ABq .   A1 B    .  2. Las filas del producto AB son los vectores fila A1 B, . . . , Am B, esto es, AB =  .. .   Am B 22 3. El producto Bx es el vector x1 B1 + · · · + xq Bq . Es decir, el vector Bx es una combinacion lineal de las columnas de B con coeficientes tomados de x. En el siguiente ejemplo se muestra como puede ser usado el lema anterior para realizar el producto de matrices.       2   1 0 3 1 −3   y x = −3 , B =  Ejemplo 1.19. Sean A =  . El producto AB se puede ver de las   2 −1 1 4 −1 1 siguientes formas h i  1 −3 B i  y AB =  h 4 −1 B        3 0 1 AB = A   A   A   1 −1 2          −3 1 −3 1 = 1   + 2   0   − 1   −1 4 −1 4   −5 3 0 . = 2 1 11     −3 1 3   + 1   −1 4 El producto Bx es una combinaci´ on de las columnas de B:         5 3 0 1 Bx = 2   − 3   + 1   =   . 8 1 −1 2 El producto de matrices sirve para establecer otra conexi´on entre matrices y sistemas de ecuaciones lineales. Sea a11 x1 + · · · + a1n xn = b1 .. un sistema de ecuaciones lineales, entonces por definici´on del producto de matrices . am1 x1 + · · · + amn xn = bm     a11 · · · a1n x1     .  ..   .. ..  , x =  ...  tenemos que este sistema es equivalente a la ecuaci´ on matricial Ax = b donde A =  .  .     am1 · · · amn xn   b1    .  on matricial Ax = b en lugar del sistema de ecuaciones. y b =  ..  . En lo que sigue del libro usaremos la ecuaci´   bm Terminamos la secci´on definiendo matrices triangulares y matriz diagonal, que aparecen muy a menudo en varias partes del libro.  a11   .. Definici´ on 1.11. Sea A =  .  an1 ··· .. . ···  a1n  ..  una matriz de tama˜ no n × n, decimos que .   ann ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 23 1. A es triangular superior si aij = 0 para i > j. 2. A es triangular inferior si aij = 0 para i < j. 3. A es diagonal si aij = 0 para i 6= j.    1 2 3 1 0       Ejemplo 1.20. Las matrices A = 0 3 1, B = 2 3    0 0 2 1 2 triangular superior, triangular inferior y diagonal.   0 1     0 y C = 0   2 0  0 0   3 0 son, respectivamente,  0 2 Problemas     −2 3             1.2.1. Ejecutar las operaciones indicadas con los vectores v = −1, w = 1 y z =  5 .       0 2 3  a. A+B b. b. 3v A−B c. − 3w  d. 3v + 2d − 3w.    −2 −2 1 2         1.2.2. Ejecutar las operaciones indicadas con las matrices A = −1 −3 y B =  3 1 .     1 1 0 1 a. v+w 1 c.  − 3A d. − 3A + 2B. 1.2.3. Es muy posible que los estudiantes que esten tomando ´ algebra lineal por primera vez esten acostumbrados a que al multiplicar dos cosas distintas de cero su resultado sea distinto de cero. En la multiplicaci´ on de matrices esto puede no ocurrir. Al resolver este problema encontrar´ an ejemplos de esta situaci´ on y de otras situaciones a las que posiblemente no esten acostumbrados.      1 3 3 0 1 , C =  , B =  Sean A =  −1 52 52 0 0 los siguientes productos:     0 1 0 0 , E =  , D =  0 0 0 0 (a) AA, F F F y BC. ¿Puede concluir algo m´ as general del producto BC? (b) DD y EE. 1.2.4. Demuestre que el inverso aditivo de una matriz es u ´nico. 1.2.5. Sean A y B matrices de tama˜ nos m × n. Muestre que (a) (A + B)t = At + B t . (b) (AB t )t = BAt .   0  0 yF = 0  1 0 1 0    0 1. Calcule  0 0 24 1.2.6. Sean A y B matrices de tama˜ nos m × n y n × p, demuestre que (AB)t = B t At . 1.2.7. Demuestre los Teoremas 1.5, 1.6 y 1.8. 1.2.8. Una matriz cuadrada se llama una matriz de probabilidad si cada componente es no-negativa y la suma de los elementos de cada fila es 1. Demuestre que si A y B son dos matrices de probabilidad tama˜ nos m × n y n × q, entonces AB es una matriz de probabilidad. 1.2.9. Si A y B son matrices sim´etricas demuestre lo siguiente 1. A + B es sim´etrica. 2. (AB)t = BA. 1.2.10. Si A es una matriz de tama˜ no m × n, demuestre que AAt y At A son matrices sim´etricas. 1.2.11. Sea A ∈ Mn (R), muestre que A+At es sim´etrica y A−At es antisim´etrica y A = 21 (A+At )+ 21 (A−At ). Es decir, toda matriz cuadrada se puede expresar como la suma de una matriz sim´etrica y una antisim´etrica. 1.2.12. Sean A, B ∈ Mn (R), demuestre lo siguiente 1. Si A y B son triangulares superiores, entonces AB es triangular superior. 2. Si A y B son triangulares inferiores, entonces AB es triangular inferior. 3. Si A y B son matrices diagonales, entonces AB es diagonal. 4. En todos los anteriores casos, si las entradas en las diagonales principales de A y de B son, respectivamente, a11 , . . . , ann y b11 , . . . , ann , entonces las entradas en la diagonal principal de AB son a11 b11 , . . . , ann bnn . " λ ··· 0 # 1 1.2.13. Sean A, B ∈ Mn (R) con B = .. . . . .. diagonal, demuestre lo siguiente: . . 0 ··· λn 1. Si las columnas de A son C1 , . . . , Cn entonces las columnas de AB son λ1 C1 , . . . , λn Cn . Es decir, si A = [ C1 · · · Cn ] entonces AB = [ λ1 C1 · · · λn Cn ]. "F # 1 2. Si las filas de A son F1 , . . . , Fn entonces las columnas de BA son λ1 F1 , . . . , λn Fn . Es decir, si A = .. . Fn "λ F # 1 1 .. . entonces BA = . λn Fn 1.2.14. Si A ∈ Mmn (R), demuestre que rangoA = 1 si y s´ olo si existen vectores v ∈ Rm y w ∈ Rn tal que A = vwt . 1.2.15. Sean v1 , v2 y v3 vectores en Rn y α un escalar. Demuestre lo siguiente: v1 · θ = 0, v1 · v2 = v2 · v1 , v1 · (v2 + v3 ) = v1 · v2 + v1 · v3 , (αv1 ) · v2 = v1 · (αv2 ) = α(v1 · v2 ) y v1 · v2 ≥ 0. 1.2.16. Si A y B son matrices cuadradas que conmutan y son nilpotentes entonces A + B es nilpotente. ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 1.3. 25 Inversa de una Matriz Las matrices invertibles juegan un papel fundamental en el ´algebra lineal, en particular la posibibilidad de tener la inversa de una matriz nos permitir´ a resolver algunos sistemas de ecuaciones lineales de manera muy simple. Se comienza esta secci´on con la definici´on de este concepto. Definici´ on 1.12. Sea A una matriz cuadrada de tama˜ no n × n, decimos que A es invertible si existe una matriz B de tama˜ no n × n tal que AB = BA = In .   2 1  es invertible ya que el producto Ejemplo 1.21. La matriz A =  1 1  A    1 0 −1  = I2 . = 0 1 2    1 2 1 −1  = −1 1 1 2 1 −1  Ejemplo 1.22. No toda matriz tiene inversa, por ejemplo, si la matriz A =   entonces existir´ıa una matriz B =   tendr´ıamos que  a+b c+d 0 0 invertible.  a c b d   = I2 =   1 1 0 0   tuviera una inversa,   tal que AB = BA = I2 . Sin embargo AB =  1 0 0 1 a+b c+d 0 0    y , por tanto 0=1 lo cual es una contradicci´ on y A no puede ser En general si A es una matriz con una fila de ceros entonces A no es invertible. Esta afirmaci´on se deja como ejercicio, Problema 1.3.5. Las matrices invertibles satisfacen las siguientes propiedades. Lema 1.10. Sea A una matriz n × n una matriz invertible, entonces la inversa es u ´nica. Demostraci´ on. Sean B y C matrices inversas de A, es decir AB = BA = In y AC = CA = In . Entonces utilizando una de las propiedades de la matriz identidad del Teorema 1.8 tenemos que: B = BIn = B(AC) = (|{z} BA )C = In C = C. In Notaci´ on 2. Como la inversa de una matriz invertible es u ´nica, entonces de ahora en adelante la denotaremos por A−1 . Teorema 1.11. Sean A y B matrices de tama˜ nos n × n, entonces: 26 1. Si A y B son invertibles entonces AB es invertible y (AB)−1 = B −1 A−1 . 2. A es invertible si y s´ olo si At es invertible y en este caso se tiene que (At ) Demostraci´ on. −1 t = A−1 . 1. Utilizando la propiedad asociativa del producto de matrices (Teorema 1.7) se tiene que −1 −1 −1 −1 (AB)(B −1 A−1 ) = A BB | {z } A = AIA = AA = I =I y de igual forma (B −1 A−1 )(AB) = I, entonces la matriz B −1 A−1 es la inversa de AB. Como la inversa es u ´nica tenemos que (AB)−1 = B −1 A−1 . 2. Supongamos que A es invertible, por el Problema 1.2.6 tenemos que At (A−1 )t = (A−1 A)t = I t = I y adem´ as (A−1 )t At = (AA−1 )t = I t = I, entonces la matriz (A−1 )t es la invera de At , como la inversa es u ´nica obtenemos que (At )−1 = (A−1 )t . La demostraci´ on del rec´ıproco es an´aloga.  1 −1 3   1 −1 2          Ejemplo 1.23 (MatLab). Sean A = 1 −2 2 y B = 0 0 1, de acuerdo al teorema anterior hay     2 0 2 1 −2 2 dos maneras de calcular (AB)−1 , las cuales son multiplicar A y B y despues calcular su inversa, o calcular B −1 y A−1 y multiplicarlas. El comando para calcular la inversa de una matriz es “inv”, a continuaci´ on exhibimos estos c´ alculos en MatLab. >> format rat, A = [1, −1, 3; 1, −2, = [1, −1,  2; 0, 0, 1; 1, −2,2]; C = inv(A∗B), D = inv(B)∗inv(A)  2; 2, 0, 2]; B  −8  3  Obteniendo las matrices C = − 34  1 3 7 3 2 3 − 23 7 6 −8  3  5  y D = − 34 6  1 6 1 3 7 3 2 3 − 23 7 6 5 , 6 las cuales son iguales. 1 6 El teorema tambi´en nos dice que hay dos maneras de calcular la inversa de At , una de forma directa y la otra se obtiene al transponer A−1 . >> format rat, A = [1, −1, 3; 1, −2, 2;  2, 0, 2]; E = transpose(inv(A))   Obteniendo E =   − 23 1 3 2 3  − 13  y si se calcula de la siguiente forma,  1 1 2 − 3 6 6 >> format rat, A = [1, −1, 3; 1, −2, 2; 2, 0, 2]; F = inv(transpose(A)) 1 3 − 23 se obtiene lo mismo. Si Ax = b es un sistema de ecuaciones con A invertible, entonces el sistema tiene soluci´ on u ´nica y esta es fac´ıl de calcular como se muestra a continuaci´on. Teorema 1.12. Sea Ax = b un sistema de ecuaciones lineales de n ecuaciones con n incognitas. Si A es invertible entonces el sistema tiene soluci´ on u ´nica y esta est´ a dada por x = A−1 b. ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 27 Demostraci´ on. Se deja como ejercicio. x − y + 3z = 2 Ejemplo 1.24. (MatLab) Resuelva el sistema lineal x − 2y + 2z = 1. 2x + 2z = 0     2 3         Soluci´ on. El sistema es equivalente a la ecuaci´ on Ax = b con A = 1 −2 2 y b = 1 y de acuerdo al     0 2 0 2 teorema anterior la soluci´ on est´ a dada por x = A−1 b la cual calculamos con MatLab 1 −1 >> A = [1, −1, 3; 1, −2, 2; 2, 0, 2]; b = [2; 1; 0]; x = inv(A) ∗ b   −1     on al sistema est´ a dada por x = −1, y = 0 y z = 1. Obteniendose el vector x =  0 . Entonces la soluci´   1 Problemas  1.3.1. Demuestre que una matriz A =  a b c d   es su propia inversa si y s´ olo si A = ±I o a = −d y bc = 1 − a2 . 1.3.2. Encuentre cuatro matrices 2×2 que sean sus propias inversas. 1.3.3. Sea A una matriz m × n y sea B una matriz n × m con n < m, demuestre que AB no es invertible. (Ayuda: Demuestre que existe x 6= 0 tal que ABx = 0.) Sean A, B y C matrices de tama˜ no n × n. 1.3.4. Demuestre que si A = BC con A y B invertibles entonces C es invertible. 1.3.5. Demuestre que si una matriz A tiene una fila o una columna de ceros, entonces A no es invertible (Use el Lema 1.9.) 1.3.6. Demuestre el Teorema 1.12. 1.3.7. Demuestre que A−1 es invertible y que (A−1 )−1 = A. 1.3.8. Si A es 4 × 3 y B es 3 × 4 muestre que AB 6= I. (Ayuda: Muestre que la ecuaci´ on Bx = 0 tiene una soluci´ on no trivial.) 1.3.9. Generalizando el problema anterior, si A es m × n y B es n × m y m > n entonces AB 6= I. 28 1.4. Matrices Elementales En esta secci´on introduciremos las matrices elementales las cuales est´ an asociadas a las operaciones elementales definidas en la Secci´on 1. Definici´ on 1.13. Sea E una matriz de tama˜ no n × n, decimos que E es una matriz elemental si E se obtiene de la identidad al aplicar una operaci´ on elemental de fila. Ejemplo 1.25. Las siguientes matrices son matrices elementales:      1 0 1 2 0 0 1 0           B = 0 1 0 y C = 0 −3 A = 1 0 0 ,      0 0 0 0 1 0 0 1  0   0 .  1 Cada una de estas matrices se obtiene al aplicar una operaci´ on sobre la matriz identidad, como se muestra a conitunaci´ on:     0  0 1   0  0 y     0 1 0 0  F ↔ F  2   1 1 0 0 = A, 1 0    0 0 1 0 1    0 1 2 0  2F + F → F   1 1  2  0 1 0 = B, 0    1 0 0 1 1 0 0 1 0 1 0   0 1  0 0   1 0     0 0  −3F2 → F2  0 1 0 0    −3 0 = C.  0 1 Notaci´ on 3. Como hay tres tipos diferentes de operaciones elementales, hay un n´ umero igual de tipos de matrices elementales, entonces usaremos la siguiente notaci´ on. Eij denotar´ a la matriz elemental que se obtiene al intercambiar las filas i y j de la matriz identidad. Eij (c) denotar´ a la matriz que se obtiene al sumar c veces la fila i a la fila j de la matriz identidad. Ei (c) la matriz que se obtiene al multiplicar por la constante c la fila i de la matriz identidad. Ejemplo 1.26. En el ejemplo anterior tenemos que A = E12 , B = E21 (2) y C = E2 (−3). La importancia de las matrices elementales reside en el hecho de que estas matrices reemplazan las operaciones elementales ya que aplicar una operaci´ on elemental a una matriz A es equivalente a multiplicar la matriz elemental correspondiente a la operaci´ on por A. Esto lo expresamos en el siguiente teorema. Teorema 1.13. Sea A una matriz de tama˜ no m × n y E una matriz elemental de tama˜ no m × m asociada a una operaci´ on elemental de fila, el producto EA es la matriz que se obtiene al aplicar la operaci´ on elemental de fila a la matriz A. ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 29 La demostraci´ on de este teorema se hace verificando que al aplicar una operaci´ on elemental se obtiene la misma matriz que al multiplicar la matriz asociada a la operaci´ on elemental, se debe considerar un caso por cada operaci´ on elemental. La verificaci´on es sencilla y preferimos mostrar un ejemplo que compruebe la afirmaci´on.  2 2   Ejemplo 1.27. Sea A = 0 1  4 5   1 1 2     la matriz 0 1 −1.   4 5 1 4    on que multiplica la primera fila por −1. Al aplicar la operaci´  1  1 2 0 0 1 2 obtenemos     N´ otese que la matriz elemental asociada a esta operaci´ on es la matriz E1 ( 12 ) =  0 1 0  y es f´ acil   0 0 1   1 1 2     1 verificar que E1 ( 2 )A = 0 1 −1.   4 5 1   2 2 4     Si en la matriz A sumamos -2 veces la fila 1 a la fila 3 obtenemos la matriz 0 1 −1.   0 1 −7   1 0 0     acil N´ otese que la matriz elemental asociada a esta operaci´ on est´ a dada por E13 (−2) =  0 1 0 y es f´   −2 0 1   2 2 4     verificar que E13 (−2)A = 0 1 −1.   0 1 −7   2 2 4     Finalmente, si en la matriz A intercambiamos las filas 2 y 3 obtenemos la matriz 4 5 1 . La matriz   0 1 −1     2 2 4 1 0 0         acil ver que E23 A = 4 5 elemental asociada a esta operaci´ on de fila es E23 = 0 0 1 y f´ 1 .     0 1 −1 0 1 0 Las operaciones elementales de fila son reversibles, es decir, al aplicar una operaci´ on elemental de fila, siempre se puede aplicar otra operaci´ on elemental que deshaga la operaci´ on aplicada. Esto se muestra en el siguiente ejemplo. Ejemplo 1.28. Para ilustrar la reversibilidad de las operaciones elementales consideremos la matriz A = 30  3     on,  2 0 2, si intercambiamos las filas 1 y 2 de esta matriz y aplicaramos nuevamente la misma operaci´   −3 1 0 obtenemos la matriz orginal como se muestra a continuaci´ on       0 1 3 2 0 2 0 1 3  F ↔ F  F ↔ F   2 2   1  1   2 0 2  0 1 3  2 0 2 .       −3 1 0 −3 1 0 −3 1 0  0 1 En general, si se intercambian dos filas de una matriz, la operaci´ on se puede revertir al volver a intercambiarlas una vez m´ as. Esto a la vez nos dice que la matriz elemental Eij , asociada a esta operaci´ on de intercambio de −1 = Eij . dos filas, es invertible y es igual a su propia inversa, esto es Eij Volviendo a la matriz A, si multiplicamos la fila 2 por 1 2 y despu´es multiplicamos la misma fila por 2 obtenemos la matriz original como se muestra a continuaci´ on    0 1 0 1 3      1  2 0 2 2 F2 → F2  1 0    −3 1 −3 1 0    0 1 3 3       1 2F2 → F2  2 0 2 .    −3 1 0 0 En general, si se multiplica una fila de una matriz por una constante c 6= 0, la operaci´ on se puede revertir al volver a multiplicar la misma fila de la nueva matriz por la constante 1 c. Esto a la vez nos dice que la matriz elemental Ei (c), asociada a esta operaci´ on de multiplicar la fila i por una constante c 6= 0, es invertible y su  inversa est´ a dada por Ei (c)−1 = Ei 1c . Una vez mas regresamos a la matriz A, si le sumaramos 1 2 la fila 2 a la fila 1 obtenemos la matriz original como se    1 0 1 3 2 F2 + F1 → F1 1 1        2 0 2  2 0    −3 1 0 −3 1 muestra a continuaci´ on   −1 4 − 2 F2 + F1 → F1 0      2 2   0 −3 de la fila 2 a la fila 1 y despu´es le sumaramos −1 2 de  1 3   0 2 .  1 0 Com´ unmente, si se le suma c veces la fila i de una matriz a la fila j, la operaci´ on se puede revertir al volver a sumar −c veces la fila i a la fila j. Esto una vez mas nos dice que la matriz elemental Eij (c), asociada a esta operaci´ on de sumar c veces la fila i a la fila j, tambi´en es invertible y su inversa est´ a dada por Eij (c)−1 = Eij (−c) . De acuerdo a lo observado en el ejemplo anterior tenemos el siguiente resultado. Teorema 1.14. Toda matriz elemental es invertible y las inversas estan dadas por   1 −1 . = Eij , Eij (c)−1 = Eij (−c) y Ei (c)−1 = Ei Eij c Al aplicar reducci´on Gauss-Jordan a una matriz, por cada operaci´ on elemental de fila, hay una matriz elemental, la matriz que se obtiene al aplicar la operaci´ on de fila a la matriz identidad. Como toda matriz se puede reducir a una forma escalonada reducida, entonces se tiene el siguiente teorema. ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 31 Teorema 1.15. Toda matriz se puede expresar como el producto de un n´ umero finito de matrices elementales por una matriz en forma escalonada reducida. Mas concretamente, si A es una matriz de tama˜ no m × n, existen matrices elementales E1 , . . . , Ek todas de tama˜ no m × m y una matriz escalonada reducida A′ tal que A = E1 · · · Ek A′ . Demostraci´ on. El resultado se sigue de los Teoremas 1.1 y 1.13 teniendo en cuenta que a cada operaci´ on elemental tiene asociada una matriz elemental.   1 1 0     Ejemplo 1.29. Expresar la matriz A = 1 1 2 como un producto de matrices elementales por una matriz   2 2 2 en forma escalonada reducida. Soluci´ on. Necesitamos aplicar reducci´ on Gauss-Jordan a la matriz A indicando las matrices elementales asociadas a  1   1  2 cada operaci´ on aplicada   1 0 1 1     1 2 −F1 +F2 →F2 0 0   2 2 2 2 | {z } E12 (−1)   0 1     0 2   2 −2F1 +F3 →F3 0 {z } | E13 (−2) Por el Teorema 1.13 tenemos que E23 (−2)E2 tiene que 1 2    1 0 1     0 2 12 F2 →F2 0   0 2 0 | {z } E2 ( 21 ) 1 0   1 1 0         0 0 1 . 0 1    0 2 −2F2 +F3 →F3 0 0 0 {z } | E23 (−2)  1 1 0      E13 (−2)E12 (−1)A = A′ con A′ = 0 0 1. Entonces se   0 0 0 A = E12 (−1)−1 E13 (−2)−1 E2  −1 1 E23 (−2)−1 A′ 2 = E12 (1)E13 (2)E2 (2)E23 (2)A′ . Escribiendo las matrices de manera  1 0   A = 1 1  0 0 explicita tenemos:   0 1 0 0 1 0     0 0 1 0 0 2   1 2 0 1 0 0 A continuaci´ on verificamos el resultado con MatLab  0 1 0   0 0 1  1 0 2   0 1 1 0     0 0 0 1 .   1 0 0 0 >> E1=[1 0 0;1 1 0;0 0 1]; E2=[1 0 0;0 1 0;2 0 1]; E3=[1 0 0;0 2 0;0 0 1]; E4=[1 0 0;0 1 0;0 2 1]; A′ =[1 1 0;0 0 1;0 0 0]; A = E1 ∗ E2 ∗  E3 ∗ E4 ∗A′ 1 1   Obteniendo la matriz A = 1 1  2 2 0   2 .  2 32 Ahora usaremos matrices elementales para dar un criterio de invertibilidad de una matriz. Primero debemos observar lo siguiente. Lema 1.16. Sea A una matriz de tama˜ no n × n en forma escalonada reducida, entonces A es invertible si y s´ olo si A = I. Demostraci´ on. “⇒”Supongamos que A es una matriz escalonada reducida invertible y razonemos por el absurdo, supongamos que A 6= I, entonces A tiene al menos una columna sin pivote y al ser de tama˜ no n × n, A debe tener al menos una fila de ceros, entonces por el Problema 1.3.5 A no puede ser invertible, lo cual es un absurdo. Concluimos que A = I. “⇐”Si A = I entonces A es claramente invertible. De esto se desprende el siguiente resultado. Teorema 1.17. Sea A una matriz de tama˜ no n × n, entonces A es invertible si y s´ olo si A se puede escribir como un producto de matrices elementales. Demostraci´ on. “⇒”Supongamos que A es invertible. Por el Teorema 1.15 sabemos que A = E1 · · · Ek A′ con E1 , . . . , Ek matrices elementales y A′ en forma escalonada reducida, como A es invertible y las matrices elementales tambi´en son invertibles tenemos que A′ es invertible, entonces por el Lema 1.16 tenemos que A′ = I y por tanto A = E1 · · · Ek es un producto de matrices elementales. “⇐”Si A = E1 · · · Ek es un producto de matrices elementales, como las matrices elementales son invertibles entonces A es el producto de matrices invertibles y por el Teorema 1.11 tenemos que A es invertible.   0 1 2     Ejemplo 1.30. Expresar la matriz A =  1 0 1  y su inversa como un producto de matrices elementales.   −1 −2 −2 Soluci´ on. Abajo se muestra la reducci´ on Gauss-Jordan de esta matriz indicando la matriz elemental asociada a cada operaci´ on aplicada de acuerdo a la Notaci´ on 3.  0    1  −1 1 2   1  −1 −2 0  1   0  F2 +F3 →F3 0 | {z } E23 (1)  F1 ↔F2 | {z } 0 1 E12    1 2  0 1  1    0  −1 0 {z E31 (−1)   1 } 1   0  0 0 0 1 0 0       1 2 −2F3 +F2 →F2 0   0 1 0 | {z } E32 (−2) De aqu´ı tenemos que E32 (−2)E31 (−1)E23 (1)E13 (1)E12 A = I, por tanto A−1 = E32 (−2)E31 (−1)E23 (1)E13 (1)E12 1   2  −1 −1 E13 (1)  1  0     0 2   −1 −2 F1 +F3 →F3 0 | {z } 1 −F3 +F1 →F1 | 1 y    1 0  0 1 ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 33 −1 A = E12 E13 (1)−1 E23 (1)−1 E31 (−1)−1 E32 (−2)−1 = E12 E13 (−1)E23 (−1)E31 (1)E32 (2). Las matrices elementales tambi´en nos ayudan a demostrar un algoritmo para calcular la inversa de una matriz, el cual enunciamos a continuaci´on. Notaci´ on 4. Sea A y B matrices con el mismo n´ umero de filas, a la matriz obtenida de juntar ambas matrices i h se llamar´ a matriz aumentada y se denotar´ a por A B . Teorema 1.18. (Algoritmo para calcular la inversa de una matriz) Sea A una matriz invertible de tama˜ no n×n, h i h i al aplicar reducci´ on Gauss-Jordan a la matriz aunmentada A I obtenemos la matriz I A−1 . M´ as i h a´ un, si B es una matriz de tama˜ no n × q, al aplicar reducci´ on Gauss-Jordan a la matriz aumentada A B h i obtenemos la matriz I A−1 B . Demostraci´ on. Sean E1 , . . . , Ek las matrices elementales asociadas a las operaciones elementales necesarias para reducir la matriz A a su forma escalonada reducida A′ . Como A es invertible entonces A′ = I y tenemos h i que Ek · · · E1 A = I. Al aplicar las operaciones E1 , . . . , Ek a la matriz A | I obtenemos E E E   k 2 1  E k · · · E1 A | E k · · · E1  . [E2 E1 A | E2 E1 ] → . . . −−→ [E1 A | E1 I = E1 ] −−→ [A | I] −−→ | {z } (1.7) =I Como Ek · · · E1 A = I y como la inversa de una matriz cuadrada es u ´nica, entonces Ek · · · E1 = A−1 , as´ı la h i u ´ltima matriz en la Ecuaci´ on (1.7) es igual a I | A−1 . El mismo an´alisis muestra la segunda parte.  0 1 2    1  calcular A−1 .  −2 −2   Ejemplo 1.31. (MatLab) Sea A =  1  −1 1 Soluci´ on. Usando MatLab para calcular la forma escalonada reducida de la matriz >> AI = [0, 1, 2, 1, 0, 0; 1, 1, 1, 0, 1, 0; −1, −2, −2, 0,0,1]; rref (AI) Obteniendo la matriz aumentada −1 inversa A  0 2   = −1 −2  1 1 1 h I A    −2.  1  0 i 1 0   = 0 1  0 0 1   Ejemplo 1.32. (MatLab) Sean A =  1 1  −1 −2 2  0 0 0 −1 1 1  2 1 h A I  i obtenemos   −2 −2 , de lo cual se sigue que la matriz  1 1 1 2        1  y B = 2 3, calcular A−1 B.    0 1 −2 34 Soluci´ on. De acuerdo al teorema anterior debemos encontrar la forma escalonada reducida de la matriz au 0 1 2 1 2  i  h   mentada C = A B =  1 1 1 2 3 , la cual calculamos usando MatLab   −1 −2 −2 0 1 >> C = [0, 1, 2,  1, 2; 1, 1, 1, 2, 3; −1, −2,  −2, 0, 1]; rref (C)   1 0 0 4 7 4 7         y se obtiene 0 1 0 −5 −10 . De acuerdo al teorema anterior A−1 B = −5 −10.     0 0 1 3 6 3 6 Observaci´ on 1.2. Del Teorema 1.18 se sigue que al aplicar reducci´ on Gauss-Jordan a una matriz invertible A se obtiene I, si se aplican las mismas operaciones elementales que se aplicaron a A para reducirla a I entonces se obtiene el producto de las correspondientes matrices elementales, producto que a su vez es igual a A−1 . Es decir, si E1 , . . . , Ek son las matrices elementales asociadas a las operaciones elementales que se usaron para reducir la matriz A, entonces al aplicar las mismas operaciones elementales y en el mismo orden sobre la matriz I, el resultado final es A−1 . Esto es cierto ya que aplicar una operaci´ on elemental a una matriz es equivalente a multiplicar por la matriz elemental asociada a la operaci´ on a la izquierda, al comenzar con I obtenemos E E E k 2 1 · · · −−→ Ek · · · E1 = A−1 . E1 I = E1 −−→ I −−→ Observaci´ on 1.3. Si en el Teorema 1.18 las columnas de la matriz B son los vectores B1 , . . . , Bq , entonces al i h i h aplicar reducci´ on Gauss-Jordan a la matriz aumentada A B = A B1 · · · Bq obtenemos la matriz h i A−1 B = A−1 B1 · · · A−1 Bq , obteniendo soluciones simultaneas a los sistemas Ax = B1 , . . . , Ax = Bq . Ejemplo 1.33. Usar la observaci´ on anterior para resolver los sistemas x2 + 2x3 = 2 x2 + 2x3 = 1 x1 + x2 + x3 = 2 −x1 − 2x2 − 2x3 = 0 y x1 + x2 + x3 = 3 −x1 − 2x2 − 2x3 = 1. Soluci´ on. Estos sistemas son equivalentes a las ecuaciones matriciales       0 1 2 1 2             ′ Ax = b1 y Ax = b2 donde, A =  1 1 1  , b1 =  2  y b 1 =  3  .       −1 −2 −2 0 1 Estos se pueden resolver simultaneamente calculando la forma escalonada reducida de la   matriz aumentada  4 7 1 0 0 0 1 2 1 2    i  h     a dada por  0 1 0 −5 −10  (ver ejemplo ante1 1 2 3  , la cual est´ A b 1 b2 =  1     3 6 −1 −2 −2 0 1 0 0 1 rior) y por tanto las respectivas soluciones a los sistemas est´ an dadas por     7 4         y x′ = −10 . x = −5     6 3 ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 35 Terminamos la secci´on con el siguiente teorema que ser´a u ´til en el pr´oximo cap´ıtulo, en este teorema se explota el hecho de que las operaciones elementales son reversibles. Teorema 1.19. Sea A una matriz de taman˜ o m × n y A′ su forma escalonada reducida. Entonces Ax = 0 si y s´ olo si A′ x = 0, es decir, x es una soluci´ on al sistema homogeneo Ax = 0 si y s´ olo si x es una soluci´ on al sistema A′ x = 0.   a1n a11 x1 + · · · + a1n xn = 0  ..  .. , entonces el sistema es equivalente a .  .  · · · amn am1 x1 + · · · + amn xn = 0, h i el cual se puede resolver aplicando las operaciones elementales de fila a la matriz aumentada A 0 . Si aplicamos h i operaciones hasta llegar a la forma escalonada reducida obtenemos la matriz A′ 0 , la cual nos da las soluciones a11   .. Demostraci´ on. Si A =  .  am1 ··· .. . al sistema A′ x = 0. Ahora como las operaciones elementales son reversibles, comenzando con el sistema A′ x = 0, podemos llegar al sistema Ax = 0. Por tanto Ax = 0 si y s´ olo si A′ x = 0. Problemas 1.4.1. Determine si las siguientes  1   A = 1  4 matrices son invertibles y en caso afirmativo calcule su inversa.      2 0 4 2 0 4 1 1           2 2 , B = 0 2 2 y C = 0 2 −10 .      3 1 1 3 1 1 4 1 1.4.2. Escriba las siguientes matrices y sus  1   A = 1  4 1.4.3. Escribala 1   1 reducida. A =   1  1 inversas como producto de matrices elementales.    2 0 4 1 1       y B =   0 2 2 . 2 2    3 1 1 4 1 matriz A como un producto de matrices elementales por una matriz en forma escalonada 1 1 1 1 1   1 1 1 1 2 .  1 1 1 2 3  1 1 2 3 4 1.4.4. si A y B tienen la misma forma escalonada reducida entonces existen matrices elementales E1 , . . . , Es tal que A = E1 · · · Es B. 1.4.5. Sean A y B matrices de tama˜ nos m × n y n × q respectivamente. Demuestre que rango(AB) ≤ rango(A) (Ayuda: Use el Lema 1.9 y el Teorema 1.15) 36 1.5. Inversas Laterales En esta secci´on se definir´ a el concepto de inversa lateral, que generaliza el concepto de invertibilidad de una matriz. Veremos que hay matrices que no son invertibles que tienen inversa a la izquierda o a la derecha y mostraremos criterios claros que nos permitir´ an decidir cuando una matriz posee inversas laterales y algoritmos para calcularlas. Terminaremos el cap´ıtulo con un teorema que reune todas las propiedades equivalentes a que una matriz sea invertible. Definici´ on 1.14. Sea A una matriz de tama˜ no m × n. 1. Decimos que A tiene inversa a la izquierda si existe una matriz L de tama˜ no n × m tal que LA = In . 2. Decimos que A tiene inversa a la derecha si existe una matriz R de tama˜ no n × m tal que AR = Im .  1  yB= 0  0 1 1 0 es una inversa a la derecha de A y a la vez, A es  Ejemplo 1.34. Sean A =  1 1 0  0    acil c´ alculo nos muestra que AB = I2 y por tanto B 0, un f´  1 una inversa a la izquierda de B. N´ otese adem´ as que ni A ni B son invertibles pues no son matrices cuadradas. Tenemos el siguiente criterio para caracterizar las matrices que tienen inversa a la derecha. En lo que sigue, para i = 1, . . . , n denotaremos por ei al vector columna en Rn cuya entrada es uno en la posici´on i y cero en las dem´ as entradas, es decir, 1 0 0 e1 =  ..  , . 0 0 0 1 0 e2 =  ..  , . 0 0 0 0 ... 0 en =  ..  . . 0 1 Teorema 1.20. Sea A una matriz de tama˜ no m × n, entonces las siguientes afirmaciones son equivalentes: 1. A tiene inversa a la derecha. 2. El sistema Ax = b tiene soluci´ on para cada b ∈ Rm . 3. rango(A) = m = n´ umero de filas de A. 4. La funci´ on TA : Rn −→ Rm definida por TA (x) = Ax es sobreyectiva. Demostraci´ on. Vamos a demostrar que 1 ⇔ 2, 2 ⇔ 3 y 2 ⇔ 4. h i “1 ⇒ 2”Si A tiene inversa a la derecha, existe R = R1 · · · Rm de tama˜ no n × m tal que AR = I. Sea ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 37 b = b1 e1 + · · · + bm em ∈ Rm entonces el vector c = b1 R1 + · · · + bm Rm es una soluci´ on al sistema Ax = b ya que Ac = A(b1 R1 + · · · + bm Rm ) = b1 AR1 + · · · + bm ARm   b1 h i   ..  = AR1 · · · ARm  .    bm h i = A R1 · · · Rm b {z } | =R = |{z} AR b =I = b. “2 ⇒ 1”Supongamos que la ecuaci´ on Ax = b tiene soluci´ on para cada b, entonces para cada i = 1, . . . , m, la ecuaci´on Ax = ei tiene soluci´ on. Sean r1 , . . . , rm las soluciones respectivas dichas ecuaciones. Es decir, Ar1 = e1 , . . . , Arm = em . h Sea R = r1 ··· i rm , entonces se tiene que h AR = A r1 ··· rm i Por tanto R es la inversa a la derecha de A. " Ar1 = |{z} =e1 ··· # h Arm = e1 |{z} =em ··· i em = I m . “2 ⇒ 3”Supongamos que Ax = b tiene soluci´ on para cada b y sabemos que rango(A) ≤ m = n´ umero de filas de A. Si rango(A) < m, entonces las forma escalonada A′ de A tiene al menos una fila de ceros. Sean E1 , . . . , Ek matrices elementales tal que A′ = E1 · · · Ek A y sea b = Ek−1 · · · E1−1 em entonces al aplicar reducci´on Gaussh i Jordan a la matriz A b usando las operaciones elementales de fila asociadas a las matrices E1 , . . . , Ek # " i h E · · · E b E · · · E A 1 k 1 k ´ltima fila de A′ es de ceros, entonces obtenemos la matriz | {z } | {z } = A′ em . Como la u =A′ em on Ax = b no tiene soluci´ on, lo que el sistema es inconsistente, es decir, para b = Ek−1 · · · E1−1 em , la ecuaci´ contradice la hip´ otesis. Por tanto rango(A) = m. “3 ⇒ 2”Si rango(A) = m = # de filas, entonces A′ tiene un pivote en cada fila, por tanto para todo b ∈ Rm i h ´ltima columna y as´ı el sistema Ax = b siempre tiene al se tiene que la matriz A b no tiene pivote en la u menos una soluci´ on. “2 ⇒ 4”Si la ecuaci´ on Ax = b tiene soluci´ on para todo b, entonces para todo b ∈ Rm , existe c ∈ Rn tal que b = Ac = TA (c). Por tanto TA es sobre. “4 ⇒ 2”Si TA es sobre, para todo b ∈ Rm , existe c ∈ Rn tal que b = TA (c) = Ac, es decir, x = c es una soluci´ on al sistema Ax = b. La parte 3. de este teorema nos dice que una matriz tiene inversa a la derecha si y s´ olo si su forma escalonada reducida tiene un pivote en cada fila. El teorema tambi´en nos ofrece un m´etodo calcular la inversa a la derecha, el 38 cual est´ a casi expl´ıcito en la demostraci´ on de 1 ⇒ 2, ya que en ese numeral se prueba que las columnas R1 , . . . , Rm de la inversa a la derecha R son las respectivas soluciones a las ecuaciones Ax = e1 , Ax = e2 , . . . , Ax = en como se ilustra en el siguiente ejemplo. Procedimiento 1.1. Sea A una matriz de tama˜ no m × n y A′ la forma escalonada reducida de A, si A′ tiene un pivote en cada fila entonces A tiene una inversa a la derecha, para calcularla hacemos lo siguiente: 1. Para i = 1, · · · , m, calculamos una soluci´ on ri al sistema Ax = ei , es decir, un vector ri tal que Ari = ei . Sabemos que estos vectores existen por el Teorema 1.2. h 2. Se hace R = r1 anterior. ··· i rm la matriz cuyas columnas son los vectores r1 , · · · , rm calculados en el paso De acuerdo al Teorema 1.20, la matriz R es una inversa a la derecha de A.   1 2 2  tiene inversa a la derecha y en caso afirmativo Ejemplo 1.35. Determine si la matriz A =  −1 0 4 calcular una inversa a la derecha de A.   1 0 −4  se tiene que rango(A) = Soluci´ on. Como la forma escalonada de reducida de A es la matriz A′ =  0 1 3 2 = n´ umero de filas, por tanto A tiene inversa a la derecha por el Teorema 1.20. Para encontrar la inversa a la derecha de A debemos encontrar soluciones a las ecuaciones  Ax = e1y Ax = 0 0      1 1 e2 . Se puede verificar que soluciones particulares a estas ecuaciones est´ an dadas por r1 =  2  y r2 = − 4  y     1 0 4 por tanto una inversa a la derecha de A est´ a dada por   0 0  h i    R = r1 r2 =  12 − 14  .   1 0 4 El siguiente teorema carateriza las matrices con inversa a la izquierda, las propiedades son an´alogas a las del teorema anterior para la inversa a derecha. Teorema 1.21. Sea A una matriz de tama˜ no m × n, entonces las siguientes afirmaciones son equivalentes: 1. A tiene inversa a la izquierda. 2. El sistema Ax = b tiene a lo sumo una soluci´ on para cada b ∈ Rm . 3. La funci´ on TA : Rn −→ Rm definida por TA (x) = Ax es inyectiva. 4. El sistema Ax = θm tiene soluci´ on u ´nica. 5. rango(A) = n = n´ umero de columnas de A. ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 39 Demostraci´ on. Para este teorema demostraremos las equivalencias en el orden 1 ⇒ 2, 2 ⇒ 3, 3 ⇒ 4, 4 ⇒ 5 y 5 ⇒ 1. “1 ⇒ 2”Supongamos que A tiene inversa a la izquierda L , y sean v y w soluciones al sistema Ax = b. Entonces b = |{z} v = Iv = L |{z} Av = L |{z} LA w = Iw = w. =Aw =b =I Como v = w el sistema tiene a lo sumo una soluci´ on. “2 ⇒ 3”Supongamos que Ax = b tiene a lo sumo una soluci´ on para todo b y que TA (v) = TA (w), entonces Av = Aw. Sea b = Av, entonces la ecuaci´ on Ax = b tiene dos soluciones v y w, entonces v = w. “3 ⇒ 4”Supongamos que TA es inyectiva. Entonces si v es tal que Av = θ se tiene que θ = Av = TA (v) y como TA (θ) = Aθ = θ entonces TA (v) = TA (θ) y como TA es inyectiva, v = θ. “4 ⇒ 5” Supongamos que el sistema Ax = θ tiene soluci´ on u ´nica, entonces por el Teorema 1.2 la forma i h i h escalonada reducida de la matriz A θ = A′ θ , donde A′ es la forma escalonada reducida de A tiene un pivote en todas la columnas excepto la u ´ltima, es decir, A′ tiene un pivote en cada columna y por tanto rango(A) = n = n´ umero de columnas de A. “5 ⇒ 1”Supongamos que rango(A) = n, entonces la forma escalonada A′ de A tiene un pivote en cada columna, por tanto ··· 0  0 1 ··· 0 1 0  .. .. . . A′ =   00 00 . . .. .. . . ..  . . ··· 1  . ··· 0   . . .. .. 0 0 ··· 0 Sean E1 , . . . , Ek matrices elementales tal que A = E1 · · · Ek · A′ y sea B = Ek−1 · · · E1−1 , entonces A′ = BA. Sean B 1 , . . . , B m tenemos lo siguiente    B1A B1      .   .  A′ = BA =  ..  A =  ..  .     BmA Bm    B1    .  las filas de B, es decir B =  .. . Como A′ = BA   m B   B1    .  Ahora tomemos C =  ..  la matriz formada con las primeras n filas de B, veamos   Bn a la izquierda de A.      1 0 ···  B1A B1      0 1 · · ·  .   .  CA =  ..  A =  ..  = primeras n filas de A′ =   .. .. . .     . . .  n n B A B 0 0 ··· que C es la matriz inversa 0    0  ..  = I. .  1 40 Este teorema tambi´en nos da una forma de determinar si una matriz tiene inversa a la izquierda (se calcula el rango y la matriz tiene inversa a la izquierda si y s´ olo si el rango es igual al n´ umero de columnas). El teorema tambi´en prove´e un algorimo para calcular dicha matriz, el cual se describe a continuaci´on. Procedimiento 1.2. Sea A una matriz de tama˜ no m × n y sea A′ la forma escalonada de de A, si A′ tiene un pivote en cada columna entonces A tiene una inversa a la izquierda. Si A tiene inversa a la izquierda esta se puede calcular haciendo lo siguiente: 1. Se aplica reducci´ on Gauss-Jordan a la matriz. 2. Se calcula el producto de las matrices elementales Ek · · · E1 asociadas a las operaciones elementales usadas en el paso anterior. Este producto se puede calcular directamente aplicando sucesivamente las operaciones elementales que se aplicaron en el paso anterior para reducir la matriz A comenzando con la matriz identidad Im , con m = n´ umero de filas de A. 3. La matriz L formada por las primeras n filas de la matriz Ek · · · E1 es la inversa a la izquierda. Ejemplo 1.36. (MatLab) Para cada una de las matrices abajo, determine si tienen inversa a la izquierda y encuentrela en caso afirmativo.  Soluci´ on. 2   a. A = −4  −2 −1    2  1  b. B =  1 −1 2 −1  0  1  1 −1   c. C = 0  2    1 .  1 1. Usando MatLab para calcular el rango de la matriz A obtenemos >> A = [2, −1; −4, 2; −2, 1]; r = rank(A) que r = 1, as´ı como rango(A) = 1 < n´ umero de columnas, entonces por el Teorema 1.21 la matriz no tiene inversa a la izquierda. 2. La matriz B tiene 2 filas, de donde rango(B) ≤ 2 < 3 =n´ umero de columnas. Por tanto B no tiene inversa a la izquierda. 3. El rango de esta matriz C es dos, entonces C tiene inversa a la izquierda. Para calcular una inversa a la izquierda debemos aplicar el procedimiento descrito arriba, 1. Apliquemos reducci´ on Gauss-Jordan a la matriz C    1 −1 1       0 0 1    2 1 −2F1 +F3 →F3 0 | {z } E1      −1 F2 +F1 →F1 1 0 1 0            0 1  0 1 . 1      3 0 3 −3F2 +F3 →F3 0 0 | | {z } {z } E2 E3 ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 41 Donde E1 , E2 y E3 son las matrices elementales asociadas a cada una de las operaciones ejecutadas. 2. Aplicamos las operaciones efectuadas en la reducci´ on a la matriz identidad 3 × 3. Esto es equivalente a multiplicar las matrices elementales asociadas a las operaciones.      1 0 0 F2 +F1 →F1 1 1 0 0            0 1 0  0 0 1 0      −2 0 0 1 −2F1 +F3 →F3 −2 0 1 | | {z } E1 3. La matriz L =  1 1 0 1 izquierda de C. 1 0 {z E2 E1   1  0   0 = E3 E2 E1 .  1 1 1    0 1  −3F2 +F3 →F3 −2 −3  0   0  1 }  0 , obtenida al suprimir la u ´ltima fila a la matriz E3 E2 E1 , es una inversa a la 0 Hay otra forma de calcular la inversa a la izquierda de una matriz. Es f´acil ver que si R es una inversa a la derecha de At entonces L = Rt es una inversa a la izquierda de A. Esto se ilustra en el siguiente ejemplo.   1 −1     Ejemplo 1.37. (MatLab) Calcular una inversa a la izquierda de la matriz C = 0 1 .   2 1 Soluci´ on. Para calcular la inversa a la derecha de C t , necesitamos resolver las ecuaciones C t x = e1 y C t x = e2 . Estas soluciones las calculamos con MatLab >> C t =[1,0, 2; −1, 1,  1]; e1 = [1; 0]; e2 = [0; 1]; r1 = A\e1, r2 = A\e2 1 −2  3 3     r1 =  0  y r2 =  0  .     1 3 1 3  1 3  Entonces una inversa a la derecha de C t es la matriz R =  0   C es la matriz L = Rt =  1 3 0 − 32 0  1 3 1 3 1 3 − 23    0 , por tanto una inversa a la izquierda de  1 3 . De estos resultados obtenemos la siguiente caracterizaci´ on para matrices invertibles. Corolario 1.22. (Caracterizaci´ on de una matriz invertible) Sea A una matriz cuadrada de tama˜ no n × n, entonces las siguientes afirmaciones son equivalentes: 1. A es invertible. 2. A tiene inversa a la izquierda. 42 3. El sistema Ax = b tiene a lo sumo una soluci´ on para cada b ∈ Rn . 4. La funci´ on TA : Rn −→ Rn definida por TA (x) = Ax es inyectiva. 5. El sistema Ax = θn tiene soluci´ on u ´nica. 6. rango(A) = n = n´ umero de columnas de A = n´ umero de filas deA. 7. A tiene inversa a la derecha. 8. El sistema Ax = b tiene soluci´ on para cada b ∈ Rm . 9. La funci´ on TA : Rn −→ Rn definida por TA (x) = Ax es sobreyectiva. 10. La funci´ on TA : Rn −→ Rn definida por TA (x) = Ax es biyectiva. 11. At es invertible. 12. A es un producto de matrices elementales. Demostraci´ on. Las condiciones 1. y 12. son equivalentes por el Teorema 1.17, las condiciones 1. y 11. son equivalentes por el Teorema 1.11, las condiciones 2. a 6. son equivalentes por el Teorema 1.21 y las condiciones 6. a 10. son equivalentes por el Teorema 1.20. Es suficiente demostrar que 1 ⇔ 2. “1⇒ 2”Si A es invertible, entonces A−1 A = I y por tanto A−1 es inversa a la izquierda de A. “2⇒ 1”Si A tiene inversa a la izquierda, entonces existe B tal que BA = I y por el Teorema 1.21, rango(A) = n = n´ umero de columnas. Como A es cuadrada entonces el n´ umero de filas es igual al n´ umero de columnas e igual al rango(A), entonces por el Teorema 1.20, A tiene una inversa a la derecha C, de donde AC = I, entonces se tiene que B = BI = B(AC) = (BA)C = IC = C. Entonces BA = AB = I y por tanto A es invertible y B = A−1 . Problemas 1.5.1. Determine cual de las matrices tiene inversa a la izquierda o a la derecha y compute una para las que la tengan: a.  1  2 1 1 2 2  . b.   2 −1 3 4  5 . 1 c.  1   4  2  2   8 .  4 d.  1   1  1  1   2 .  4 ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 43  1.5.2. Encuentre soluciones a las ecuaciones Ax = e1 y Ax = e2 con A =  una inversa a la derecha de la matriz A.  1 1 1 1 3 1 4 1 2   y u ´selas para calcular       1 1 2 . 1.5.3. Calcule una inversa a la izquierda de la matriz A =     1 2 3   1 2 4   1 1 1 1 1 1     1 1 1 1 1 2  de dos formas: primero usando 1.5.4. Calcule una inversa a la derecha de la matriz B =    1 1 1 1 2 3   1 1 1 2 3 4 el Procedimiento 1.1 y despu´es usando el Procedimiento 1.2 para calcular una inversa a la izquierda de B t . 1.5.5. Demuestre que si una matriz A de tama˜ no m × n tiene inversa a la izquierda L e inversa a la derecha R, entonces L = R y m = n. 1.5.6. Demuestre que L es una inversa a la izquierda de A si y s´ olo si Lt es in inversa a la derecha de At . Concluya que si rango(A) = n´ umero de columnas de A, entonces rango(At ) = rango(A). 1.5.7. Si A es 4 × 3 y B es 3 × 4 muestre que AB no es invertibe. (Ayuda: Muestre que la ecuaci´ on Bx = 0 tiene una soluci´ on no trivial.) 1.5.8. Gerenalizando el problema anterior, si A es n × m y B es m × n con m < n muestre que AB no es invertible. 1.5.9. Muestre que una matriz no cuadrada no puede tener inversa a la izquierda y a la derecha. 1.5.10. Muestre que una matriz no cuadrada no puede ser la inversa a la izquierda y a la derecha de otra matriz. 1.5.11. Muestre que Ax = b tiene soluci´ on para todo b si y s´ olo si At y = 0 tiene soluci´ on u ´nica. 1.5.12. Muestre que las matrices inversas a izquierda o derecha de una matriz no cuadrada no son u ´nicas, de hecho, pueden existir infinitas. El siguiente ejercicio tiene el prop´osito de mostrar que en la definici´on de matrices cuadradas invertibles es suficiente exigir que existe B tal que AB = I. 1.5.13. Sea A ∈ Mn (R) una matriz y suponga que existe B tal que AB = I. Demuestre lo siguiente: 1. rangoA = n. 2. existe C tal que CA = I. 44 3. C = B 4. A es invertible. Cap´ıtulo 2 Espacios Vectoriales 2.1. Definici´ on y Ejemplos En el cap´ıtulo anterior se dieron ejemplos, sin mencionarlo, de espacios vectoriales. M´as concretamente en los Teorema 1.5 y 1.6 se mostr´ o que el conjunto de matrices de tama˜ no m × n y el conjunto de vectores columna Rn son espacios vectoriales. Solo nos falta enunciar la definici´on y ver que estos conjuntos la satisfacen. En este cap´ıtulo solo trabajaremos sobre Rn y los teoremas ser´an acerca de este conjunto, en el Cap´ıtulo 3 se demostrar´an los teoremas generales. Definici´ on 2.1. Sea V un conjunto no vacio con dos operaciones + : V × V → V y · : R × V → V , decimos que V es un espacio vectorial sobre R si para todo x, y y z ∈ V y para todo α y β ∈ R se cumple lo siguiente: 1. (x + y) + z = x + (y + z), 2. existe θ ∈ V tal que θ + x = x + θ = x, (A θ se le llama el neutro de V ) 3. existe w tal que x + w = w + x = θ, (A w se le llama el inverso aditivo de x) 4. x + y = y + x, 5. α · (x + y) = α · x + α · y, 6. (α + β) · x = αx + β · x, 7. α · (β · x) = (αβ) · x, 8. 1 · x = x. Ejemplo 2.1. 1. El conjunto de vectores en Rm es un espacio vectorial, por el Teorema 1.6. 2. El conjunto de matrices m × n es un espacio vectorial, esto por el Teorema 1.5. A este conjunto lo denotaremos por Mmn (R) cuando las entradas sean reales y por Mmn (C) cuando las entradas sean complejas. En el caso en que m = n, usaremos la notaci´ on Mn (R) o Mn (C). 3. Sea Pn = {a0 + a1 t + · · · + an tn | a0 , . . . , an ∈ R} el conjunto de polinomios de grado a lo sumo n en la indeterminada t, este conjunto es un espacio vectorial sobre R bajo las operaciones: 45 46 a0 + a1 t + · · · + an tn + b0 + b1 t + · · · + bn tn = (a0 + b0 ) + (a1 + b1 )t + · · · + (an + bn )tn y α · (a0 + a1 t + · · · + an tn ) = α · a0 + α · a1 t + · · · + α · an tn . Veamos que estas operaciones satisfacen todas las propiedades de la definici´ on de espacio vectorial. Sean p1 = a0 + a1 t + · · · + an tn , p2 = b1 t + · · · + bn tn y p3 = c0 + c1 t + · · · + cn tn ∈ Pn , α, β ∈ R, 1. (p1 + p2 ) + p3 =(a0 + a1 t + · · · + an tn + b0 + b1 t + · · · + bn tn ) + c 0 + c 1 t + · · · + c n tn =(a0 + b0 ) + (a1 + b1 )t + · · · + (an + bn )tn + c 0 + c 1 t + · · · + c n tn (definici´ on de suma en Pn ) =((a0 + b0 ) + c0 ) + ((a1 + b1 ) + c1 )t + . . . · · · + ((an + bn ) + cn )tn (definici´ on de suma en Pn ) =(a0 + (b0 + c0 )) + (a1 + (b1 + c1 ))t + . . . · · · + (an + (bn + cn ))tn (asociatividad en R) =a0 + a1 t + · · · + an tn + (b0 + c0 ) + (b1 + c1 )t + . . . · · · + (bn + cn )tn (definici´ on de suma en Pn ) =a0 + a1 t + · · · + an tn + (b0 + b1 t + · · · + bn tn + c0 + c1 t + · · · + cn tn ) (definici´ on de suma en Pn ) =p1 + (p2 + p3 ) 2. Sea θ = 0 el polinomio constante = 0, entonces p1 + θ = a 0 + a 1 t + · · · + a n t n + 0 = a 0 + a 1 t + · · · + a n t n = p1 3. Sea w = −a0 − a1 t + · · · − an tn entonces w + p1 = −a0 − a1 t + · · · − an tn + a0 + a1 t + · · · + an tn + = (−a0 + a0 ) + (−a1 + a1 )t + · · · + (−an + an )tn = 0 = θ. ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 47 4. p 1 + p 2 = a 0 + a 1 t + · · · + a n t n + b0 + b1 t + · · · + bn t n = (a0 + b0 ) + (a1 + b1 )t + · · · + (an + bn )tn (Definici´ on de suma en Pn ) = (b0 + a0 ) + (b1 + a1 )t + · · · + (bn + an )tn (Conmuatitividad en R) = b0 + b1 t + · · · + bn t n + a 0 + a 1 t + · · · + a n t n (Definici´ on de suma en Pn ) = p2 + p1 5. α · (p1 + p2 ) = α · (a0 + a1 t + · · · + an tn + b0 + b1 t + · · · + bn tn ) = α · ((a0 + b0 ) + (a1 + b1 )t + · · · + (an + bn )tn ) definici´ on de suma en Pn = α(a0 + b0 ) + α(a1 + b1 )t + · · · + α(an + bn )tn definici´ on de producto por escalar en Pn = (αa0 + αb0 ) + (αa1 + αb1 )t + · · · + (αan + αbn )tn distributividad en R = αa0 + αa1 t + · · · + αan tn + αb0 + αb1 t + · · · + αbn tn definici´ on de suma en Pn = α · (a0 + a1 t + · · · + an tn ) + α · (b0 + b1 t + · · · + bn tn ) definici´ on de producto por escalar en Pn = α · p1 + α · p2 48 6. (α + β) · p1 = (α + β) · (a0 + a1 t + · · · + an tn ) = (α + β)a0 + (α + β)a1 t + · · · + (α + β)an tn definici´ on de producto por escalar en Pn = (αa0 + βa0 ) + (αa1 + βa1 )t + · · · + (αan + βan )tn ditributividad en R = αa0 + αa1 t + · · · + αan tn + βa0 + βa1 t + · · · + βan tn definici´ on de suma en Pn = α · (a0 + a1 t + · · · + an tn ) + β · (a0 + a1 t + · · · + an tn ) definici´ on de producto por escalar en Pn = α · p1 + β · p1 7. (αβ) · p1 = (αβ) · (a0 + a1 t + · · · + an tn ) = (αβ)a0 + (αβ)a1 t + · · · + (αβ)an tn definici´ on de producto por escalar en Pn = α(βa0 ) + α(βa1 )t + · · · + α(βan )tn asociatividad en R = α · (βa0 + βa1 t + · · · + βan tn ) definici´ on de producto por escalar en Pn = α · (β · (a0 + a1 t + · · · + an tn )) definici´ on de producto por escalar en Pn = α · (β · p1 ) 8. 1 · p1 = 1 · (a0 + a1 t + · · · + an tn ) = 1 · a0 + 1 · a1 t + · · · + 1 · an tn = a 0 + a 1 t + · · · + a n tn = p1 . 4. El conjunto de polinomios con entradas en R, R[t] = {a0 + a1 t + · · · + an tn | a0 , . . . , an ∈ R, n ∈ N ∪ {0}} , es un espacio vectorial. ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 49 5. Si X es un conjunto, el conjunto de funciones de X en R, F(X, R) = {f : X −→ R | f es una funci´ on }, es un espacio vectorial sobre R con las operaciones de suma y producto por escalar definidos por: (f + g)(x) = f (x) + g(x) y (αf )(x) = αf (x). Los detalles se dejan como ejeercicio al lector. Los espacios vectoriales satisfacen las siguientes propiedades que se desprenden de la definici´on. Teorema 2.1. Sea V un espacio vectorial, x ∈ V y α ∈ R entonces 1. El neutro es u ´nico, es decir, si θ y θ′ son neutros entonces θ = θ′ , 2. el inverso aditivo de x es u ´nico, es decir, si w y w′ son inversos aditivos de x entonces w = w′ , (dada la unicidad del inverso aditivo de x, este ser´ a denotado por −x) 3. α · θ = θ, 4. 0 · x = θ, 5. −1 · x = −x, Demostraci´ on. 6. Si α · x = θ entonces α = 0 o x = θ. 1. θ = θ + θ′ = θ′ + θ = θ′ . 2. w = w + θ = w + (x + w′ ) = (w + x) + w′ = θ + w′ = w′ . 3. αθ + αθ = α(θ + θ) = αθ, sumando el inverso aditivo de αθ a ambos lados tenemos: αθ = θ. 4. 0x = (0 + 0)x = 0x + 0x, sumando el inverso aditivo de 0x a ambos lados tenemos que θ = 0x. 5. −1x + x = −1x + 1x = (−1 + 1)x = 0x = θ. como el inverso aditivo de x es u ´nico, tenemos que −1x = −x. 6. Supongamos que αx = θ y que α 6= 0. Si multiplicamos a ambos lados por 1 1 (αx) = θ α |α {z } |{z}    =    ⇒ 1x = θ |{z} =x =θ 1   α x α |{z} ⇒ 1 tenemos que α x=θ =1 Problemas 2.1.1. Demuestre que R+ = {x ∈ R | x > 0} es un espacio vectorial bajo las operaciones x ⊕ y = xy para todo x, y ∈ R+ y todo α ∈ R. y α • x = xα , 50 2.1.2. Generalizando el problema anterior, demuestre que el conjunto n (R+ ) = {(x1 , . . . , xn ) | x1 , . . . , xn ∈ R+ } es un espacio vectorial bajo las operaciones (x1 , . . . , xn ) ⊕ (y1 , . . . , yn ) = (x1 y1 , . . . , xn yn ) y α α • (x1 , . . . , xn ) = (xα 1 , . . . , xn ). 2.1.3. Determine cuales de los siguientes conjuntos son espacios vectoriales con las operaciones indicadas. Si no lo son, enuncie las propiedades que no cumplen. 1. El conjunto de matrices sim´etricas, {A ∈ Mn (R) | At = A}, bajo la suma y el producto por escalar usual de matrices. (La suma y producto usual de matrices se dieron en la Definici´ on ??.) 2. El conjunto de matrices anti-sim´etricas, {A ∈ Mn (R) | At = −A}, bajo la suma y el producto por escalar usual de matrices.      x 3. El conjunto R+ × R =   x, y ∈ R, x > 0 bajo la suma y el producto por escalar usual de R2 . (La suma   y y producto usual de vectores en Rn se dieron en la Definici´ on ??.)      x 4. El conjunto (R \ R+ ) × (R \ R+ ) =   x, y ∈ R, x, y < 0 bajo la suma y el producto por escalar usual   y de R2 . 5. El conjunto    R+ × R+ ∪ R \ R+ × R \ R+ = (x, y) ∈ R2 | x, y ≥ 0 bajo la suma y producto por escalar usuales de R2 . o x, y ≤ 0        x        6. El conjunto  y  x, y ∈ R, x > 0 bajo la suma y el producto por escalar usual de R3 .          x−y  7. El conjunto {a + at2 + · · · + at2n | a ∈ R} bajo las operaciones de suma y producto por escalar usual de polinomios. (Ver Ejemplo 2.1 ´ıtem 3.)   a 8. El conjunto   a   1  a ∈ R bajo las operaciones usuales para matrices.  a  9. El conjunto {a0 + a1 t + · · · + an tn | a0 = 1} bajo las operaciones de suma y producto por escalar usual de polinomios. 2.1.4. Demuestre que R × R \ {0} es un espacio vectorial con las operaciones (a1 , a2 ) + (b1 , b2 ) = (a1 + b1 , a2 b2 ) y α(a, b) = (αa, bα ). ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 51      1 a  a ∈ R es un espacio vectorial bajo la suma definida por 2.1.5. Demuestre que el conjunto V =    0 1 A ⊕ B = AB donde AB denota el producto usual de matrices y el producto por escalar definido por     1 αa 1 a . = α· 0 1 0 1 2.1.6. Demuestre que un plano que pasa por el origen,  S = (x, y, z) ∈ R3 | αx + βy + γz = 0, α, β, γ ∈ R , es un espacio vectorial bajo la suma y producto por escalar usuales de R3 . 2.1.7. Generalizando el problema anterior, demuestre que un hiperplano que pasa por el origen, S = {(x1 , . . . , xn ) ∈ Rn | α1 x1 + · · · + αn xn = 0, α1 , . . . , αn ∈ R} , es un espacio vectorial bajo la suma y producto por escalar usuales de Rn . 2.1.8. Generalizando a´ un m´ as el Problema 2.1.6, demuestre que el conjunto de soluciones a un sistema homog´eneo, S=      α11 x1 + · · · + α1n xn = 0 .. , . (x1 , . . . , xn ) ∈ Rn     αn1 x1 + · · · + αnn xn = 0 αij ∈ R, para i, j = 1, . . . , n. es un espacio vectorial bajo la suma y producto por escalar usuales de Rn .      ,     Ayuda: Recuerde al sistema de ecuaciones son las soluciones a la ecuaci´ on matricial    que las soluciones x1 α11 · · · α1n     .    .. .. ..  y x =  ...  Ax = 0 con A =  . . .     xn αn1 · · · αnn 2.1.9. Demuestre que los conjuntos dados en los numerales 4. y 5. del Ejemplo 2.1 son espacios vectoriales con las operaciones indicadas. 2.1.10. Sea V un espacio vectorial y sean x, y ∈ V , para cada una de las siguientes ecuaciones, demuestre que existe un u ´nico z ∈ V que la satisface 1. 2.2. x + z = y. 2. x − z = y. 3. αz = x. 4. x + αz = y. Subespacios En esta secci´on se dar´ a un criterio para determinar si un subconjunto de un espacio vectorial es un subespacio y como construir nuevos subespacios de otros. 52 Definici´ on 2.2. Sea V un espacio vectorial y φ 6= W ⊆ V , decimos que W es un subespacio de V si W es tambi´en un espacio vectorial bajo las mismas operaciones de suma y producto por escalar de V . Ejemplo 2.2. 1. En el Ejemplo 2.1 vimos que Pn es un espacio vectorial para todo n, como Pn−1 ⊆ Pn y ambos son espacios vectoriales, tenemos que Pn−1 es un subespacio de Pn . 2. Tambi´en tenemos que Pn es un subespacio de R[t] para todo n, al ser un espacio vectorial y subconjunto de R[t]. 3. El conjunto de n´ umeros reales R es un espacio vectorial, el conjunto de n´ umeros complejos C tambi´en es un espacio vectorial, como R ⊆ C tenemos que R es un subespacio de C. En teor´ıa para demostrar que un subconjunto no vacio de un espacio vectorial V es un subespacio es necesario determinar si cumple las ocho condiciones de la definici´on, sin embargo, el siguiente teorema nos da un criterio en el que solo es necesario mostrar que este es cerrado bajo la suma y el producto por escalar. Teorema 2.2. Sea V un espacio vectorial y φ 6= W ⊆ V , entonces W es un subespacio de V si para todo w, w′ ∈ W y para todo α ∈ R se satisface que 1. w + w′ ∈ W, 2. αw ∈ W. Demostraci´ on. Debemos demostrar W cumple las ocho condiciones de espacio vectorial. 1. La asociatividad se cumple para todo v, v ′ y v ′′ ∈ V , entoncs en particular si estos est´ an en W . 2. Como W 6= φ, existe w ∈ W , entonces por hip´ otesis tenemos que −w = (−1)w ∈ W , en consecuencia 0 = −w + w ∈ W . 3. Si w ∈ W entonces por la hip´ otesis 2. tenemos que −w = (−1)w ∈ W . 4-8. Estas propiedades se cumplen para todo w, w′ ∈ V , en particular si w, w′ ∈ W . Por tanto W es un espacio vectorial y como W ⊆ V , tenemos que W es un subespacio de V .      x   1       ..  Ejemplo 2.3. Sea H =  .  xn = 0 ⊆ Rm , demuestre que H es un subespacio de Rm .           x n Soluci´ on. Primeron´ otese  H 6= φ ya que θn ∈ H, veamos que H satisface las condiciones 1. y 2. del   que y1 x1      ..   ..  Teorema 2.2. Sean  .  ,  .  ∈ H y α ∈ R, entonces xn = 0 = yn por tanto     yn xn               x1 y1 x 1 + y1 x 1 + y1 x1 x1 αx1               ..  ..   ..     ..   ..   ..   ..  = ∈ H y α = α =  . + . =          ∈ H. .        .   .  .  .  xn yn x n + yn 0 xn 0 0 ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 53 El Teorema 2.2 no solo facilita la verificaci´on de si un subconjunto es un subespacio, tambi´en facilita las demostraciones de los siguientes teoremas. Teorema 2.3. Sea V un espacio vectorial y sean W1 y W2 subespacios de V entonces W1 ∩ W2 es un subespacio de V . Demostraci´ on. Como W1 y W2 son subespacios, entonces 0 ∈ W1 y 0 ∈ W2 , se sigue que 0 ∈ W1 ∩ W2 y por tanto W1 ∩ W2 6= φ. Ahora mostremos que el conjunto W1 ∩ W2 satisface las condiciones 1. y 2. del Teorema 2.2. Sean w, w′ ∈ W1 ∩ W2 , entonces w, w′ ∈ W1 y w, w′ ∈ W2 , luego w + w′ ∈ W1 y w + w′ ∈ W2 , por tanto w + w′ ∈ W1 ∩ W2 . Sea α ∈ R, como W1 y W2 son subespacios tenemos que αw ∈ W1 y αw ∈ W2 , por tanto αw ∈ W1 ∩ W2 . Concluimos que W1 ∩ W2 es un subespacio de V . Teorema 2.4. Sea V un espacio vectorial y sean W1 y W2 subespacios de V y definamos W1 + W2 = {w1 + w2 | w1 ∈ W1 y w2 ∈ W2 } entonces W1 + W2 es un subespacio de V . Demostraci´ on. Esta se deja como ejercicio. Problemas   a 2.2.1. Sea V = M2 (R), demuestre que H1 =   0 pacios de V y describa el conjunto H1 ∩ H2 .     a  b  a, b, c ∈ R y H2 =   b  c    b  a, b ∈ R son subes  −a 2.2.2. Demuestre el Teorema 2.4      x   1      .   n . 2.2.3. Demuestre que un hiperplano H de R , H =  .  α1 x1 + · · · + αn xn = 0, α1 , . . . , αn ∈ R es un          x  n subespacio de Rn . 2.2.4. Sea A una matriz m × n, demuestre que el conjunto H = {x ∈ Rn | Ax = 0} es un subespacio de Rn . (Este ejercicio es una generalizaci´ on del ejercicio anterior, n´ otese que en el ejercicio anterior la matriz A es la matriz A = [α1 ··· αn ]. ) 2.2.5. La traza de una matriz A = (aij ) ∈ Mn (R) se define como tr(A) = a11 + · · · + ann . Demuestre que el conjunto de matrices de traza cero es un subespacio de Mn (R), a este subespacio se le denota por sln (R) o sl(n, R). 54 2.2.6. Sean A, B ∈ Mn (R) y α, β ∈ R, demuestre que 1. tr(αA + βB) = αtr(A) + βtr(B), 2. tr(AB) = tr(BA) 3. tr(At ) = tr(A). 2.2.7. De ejemplos de subconjuntos de R2 que cumplan lo siguiente: 1. que sea cerrado bajo el producto por escalar pero no que sea cerrado bajo la suma, 2. que sea cerrado bajo la suma pero que no sea cerrado bajo el producto por escalar. 2.2.8. Demuestre que el conjunto soluci´ on de el sistema homog´eneo a11 x1 + · · · + a1n xn = 0 .. . am1 x1 + · · · + amn xn = 0 n es un subespacio de R .    x1 a11 · · · a1n     ..   .   . .. on al la matriz del sistema, demuestre que x =  ..  es una soluci´ Ayuda: Sea A =  .. . .      xn am1 · · · amn sistema si y s´ olo si Ax = 0 y use el Ejercicio 2.2.4. 2.2.9. 1. Construya un contraejemplo que muestre que la uni´ on de subespacios no es un subespacio. 2. Sea V un espacio vectorial y W1 y W2 subespacios de V , demuestre que W1 ∪ W2 es un subespacio si y s´ olo si W1 ⊆ W2 o W2 ⊆ W1 . 2.2.10. Sea V un espacio vectorial y sean W1 y W2 subespacios de V , demuestre que W1 + W2 es el subespacio m´ as peque˜ no que contiene a W1 y a W2 . 2.2.11. Demuestre que el conjunto de matrices sim´etricas, Sn = {A ∈ Mn (R) | A es sim´etrica }, es un subespacio de Mn (R). 2.2.12. Demuestre que el conjunto de matrices antisim´etricas, An = {A ∈ Mn (R) | A es antisim´etrica }, es un subespacio de Mn (R). ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 55 2.2.13. Una funci´ on se llama par si f (−x) = f (x), para todo x. Demuestre que el conjunto de funciones pares es un subespacio vectorial de F(R, R). Demuestre tambi´en que el subconjuto formado por las funciones impares, funciones tal que f (−x) = −f (x), para todo x, tambi´en es un subespacio de F(R, R). 2.2.14. Sea F = F([0, 1], R), el conjunto de funciones del intervalo [0, 1] en R, demuestre que los siguientes subconjuntos son subespacios de F: 1. el conjunto C([0, 1], R) de funciones continuas del intervalo [0, 1] en R, Z 1   f (x)dx = 0 . 2. el conjunto f ∈ F 0 2.2.15. Sea V un espacio vectorial y sean H1 y H2 subespacios, demuestre que H1 ∩ H2 es el subespacio m´ as grande contenido en H1 y H2 . 2.2.16. Sea V = {f : R −→ R | f es una funci´ on } el espacio de funciones de R en R. Determine si los siguientes conjuntos son subespacios de V .   1. H1 = f ∈ V l´ım− f (x) = +∞ . x→0 2. H2 =  f ∈V  l´ım f (x) = 0 . x→−∞ 2.2.17. Sean H, K y L subespacios de un espacio vectorial V . Haga lo siguiente 1. Muestre que (H ∩ K) + (H ∩ L) ⊆ H ∩ (K + L). 2. Exhiba un contraejemplo que muestre que la igualdad H ∩ (K + L) = (H ∩ K) + (H ∩ L) no es cierta. 3. Muestre que si K ⊆ H entonces H ∩ (K + L) = K + (H ∩ L). 4. Muestre que H + (K ∩ L) ⊆ (H + K) ∩ (H + L). 5. Exhiba un contraejemplo que muestre que la igualdad H + (K ∩ L) = (H + K) ∩ (H + L) no es cierta. 2.2.18. Si A ⊆ V es un subconjunto de un espacio vectorial V , definimos L(A) como el conjunto L(A)=intersecci´ on de subespacios que contienen a A, muestre lo siguiente: 1. L({x}) = {ax : a ∈ R} 2. H es un subespacio de V si y s´ olo si L(W ) = W . 3. Si A ⊆ B entonces L(A) ⊆ L(B). 4. Si H1 y H2 son subespacios entonces L(H1 ∪ H2 ) = H1 + H2 . 5. L(A) es el subespacio m´ as peque˜ no que contiene a A. 2.2.19. Muestre que {p ∈ R4 [t] | R1 0 p(x)dx = 0} es un subespacio . 56 2.3. Independencia Lineal En esta secci´ on se estudiar´ a el concepto de independencia lineal el cual nos permitir´ a determinar cuando un vector en un conjunto dado de vectores se puede expresar en t´erminos de los dem´ as. Tambi´en se dar´ a un criterio que nos permitir´ a determinar computacionalmente cuando un conjunto de vectores en Rm es linealmente independiente. Se usar´ a muy a menudo la frase combinaci´ on lineal, la cual definimos a continuaci´ on. Definici´ on 2.3. Sea V un espacio vectorial y sean v1 , . . . , vk ∈ V , una combinaci´ on lineal de estos vectores es una expresi´ on de la forma α1 v 1 + · · · + αk v k , donde α1 , . . . , αk son reales. Definici´ on 2.4. Sea V un espacio vectorial y sean v1 , . . . , vk ∈ V , decimos que el conjunto {v1 , . . . , vk } es linealmente independiente si la u ´nica combinaci´ on lineal de los vectores v1 , . . . , vk que produce el vector nulo es la trivial, es decir, si se tiene que α1 v1 + · · · + αk vk = 0 entonces α1 = α2 = · · · = αk = 0. En este caso tambi´en diremos que los vectores v1 , . . . , vk son linealmente independientes o simplemente LI para simplificar. Si el conjunto {v1 , . . . , vk } no es linealmente independiente, decimos que es linealmente dependiente o simplemente LD para simplificar. Observaci´ on 2.1. De la definici´ on anterior se deprende que si el conjunto {v1 , . . . , vk } es LD si existe una combinaci´ on lineal de los vectores v1 , . . . , vk que se anula, es decir, {v1 , . . . , vk } es LD si y s´ olo si existen constantes α1 , . . . , αk , no todas cero, talque α1 v1 + · · · + αk vk = 0. (2.1) Lo que es equivalente a decir que alguno de los vi se puede escribir como una combinaci´ on lineal de los demas, esto ya que al menos uno de los αi 6= 0, por tanto despejando por vi en (2.1) tenemos vi = −α1 αi−1 αi+1 αk v1 − · · · − vi−1 − vi+1 − · · · − vk . αi αi αi αi Es decir, un conjunto es LD si y s´ olo si uno de los vectores es una combinaci´ on lineal de los dem´ as.       0 0 1 Ejemplo 2.4. Los vectores v1 =   y v2 =   son LI ya que si suponemos que α1 v1 + α2 v2 =   tenemos 0 1 0 que      0  = α1 v 1 + α2 v 2 =   0 α2 α1 lo que implica que α1 =  α2 = 0.   2 1 Los vectores v1 =   y v2 =   son LD ya que v2 = 2v1 lo que es equivalente a escribir −2v1 + v2 = 0 y 2 1 por la definici´ on se sigue que v1 y v2 son LD. ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 57 De la u ´ltima observaci´ on obtenemos una interpretaci´ on geom´etrica que podemos usar para conjuntos peque˜ nos de vectores la cual exhibimos a continuaci´ on. El conjunto de vectores {v, w} es LD si y s´ olo si w = αv, es decir, el conjunto {v, w} es LD si y s´ olo si w es un m´ ultiplo de v. La siguiente figura nos muestra las posibilidades y aunque se usa una gr´ afica en R2 , vale la pena aclarar que la mismos casos se cumplen para un par de vectores en dimensiones mayores. w w v v Vectores LD Vectores LI Un conjunto formado por tres vectores {v, w, z} es LD si y s´ olo si uno de ellos es combinaci´ on lineal de los otros. Esta u ´ltima propiedad nos lleva a dos casos: Caso 1: Dos vectores, digamos w y z, son ambos m´ ultiplos de v. En este caso los tres vectores est´ an contenidos en una l´ınea. Caso 2: Un vector, digamos z, es combinaci´ on lineal de v y w, pero v no es m´ ultiplo de w. En este caso tenemos que z es de la forma z = αv + βw y como la suma de dos vectores se rige por la ley del paralelogramo, esta u ´ltima ecuaci´ on implica que z est´ a contenido en el mismo plano que contiene a v y w. Concluimos que tres vectores son LD si y s´ olo si estos est´ an contenidos en una l´ınea o en un plano. En consecuencia tenemos que tres o m´ as vectores en R2 son necesariamente LD. La siguiente figura nos muestra los posibles casos geom´etricos de tres vectores z v z w b z b w b v Vectores LD Vectores LD Vectores LI Del Teorema 2.5 se deduce facilmente que cuatro o m´ as vectores en R3 son LD, por tanto, para exhibir geom´etricamente cuatro vectores LI se necesitan al menos 4 dimensiones y por este motivo no podemos exhibir m´ as figuras en las que se consideren cuatro o m´ as vectores LI.           −1  2 1                Ejemplo 2.5. 1. El conjunto v1 = −1 , v2 = 3 , v3 = −9 es LD ya que v3 = 3v1 − 2v2 de donde             6  0 2 3v1 − 2v2 − v3 = 0. 58        1  0 1              2. El conjunto de vectores v1 = 1 , v2 = 1 , v3 = 0 es LI ya que si existieran constantes α1 , α2 , α3             1  1 0 tal que α1 v1 + α2 v2 + α3 v3 = 0 entonces tendr´ıamos que         1 0 1 0                 0 = α1 v1 + α2 v2 + α3 v3 = α1 1 + α2 1 + α3 0         1 1 0 0         α 0 α α + α3  1    3  1          = α1  + α2  +  0  = α1 + α2          0 α2 α3 α2 + α3      α1 + α3 = 0 on matricial De donde α1 + α2 = 0, el cual es equivalente a la ecuaci´ α2 + α3 = 0  1 0   1 1  0 1      0 1 α   1       0 α2  = 0 .     0 1 α3 (2.2)  1     Al aplicar reducci´ on Gauss-Jordan a la matriz 1 1 0 obtenemos la matriz identidad, luego la u ´nica soluci´ on   0 1 1 al sistema (2.2) es la trivial, α1 = 0, α2 = 0 y α3 = 0. Por tanto el conjunto {v1 , v2 , v3 } es LI. 1 0 En Rm es f´ acil establecer un criterio para determinar si un conjunto de vectores es LI o no. De la definici´ on se sigue que un conjunto de vectores {v1 , . . . , vk } ⊆ Rm es LD si existen constantes α1 , . . . , αk , no todas cero tal que α1 v1 + · · · + αk vk = 0 pero esta ecuaci´ on la podemos escribir matricialmente de la siguiente forma   α1 i  h  ..  0 = α1 v 1 + · · · + αk v k = v 1 · · · v k  .  .   αk    0 α1 h i    .   . De esto se sigue que los vectores son LD si la ecuaci´ on α1 v1 + · · · + αk vk = v1 · · · vk  ..  =  ..  tiene     0 αk soluciones no triviales lo cual, por el Teorema 1.21, es equivalente a que el rango de A es igual al n´ umero de  sus columnas. Este criterio lo enunciamos a continuaci´ on en le siguiente teorema. h i Teorema 2.5. Sea {v1 , . . . , vk } ⊆ Rm y sea A = v1 · · · vk la matriz cuyas columnas son los vectores v1 , . . . , vk , entonces el conjunto {v1 , . . . , vk } es LI si y s´ olo si rangoA = k = # de columnas de A. ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 59 Demostraci´ on. El conjunto {v1 , . . . , vk } es LI si y s´ olo si las u ´nicas constantes α1 , . . . , αk tal que α1 v1 + · · · +     α1 0 h i     ..   ..  αk vk = 0 son α1 = · · · = αk = 0 si y s´ olo si la u ´nica soluci´ on al sistema v1 · · · vk  .  =  .  es el vector {z }    | =A αk 0     0 α1      ..   ..   .  =  .  y por el Teorema 1.21 esto es equivalente a que rangoA = k = # de columnas de A.     0 αk En este cap´ıtulo nos concentraremos en estudiar criterios que aplican solo para vectores en Rm , pero estos ser´ an generalizados a espacios vectoriales arbitrarios de dimensi´ on finita en la Cap´ıtulo 3 usando los teoremas de isomorfismo. Del teorema se deduce el siguiente procedimiento computacional para determinar si un conjunto de vectores es LI y si no lo son, tambi´en nos permite encontrar la dependencia lineal entre los vectores, el procedimiento se enuncia a continuaci´ on. Procedimiento 2.1. (Procedimiento para determinar si un conjunto de vectores de Rm es linealmente independiente.) Sea {v1 , . . . , vk } un conjunto de vectores en Rm , para determinar si este conjunto es LI hacemos lo siguiente: h 1. Aplicamos reducci´ on Gauss-Jordan a la matriz A = v1 ··· i vk . 2. Si la forma escalonada reducida A′ de A tiene un pivote en cada fila entonces los vectores son LI, si no entonces los vectores son LD.  α1    .  3. Si los vectores son LD, entonces el sistema Ax = 0 o equivalentemente A′ x = 0 tiene soluci´ on. Si x =  ..    αk es una soluci´ on a este sistema, las constantes α1 , . . . , αk satisfacen  α1 v 1 + · · · + αk v k = 0 la cual nos da una dependencia lineal entre los vectores. Ejemplo 2.6. Determine si el conjunto de vectores es LI, si no lo es, encontrar una dependencia lineal entre ellos.             0  −1 2 1                    1. v1 = 1 , v2 =  1  , v3 =  1  , v4 = 1               1  2 −1 0           1  0 1                2. v1 = 1 , v2 = 1 , v3 = 0             1  1 0 60 Soluci´ on. 1. Necesitamos aplicar  1 2 −1 h i   v 1 v 2 v 3 v 4 = 1 1 1  0 −1 2 reducci´  on Gauss-Jordan a la matriz 0   a dada por 1, cuya forma escalonada reducida est´  1   1 0 3 2     A′ = 0 1 −2 −1 .   0 0 0 0 Como rango(A) = 2 < # de columnas de A entonces los vectores son LD. Para encontrar una dependencia lineal entre estos vectores resolvemos el sistema A′ x = 0, el cual nos da las ecuaciones x1 + 3x3 + 2x4 = 0 y x2 − 2x3 − x4 = 0 o equivalentemente x1 = −3x3 − 2x4 x2 = 2x3 + x4 , con x3 y x4 son variables libres, entonces si hacemos x3 = x4 = 1 obtenemos la soluci´ on particular x1 = −5, x2 = 3 y x3 = x4 = 1, por tanto una dependencia lineal entre los vectores est´ a dada por −5v1 + 3v2 + v3 + v4 = 0.  1  h i  2. En este caso necesitamos escalonar la matriz v1 v2 v3 = 1  0 es A′ = I y por tanto rango(A) = # de columnas de A y los vectores  1   1 0, cuya forma escalonada reducida  1 1 v1 , v2 y v3 son LI. 0 Ejemplo 2.7. Determine si el conjunto de vectores dado es linealmente independiente: ( "1# "1# "1# "1# )  2  1 1 1  1 1 1 1 1 1. v1 = 1 , v2 = 1 , v3 = 1 v4 = 2 , 2. w1 = 11 , w2 = 11 , w3 = 12 , w4 = 23 , w5 = 34 1 1 1 2 2 3 3 4 Soluci´ on. 1. Al aplicar reducci´ on a la matriz A = [v1 v2 v3 v4 ] obtenemos la matriz A′ = rangoA = 4 y por tanto los vectores v1 , v2 , v3 y v4 son LI. 5 4 3 2 1 "1 0 0 0# 0 0 0 0 ′ 1 0 0 0 2. Al aplicar reducci´ on a la matriz A = [w1 w2 w3 w4 w5 ] obtenemos la matriz A = 0 1 0 0 0 0 1 0 , lo que implica que 1 0 0 0 1 0 1 0 0 0 0 0 1 0 0 0 0 0 1 1 , se sigue que rangoA = 4 < # de columnas de A y por tanto los vectores w1 , w2 , w3 , w4 y w5 son LD. Para calcular una dependencia lineal entre estos vectores debemos obtener una soluci´ on a la ecuaci´ on Ax = 0 o equivalentemente a la ecuaci´ on A′ x = 0. Usando la matriz en forma escalonada reducida se obtiene que una soluci´ on x = (x1 , x2 , x3 , x4 , x5 ) a la ecuaci´ on Ax = 0 satisface las ecuaciones x1 + x5 = 0 x2 = 0 x3 = 0 y x4 + x5 = 0 con x5 libre. Asignando el valor x5 = 1 obtenemos que x1 = −1, x2 = 0 = x3 y x4 = −1, por tanto los vectores w1 , w2 , w3 , w4 y w5 satisfacen la relaci´ on: −w1 − w4 + w5 = 0. ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 61 Terminamos la secci´ on con un corolario que nos ser´ au ´til mas adelante. Corolario 2.6. Un conjunto de vectores linealmente independientes de Rm tiene a lo sumo m vectores. h i Demostraci´ on. Sean v1 , . . . , vk ∈ Rm vectores linealmente independientes y sea A = v1 · · · vk , dado que las columnas de A son vectores en Rm , tenemos que la matriz tiene tama˜ no m × k y es obvio que rango(A) ≤ m´ın{m, k} y por el Teorema 2.5 tenemos que rango(A) = k = # de columnas, por tanto se tiene que k = rango(A) ≤ m´ın{m, k} ≤ m. Problemas 2.3.1. Determine cuales de los siguientes conjuntos son LI, si no lo son, encuentre una dependencia lineal entre los vectores:         1  1            a. 2 , 1           1  3           1  1 1                b. 2 , 1 , −1             −3  1 3          1  1 1               c. 2 , 1 ,  1              3 −3  1 2.3.2. Encuentre el valor de a para los que los vectores son LI           1  1 2                2 , 2 , −1 .             a  3 2            1 1  1             2 1  1        d.   ,   ,     3 1 −3                4 1  1 2.3.3. Determine la relaci´ on entre α y β para que los vecores v1 = (1, 0, 0), v2 = (0, 1, 0) y v3 = (α, β, α + β) sean LD y exhiba una dependencia lineal entre los vectores. 2.3.4. Encuentre vectores v1 , v2 y v3 de tal forma que v1 , v2 sean LI y v2 , v3 sean tambi´en LI pero que v1 , v2 , v3 sean LD. 2.3.5. Sea V un espacio vectorial y sean v, w ∈ V , demuestre que {v, w} es LD si y s´ olo si w = cv con c ∈ R, es decir, si w es un m´ ultiplo de v. 2.3.6. Sean v, w ∈ R3 con v 6= 0, demuestre que 1. si v, w son LD entonces {v, w} es una l´ınea que pasa por el origen, 2. si v, w son LI entonces {v, w} es un plano que pasa por el origen. 2.3.7. Sea V un espacio vectorial, sean v1 , v2 , v3 ∈ V y sean w1 = v1 − v2 , w2 = v2 − v3 y w3 = v3 . Demuestre que {v1 , v2 , v3 } es LI si y s´ olo si {w1 , w2 , w3 } es LI. 62 2.3.8. Sea V un espacio vectorial, sean v1 , v2 , v3 ∈ V vectores LI, demuestre que los vectores v1 + v2 , v2 + v3 y v3 + v1 son LI y los vectores v1 − v2 , v2 − v3 y v3 − v1 son LD. 2.3.9. Demuestre que si el conjunto {v1 , . . . , vn } es LI y k < n entonces el conjunto {v1 , . . . , vk } tambi´en es LI. 2.3.10. Demuestre que si el conjunto {v1 , . . . , vn } es LD y vn+1 es otro vector entonces el conjunto {v1 , . . . , vn , vn+1 } tambi´en es LD. 2.3.11. Sean v, w ∈ R3 vectores LI, demuestre que gen{v} + gen{w} es el plano que contiene a los vectores v y w. 2.3.12. Sean v, w ∈ R3 vectores LD, demuestre que gen{v} + gen{w} es la l´ınea que contiene al vector v. 2.3.13. Demuestre que los polinomios 1, t, t2 , . . . , tn son LI.        0 0 0 0 1 1 0 y ,  ,  2.3.14. Demuestre que las matrices  0 1 0 0 0 0 0  0  son LI. 1 2.3.15. Demuestre que el conjunto {sen(x), sen(2x), cos(x), cos(2x)} es LI. 2.3.16. Muestre que el conjunto los subconjuntos de M2 (R) son LI. 1. {E11 , E22 , E12 + E21 }. 2. {E12 , E21 , E11 − E22 }. En general denotamos por Eij a la matriz cuya ij-´esima entrada es 1 y ceros en las dem´ as posiciones. 2.4. Conjuntos generadores El concepto m´ as importante en ´ algebra lineal es el concepto de base para un espacio vectorial, el cual se define a partir de la independencia lineal y de conjunto generador. El Corolario 2.6 mostr´ o que un conjunto linealmente independiente en Rm tiene a lo sumo m vectores y en esta secci´ on veremos como un conjunto generador en Rm tiene al menos m vectores, mostrando como los dos conceptos se balancean. Definici´ on 2.5. Sea V un espacio vectorial, decimos que los vectores v1 , v2 , . . . , vk generan a V , si para todo v ∈ V existen escalares α1 , α2 , . . . , αk tal que v = α1 v 1 + · · · + αk v k . Tambi´en diremos que V es generado por el conjunto de vectores {v1 , . . . , vk }, lo cual denotaremos por V = gen{v1 , . . . , vk }. Al conjunto {v1 , . . . , vk } se le llama conjunto generador de V . La definici´ on misma nos permite dar una interpretaci´ on geom´etrica, para dimensiones 1, 2 y 3, de conjuntos generadores. Veremos que en general el conjunto generado por unos vectores depende de si ´estos son LI o LD ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 63 Conjunto generado por un vector {v}: de la definici´ on, el conjunto generado por un vector, es el conjunto {αv | α ∈ R}, es decir, el conjunto de m´ ultiplos escalares de v. Sabemos de las propiedades de producto de un escalar por un vector, que este es el conjunto de m´ ultiplos de v y por tanto si v 6= 0 ´este coincide con la l´ınea que contiene a v. Si v = 0 entonces gen{v} = {0} el subespacio trivial. De esto se sigue que un vector no nulo en R genera a R, pero un vector no nulo en Rm , con m ≥ 2, no es suficiente para generar este espacio. v L´ınea generada por v Conjunto generado por dos vectores v1 y v2 no nulos. Distinguimos dos casos Caso 1: los vectores v1 y v2 son LD, o equivalentemente, uno de los vectores es un m´ ultiplo del otro, digamos v2 = αv1 . En este caso el conjunto generado por estos vectores, que por definici´ on es el conjunto {βv1 + λv2 | β, λ ∈ R}, es en realidad una combinaci´ on lineal de v1 ya que dadas la relaci´ on entre v1 y v2 obtenemos que una combinaci´ on lineal de estos es de la forma βv1 + λ v2 = βv1 + λαv1 = (β + λα) v1 |{z} αv1 y obtenemos que gen{v1 , v2 } = gen{v1 } es la l´ınea que contiene a v1 . Caso 2: los vecores son LI, o equivalentemente, ning´ un vector es m´ ultiplo del otro. En este caso tenemos que el conjunto generado por los vectores v1 , v2 , el cual por definici´ on es el conjunto {βv1 + λv2 | β, λ ∈ R} es, por la ley del paralelogramo, el plano que contiene a los dos vectores. Se sigue de esto que R2 es generado por dos vectores no colineales pero dos vectores no pueden generar Rm con m ≥ 3. v1 v2 v1 b b v2 Dos vectores LD generan una l´ınea Dos vectores LI generan un plano Conjunto generado por tres vectores {v1 , v2 , v3 }. Distinguimos dos casos Caso 1: los vectores son LD, es decir, un vector es combibaci´ on lineal de los dem´ as, digamos v3 = α1 v1 +α2 v2 , en este caso el conjunto generado por los vectores v1 , v2 , v3 que consta de los vectores de la forma β1 v1 + β2 v2 + β3 v3 es en realidad generado por los vectores v1 y v2 ya que β1 v 1 + β2 v 2 + β3 v3 |{z} α1 v1 +α2 v2 = β1 v1 + β2 v2 + β3 (α1 v1 + α2 v2 ) = (β1 + β3 α1 )v1 + (β2 + β3 α2 )v2 ∈ gen{v1 , v2 } 64 y por el caso anterior, sabemos que el generado por dos vectores es una l´ınea o un plano. Caso 2: los vectores v1 , v2 , v3 son LI. En este caso los vectores generan un espacio 3-dimensional. De esto se sigue que tres vectores LI en R3 generan el espacio 3-dimensional, pero tres vectores no son suficientes para generar Rm con m ≥ 4. v3 v1 v2 v3 v1 b v3 v1 b b v2 Tres vectores LD generan una l´ınea o un plano v2 Tres vectores LI generan un espacio 3-dimensional La siguiente es una caracterizaci´ on que sirve para determinar cuando un conjunto de vectores es un conjunto generador de Rm . h Teorema 2.7. Sean v1 , v2 , . . . , vk vectores en Rm y sea A = v1 ··· i vk la matriz cuyas columnas son los vectores v1 , v2 , . . . , vk . Entonces el conjunto {v1 , v2 , . . . , vk } es un conjunto generador si y s´ olo si rango(A) = m = # de filas de A. Demostraci´ on. Por definici´on el conjunto {v1 , v2 , . . . , vk } es un conjunto generador si y s´ olo si para todo   α1 h i   ..  m b ∈ R , existen escalares α1 , . . . , αk tal que b = α1 v1 + · · · + αk vk = v1 · · · vk  .  = Ax donde | {z }  A αk   α1    ..  olo si la ecuaci´ on Ax = b tiene soluci´ on para todo b ∈ Rm y esto, por el Teorema 1.20, es x =  .  , si y s´   αk equivalente a que rango(A) = m = # de filas de A. De este teorema se desprende un procedimiento para determinar si un conjunto de vectores es un conjunto generador de Rm , el cual describimos a continuaci´ on. Procedimiento 2.2. (Procedimiento para determinar si un conjunto de vectores de Rm es un conjunto generador) Sean v1 , v2 , . . . , vk vectores en Rm , entonces h 1. Forme la matriz A = v1 ··· i vk . 2. Aplique reducci´ on Gauss-Jordan a A para calcular la forma escalonada reducida A′ de A. 3. Si A′ tiene un pivote en cada fila, entonces los vectores v1 , v2 , . . . , vk generan a Rm , de otra forma no generan. ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 65 Ejemplo 2.8. Determine si el conjunto de vectores genera a R3 ,             −1  0 −2 1                    1. v1 = 2 , v2 =  −4  , v3 = 1 , v4 =  0                −3  1 −10 5           0  −2 1                2. v1 = 2 , v2 = −4 , v3 = 1             1  −9 5 Soluci´ on. h i 1. Siguiendo los pasos indicados en el procedimiento, primero formamos la matriz A = v1 v2 v3 v4 =   1 −2 0 −1     2 −4 1 0  . Ahora calculamos la matriz escalonada reducida de A, usando MatLab obtenemos   5 −10 1 −3 >> A = [1 − 2 0 − 1; 2 − 4 1 0; 5 − 10 1 − 3]; rref (A) ans =   1 −2 0 −1     0 0 1 2   0 0 0 0 Como rango(A) = 2 < 3 = # de filas, entonces los vectores no  1 −2 h i   2. En este caso formamos la matriz A = v1 v2 v3 = 2 −4  5 −9 reducida de A, usando MatLab obtenemos generan a R3 .  0   1 . Ahora calculamos la matriz escalonada  1 >> A = [1 − 2 0; 2 − 4 1; 5 − 10 1]; rref (A) ans =   1 0 0     0 1 0   0 0 1 Como rango(A) = 3 = # de filas, entonces estos vectores generan a R3 , es decir, gen{v1 , v2 , v3 } = R3 . Corolario 2.8. Sean v1 , v2 , . . . , vk vectores en Rm , si k < n entonces los vectores v1 , v2 , . . . , vk no generan a Rm . h Demostraci´ on. Sea A = v1 ··· i vk , entonces rango(A) ≤ k < m = # de filas de A, entonces por el Teorema 2.7, el conjunto no genera a Rm . El siguiente corolario es la versi´ on del Corolario 2.6 para conjuntos generadores. Corolario 2.9. Un conjunto generador de Rm tiene al menos m vectores. 66 Teorema 2.10. Si los vectores v1 , . . . , vm ∈ Rm son linealmente independientes, entonces generan a Rm , es decir, gen{v1 , . . . , vm } = Rm . h Demostraci´ on. Sea A = v1 ··· i vm , como los vectores v1 , . . . , vm son linealmente independientes entonces, por el Teorema 2.5, se tiene que rango(A) = m = # de columnas, pero la matriz A es de tama˜ no m × m, por tanto # de filas=# de columnas. Luego rango(A) = m = # de filas de A. Por tanto por el Teorema 2.7 los vectores v1 , . . . , vm generan a Rm .       1 0 1             Ejemplo 2.9. En el Ejemplo 2.6 se encontr´ o que los vectores v1 = 1 , v2 = 1 y v3 = 0 son linealmente       1 1 0 3 independientes, entonces por el teorema anterior se tiene que estos vectores generan R . Problemas 2.4.1. Determine si el conjunto de vectores genera a R3 .                       1  3 −1 1 3 −1 1                                  b. 1 ,  1  , 1 , 2 a. 1 ,  1  , 1                          2  2  2 2 2  2 2 2.4.2. Determine si el conjunto de vectores genera a R4              1  1 2 1               −1 1 2 0         a.   ,   ,   ,   b.    3  1 2 1                 1 2 2 0              1  1 2  1                −1 1 2  7   , , ,             3  1 2 −5                 1 2 2 3  2.4.3. Sea V un espacio vectorial, sean v1 , v2 , v3 ∈ V y sean w1 = v1 − v2 , w2 = v2 − v3 y w3 = v3 . Demuestre que el conjunto {v1 , v2 , v3 } genera a V si y s´ olo si el conjunto {w1 , w2 , w3 } genera a V . 2.4.4. Sea V un espacio vectorial y sean v1 , . . . , vk ∈ V , el conjunto generado por los vectores v1 , . . . , vk se define como gen{v1 , . . . , vk } = {α1 v1 + · · · + αk vk | α1 , . . . , αk ∈ R }. Demuestre que gen{v1 , . . . , vk } es un subespacio de V . 2.4.5. Sea V un espacio vectorial y sean v1 , . . . , vk , w1 , . . . , wl ∈ V , demuestre que gen{v1 , . . . , vk } + gen{w1 , . . . , wl } = gen{v1 , . . . , vk , w1 , . . . , wl }. 2.4.6. Demuestre que los polinomios 1, t, t2 , . . . , tn generan a Pn . ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN  2.4.7. Demuestre que las matrices  1 0     0 0 1 0 ,  ,  1 0 0 0 67    0 0 0  generan a M2 (R). y 0 1 0 2.4.8. Demuestre que S2 (R) = gen{E11 , E22 , E12 + E21 } y A2 (R) = gen{E12 − E21 }. 2.4.9. sl2 (R) = gen{E12 , E21 , E11 − E22 }. 2.5. Bases Al unir los conceptos de independencia lineal y conjunto generador se consigue uno de los conceptos m´ as importantes del ´ algebra lineal: el concepto de base de un espacio vectorial el cual definimos a continuaci´ on. Definici´ on 2.6. Sea V un espacio vectorial y sean v1 , . . . , vn ∈ V , decimos que el conjunto {v1 , . . . , vn } es una base para V si 1. los vectores v1 , . . . , vn son linealmente independientes, 2. los vectores {v1 , . . . , vn } generan a V . De los Corolarios 2.6 y 2.9 de las secciones anteriores tenemos lo siguiente. Teorema 2.11. 1. Toda base de Rm tiene exactamente m vectores. 2. Un conjunto de m vectores linealmente independientes de Rm es una base. Demostraci´ on. 1. Se sigue de los corolarios 2.6 y 2.9. 2. Se sigue de el Teorema 2.10.       0 −2 1             Ejemplo 2.10. En el ejemplo anterior se comprob´ o que los vectores v1 = 2 , v2 = −4 y v3 = 1 son       1 −9 5 linealmente independientes, por tanto generan y forman una base para R3 . El u ´ltimo teorema garantiza que todas las bases de Rm tienen m vectores, en general para todos los espacios vectoriales con un n´ umero finito de generadores (tambi´en llamados finito dimensionales) se cumple que todas las bases tienen exactamente el mismo n´ umero de elementos. Abajo en el Teorema 2.15 se demostrar´ a este hecho para subespacios de Rm , el caso general se demostrar´ a en la Secci´ on 3.4. Por ahora daremos un argumento computacional que nos permitir´ a determinar si un conjunto de vectores es una base para Rm . h i Teorema 2.12. Sean v1 , . . . , vm ∈ Rm y A = v1 · · · vm entonces el conjunto {v1 , . . . , vm } es una base para Rm si y s´ olo si rango(A) = m. La demostraci´ on de este teorema es una aplicaci´ on inmediata de los Teoremas ?? Tenemos adem´ as el siguiente corolario. 68 h Corolario 2.13. an v1 , . . . , vm ∈ Rm y A = v1 Rm si y s´ olo si A es invertible. ··· i vm entonces el conjunto {v1 , . . . , vm } es una base para Demostraci´ on. La demostraci´ on se sigue del teorema anterior y el Corolario 1.22. Nuevamente este teorema da un procedimiento para determinar si un conjunto de vectores es una base, el cual consiste en formar una matriz con los vectores dados y determinar si el rango de esta matriz es el # de filas e igual al # de columnas. Como lo mostramos en el siguiente ejemplo. Ejemplo 2.11. Determine en cada caso si el conjunto de vectores dados forma una base para R3 .                      1 −2 1 1 1 1                                1. v1 = −1 , v2 =  2  , v3 = 1 2. v1 = −1 , v2 = 2 , v3 = 1                         3 −6 4  3 3 4  Soluci´ on.  1 −2 1      1. Al aplicar reducci´ on Gauss-Jordan a la matriz A = −1 2 −1 formada por los vectores v1 , v2 y v3 ,   3 −6 3   1 −2 0     obtenemos la matriz 0 0 1. Esta matriz tiene rango 2 y por tanto los vectores v1 , v2 y v3 no forman   0 0 0 una base para R3 , ya que no son LI.   1 1 1     2. El aplicar reducci´ on Gauss-Jordan a la matriz A = −1 2 1, formada por los vectores v1 , v2 y v3 ,   3 3 4   1 0 0     obtenemos la matriz 0 1 0 . Como esta matriz tiene rango 3, entonces los vectores v1 , v2 y v3 forman   0 0 1 una base para R3 , ya que son LI y tres vectores LI generan a R3 . Problemas 2.5.1. Encuentre una base de R4 que contenga los vectores (1, 2, −2, 1) y (1, 0, −2, 2). 2.5.2. Calcule una base del subespacio {p ∈ R4 [t] | R1 0 p(x)dx = 0} de R4 [t]. 2.5.3. Muestre que el conjunto {E12 , E21 , E11 + E22 } es una base de S2 (R). 2.5.4. Muestre que el conjunto {E12 , E21 , E11 − E22 } es una base de sl2 (R). ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 69 2.5.5. Demuestre que {Eij + Eji | 1 ≤ i < j ≤ n} ∪ {Eii | 1 ≤ i ≤ n} es una base de Sn (R). 2.5.6. Demuestre que {Eij − Eji | 1 ≤ i < j ≤ n} es una base de An (R). 2.5.7. Demuestre que {Eij | 1 ≤ i ≤ n} ∪ {Ejj − Ej+1,j+1 | 1 ≤ j < n} es una base para sln (R). 2.5.8. Sea V un espacio vectorial y X ⊆ Y ⊆ V tal que X es LI y V = genY entonces existe una base Z tal que X ⊆ Z ⊆ Y . En particular si Y es una base muestre que existe S ⊆ Y tal que XU S es una base de V . 2.6. Subespacio generado por un conjunto de vectores Cuando se tiene un conjunto de vectores en Rm , el conjunto de combinaciones lineales de estos es un subespacio, el cual podr´ıa ser todo Rm en el caso de que estos generen o un subespacio propio, si estos no generan a Rm . Al conjunto de combinaciones lineales de un conjunto de vectores se le llama el conjunto generado por los vectores y lo definimos a continuaci´ on. Definici´ on 2.7. Sea V un espacio vectorial y sean v1 , . . . , vk ∈ V , definimos el conjunto generado por estos vectores, denotado por gen{v1 . . . , vk }, como el conjunto de combinaciones lineales de los vectores v1 , . . . , vk . Esto es, gen{v1 . . . , vk } = {α1 v1 + · · · + αk vk | α1 , . . . , αk ∈ R } . Es f´ acil mostrar que el conjunto generado por los vectores v1 , . . . , vk ∈ V es un subespacio de V , ver Problema 2.4.4, por esta raz´ on al conjunto gen{v1 . . . , vk } lo llamaremos el subespacio generado por los vectores v1 , . . . , vk . A continuaci´ on demostramos que todo subespacio de Rm tiene una base finita y en consecuencia todo subes- pacio H de Rm es el subespacio generado por un conjunto finito de vectores, es decir, existen vectores v1 , . . . , vk ∈ Rm tal que H = gen{v1 , . . . , vk }. Teorema 2.14. Sea H 6= {0} un subespacio de Rm , entonces existen vectores v1 , . . . , vk ∈ Rm tal que {v1 , . . . , vk } es una base de H. Demostraci´ on. Sea 0 6= v ∈ H, si H = gen{v} terminamos, si no, existe v2 ∈ H \ gen{v}. Si H = {v, v2 } terminamos la demostraci´ on, si no, tomamos v3 ∈ H \ gen{v, v2 }. Continuando de manera inductiva obtenemos vectores v1 , . . . , vk tal que H = gen{v, v2 , . . . , vk } Debemos demostrar que los vectores son linealmente independientes. Por inducci´on n´otese que {v} es LI, ya que si αv = 0, como v 6= 0 entonces tenemos que α = 0. Ahora, supongamos que el conjunto {v, v2 , . . . , vk−1 } es LI y veamos que {v, v2 , . . . , vk−1 , vk } es LI. Para esto supongamos que αv + α2 v2 + · · · + αk vk = 0. (2.3) Veamos por el absurdo que αk = 0 ya que si αk 6= 0 tenemos que αk vk = −α1 v1 − · · · − αk−1 vk−1 y por tanto vk = − α1 αk−1 v1 − · · · − vk−1 ∈ gen{v1 , . . . , vk−1 } α α 70 lo que contradice la escogencia del vector vk . Se sigue que αk = 0 y la Ecuaci´ on 2.3 se reduce a αv + α2 v2 + · · · + αk−1 vk−1 = 0 y como {v, v2 , . . . , vk−1 } es LI tenemos que α2 = · · · = αk−1 = 0 y por tanto {v, v2 , . . . , vk−1 , vk } es LI. El hecho de que los vectores v1 , . . . , vk son LI para todo k garantiza que el proceso termina en un n´ umero finito de pasos, de hecho se pueden tomar a lo sumo m vectores de esta forma, esto es debido a que los vectores v1 , . . . , vk ∈ Rm entonces el Corolario 2.6 garantiza que k ≤ m. Concluimos que el conjunto {v, v2 , . . . , vk } es una base de H y k ≤ m. La demostraci´ on de este teorema se puede adaptar para demostrar que todo subespacio de un espacio vectorial con una base finita tiene una base finita. Existe tambi´en una demostraci´ on de que todo espacio vectorial tiene una base usando el Axioma de elecci´ on. De este teorema deducimos adem´ as que todo subespacio de Rm tiene una base con a lo sumo m vectores, veamos que el n´ umero de vectores en una base es un invariante, al cual llamaremos la dimensi´ on del subespacio. Teorema 2.15. Sea V un subespacio de Rm y sean {v1 , . . . , vk } y {w1 , . . . , wl } bases para V , entonces k = l. Es decir, todas las bases de V tienen exactamente el mismo n´ umero de vectores. Demostraci´ on. Primero supongamos que l > k, como los vectores v1 , . . . , vk forman una base para V , entonces por definici´on de base tenemos que V = gen{v1 , . . . , vk } y por tanto para i = 1, . . . , l existen constantes α1i , . . . , αki tal que h wi = α1i v1 + · · · + αki vk = v1 Uniendo estas ecuaciones obtenemos: h w1 ··· i h wl = v 1 ···  α11 i  .. vk  .  αk1 ··· .. . ··· ···  α1i i   .  vk  ..  .   αki   α1l  h ..  = v1 .   αkl ··· i vk A, (2.4)   α11 · · · α1l   ..   . .. donde A =  .. . Como l > k, entonces el sistema Ax = 0 tiene mas variables que ecuaciones y por . .    αk1 · · · αkl tanto este sistema tiene al menos una soluci´ on no trivial, es decir, exiten constantes no todas nulas β1 , . . . , βl tal que     β1 0      ..   ..  A  .  = . .     βl 0 (2.5) ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 71   β1   . Luego, multiplicando la Ecuaci´ on (2.4) a la derecha por  .. , obtenemos   βl h w1  β1 i  h . wl  ..  = v1   βl  ··· ··· vk  β1   . A  ..    βl | {z }  i h = v1 =0 por Ec. (2.5) ···     0 0 i     ..   ..  vk  .  =  .  .     0 0    0 β1 h i     ..   ..  ´ltimo sistema es equivalentemente, por el Lema 1.9, a la ecuaci´on Es decir w1 · · · wl  .  =  . , este u     0 βl β1 w1 + · · · + βl wl = 0, y se sigue que los vectores w1 , . . . , wl son linealmente dependientes lo que contradice el  hecho de que forman una base para V , por tanto k ≤ l. De igual forma se demuestra que l ≤ k y por tanto k = l. Este lema motiva la siguiente definici´ on. Definici´ on 2.8. Definimos la dimensi´ on de un subespacio de H de Rm , la cual denotaremos por dim H, como el n´ umero de elementos en una base de H. Problemas 2.6.1. Sea V un espacio vectorial, sean v1 , v2 , v3 ∈ V y sean u1 = v1 − v2 , u2 = v2 − v3 y u3 = v3 . Demuestre que el conjunto {v1 , v2 , v3 } genera a V si y s´ olo si el conjunto {u1 , u2 , u3 } genera a V . 2.6.2. Sean H y K subespacios de Rn con dim H = dim K y H ⊆ K. Demuestre que H = K. 2.6.3. Sean v1 , . . . , vk ∈ Rn y V = gen{v1 , . . . , vk } entonces dim H ≤ k. 2.7. Subespacios fundamentales Dada una matriz A se pueden definir cuatro subespacios determinados por esta, los cuales definimos a continuaci´ on. Definici´ on 2.9. Sea A una matriz de tama˜ no m × n definimos los siguientes subespacios: 1. El espacion nulo de A, denotado N ul(A), se define como N ul(A) = {x ∈ Rn | Ax = 0.} 72 2. El espacio columna, denotado Col(A), se define como Col(A) = gen{c1 , . . . , cn }, donde c1 , . . . , cn son las columnas de A. 3. El espacio fila de A, denotado por F il(A), se define como t F il(A) = gen{f1t , . . . , fm }, donde f1 , . . . , fm son las filas de A. 4. El espacio nulo a izquierda de A, denotado por N uliz(A), se define como N uliz(A) = {x ∈ Rm | At x = 0.} De acuerdo al Problema 2.4.4, el espacio columna, Col(A), y el espacio fila, F il(A), de una matriz A son subespacios de Rm y Rn , respectivamente, y por el Problema 2.2.8 los conjuntos N ul(A) y N uliz(A) tambi´en son subespacios de Rn y Rm , respectivamente. El prop´ osito ahora es dar un procedimiento que nos permita hallar una base para los subespacios fundamentales. Calcular el espacio nulo de una matriz A es mas sencillo, ya que los vectores x en este espacio son soluci´ on a la ecuaci´ on Ax = 0, o equivalentemente, la ecuaci´ on A′ x = 0 con A′ la esaclonada reducida de A. El procedimiento para calcular una base para el espacio columna se sigue del siguiente teorema. Teorema 2.16. Sea A una matriz de tama˜ no m × n y sea A′ la forma escalonada reducida de A. Entonces los vectores para los cuales la columna de A′ tiene un pivote, forman una base para Col(A) y por tanto dim Col(A) = rango(A). Adem´ as se tiene que dim N ul(A) = n − rango(A). Demostraci´ on. Sea k = rango(A), sin p´erdida de generalidad, supongamos que las primeras k columnas de A′ tienen pivote, es decir 1  .. . ′ 0 A = 0 . .. ··· 0 b1,k+1 ··· b1n . . .. .. .. . ··· 1 bk,k+1 ··· 0 0 . . .. .. 0 ··· 0 .. . 0  . . ..   ··· bkn  ··· 0  . . ..  . . .. ··· (2.6) 0 Sean c1 , . . . , cn las columnas de A, vamos a demostrar que los vectores c1 , . . . , ck forman una base para Col(A). Primero n´otese que los vectores c1 , . . . , ck son linealmente independientes ya que ´estos forman las primeras i h a dada por las columnas de A y por tanto la forma escalonada reducida de la submatriz c1 · · · ck est´ primeras k filas de A′ y de la Ecuaci´ on (2.6), se obtiene que ´esta tiene un pivote en cada columna, luego por el Teorema 2.5, los vectores c1 , . . . , ck son linealmente independientes. Antes de demostrar que estos vectores generan el espacio columna, calculemos una base para el espacio nulo. ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 73   x1    .  Para esto tomemos x =  .. , de la Ecuaci´ on (2.6) tenemos lo siguiente   xn  x1    ..  olo si Ax = 0 si y s´ olo si A′ x = 0 si y s´ olo si  .  ∈ N ul(A) si y s´   xn  x1 +b1,k+1 xk+1 +···+b1n xn =0 .. . xk +bk,k+1 xk+1 +···+bkn xn =0 x1 =−b1,k+1 xk+1 −···−b1n xn .. . xk =−bk,k+1 xk+1 −···−bkn xn  −b   x1   −b1,k+1 xk+1 −···−b1n xn   −b1n  1,k+1 .. . . .   .  ..  .    ..  .     xk    −bk,k+1 xk+1 −···−bkn xn  −bkn   −bk,k+1  si y s´ olo si  xk+1  =   . (2.7) xk+1  = xk+1  1  + · · · + xn  0   .       .  . . .. .. .. .. si y s´ olo si xn xn 1 0  −b  −b    −b1n   −b1n  1,k+1 1,k+1       . . . .  .     ..    ..    .   ..     −bkn  −bkn  . N´ −bk,k+1  −bk,k+1  otese adem´ as que los vectores  Entonces N ul(A) = gen    1 ,...,  1 ,..., 0  0        .   .    . .   .. .. .. ..   1 0 0 1 son claramente LI y por tanto forman una base para N ul(A). De esto se sigue que los vectores c1 , · · · , cn satisfacen las ecuaciones   −b   1,k+1 0  ..  h    .   ..  −bk,k+1  . = A   1  = c1    .  .. 0 ··· 0 .. .    −b1n  0 .    ..  h  ..   −bkn   .  = A  0  = c1     .. 0 . 1  −b 1,k+1  .  i  ..  −bk,k+1   cn  1   .  .. 0 ···  −b1n  . i  ..   −bkn  cn  0    .. . 1 Por el Lema 1.9 tenemos que estas ecuaciones matriciales son equivalentes a las ecuaciones −b1,k+1 c1 − · · · − bk,k+1 ck + ck+1 = 0 −b1n c1 − · · · − bkn ck + cn = 0 o equivalentemente ck+1 = b1,k+1 c1 + · · · + bk,k+1 ck o equivalentemente cn = b1n c1 + · · · + bkn ck .. . Obtenemos que cada uno de los vectores ck+1 , . . . , cn es una combinaci´on lineal de los vectores c1 , . . . , ck . Por 74 tanto si x ∈ Col(A), obtenemos que x =α1 c1 + · · · + αk ck + αk+1 ck+1 + · · · + αn cn =α1 c1 + · · · + αk ck + αk+1 (b1,k+1 c1 + · · · + bk,k+1 ck ) + · · · + αn (b1n c1 + · · · + bkn ck ) =(α1 + αk+1 b1,k+1 + · · · + αn b1n )c1 + · · · + (αk + αk+1 bk,k+1 + · · · + αn bkn )ck ∈ gen{c1 · · · , ck } Concluimos que ColA = gen{c1 , . . . , ck }, entonces los vectores c1 , . . . , ck generan a Col(A) y como son linealmente independientes entonces forman una base para Col(A). Finalmente, observese que dim Col(A) = k = rango(A) y por la Ecuaci´ on (2.7) tenemos que dim N ul(A) = n − k = n − rango(A). De este resultado se desprende el siguiente corolario el cual ser´ a clave para la demostraci´ on del Teorema 3.20, el cual es uno de los teoremas m´ as importantes del ´ algebra lineal. Corolario 2.17. Sea A una matriz de tama˜ no m × n, entonces dim Col(A) + dim N ul(A) = n = # de columnas de A.  1 −1 0   Ejemplo 2.12. Calcule los cuatro subespacios fundamentales de la matriz A = 2 −2 1  3 −3 1 Calculando la forma escalonada reducida de A obtenemos       1 −1 0 1 1 −1 0 1 1 −1 0 1             0 2 −2 1 4 −2F1 +F2 →F2 0 0 1 2 0 1 2       0 0 0 3 −3 1 5 −2F1 +F3 →F3 0 0 1 2 −F2 +F3 →F3 0  1   on: 4. Soluci´  5 entonces por el teorema anterior la primera y tercera columna de A forman una base para el espacio columna de A, es decir         0  1            Col(A) = gen 2 , 1 .           1  3 Ahora para el espacio nulo resolvemos el sistema Ax = 0 o equivalentemente A′ x = 0 y obtenemos lo siguiente     x  1    0 x    x1 = x2 − x4 x1 − x2 + x4 = 0 ′  2 A   =  0 ⇔ ⇔ x3    x3 + 2x4 = 0 x3 = −2x4   0 x4         −1 1 x2 − x4 x1                  1 1  x2   x2  = x2   + x4   .   ⇔       = −2 0 x3   −2x4          1 0 x4 x4 ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 75         −1  1                1  1      Por tanto N ul(A) = gen   ,   .    0 −2             0 1  Para calcular el espacio fila y el nulo   1 2 3     −1 −2 −3 F1 +F2 →F2      0 1 1   1 4 5 −F1 +F4 →F4 a izquierda, calculamos la escalonada reducida de At      1 2 3 −2F2 +F1 →F1 1 0 1 2 3           0 1  0 1 1  0 0 0         F2 ↔F3   0 0  0 0 0  0 1 1      0 2 2 −2F2 +F4 →F4 0 0 0 2 2 1    1   0  0              1   2      x       1 −1 −2      on At x = 0 si y as un vector x = x2  satisface la ecuaci´ Se sigue que F il(A) = gen    ,   , adem´          1 0          x3    1 4  solo si         0   x −x x1 −1   1  3        x + x = 0 x = −x 0 1 3 1 3         ⇔ ⇔ x2  = −x3  = −1 . ⇔ At x2  =             0 x2 + x3 = 0 x2 = −x3   x3 x3 x3 1 0       −1         Por tanto N uliz(A) = gen −1 .        1     El siguiente teorema nos permite calcular bases alternativas para el espacio columna y el espacio fila de una matriz. Teorema 2.18. Sea A una matriz, entonces tenemos que F ilA = F ilA′ donde A′ es la forma escalonada reducida de A, adem´ as se tiene que dim F ilA = rango(A). Es decir, el espacio fila de una matriz coincide con el espacio de su forma escalonada reducida. Demostraci´ on. Sean f1 , . . . , fm las filas de A y sean f1′ , . . . , fk′ las filas no nulas de A′ , entonces k = rango(A). Como A′ se obtiene de A aplicando operaciones elementales de fila, las cuales envuelven combinaciones lineales de filas de A, entonces tenemos que fi′ ∈ gen{f1 , . . . , fm }, para i = 1, . . . , k. De esto se deduce que F ilA′ ⊆ F ilA. Ahora, como las operaciones elementales son reversibles y podemos recuperar la matriz A de A′ por medio de operaciones elementales, entonces tenemos que fi ∈ gen{f1′ , . . . , fk′ }, para i = 1, . . . , m. Deducimos que F ilA ⊆ F ilA′ y por tanto F ilA′ = F ilA. Es f´acil ver que los vectores f1′ t , . . . , fk′ t son LI ya que la matriz A′ est´ a en forma escalonada reducida y los pivotes est´ an en diferentes columnas, por tanto estos forman una base de A, concluimos que dim F ilA = k = rango(A). 76 Corolario 2.19. Sea A una matriz de tama˜ no m × n, entonces rango(A) = rango(At ). Demostraci´ on. De la definici´on de espacio fila y espacio columna tenemos que F il(A) = Col(At ) y por el teorema anterior dim F il(A) = rango(A) y por el Teorema 2.16 tenemos que dim Col(At ) = rango(At ), por tanto rango(A) = dim F il(A) = dim Col(At ) = rango(At ).  1 −1 0 1    o que las matrices 1 4 la matriz del Ejemplo 2.12. En ese ejemplo se calcul´  1 5     1 0 1   1 −1 0 1      0 1 1   t ′ t ′   y como escalonadas reducidas de A y A respectivamente son A = 0 0 1 2 y (A ) =      0 0 0   0 0 0 0 0 0 0         0  1            Col(A) = F il(At ) = F il(At )′ se tiene que Col(A) = gen v1 = 0 , v2 = 1 . Se deja como ejercicio al           1  1 lector verificar que v1 = c1 − 2c3 y v2 = c3 , donde c1 y c3 son la primera y tercera columna de la matriz A, lo   Ejemplo 2.13. Sea A = 2 −2  3 −3 que verifica que en realidad el espacio generado por v1 y  v2 es igual de A.   espacio columna  al    0  1                     0 −1  , w2 =   . Se deja como ejercicio al Adem´ as F il(A) = F il(A′ ), entonces F il(A) = gen w1 =        1  0              2  1 lector verificar que w1 = f1 y w2 = −2f1 + f2 donde f1 y f2 son la primera y segunda fila de A. Lo que verifica que el espacio generado por w1 y w2 es igual al espacio fila de A. AGREGAR EJEMPLO MATLAB Problemas 2.7.1. Encuentre los cuatro subespacios fundamentales de la matriz      1 2 1 1 −2 1 −2           a. A = −2 4  c. C = 5 6 4  b. B = −2 −2      9 10 1 9 2 1 2 3 7 11 Encuentre una base para el subespacio soluci´ on del sistema lineal a. 2x1 − x2 + 3x3 =0 −4x1 + 2x2 − 6x3 =0 b. 2x1 − x2 + 3x3 =0 x1 + x2 − x3 =0 4    8  12 ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 77 Ayuda: Escriba el sistema en la forma Ax = 0, por el Ejercicio 2.2.4 tenemos que x es soluci´ on al sistema si y s´ olo si x ∈ N ul(A). 2.7.2. Sean A y B matrices tal que AB = 0, demuestre que Col(B) ⊆ N ul(A) y F il(B) ⊆ N uliz(A). 2.7.3. Determine las dimensiones de los cuatro subespacios fundamentales de una matriz que satisface: a. A es 8 × 7 con rango 5. b. A es 7 × 5 con rango 5. 2.7.4. Determine el tama˜ no de A para que dim N ulA = dim N ulizA + 1. 2.7.5. muestre que b ∈ ColA si y s´ olo si Ax = b tiene soluci´ on. (El espacio columna es el espacio soluci´ on a la ecuaci´ on Ax = b). 2.7.6. Demuestre o de un contraejemplo de las siguientes afirmaciones 1. Si las columnas de A son LD tambi´en lo son las filas de A. 2. Si las columnas de A son LI tambi´en lo son las filas de A. 3. Si X es una base de Rn y W ⊆ Rn es un subespacio entonces un subconjunto de X es una base de W . 2.7.7. Si A = [I2 I2 ] determine ColA y N ulA. 2.7.8. Si A es 3×4 con N ulA = gen{(1, 1, −1, 0)} determine lo siguiente 1. rangoA, 2. la forma escalonada A′ de A, 3. F ilA  1 1 1 0      2.7.9. Si A′ = 0 0 0 1, cuales de los subespacios N ulA, N ulizA, ColA y F ilA se pueden determinar y   0 0 0 0 que se puede decir de los demas. 2.7.10. Determine el espacio columna en los siguientes casos 1. si A es 3 × 6 y Ax = b tiene soluci´ on para todo b, 2. si A es 4×4 y Ax = 0 tiene soluci´ on u ´nica, 3. A es 2 × 3 y A tiene una inversa a derecha. 2.7.11. Sea A una matriz 4 × 3, si N ulA = gen{(1, 1, −1), (1, 0, 0)} determine la forma escalonada reducida A′ de A y una base para F ilA. 2.7.12. Sea A ∈ Mn (R), Nk = N ul(Ak ) y Ck = Col(Ak ), demuestre que para todo k ≥ 1 se tiene que 78 1. Nk ⊆ Nk+1 2. Ck+1 ⊆ Ck 2.7.13. Si A ∈ Mmn (R) es una matriz, muestre que Col(A) = {Ax | x ∈ Rn } = ({b | existe x tal que b = Ax}) Este ejercicio muestra que el espacio columna es el conjunto soluci´ on de la ecuaci´ on Ax = b. 2.7.14. Sea A ∈ Mmn (R) y B ∈ Mnq (R), muestre que lo siguiente 1. Col(AB) ⊆ Col(A) y deduzca que rango(AB) ≤ rango(A) 2. Si B tiene inversa a la derecha, en particular si B es invertible, entonces Col(AB) = Col(A). Concluya que en este caso se tiene que rango(AB) = rango(B). 2.7.15. Sea A ∈ Mmn (R) y B ∈ Mnq (R), muestre que lo siguiente 1. rango(AB) ≤ rango(B). (Ayuda: Use el hecho que rango(At ) = rango(B t ).) 2. rango(AB) ≤ m´ın{rango(A), rango(B)} 3. Si B es invertible entonces rango(BA) = rango(A). 2.7.16. Sean A, B ∈ Mn (R) con B invertible, demuestre que rango(A) = rango(B −1 AB). 2.7.17. Si A es m × p y B es p × q con m < p < q y AB = 0, muestre que rangoA + rangoB ≤ m. 2.7.18. De un ejemplo de dos matrices A y B tal que Col(AB) 6= Col(A). 2.7.19. Si A es 8 × 10 con rango 6 determine las dimensiones de N ulA y N ulizA. Repetir si A es (m + 1) × m con rango m − 1. 2.8. Subespacio generado En esta secci´ on abordaremos dos preguntas acerca de un subespacio H generado por vectores v1 . . . , vn en m R , las primera de las cuales es: 1. Si los vectores v1 , . . . , vn no son linealmente independientes, como encontrar una base para H. h i Si hacemos A = v1 · · · vn entonces Col(A) = gen{v1 , . . . , vn } = H y aplicando el Teorema 2.16 obtenemos una base para Col(A) = H.       0 −2 1             Ejemplo 2.14. Calcular una base para H = gen{v1 , v2 , v3 } donde v1 = 2 , v2 =  −4  y v3 = 1 .       1 −10 5 ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 79  1 −2 0   1     −5 1 obtenemos A′ = 0   0 −5 1   Soluci´ on. Aplicando reducci´ on Gauss-Jordan a la matriz A = 2  5 Entonces los vectores v1 y v3 forman una base para H. −2 0 0 0    1 .  0 La segunda pregunta es conocida como el Test de membres´ıa y dice lo siguiente. 2. Si H es un subespacio de Rm con base {v1 , . . . , vk } y b es un vector en Rm , como determinar si b ∈ H. h Haciendo A = v1 i tenemos que b ∈ H si y s´ olo si existen constantes α1 , . . . , αk tal que b =     α1 α1   h i   ..   ..  olo si la ecuaci´ on α1 v1 + · · · + αk vk = v1 · · · vk  .  = Ax con x =  . . En otras palabras, b ∈ H si y s´     αk αk   α1    ..  on a esta ecuaci´ on, entonces b = α1 v1 + · · · + αk vk . Ax = b tiene soluci´ on y si x =  .  es una soluci´   αk            1 0 1                Ejemplo 2.15. Sea H = gen v1 = 2 , v2 = 1 y sea b = −2, determinar si b ∈ H, en caso afirmativo             1 1  5 expresar a b como combinaci´ on lineal de v1 y v2 .   ··· vk 1   Soluci´ on. Aplicando reducci´ on Gauss-Jordan a la matriz 2  5  1 0   2 1  5 1 1    −2  1 −2F1 +F2 →F2 −5F1 +F3 →F3  1 0   0 1  0 1 1    −4  −4 0 1   1 −2 obtenemos  1 1  −F2 +F3 →F3 1 0   0 1  0 0 1    −4  0 se sigue que la ecuaci´ on Ax = b tiene soluci´ on α1 = 1 y α2 = −4, por tanto b = v1 − 4v2 . En el siguiente ejemplo se muestra que algunas veces los subespacios de Rn aparecen como el espacio nulo de una matriz. Ejemplo 2.16. Calcular una base para cada uno de los siguientes subespacios.     x  1. H =   y = mx, m ∈ R  y         x        2. H = y  x = at, y = bt y z = ct, a, b, c ∈ R .           z 80        x        3. H = y  ax + by + cz = 0, a, b, c ∈ R, c 6= 0           z        x        4. H = y  x + y + z = 0, 2x − y − z = 0 .          z              1 x 1 x x x ultiplo de  . olo si   es un m´ olo si y = mx si y s´ olo si   =   = x   si y s´ 1.   ∈ H si y s´ 1 y m mx y y     1  Por tanto H = gen   .  1            x a at x x                     ultiplo olo si y  es un m´ olo si x = at, y = bt y z = bt si y solo si y  =  bt  = t  b  si y s´ 2. y  ∈ H si y s´           z c ct z z         a    a          de  b . Por tanto H = gen  b  .           c  c         x x x 1                 a b olo si ax + by + cz = 0 si y s´ olo si z = − c x − c y si y s´ 3. y  ∈ H si y s´ olo si y  =   = x 0 + y         z − ac x − cb y z − ac                 1 1 x 0 0  0                            on lineal de  0  y  1 . Por tanto H = gen  0  ,  1  . olo si y  es una combinaci´ y  1  si y s´                 b   −a  − ac z − cb − − cb c c        x  x     0 1 1 1     olo si olo si x + y + z = 0 y 2x − y − z = 0 si y solo si  4. y  ∈ H si y s´ y  =   si y s´   0 2 −1 −1   z z     x   1 1 1   . Para calcular el espacio nulo de A aplicamos reducci´ on Gauss-Jordan y  ∈ N ul(A) con A =    2 −1 −1 z   1 1 2 −1 1   −1 −2F1 +F2 →F2   1 1 0 −3 −F2 +F1 →F1   1   −3 1 0 0 0 1 1 −1 3 F2 →F2     1 1 0 1  1  1 ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 81       0 x x             olo si x = 0 y y + z = 0 si y solo si x = 0 y y = −z si y s´ olo si y  = −z  = Entonces y  ∈ N ul(A) si y s´       z z z         0  0            z −1. Por tanto H = gen −1 .           1  1 Terminamos el cap´ıtulo con con un teorema que ser´ a muy u ´til en el pr´ oximo cap´ıtulo. Teorema 2.20. Sea A una matriz de tama˜ no m × n, entonces 1. N ul(A) = 0 si y s´ olo si rango(A) = n = # de columnas de A. 2. Col(A) = Rn si y s´ olo si rango(A) = m = # de filas de A. Demostraci´ on. 1. N ul(A) = 0 si y s´ olo si la u ´nica soluci´ on a la ecuaci´ on Ax = 0 es x = 0 si y s´ olo si rango(A) = n = # de columnas de A (Teorema 1.21.) 2. Col(A) = Rn si y s´ olo si b ∈ Col(A) para todo b ∈ Rn si y s´ olo si para todo b ∈ Rn , Ax = b si y s´ olo si la ecuaci´ on Ax = b tiene soluci´ on para todo b ∈ Rn si y s´ olo si rango(A) = m = # de filas de A (Teorema 1.20.) Problemas 2.8.1. Encuentre una base para cada uno de los siguientes subespacios:               x x               b. H = y  x = −t, y = 2t, z = −3t a. H = y  3x − y = 0                   z   z 2.9.        x             y     c. H =   x + y + z + w = 0    z              w       x   1       ..  d. H =  .  a1 x1 + · · · + an xn = 0, an 6= 0          x  n El Teorema de la base incompleta en Rm En el Corolario 2.6 se demostr´ o que si v1 , . . . , vk son vectores linealmente independientes en Rm entonces k ≤ m. El Teorema de la base incompleta dice que si k < m se pueden escoger vectores wk+1 , . . . , wm talque v1 , . . . , vk , wk+1 , . . . , wm forman una base para Rm . 82 Teorema 2.21. (Teorema de la base incompleta) Sean v1 , . . . , vk vectores linealmente independientes en Rm . Si k < m se pueden escoger vectores wk+1 , . . . , wm talque v1 , . . . , vk , wk+1 , . . . , wm forman una base para Rm . h i Demostraci´ on. Sea A = v1 · · · vk la matriz cuyas columnas son los vectores v1 , . . . , vk , como estos son linealmente independientes, entonces por el Teorema 2.5 tenemos que rango(A) = k y por tanto la forma escalonada reducida A′ de A tiene un pivote en cada fila, luego A′ tiene la forma   1 ··· 0 . .  . .. . ..  .    h  i   0 · · · 1  = e ··· e A′ =  1 k   0 · · · 0    . . . . ...   ..   0 ··· 0 donde ei es el vector con un uno en la i-´esima componente y ceros en las demas componentes. Sean E1 , . . . , Es matrices elementales talque A′ = Es · · · E1 A (2.8) y sea B = E1−1 · · · Es−1 entonces tenemos lo siguiente Afirmaci´ on 1. Las primeras k columnas de B son los vectores v1 , . . . , vk Demostraci´on de la afirmaci´ on: de la ecuaci´ on (2.8) se sigue que h A = E1−1 · · · Es−1 A′ = BA′ = B e1 | {z } ··· =B i h ek = Be1 ··· Bek i como las columnas de A son los vectores v1 , · · · , vk entonces tenemos que Be1 = v1 , . . . , Bek = vk , luego h i B = BI = B e1 · · · ek ek+1 · · · em # " Be · · · Be · · · Be Be k+1 m k 1 = |{z} |{z} vk v1 h = v1 ··· vk Bek+1 ··· Bem i Afirmaci´ on 2. Las columnas de B son linealmente independientes. Demostraci´on de la afirmaci´ on: Como B es un producto de matrices invertibles, entonces B es invertible, luego por el Corolario 1.22 tenemos que rango(A) = m entonces por el Teorema ?? los vectores son linealmente independientes. Ahora, como B tiene m columnas linealmente independientes, entonces estas forman una base para Rm , es decir, los vectores v1 , . . . , vk , wk+1 , . . . , wm forman una base, donde wk+1 , . . . , wm son las u ´ltimas columnas de B. Este teorema exhibe un m´etodo computacional para completar una base, el cual escribimos a continuaci´ on: ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 83 Procedimiento 2.3. (Procedimiento para completar una base en Rm ) Sean v1 , . . . , vk vectores linealmente independientes en Rm con k < m, para calcular vectores wk+1 , . . . , wm talque los vectores v1 , . . . , vk , wk+1 , . . . , wm forman una base, hacemos lo siguiente h 1. Sea A = v1 i vk la matriz formada con los vectores v1 , . . . , vk ··· 2. Sea C el producto de las matrices elementales talque A = CA′ , esta matriz se calcula hallando la forma h i h i escalonada reducida de la matriz A I ya que esta est´ a dada por A′ C 3. Hacemos B = C −1 Si las columnas de B son linealmente independientes y por tanto forman una base para Rm y por el teorema anterior, las primeras columnas de B son los vectores v1 , . . . , vk .     1 0         Ejemplo 2.17. (MatLab) Sean v1 = −1 y v2 = 1, calcular un vector v3 talque los vectores v1 , v2 , v3     2 1 3 forman una base para R .   0 1     Soluci´ on. Sea A = v1 v2 = −1 1, entonces hacemos lo siguiente   1 2 h i 1. calculamos la forma escalonada reducida de la matriz A I usando MatLab i h >> A = [01; −11; 12]; R=rref([A, eye(3)]) R= 1 0 0 −2/3 1/3 0 1 0 1/3 1/3 0 0 1 −1/3 −1/3 El producto de las matrices elementales es la matriz compuesta por las 3 u ´ltimas columnas de R, la cual podemos definir usando MatLab como sigue >> C = [R(:, 3), R(:, 4), R(:, 5)] C= 0 −2/3 1/3 0 1/3 1/3 1 −1/3 −1/3 2. Ahora calculamos B = C −1 como sigue B = inv(C) B= 0 1 1 −1 1 0 1 2 0 84 N´ otese que efectivamente   las dos primeras columnas de esta matriz son los vectores v1 y v2 y por tanto los 1     vectores v1 , v2 y v3 = 0 forman una base para R3 .   0 Cap´ıtulo 3 Transformaciones Lineales Carreta 3.1. Definici´ on y Ejemplos En este cap´ıtulo se estudiar´ an funciones entre espacios vectoriales que preservan la estructura, estas funciones se llaman tranformaciones lineales, comenzamos con la definici´ on. Definici´ on 3.1. Sean V y W espacios vectoriales y T : V −→ W una funci´ on, decimos que T es una transformaci´ on lineal si satisface: 1. T (v + v ′ ) = T (v) + T (v ′ ), para todo v, v ′ ∈ V . 2. T (αv) = αT (v), para todo v ∈ V y para todo α ∈ R. Observaci´ on 3.1. Como consecuencia de la definici´ on tenemos que si T : V −→ W es una transformaci´ on lineal, v1 , . . . , vn ∈ V y α1 , . . . , αn ∈ R entonces 1. T (α1 v1 + α2 v2 ) = α1 T (v1 ) + α2 T (v2 ), y en general 2. T (α1 v1 + · · · + αn vn ) = α1 T (v1 ) + · · · + αn T (vn ). Ejemplo 3.1. 1. Sean V y W espacios vectoriales sobre R. La funci´ on nula f : V W definida por f (v) = 0, para todo v ∈ V y la funci´ on identidad Id : V −→ V definida por Id(v) = v son transformaciones lineales. 2. Si a ∈ R, entonces Ta : R → R dada por Ta (x) = ax para todo x ∈ R, es una transformaci´ on lineal. El gr´ afico de Ta es una recta pasando por el origen (0, 0) ∈ R2 con pendiente a. 3. Sean a1 , · · · , an ∈ R. La funci´ on T : Rn → R definida por T (α1 , · · · , αn ) = Pn i=1 ai αi , es una transfor- maci´ on lineal tal que T (ei ) = ai , donde los ei denotan los elementos de la base can´ onica de Rn . 85 86 4. La funci´ on T : R2 −→ R definida por T (x, y) = x + y es una transformaci´ on lineal ya que T ((x, y) + (x′ , y ′ )) = T (x + x′ , y + y ′ ) = x + x′ + y + y ′ = (x + y) + (x′ + y ′ ) = T (x, y) + T (x′ y ′ ) . T (α(x, y)) = T (αx, αy) = αx + αy = α(x + y) = αT (x′ y ′ ) . 5. Si A es una matriz m × n, la funci´ on T : Rn −→ Rm definida por T (v) = Av es una transformaci´ on lineal ya que satisface los axiomas 1 y 2 de la definici´ on, m´ as espec´ıficamente tenemos que T (v + w) = A(v + w) = Av + Aw = T (v) + T (w) y T (αv) = A(αv) = αAv = αT (v). Destacamos las siguientes propiedades que cumple cualquier transformaci´ on lineal. Teorema 3.1. Sean V y W espacios vectoriales y T : V −→ W una transformaci´ on lineal, entonces 1. T (0) = 0. 2. T (−v) = −T (v). Demostraci´ on. 1. T (0) = T (0 + 0) = T (0) + T (0) por tanto T (0) = 0. 2. T (−v) = T ((−1)v) = −1T (v) = −T (v). Por ahora nos concentraremos por ahora solo en transformaciones lineales de Rn en Rm , ya que ´estas, como se muestra en el siguiente teorema, son de la forma dada en el ´ıtem 5 del Ejemplo 3.1, es decir, para toda transformaci´ on lineal se puede encontrar una matriz A de tama˜ no m × n tal que T (x) = Ax. Pasamos a enunciar el teorema. Teorema 3.2. Sea T : Rn −→ Rm una transformaci´ on lineal, sea {e1 , . . . , en } la base est´ andar de Rn y A = [T (e1 ) ··· T (en )], la matriz cuyas columnas son los vectores T (e1 ), . . . , T (en ), entonces T (x) = Ax, para todo x ∈ Rn . M´ as a’un, esta matriz es la u ´nica con la propiedad que T (x) = Ax.   α1    ..  Demostraci´ on. Sea x =  .  ∈ Rn , entonces x = α1 e1 + · · · + α1 en y tenemos lo siguiente   αn T (x) = T (α1 e1 + · · · + α1 en ) = α1 T (e1 ) + · · · + α1 T (en )   α1    ..  = [T (e1 ) · · · T (en )]  .  = Ax. {z }  | =A αn ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 87 Ahora si B es una matriz tal que T (x) = Bx para todo x, entonces en particular los vectores de la base est´ andar tenemos que T (ei ) = Bei = i-´esima columna de B, para i = 1, . . . , n. Pero T (ei ) es tambi´en la i-´esima columna de A, se sigue que B = A. La matriz A en el teorema anterior depende de los vectores en la base est´ andar, la siguiente definici´ on es para hacer claridad respecto a esto. Definici´ on 3.2. Si T : Rn −→ Rm es una transformaci´ on lineal y E = {e1 , . . . , en } es la base est´ andar de Rn , a la matriz A = [T (e1 ) A = E TE . ··· on y ser´ a denotada por T (en )] se le llama la matriz de la transformaci´   x Ejemplo 3.2. Calcular la matriz de la transformaci´ on T : R2 −→ R definida por T   = x + y. y Soluci´ on. De acuerdo al teorema anterior debemos calcular T (e1 ) y T (e2 ):       0 1 y T (e2 ) = T   = 0 + 1 = 1. T (e1 ) = T   = 1 + 0 = 1 1 0 Luego la matriz de la transformaci´ on es E TE = [1 1].      x    x + 2y    . Ejemplo 3.3. Calcular la matriz, E SE , de la transformaci´ on S : R3 −→ R2 definida por S y  =     y − 3z z Soluci´ on. En este caso debemos calcular S(e1 ), S(e2 ) y S(e3 ).              1 0        1 + 2 · 0 1   0 + 2 · 1 2 S(e1 ) = S 0 = , S(e2 ) = S 1 = = =      0 0−3·0 1 1−3·0 0 0        0    0 0 + 2 · 0     =  . y S(e3 ) = S 0 =     −3 0−3·1 1   1 2 0 . Por tanto la matriz de la transformaci´ on es E SE =  0 1 −3 En el siguiente teorema demostraremos que la composici´ on de transformaciones lineales es una transforma- ci´ on lineal adem´ as veremos que la matriz de la transformaci´ on compuesta es el producto de las matrices de las respectivas transformaciones. Teorema 3.3. Sean V, W y Z espacios vectoriales y sean T : V −→ W y S : W −→ Z transformaciones lineales, entonces S ◦ T es una transformaci´ on lineal. M´ as a´ un, si V = Rn , W = Rm y Z = Rq entonces la matriz de la transformaci´ on S ◦ T est´ a dada por E SE ·E TE , es decir, E (S ◦ T ) E = E SE ·E T E . 88 Demostraci´ on. Primero demostremos que S ◦ T es una transformaci´on lineal, sean v, v ′ ∈ V y α ∈ R, S ◦ T (v + v ′ ) = S(T (v + v ′ )) = S(T (v) + T (v ′ )) = S(T (v)) + S(T (v ′ )) = S ◦ T (v) + S ◦ T (v ′ ) y S ◦ T (αv) = S(T (αv) = S(αT (v)) = αS(T (v)) = αS ◦ T (v) Ahora demostremos la segunda parte, sean A =E TE y B =E SE , entonces T (v) = Av para todo v ∈ Rn y S(w) = Bw para todo w ∈ Rm . Veamos que BA es la matriz de S ◦ T , es decir, S ◦ T (v) = BAv para todo v ∈ Rn . S ◦ T (v) = S(T (v)) = S(Av) = BAv. De la propiedad de unicidad que satisface la matriz de S ◦ T concluimos que BA es la matriz de S ◦ T . Ejemplo 3.4. Sean T y S las transformaciones lineales definidas en los Ejemplos 3.2 y 3.3 entonces la matriz de la transformaci´ on T ◦ S, E (T ◦ S)E , est´ a dada por  i 1 2  E (T ◦ S)E =E TE ·E SE = 1 1 0 1 0  α1     h    Por tanto T ◦ S α2  = 1 3    α3  α1  h = 1 3 −3 h  i −3 . i    −3 α2  = α1 + 3α2 − 3α3 .   α3 Ejemplo 3.5. (MatLab) Sean T : R3 −→ R4 y S : R4 −→ R3 las transformaciones lineales definidas por T (x) = Ax y S(x) = Bx con A= 3 2 1 1 1 1 2 0 −1 0 1 −2  yB= Es f´ acil ver que si T (x) = Ax para todo x entonces A = h 1 2 1 3 −1 2 1 0 2 0 −1 1 E TE i es la matriz de la transformaci´ on. Por tanto obtenemos que las matrices de las compuestas T ◦ S y S ◦ T son las matrices AB y BA, respectivamente. Por tanto T ◦ S(x) = ABx para todo x ∈ R4 y S ◦ T (y) = BAy para todo y ∈ R3 . Usando Matlab obtenemos que  3 10 4 10  h 7 7 −4 i AB = 20 44 13 45 y BA = 1 0 0 . 4 5 −5 2 3 −2 1 Del Teorema 3.2 obtenemos que el conjunto de transformaciones lineales L(Rn , Rm ) de Rn en Rm est´ a en correspondencia uno a uno con el conjunto de matrices Mm,n (R) L(Rn , Rm ) −→ Mm,n (R) T 7→ A = E TE T (x) = Ax ← A la correspondencia es tal que la composici´ on de transformaciones se traduce en producto de matrices, tambi´en veremos que la inversa de una transformaci´ on invertible se corresponde con la inversa de su matriz, la imagen de la transformaci´ on con el espacio columna de la matriz y el kernel de la transformaci´ on (este se define en la ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 89 pr´ oxima secci´ on) con el espacio nulo de la matriz. En general tendremos que la matriz de una transformaci´ on se puede usar para conseguir informaci´ on u ´til acerca de la transformaci´ on, por ejemplo, esta se puede usar para determinar si una transformaci´ on lineal es inyectiva, si es sobre, si es biyectiva. Esto lo veremos en las secciones 3.2-3.4 Problemas 3.1.1. Determine si la funci´ on dada es una transformaci´ on lineal y en los casos afirmativos, calcule la matriz de la transformaci´ on lineal correspondiente.     x − y x . 1. T : R2 −→ R2 definida por T   =  x y     x−y   x   2. T : R2 −→ R3 definida por T   = x + 1.   y y2   x           x − y y    . 3. T : R4 −→ R2 definida por T    =  z  zw   w     x−z x         4. T : R3 −→ R3 definida por T y  = y − z .     x−z z     x   x − z   . 5. T : R3 −→ R2 definida por T y  =    y−z z 6. T : Rn −→ Rn−1     x  1      definida por T · · · =       xn x1 − xn x1 + x2 − xn .. .     .    x1 + · · · + xn−1 − xn             2 1     −1 0 1     3.1.2. Sea T : R2 −→ R3 tal que T   = 2 y T   = 1. Calcule la matriz de T y T   .     1 1 0 2 2 3.1.3. Calcule la matriz de la transformaci´ on que rota el plano 90◦ y luego proyecta sobre el eje y. 3.1.4. Sea V = F([a, b], R el conjunto de las funciones continuas del intervalo [a,b] en R. Demuestre que la Rb funci´ on T : V → R definida por T (f ) = a f (x)dx es una transformaci´ on lineal. 90 3.1.5. Muestre que una funci´ on T : Rn → R es una transformaci´ on lineal si y solamente si existen a1 , · · · , an ∈ Pn R tales que T (x1 , · · · , xn ) = i=1 ai xi . 3.1.6. Considere la funci´ on D : P3 −→ P2 definida por D(a + bt + ct2 + dt3 ) = b + 2ct + 3dt2 . Demuestre que D es una transformaci´ on lineal. En forma m´ as general demuestre que la funci´ on D : Pn+1 −→ Pn definida por D(p(t)) = p′ (t) es una transformaci´ on lineal. 3.1.7. Considere la funci´ on I : P2 −→ P3 definida por I(a + bt + ct2 ) = at + 21 bt2 + 13 ct3 . Demuestre que I es una transformaci´ on lineal. En forma m´ as general demuestre que la funci´ on I : Pn −→ Pn+1 definida por D(p(t)) = transformaci´ on lineal. 3.2. Rt 0 p(x)dx es una Transformaciones Lineales Inyectivas En esta secci´ on veremos que la inyectividad de una transformaci´ on lineal est´ a ligada a con la nulidad de la matriz de la transformaci´ on, y esto a su vez, depende de si kernel de la transformaci´ on es trivial. Comenzamos con la definici´ on de kernel de una transformaci´ on. Definici´ on 3.3. Sean V y W espacios vectoriales y sea T : V −→ W una transformaci´ on lineal, definimos el n´ ucleo o kernel de T como el conjunto ker(T ) = {x ∈ V | T (x) = 0}. Para transformaciones lineales de Rn en Rm , la matriz de la transformaci´ on se puede usar para calcular el kernel. Este es el resultado del siguiente teorema. Lema 3.4. Sea T : Rn −→ Rm una transformaci´ on lineal y sea A = E TE la matriz de la transformaci´ on, entonces ker(T ) = N ul(A). Demostraci´ on. x ∈ ker(T ) si y s´ olo si 0 = T (x) = Ax si y s´ olo si x ∈ N ul(A). Concluimos que ker(T ) = N ul(A). Ejemplo 3.6. Calculemos el kernel de la transformaci´  on lineal S  definida en el Ejemplo 3.3. 1 2 0 , necesitamos calcular N ul(A), para lo cual Soluci´ on. La matriz de la transformaci´ on es A =  0 1 −3 necesitamos la escalonada reducida de A:   1 2 0 1 0   −3 F1 − 2F2 → F1   1 0 0 1 6  . −3 ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 91   x   x = −6z   olo si se satisfacen las ecuaciones . Luego tenemos que un vector v = y  ∈ N ul(A) = N ul(A′ ) si y s´   y = 3z z         −6 −6z x x                 olo si y  =  3z  = z  3 . Entonces tenemos que v = y  ∈ N ul(A) si y s´         1 z z z        −6     Por tanto tenemos que ker(T ) = N ul(A) = gen  3  .         1  El siguiente resultado muestra la relaci´ on entre la inyectividad de una transformaci´ on lineal y la trivialidad del kernel. Teorema 3.5. Sea T : V −→ W una transformaci´ on lineal, entonces T es inyectiva si y s´ olo si ker(T ) = {0}. Demostraci´ on. “⇒”Supongamos que T es inyectiva, entonces si T (v) = T (w), tenemos que v = w. Ahora, supongamos que v ∈ ker(T ), entonces T (v) = 0 = T (0), luego v = 0 y por tanto ker(T ) ⊆ {0}. La otra inclusi´ on se da ya que ker(T ) es un subespacio de V y por tanto 0 ∈ ker(T ). Concluimos que ker(T ) = {0}. “⇐”Supongamos que ker(T ) = {0} y demostremos que si T (v) = T (w), entonces v = w, para todo v, w ∈ V . Supongamos entonces que T (v) = T (w). Luego T (v − w) = T (v) + T (−w) = T (v) − T (w) = 0, se sigue que v − w ∈ ker(T ) = {0} por tanto v − w = 0 o equivalentemente v = w. Concluimos que T es inyectiva. En el caso particular de transformaciones lineales que van de Rn en Rm , el Teorema 3.5 y el Lema 3.4 nos dan un algoritmo para calcular el kernel, este se hace evidente con el siguiente resultado. Teorema 3.6. Sea T : Rn −→ Rm una transformaci´ on lineal y sea A = E TE la matriz de la transformaci´ on. Entonces T es inyectiva si y s´ olo si rango(A) = n = n´ umero de columnas de A. Demostraci´ on. T es inyectiva si y s´ olo si ker(T ) = {0} (Teorema 3.5) si y s´ olo si N ul(A) = {0} (Lema 3.4) si y s´ olo si rango(A) = n (Teorema 2.16). Este teorema nos da una manera de determinar si una transformaci´ on lineal es inyectiva y en caso negativo, usamos el Lema 3.4 para calcularlo. A continuaci´ on damos los siguientes ejemplos.      x    x + 2y      es Ejemplo 3.7. Determine si la transformaci´ on lineal T : R3 −→ R2 definida por T y  =     y − 3z z inyectiva.   Soluci´ on. En el Ejemplo 3.6 vimos que la matriz de la transformaci´ on es A =   escalonada reducida de A es A′ =  de A, por tanto A no es inyectiva. 1 0 6 0 1 −3  1 2 0 1 0  y la forma −3 . De esto deducimos que rango(A) = 2 < n´ umero de columnas 92  1 −2 3 4      2 3 −4 5  y sea T : R4 −→ R4 la transformaci´  on lineal definida Ejemplo 3.8. (MatLab) Sea A =   3 4 5 6   4 5 6 7 por T (v) = Av. Determine si T es inyectiva y calcular su kernel. Soluci´ on. Como la matriz de la transformaci´ on es la u ´nica para la cual T (v) = Av, tenemos que A = E TE es la matriz de la tranformaci´ on, para determinar si T es o no inyectiva, necesitamos calcular el rango de A, lo cual calculamos como sigue en MatLab: >> A = [1, −2, 3, 4; 2, 3, −4, 5; 3, 4, 5, 6; 4, 5, 6, 7]; rank(A) y as´ı se obtiene que rango(A) = 4 = n´ umero de columnas de A y se sigue que T es inyectiva y ker(T ) = {0}.   −1 −2 1 1 1      1 0 1 −3 1     Ejemplo 3.9. (MatLab) Sea A =  0 1 −1 1 1 y sea T : R5 −→ R5 definida por T (x) = Ax,      0 1 −1 1 1   1 0 1 −3 1 determine si T es inyectiva y calcular ker(T ). Soluci´ on. Primero calculamos el rango de A para determinar si la transformaci´ on es inyectiva, >> A = [−1, −2, 1, 1, 1; 1, 0, 1, −3, 1; 0, 1, −1, 1, 1; 0, 1, −1, 1, 1; 1, 0, 1, −3, 1]; rank(A) y obtenemos que rango(A) = 3 y por tanto T no inyectiva. Para calcular el kernel, computamos el subespacio nulo de A. >> null(A,′ r′ )         −1  3                  1 −1             Obtenemos que ker(T ) = N ul(A) = gen  1  ,  0  .                0   1                0 0  Problemas 3.2.1. Calcular el kernel de las transformaciones lineales del Problema 3.1.1. 3.2.2. Determine cuatro transformaciones lineales de R3 en R3 cuyos n´ ucleos tengan dimensiones 0, 1, 2 y 3 respectivamente. 3.2.3. Sea T : Rn −→ Rm una transformaci´ on lineal. Demuestre que si T es inyectiva entonces n ≤ m. 3.2.4. Sea T : Rn −→ Rm una transformaci´ on lineal y A = E TE la matriz de T . Demuestre que T es inyectiva si y s´ olo si A tiene inversa a la izquierda. 3.2.5. Demuestre que si T : U −→ V y S : V −→ W son inyectivas entonces S ◦ T es inyectiva, es decir, la composici´ on de transformaciones inyectivas es inyectiva. ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 93 3.2.6. Sean A y B matrices de tama˜ nos m × n y n × p, respectivamente. Demuestre que si A y B tienen ambas inversa a la izquierda entonces AB tiene inversa a la izquierda. (Ayuda: Use los dos u ´ltimos problemas.) 3.2.7. Demuestre que si T : Rn −→ Rm es inyectiva entonces existe una transformaci´ on lineal S : Rm −→ Rn tal que S ◦ T = id. (Ayuda: Use el Problema 3.2.4.) 3.3. Transformaciones Lineales Sobreyectivas Comenzamos recordando las definiciones de imagen de una funci´ on y de funci´ on sobreyectiva. Definici´ on 3.4. Sean V y W espacios vectoriales y T : V −→ W una transformaci´ on lineal, 1. Definimos la imagen de T , denotada por Im(T ), como el conjunto Im(T ) = {T (v) | v ∈ V } = {w ∈ W | existe v ∈ V tal que w = T (v)}. 2. Decimos que T es sobreyectiva si Im(T ) = W . Cuando la transformaci´ on est´ a definida de Rn en Rm podemos calcular la imagen usando la matriz de la transformaci´ on. Este hecho se demuestra en el siguiente teorema. Teorema 3.7. Sean T : Rn −→ Rm una transformaci´ on lineal y A = E TE la matriz de T , entonces Im(T ) = Col(A). Demostraci´ on. Sean A1 , . . . , An las columnas de A entonces tenemos lo siguiente: .. . w ∈ Im(T ) si y s´ olo si existe v ∈ Rn tal que w = T (v) = Av si y s´ olo si existe v = (α1  α1    .  olo si w ∈ gen{A1 , . . . , An } = Col(A). αn ) ∈ Rn tal que w = Av = [A1 , . . . , An ]  ..  = α1 A1 + · · · + αn An si y s´   αn Por tanto Im(T ) = Col(A).   1 0     on lineal definida por T (x) = Ax, calcular Ejemplo 3.10. Sea A = 1 −2 y T : R2 −→ R3 la transformaci´   3 0 la imagen de T .  Soluci´ on. De acuerdo al teorema anterior necesitamos calcular   Col(A). 1 0     Si calculamos la forma escalonada de A obtenemos A′ = 0 1 y por tanto por el Teorema 2.16   0 0         0  1            Im(T ) = Col(A) = gen 1 , −2 .           3 0  94 El teorema anterior nos muestra como la matriz de la transformaci´ on se puede usar para calcular la imagen de una transformaci´ on, ´esta tambi´en sirve para determinar si la transformaci´ on es sobreyectiva, esto lo mostramos a continuaci´ on. Teorema 3.8. Sea T : Rn −→ Rm una transformaci´ on lineal y A la matriz de T , entonces T es sobreyectiva si y s´ olo si rango(A) = m = n´ umero de filas de A. Demostraci´ on. T es sobre si y s´ olo si Rm = Im(T ) = Col(A) (Teorema 3.7) y Col(A) = Rm si y s´ olo si rango(A) = m = n´ umero de filas de A (Teorema 2.16). El Teorema 3.7 nos dice que encontrar la imagen de una transformaci´ on es equivalente a encontrar el espacio columna de la matriz de la transformaci´ on y el teorema anterior reduce el problema de determinar si la transformaci´ on es sobre a encontrar el rango de esta matriz. Esto lo ilustramos en los siguientes ejemplos. Ejemplo 3.11. Determine si la transformaci´ on del ejemplo  anterior  es sobreyectiva. 1 0     umero de Soluci´ on. La forma escalonada de la matriz de T es A′ = 0 1 y por tanto rango(A) = 2 < 3 = n´   0 0 filas de A, concluimos que T no es sobreyectiva. Ejemplo 3.12. (MatLab) Sea T la transformaci´ on del Ejemplo 3.9, determine si T es sobre y calcular Im(T ). Soluci´ on. En el Ejemplo 3.9 se obtuvo que el rango de la matriz A =E TE es 3 y por tanto T no es sobre. Para calcular Im(T ) necesitamos calcular el espacio columna de A, el cual podemos calcular con la escalonada reducida de A. ′ >> A = [−1, −2, 1, 1,1; 1, 0, 1, −3, 1; 0, 1,  −1, 1, 1; 0, 1, −1, 1, 1; 1, 0, 1,   (A)  rref  −3,1];A =   −1  1 0 1 −3 0 1  −2                           0 1 −1       1 0 1 0 1                    se obtiene que A′ 0 0 0 0 1 y por tanto Im(T ) =  0  ,  1  , 1 , es decir, ImT es gene                      0 0   0   1  1 0 0 0                 1 0 0 0 0 0 1  0 rada por la primera, segunda y quinta columna de A. Otra forma de calcular la imagen es usando el comando colspace(sym(A)), el cual produce una base de Col(A) = Im(T ). >> A = [−1, −2, 1, 1, 1; 1, 0, 1, −3, 1; 0, 1, −1, 1, 1; 0,1,  −1,1,1; 1, 1, −3, 1]; colspace(sym(A))   0,   1   0 0                             0 1 0                y de esta manera obtenemos que el conjunto 0 , 0 , 1 es una base para Im(T ).                    0 0 1                0 0  1 Problemas ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 95 3.3.1. Sea T : R2 −→ R2 definida por T (x, y) = (y, 0), muestre que ker T = ImT . 3.3.2. Calcular la imagen de las transformaciones lineales del Problema 3.1.1. 3.3.3. Sean V y W los subespacios de R4 determinados por V = gen {(1, 0, 1, 1), (0, −1, −1, −1)} y W =  (x, y, z, t) ∈ R4 : x + y = 0 y t + z = 0 . Determine una transformaci´ on lineal T : R4 → R4 tal que ker(T ) = V y Im(T ) = W . 3.3.4. Encuentre una transformaci´ on lineal T : R4 → R4 tal que: ker(T ) = gen {(1, 0, 1, 0), (−1, 0, 0, 1)} y Im(T ) = {(1, −1, 0, 2), (0, 1, −1, 0)}. 3.3.5. Sea V un espacio vectorial y T : V → V una transformaci´ on lineal. Demuestre que las siguientes condiciones son equivalentes: 1. ker(T ) ∩ Im(T ) = {0}. 2. Si (T ◦ T )(v) = 0 para v ∈ V , entonces T (v) = 0. 3.3.6. Sean A ∈ Mn (R) y T : Rn −→ Rn definida por T (v) = Av, sea T k = |T ◦ ·{z · · ◦ T} y Ck = Col(Ak ), k−veces demuestre que para todo k ≥ 1 se tiene que 1. Ck = Col(Ak ). 2. T (Ck ) = Ck+1 , donde T (Ck ) = {T (v) | v ∈ Ck }. 3.3.7. Sean T : U −→ V y S : V −→ W transformaciones lineales sobreyectivas. Demuestre que S◦ es sobreyectiva. 3.3.8. Sea T : Rn −→ Rm una transformaci´ on lineal y A = E TE la matriz de T . Demuestre que T es sobreyectiva si y s´ olo si A tiene inversa a la derecha. 3.3.9. Demuestre que si T : Rn −→ Rm es sobreyectiva entonces existe una transformaci´ on lineal S : Rm −→ Rn tal que T ◦ S = id y muestre que S es inyectiva. 3.3.10. Sean A y B matrices de tama˜ nos m × n y n × p, respectivamente. Demuestre que si A y B tienen ambas inversa a la derecha entonces AB tiene inversa a la derecha. (Ayuda: Use los dos u ´ltimos problemas.) 3.3.11. Demuestre que si T : Rn −→ Rm es sobreyectiva entonces n ≥ m. 3.3.12. Si T : V −→ V es una transformaci´ on lineal y H ⊆ V es un subespacio, decimos que H es T -invariante si T (H) ⊆ H. Muestre que ImT y ker T son T -invariantes. 3.3.13. Si T : V −→ V es una transformaci´ on lineal y W ⊆ V es un subespacio T -invariante muestre que T/W : W −→ W es una transformaci´ on lineal, donde T/W es la restricci´ on de T a W . 96 3.3.14. Sea T : V −→ W una transformaci´ on lineal y H ⊆ W un subespacio. La imagen inversa de H se define como el conjunto T −1 (H) = {v ∈ V | T (v) ∈ H}. Muestre que T −1 (H) es un subespacio. 3.3.15. Si T : V −→ W y S : W −→ Z son transformaciones lineales con S sobreyectiva entonces Im(T ) = Im(T oS). (Ayuda:Use el Problema 2.7.14.) 3.3.16. Sean T, S : V −→ V transformaciones lineales, demuestre que Im(T + S) ⊆ ImT + ImS, donde T +S : V −→ V es la transformaci´ on lineal definida por (T +S)(v) = T (v)+S(v), y concluya que rango(A+B) ≤ rangoA + rangoB. 3.4. Isomorfismos Las transformaciones lineales biyectivas (inyectivas y sobreyectivas) se llaman isomorfismos, la palabra isomorfismo significa igual forma, en este sentido se usa el t´ermino isomorfismo para las transformaciones que preservan la estructura de espacio vectorial. En esta secci´ on veremos como los isomorfismos preservan la estructura de los espacios vectoriales. Comenzamos con la definici´ on de isomorfismo. Definici´ on 3.5. Sean V y W espacios vectoriales y T : V −→ W una transformaci´ on lineal, decimos que T es un isomorfismo si es una funci´ on biyectiva. Tambi´en diremos que V es isomorfo a W si existe un isomorfismo entre ellos, lo cual denotaremos V ∼ = W. Los Teoremas 3.6 y 3.8 implican lo siguiente. Teorema 3.9. Sea T : Rn −→ Rm una transformaci´ on lineal y A =E TE la matriz de T , entonces T es un isomorfismo si y s´ olo si rango(A) = m = n. Corolario 3.10. Rn ∼ olo si m = n. = Rm si y s´  Ejemplo 3.13. Sea T : R2 −→ R2 la tranformaci´ on lineal cuya matriz es A =  un isomorfismo. 1 1  , determinar si T es 1 −1 Soluci´ on. La forma escalonada reducida de A es la matriz A′ = I, por tanto T es un isomorfismo. Teorema 3.11. Sea T : Rn −→ Rn una transformaci´ on lineal y A = E TE la matriz de T , entonces su funci´ on inversa T −1 es una transformaci´ on lineal y su matriz de transformaci´ on es A−1 . Demostraci´ on. Primero veamos que T −1 es lineal. Sean y1 , y2 ∈ Rn , como T es sobre, existen x1 , x2 ∈ Rn tal que y1 = T (x1 ) y y2 = T (x2 ), entonces T −1 (y1 + y2 ) = T −1 (T (x1 ) + T (x2 )) = T −1 (T (x1 + x2 )) = x1 + x2 = T −1 (y1 ) + T −1 (y2 ). ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 97 Ahora, sea α ∈ R, entonces tenemos T −1 (αy1 ) = T −1 (αT (x1 )) = T −1 (T (αx1 )) = αx1 = αT −1 (y1 ). Por tanto T −1 es lineal. Ahora veamos que A−1 es la matriz de transformaci´on de T . N´ otese que si y ∈ Rn entonces y = AA−1 y = T (A−1 y), aplicando T −1 a ambos lados obtenemos T −1 (y) = A−1 y. Conluimos que A−1 es la matriz de T −1 . Observaci´ on 3.2. En general si T : V −→ W es un isomorfismo, entonces T −1 : W −→ V tambi´en es una transformaci´ on lineal. 2 2 Ejemplo 3.14. on lineal T : R matriz es   −→ R cuya  En el ejemplo anterior vimos que la transformaci´  1/2 1/2 1 1  . Es decir, la  es invertible, entonces T −1 es un isomorfismo y su matriz es A−1 =  A= 1/2 −1/2 1 −1      1 x (x + y) . transformaci´ on est´ a dada por T   =  2 1 y 2 (x − y) Hasta ahora la mayor´ıa de los teoremas que hemos visto en el cap´ıtulo y en el anterior aplican solamente al espacio vectorial Rn y a transformaciones lineales de Rn en Rm . Vamos a usar la teor´ıa de isomorfismos para generalizar los teoremas vistos, comenzamos con un resultado que nos va a servir de puente para extender estos teoremas. Teorema 3.12. Sea V un espacio vectorial y X = {v1 , . . . , vn } una base para V , entonces V ∼ = Rn . Un isomorfismo entre estos espacios est´ a dado por la funci´ on T : V −→ Rn definida por T (α1 v1 + · · · + αn vn ) =   α1    ..  on se le conoce como el isomorfismo can´ onico.  .  , a esta funci´   αn Demostraci´ on. Veamos que T es un isomorfismo. T es lineal: Sean v, w ∈ V y α ∈ R, como {v1 , . . . , vn } es una base para V , existen α1 , . . . , αn , β1 . . . , βn ∈ R tal que v = α1 v1 + · · · + αn vn y w = β1 v1 + · · · + βn vn , luego T (v + w) = T (α1 v1 + · · · + αn vn + β1 v1 + · · · + βn vn ) = T ((α1 + β1 )v1 + · · · + (αn + βn ))       β1 α1 α1 + β1       ..   ..   ..   = = . + .  .       βn αn αn + βn = T (α1 v1 + · · · + αn vn ) + T (β1 v1 + · · · + βn vn ) = T (v) + T (w). 98 T (αv) = T (α(α1 v1 + · · · + αn vn )) = T (αα1 v1 + · · · + ααn vn )     α1 αα1      ..   ..  =  .  = α .      αn ααn = αT (α1 v1 + · · · + αn vn ) = αT (v). T es inyectiva: Para esto veamos que ker(T ) = {0}.  α1    .  “⊆”Sea v = α1 v1 + · · · + αn vn ∈ ker(T ), entonces 0 = T (v) =  .. . Entonces α1 = · · · = αn = 0 y por   αn tanto v = 0.  La otra inclusi´ on es inmediata ya que T (0) = 0 y por tanto 0 ∈ ker(T ).   α1    ..  T es sobreyectiva: Sea y =  .  ∈ Rn , y sea v = α1 v1 + · · · + αn vn ∈ V , entonces tenemos que   αn   α1    ..  T (v) = T (α1 v1 + · · · + αn vn ) =  .  = y.   αn Por tanto T es sobreyectiva. Concluimos que T es un isomorfismo. Observaci´ on 3.3. N´ otese que en el teorema anterior la transformaci´ on T depende de la base X, m´ as a´ un, por cada base de V tenemos un isomorfismo distinto. Debido a la dependencia de la base, en adelante denotaremos a esta transformaci´ on por RX . Ejemplo 3.15. El conjunto X = {1, t, t2 , t3 } es una base del espacio V = P3 , por tanto V es isomorfo a R4 y el isomorfismo est´ a dado por   a  0   a1   RX (a0 + a1 t + a2 t2 + a3 t3 ) =   . a2    a3 El n´ umero de vectores en una base es invariante, este hecho se demostr´ o en el Cap´ıtulo 2 Teorema 2.15 pero s´ olo en el caso de subespacios de Rn , a continuaci´ on lo demostramos para espacios vectoriales en general. Teorema 3.13. Sea V un espacio vectorial y sean X = {v1 , . . . , vn } y Y = {w1 , . . . , wm } bases para V, entonces m = n. ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 99 Demostraci´ on. Por el teorema anterior tenemos que V ∼ = Rm , luego Rn ∼ = Rm . Luego por el = Rn y V ∼ Corolario 3.10 tenemos que m = n. Esto nos permite definir la dimensi´ on de espacios vectoriales, al tener que el n´ umero de vectores en una base es invariante. Definici´ on 3.6. Sea V un espacio vectorial, definimos la dimensi´ on de V, denotada por dim V , como el n´ umero de vectores en una base de V. Es decir, si {v1 , . . . , vn } es una base para V entonces dim V = n. 1. Como el conjunto {1, t, . . . , tn } es una base para Pn , tenemos que dim Pn = n + 1.          1 0 0 0  0 0 0 1  , por tanto dim M22 (R) = 4. , , , 2. Una base para M22 (R) est´ a dada por   0 0 0 1  1 0 0 0 Ejemplo 3.16. 3. En general tenemos que dim Mmn (R) = mn. Una base para este espacio est´ a dada por {eij | i = 1, . . . , n, j = 1, . . . , m}, donde eij es la matriz m × n con un 1 en la posici´ on ij y cero en las dem´ as posiciones. El siguiente teorema muestra como los isomorfismo conservan la estructura de los espacios vectoriales, en otras palabras, el siguiente teorema justifica por que las transformaciones biyectivas son llamadas isomorfismos. Teorema 3.14. Sean V y W espacios vectoriales, T : V −→ W un isomorfismo, {v1 , . . . , vn } ⊆ V y v ∈ V . Entonces se tiene lo siguiente: 1. El conjunto {v1 , . . . , vn } es linealmente independiente si y s´ olo si el conjunto {T (v1 ), . . . , T (vn )} es linealmente independiente. 2. El conjunto {v1 , . . . , vn } genera a V si y s´ olo si el conjunto {T (v1 ), . . . , T (vn )} genera a W . 3. El conjunto {v1 , . . . , vn } es una base para V si y s´ olo si el conjunto {T (v1 ), . . . , T (vn )} es una base para W. 4. dim V = dim W . 5. v ∈ gen{v1 , . . . , vn } si y s´ olo si T (v) ∈ gen{T (v1 ), . . . , T (vn )}. Demostraci´ on. 1. “⇒”Supongamos que el conjunto {v1 , . . . , vn } es linealmente independiente y suponga- mos que α1 T (v1 ) + · · · + αn T (vn ) = 0. Entonces 0 = T (0) = T (α1 v1 + · · · + αn vn ). Como T es inyectiva, tenemos que α1 v1 + · · · + αn vn = 0. Ahora, como {v1 , . . . , vn } es linealmente independiente, tenemos que α1 = · · · = αn = 0. De aqu´ı concluimos que {T (v1 ), . . . , T (vn )} es linealmente independiente. “⇐”Supongamos que {T (v1 ), . . . , T (vn )} es linealmente independiente y supongamos que α1 v1 + · · · + αn vn = 0. Entonces tenemos que 0 = T (0) = T (α1 v1 + · · · + αn vn ) = α1 T (v1 ) + · · · + αn T (vn ). Como {T (v1 ), . . . , T (vn )} es linealmente independiente tenemos que α1 = · · · = αn = 0. Por tanto {v1 , . . . , vn } es linealmente independiente. 100 2. Como T es un isomorfismo, es en particular inyectivo y sobreyectivo, por tanto ker(T ) = {0} y W = Im(T ). Entonces tenemos lo siguiente: {T (v1 ), . . . , T (vn )} genera a W si y s´ olo si {T (v1 ), . . . , T (vn )} genera a Im(T ) si y s´ olo si para todo v ∈ V existen constantes α1 , . . . , αn tal que T (v) = α1 T (v1 ) + · · · + αn T (vn ) si y s´ olo si para todo v ∈ V existen constantes α1 , . . . , αn tal que T (v) = T (α1 v1 + · · · + αn vn ) si y s´ olo si para todo v ∈ V existen constantes α1 , . . . , αn tal que 0 = T (α1 v1 + · · · + αn vn ) − T (v) = T (α1 v1 + · · · + αn vn − v) si y s´ olo si para todo v ∈ V existen constantes α1 , . . . , αn tal que α1 v1 + · · · + αn vn − v ∈ ker(T ) = {0} si y s´ olo si para todo v ∈ V existen constantes α1 , . . . , αn tal que α1 v1 + · · · + αn vn − v = 0 si y s´ olo si para todo v ∈ V existen constantes α1 , . . . , αn tal que v = α1 v1 + · · · + αn vn si y s´ olo si {v1 , . . . , vn } genera a V . 3. Es inmediato de 1 y 2. 4. Es inmediato de 3 5. v ∈ gen{v1 , . . . , vn } si y s´ olo si existen constantes α1 , . . . , αn tal que v = α1 v1 + · · · + αn vn si y s´ olo si existen constantes α1 , . . . , αn tal que T (v) = T (α1 v1 + · · · + αn vn ) = α1 T (v1 ) + · · · + αn T (vn ) si y s´ olo si T (v) ∈ gen{T (v1 ), . . . , T (vn )}. En la pr´ oxima secci´ on explotaremos toda la potencia de los Teoremas 3.6 y 3.14, lo cual nos permitir´ a estudiar independencia lineal, conjuntos generadores y bases en espacios vectoriales arbitrarios. Tambi´en nos ayudar´ aa estudiar inyectividad, sobreyectividad y biyectividad de transformaciones lineales entre espacios vectoriales arbitrarios. Problemas     1 a   a ∈ R el espacio vectorial con suma definida por A ⊕ B = AB donde AB denota 3.4.1. Sea V =   0 1      1 αa 1 a  . Demuestre que  =  el producto usual de matrices y el producto por escalar definido por α ·  0 1 0 1 V ∼ = R exhibiendo un isomorfismo entre estos espacios. 3.4.2. Muestre que las siguientes transformaciones lineales de R3 en R3 son invertibles y determine su transformaci´ on lineal inversa. 1. T (x, y, z) = (x − 3y − 2z, y − 4z, −z). 2. T (x, y, z) = (x, x − y, 2x + y − z). 3.4.3. Sea T : R2 → R2 dada por T (x1 , x2 ) = (x1 + x2 , x1 ) para todo (x1 , x2 ) ∈ R2 . Demuestre que T es un isomorfismo y determine T −1 . ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 101 3.4.4. Sea V un espacio vectorial y S, T : V → V transformaciones lineales invertibles. Demuestre que S ◦ T es invertible y (S ◦ T )−1 = T −1 ◦ S −1 . 3.4.5. Sean T : R3 → R2 y S : R2 → R3 transformaciones lineales. Demuestre que S ◦ T no es invertible. De un ejemplo donde T ◦ S es invertible. 3.4.6. Sea A ∈ Mn (R) y T : Mn (R) −→ Mn (R) la funci´ on definida por T (X) = AX. Muestre que T es una transformaci´ on lineal y muestre que T es invertible si y s´ olo si A es invertible. 3.4.7. Sea T : V −→ V un transformaci´ on lineal, Ck = Im(T k ) y Nk = ker(T k ), demuestre lo siguiente: 1. Ck+1 ⊆ Ck , 2. T (Ck ) = Ck+1 . (Recuerde que para H ⊆ V se define T (H) como el conjunto T (H) = {T (h) | h ∈ H},) 3. Nk ⊆ Nk+1 , 4. T (Nk ) ⊆ Nk , 3.4.8. Si T : V −→ W y S : W −→ V son transformaciones lineales muestre que 1. Im(S ◦ T ) ⊆ Im(S), 2. Si T admite una inversa a la derecha entonces Im(S ◦ T ) = Im(S). 3.5. Espacios Vectoriales Arbitrarios En esta secci´on veremos como los Teoremas 3.6 y 3.14 nos permiten resolver las preguntas sobre independencia lineal, conjuntos generadores y bases en espacios vectoriales arbitrarios con un procedimiento Gauss-Jordan. Ejemplo 3.17. Considere los polinomios p1 = 1 − 2t2 , p2 = t + t2 − t3 y p3 = t + 3t2 en P3 . Determinar si los polinomios son linealmente independientes.   a  0    a1   Soluci´ on. Por el Teorema 3.6 la funci´ on T = RX : P3 −→ R4 determinada por T (a0 +a1 t+a2 t2 +a3 t3 ) =     a2    a3 es un isomorfismo. Entonces por 3.14 tenemos {p 1 , p2 , p3 } es linealmente indepen el Teorema    que  el conjunto      1 0 0                      0  1 1  , T (p2 ) =   , T (p3 ) =   es linealmente independiente. diente si y s´ olo si el conjunto T (p1 ) =          −2  1 3               0 −1 0    1 0 0      0 1 1  Sabemos por el Teorema 2.5 que este u ´ltimo conjunto es LI si la matriz [T (p1 ) T (p2 ) T (p3 )] =    −2 1 3   0 −1 0 102 tiene rango igual al n´ umero de columnas. Aplicando  1 0   0 1 calonada reducida de esta matriz es la matriz   0 0  0 0 tanto los polinomios {p1 , p2 , p3 } son LI. el procedimiento Gauss-Jordan obtenemos que la forma es 0   0 . Luego los vectores {T (p1 ), T (p2 ), T (p3 )} son LI y por  1  0        −5 1 0 3 0 1 −2 , determine  y M4 =   , M3 =   , M2 =  Ejemplo 3.18. (MatLab) Sean M1 =  −5 3 1 0 1 −1 0 0 si las matrices son LI en M22 (R) y si no lo son encontrar una dependencia lineal entre ellos.  1 Soluci´ on. El procedimiento es an´ alogo on T : M22 (R) −→ R4  al ejemplo anterior. Por el Teorema 3.6 la funci´ a       b a c  =   es un isomorfismo. Entonces el conjunto {M1 , M2 , M3 , M4 } es linealdeterminada por T    c b d   d mente independiente si y s´ o lo si el conjunto             1 0 0 −5                          0  1 1 −5  , T (M2 ) =   , T (M3 ) =   , T (M4 ) =   es linealmente independiente. Al calcular T (M1 ) =            −2  1 3  1                  0 −1 0 3    1 0 0 −5       0 1 0 −3 , por la forma escalonada de la matriz A = [T (M1 ) T (M2 ) T (M3 ) T (M4 )] obtenemos A′ =    0 0 1 −2   0 0 0 0 tanto los vectores no son LI y tenemos que T (M4 ) = −5T (M1 ) − 3T (M2 ) − 2T (M1 ), como T es un isomorfismo tenemos que M4 = −5M1 − 3M2 − 2M3 , lo que nos da una dependencia lineal entre las matrices M1 , M2 , M3 y M4 . Ejemplo 3.19. Sean M1 , M2 , M3 y M4 las matrices del on de  ejemplo anterior, calcular una base y la dimensi´  1 1  ∈ H. H = gen{M1 , M2 , M3 , M4 } y determine si M =  1 3 Soluci´ on. De acuerdo al ejemplo anterior sabemos que M1 , M2 y M3 son LI y que M4 es una combinaci´ on lineal de estas, por tanto {M1 , M2 , M3 } es una base para H y dim(H) = 3. Para determinar si M ∈ H, usamos el Teorema 3.14 el cual dice que M ∈ H si y s´ olo si T (M ) ∈ T (H) si y s´ olo si existen constantes α1 , α2 , α3 tal que T (M ) = α1 T (M1 ) + α2 T (M2 ) + α3 T (M3 ) si y s´ olo si el conjunto {T (M1 ), T (M2 ), T (M3 ), T (M )} es LD. ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN Esto lo podemos saber calculando la forma escalonada reducida de la matriz  1 0 0    0 1 1 A = [T (M1 ) T (M2 ) T (M3 ) T (M )] =   −2 1 3  0 −1 0 103 1    1 .  1  3 Despu´es de hacer los respectivos c´ alculos podemos notar que A′ = I y por tanto los vectores son LI. Concluimos que T (M ) ∈ / T (H), luego M ∈ / H. Problemas 3.5.1. Encuentre una base para {p ∈ R3 [x] | p(−1) = 0}. 3.5.1. Transformaciones lineales entre espacios vectoriales arbitrarios. En esta secci´on definiremos la matriz de una transformaci´on con respecto a una base del dominio y otra del codominio. Esto nos permitir´ a calcular el kernel y la imagen de una transformaci´on lineal de manera computacional. La matriz de la transformaci´on con respecto a dos bases dadas nos permitir´a ver una transformaci´on lineal entre espacios arbitrarios como una transformaci´on de Rn en Rm . En las siguientes observaciones introducimos la matriz de una transformaci´on con respecto a dos bases. Observaci´ on 3.4. Sean V y W espacios vectoriales, sean X = {v1 , . . . , vn } y Y = {w1 , . . . , wm } bases de V y W respectivamente y T : V → W una transformaci´ on lineal. Por el Teorema 3.12 tenemos los isomorfismos can´ onicos RX : V −→ Rn y RY : W −→ Rm definidos por RX (α1 v1 + · · · + αn vn ) = (α1 , . . . , αn ) y RY (β1 w1 + · · · + βm vm ) = (β1 , . . . , βm ). Por tanto tenemos el siguiente diagrama: T V /W RY RX  Rn S  / Rm , −1 as´ı se obtiene una transformaci´ on lineal S : Rn −→ Rm , la cual est´ a dada por S = RY ◦ T ◦ RX . Esta transformaci´ on tiene asociada una matriz E SS la cual nos permitir´ a calcular el kernel y la imagen de T. Teorema 3.15. Usando la notaci´ on de la Observaci´ on 3.4. Sean V y W espacios vectoriales, X = {v1 , . . . , vn } una base para V , Y = {w1 , . . . , wm } una base para W y T : V −→ W una transformaci´ on lineal. Entonces tenemos lo siguiente: 104 1. S es inyectiva si y s´ olo si T es inyectiva. 2. S es sobreyectiva si y s´ olo si T es sobreyectiva. 3. S es un isomorfismo si y s´ olo si T es un isomorfismo. Demostraci´ on. Por la definici´on de S tenemos que T = RY−1 ◦S ◦RX , adem´ as como RX y RY son isomorfismos, son en particular inyectivos y sobreyectivos. 1. “⇒”Si S es inyectiva entonces T = RY−1 ◦ S ◦ RX es una composici´on de transformaciones inyectivas y por tanto es T inyectiva. −1 “⇐”Si T es inyectiva entonces S = RY ◦ T ◦ RX es una composici´on de transformaciones inyectivas y por tanto S es inyectiva. 2. “⇒”Si S es sobreyetiva entonces T = RY−1 ◦ S ◦ RX es una composici´on de transformaciones sobreyectivas y por tanto es T sobreyectiva. −1 es una composici´on de transformaciones sobreyectivas y “⇐”Si T es sobreyectiva entonces S = RY ◦ T ◦ RX por tanto S es sobreyectiva. 3. Se sigue de 1. y 2. Este teorema nos permite asociar a cualquier transformaci´on lineal entre espacios vectoriales arbitrarios una transformaci´on lineal de Rn en Rm que respeta la inyectividad, la sobreyectividad y le biyectividad de la transformaci´on, de ´este se deduce los siguientes resultados que nos dicen como determinar si la transformaci´on es inyectiva y/o sobreyectiva, tambi´en como calcular el kernel y la imagen. Corolario 3.16. Usando la notaci´ on de la Observaci´ on 3.4. Sean V y W espacios vectoriales, X = {v1 , . . . , vn } una base para V , Y = {w1 , . . . , wm } una base para W , T : V −→ W una transformaci´ on lineal, S = Rn −→ Rm y A = E SE la matriz de la transformaci´ on S. Entonces 1. T es inyectiva si y s´ olo si rango(A) = n´ umero de columnas de A. 2. T es sobreyectiva si y s´ olo si rango(A) = n´ umero de filas de A. 3. T es un isomorfismo si y s´ olo si rango(A) = n´ umero de filas de A = n´ umero de columnas de A. Demostraci´ on. Esto es una consecuencia inmediata del teorema anterior y los Teoremas 3.6, 3.8 y 3.9. Corolario 3.17. Sean V y W espacios vectoriales, sea X = {v1 , . . . , vn } una base para V , Y = {w1 , . . . , wm } una base para W , T : V −→ W una transformaci´ on lineal. RX : V −→ Rn y RY : W −→ Rm los isomorfismos −1 can´ onicos de V y W , respectivamente, sea S = RY ◦ T ◦ RX : Rn −→ Rm y sea A = transformaci´ on S. Entonces tenemos lo siguiente: −1 −1 1. ker(T ) = RX (ker(S)) = RX (N ul(A)). E SE la matriz de la ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 105 2. Im(T ) = RY−1 (Im(S)) = RY−1 (Col(A)). Adem´ as se sigue que −1 −1 {x1 , . . . , xr } es una base de N ul(A) si y s´ olo si {RX (x1 ), . . . , RX (xr )} es una base de ker(T ) y {y1 , . . . , ys } es una base de Col(A) si y s´ olo si {RY−1 (y1 ), . . . , RY−1 (ys )} es una base de Im(T ). Demostraci´ on. 1. v ∈ ker(T ) si y s´ olo si 0 = T (v) = RY−1 ◦ S ◦ RX (v) si y s´ olo si RX (v) ∈ ker(S) = N ul(A) si y s´ olo si −1 v ∈ RX (N ul(A)). si y s´ olo si S ◦ RX (v) = 0 2. w ∈ Im(T ) si y s´ olo si existe v ∈ V tal que w = T (v) = RY−1 ◦ S ◦ RX (v) si y s´ olo si existe v ∈ V tal que RY (w) = S(RX (v)) si y s´ olo si RY (w) ∈ Im(S) = Col(A) si y s´ olo si w ∈ RY−1 (Col(A)). A continuaci´on daremos ejemplos de como usar estos corolarios para calcular la imagen y el kernel de transformaciones lineales. Ejemplo 3.20. Considere la transformaci´ on lineal derivaci´ on D : P3 −→ P2 definida en el Problema 3.1.6. Determinar si es inyectiva y/o sobreyectiva, si es un isomorfismo, calcular el kernel y la imagen de D. Soluci´ on. Los conjuntos X = {1, t, t2 , t3 } y Y = {1, t, t2 } son bases de P2 y P3 , respectivamente. Se tienen los isomorfismos RX : P3 −→ R4 y RY : P2 −→ R3 definidos por RX (a0 + a1 t + a2 t2 + a3 t3 ) = (a0 , a1 , a2 , a3 ) y RY (a0 + a1 t + a2 t2 ) = (a0 , a1 , a2 ) (Los isomorfismos can´ onicos de P3 y P2 , respectivamente). −1 La transformaci´ on S = R Y ◦ D ◦ R X : R4 −→ R3 est´ a dada por −1 S(a, b, c, d) = RY ◦ D ◦ RX (a, b, c, d) = RY ◦ D(a + bt + ct2 + dt3 ) = RY (b + 2ct + 3dt2 ) = (b, 2c, 3d) La matriz de esta transformaci´ on es A =E SE = [S(e1 )  S(e2 ) 0 1 S(e3 ) 0 0   0 1   S(e4 )] = 0 0  0 0 0 0    2 0  0 3     on S es sobreyectiva pero no y su forma escalonada est´ a dada por A′ = 0 0 1 0. Por tanto la transformaci´   0 0 0 1 inyectiva. Del Teorema 3.15 tenemos que D es sobreyectiva pero no inyectiva, por tanto no es un isomorfismo. 106 Ahora pasamos a calcular el kernel y la imagen. Como D es sobre entonces Im(D) = P2 . Para el kernel, −1 usamos el Corolario 3.17, el cual nos dice que si calculamos una base de N ul(A) y aplicamos RX obtenemos una base de ker(D). N´ otese que         1 α1 α1 α1                 0 α2   0  α2         ∈ N ul(A′ ) = N ul(A) si y s´ olo si α2 = α3 = α4 = 0 si y s´ olo si    =   = α1   .   0 α3   0  α3          0 0 α4 α4       1              0   −1   (x1 ) = 1} una base para ker(D). Se sigue que x1 =   es una base de N ul(A) = ker(S). Por tanto {RX   0              0  Es decir ker(D) = gen{1} = { polinomios constantes }. Ejemplo 3.21. Considere la transformaci´ on lineal integraci´ on I : P2 −→ P3 definida en el Problema 3.1.7. Determinar si I es inyectiva y/o sobreyectiva, si es un isomorfismo, calcular el kernel y la imagen de I. Soluci´ on. Nuevamente consideramos las bases del problema anterior Y = {1, t, t2 } y X = {1, t, t2 , t3 } y los isomorfismos RX : P3 −→ R4 definido por RX (a0 + a1 t+ a2 t2 + a3 t3 ) = (a0 , a1 , a2 , a3 ) y RY : P2 −→ R3 definido por RY (a0 + a1 t + a2 t2 ) = (a0 , a1 , a2 ). a dada por En este caso la transformaci´ on S = RX ◦ I ◦ RY−1 : R3 −→ R4 est´     b 2 c 3 b c −1 2 S(a, b, c) = RX ◦ I ◦ RY (a, b, c) = RX ◦ I(a + bt + ct ) = RX at + t + t = a, , 2 3 2 3 La matriz de esta transformaci´ on es  0 0 0      1 0 0    A =E SE = [S(e1 ) S(e2 ) S(e3 )] =   0 1/2 0    0 0 1/3   1 0 0       0 1 0 . Por tanto la transformaci´ y su forma escalonada reducida est´ a dada por A′ =  on S es inyectiva pero   0 0 1   0 0 0 no sobreyectiva, luego por el Teorema 3.15 tenemos que I es inyectiva pero no sobreyectiva, por tanto no es un isomorfismo. Ahora pasamos a calcular el kernel y la imagen. Como I es inyectiva entonces ker(I) = {0}. Para calcular −1 la imagen, usamos el Corolario 3.17, el cual no dice que si calculamos una base de Col(A) y aplicamos RX obtenemos una base de Im(I). ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 107 De la matriz A′ obtenemos que una base para Col(A) = Im(I) est´ a dada por el conjunto  0  0   0  0 y1 = 10 , y2 = 1/2 , y3 = 00 , 0 1/3 0  −1 −1 −1 ya que A′ tiene pivotes en las tres columnas. Por tanto el conjunto {RX (y1 ), RX (y2 ), RX (y3 )} = t, 12 t2 , 13 t3 es una base para Im(I). Es decir  1 2 1 3 Im(I) = gen t, t , t = gen{t, t2 , t3 }. 2 3   1 −1  y sea T : M22 (R) −→ M22 (R) la funci´ on definida por T (A) = AM . Ejemplo 3.22. Sea M =  −1 1 Demuestre que T es una transformaci´ on lineal, determine si T es inyectiva y/o sobreyectiva, si es un isomorfismo  y calcular el kernel y la imagen de T . Soluci´ on. Primero veamos que T es una transformaci´ on lineal. Sean A1 , A2 ∈ M22 (R) y α ∈ R, T (A1 + A2 ) = (A1 + A2 )M = A1 M + A2 M = T (A1 ) + T (A2 ) y T (αA1 ) = (αA1 )M = α(A1 M ) = αT (A1 ). Fijemos la base X=    E11      0 0 0 1 0  , E12 =   , E21 =  = 0 1 0 0 0  0   2    0 1  , E22 =  0 0 y consideremos el isomorfismo RX : M22 −→ R4 definido por   a c  = RX (aE11 + bE21 + cE12 + dE22 ) = (a, b, c, d). R X  b d −1 La transformaci´ on S = R X ◦ T ◦ R X : R4 −→ R4 est´ a dada por  −1 S (a, b, c, d) = RX ◦ T ◦ RX (a, b, c, d) = RX ◦ T   = R X  La matriz de esta transformaci´ on es a−c −a + c b−d −b + d a c b d      = R X  a c b d    M  = (a − c, b − d, −a + c, −b + d).  1 0 −1 0       0 1 0 −1  A = E SE = [S(e1 ) S(e2 ) S(e3 ) S(e4 )] =    −1 0 1 0   0 −1 0 1   1 0 −1 0       0 1 0 −1 . Luego S no es inyectiva ni sobreyectiva y y su forma escalonada reducida es la matriz A′ =    0 0 0 0   0 0 0 0 tampoco un isomorfismo. 108 ′ a dada por las dos primeras columnas de A, es decir,  De lamatriz  que una base para Col(A) est´  A tenemos    0  1                 1   0  , m2 =   es una base para Col(A) = Im(S). Por tanto se tiene que una base para Im(T ) m1 =        0  −1              −1  0 est´ a dada por       1 −1 0 0 −1 −1  . , {RX (m1 ), RX (m2 )} =   0 1 −1  0 Ahora para calcular ker(T ) necesitamos una base para N ul(A). Para esto n´ otese que  α1      α2  α1 = α3   ∈ N ul(A) = N ul(A′ ) si y s´ olo si   α3  α2 = α4   α4         1 0                 α2  α4   0 1        si y s´ olo si    =   = α3   + α4   . α3  α3   1 0         α4 α4 0 1 α1 α3      0  1            1   0     Se sigue que el conjunto x1 =   , x2 =   es una base para N ul(A) = ker(S). Por tanto el conjunto    0   1              1  0           1 −1 −1 (x2 )} =  (x1 ), RX {RX  0 es una base para ker(T ).   0 1 , 1 0  0   , 1   1  y sea T : M22 (R) −→ M22 (R) la funci´ on definida por T (B) = M B. Demuestre Ejemplo 3.23. Sea M =  1 1 que T es una transformaci´ on lineal, determine si T es inyectiva y/o sobre, si es un isomorfismo y calcular el  2 kernel y la imagen de T . Soluci´ on. Con un argumento similar al del ejemplo anterior se demuestra que T es una transformaci´ on lineal. Para los dem´ as c´ alculos fijemos la base de M22 (R) X=    E11     0 0 0 1 0  , E12 =   , E21 =  = 0 1 0 0 0  y tomemos el isomorfismo RX : M22 −→ R4 definido por  R X  a c b d    0 1  , E22 =  0 0  0   2   = RX (aE11 + bE21 + cE12 + dE22 ) = (a, b, c, d). ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 109 −1 En este caso la transformaci´ on S = R X ◦ T ◦ R X : R4 −→ R4 est´ a dada por     a a c −1   = R X M  S(a, b, c, d) = RX ◦ T ◦ RX (a, b, c, d) = RX ◦ T  b b d   2a + b 2c + d  = (2a + b, a + b, 2c + d, c + d). = RX  a+b c+d c d   La matriz de esta transformaci´ on es  A= E SE = [S(e1 ) S(e2 )  S(e3 ) 1 0   0 1 y su forma escalonada reducida es la matriz A′ =   0 0  0 0 sobreyectiva y por tanto es un isomorfismo. 2 1   1 1 S(e4 )] =   0 0  0 0 0 0  0 0    0 0   2 1  1 1   0 0  = I. De esto concluimos que S es inyectiva y  1 0  0 1 Como T es un isomorfismo tenemos que ker(T ) = {0} y Im(T ) = M22 (R). Problemas 3.5.2. Calcule la matriz de la tranformaci´ on T : R3 [t] −→ R3 [t] definida por T (p) = d dt [(2 + t)p]. 3.5.3. Sean V un espacio vectorial de dimensi´ on finita y T : V → V una transformaci´ on lineal. Suponga que existe S : V → V tal que T ◦ S = IdV . Demuestre que T es invertible y S = T −1 . De un ejemplo que muestre que lo anterior es falso cuando V no es de dimensi´ on finita. 3.5.4. Sea T : U → V una transformaci´ on lineal inyectiva. Muestre que V tiene un subespacio isomorfo a U . Sea T : V −→ V una transformaci´on lineal y X una base de V , demuestre que T : V −→ V es invertible si y s´ olo si la matriz X TX es invertible. 3.5.5. Sea V un espacio vectorial con dim V ≥ 3. Muestre que una funci´ on T : V → V es una transformaci´ on lineal si y s´ olo la restricci´ on de T a cada subespacio vectorial de V con dimensi´ on 2 es una transformaci´ on lineal. 3.5.6. Si T : V −→ W y S : W −→ Z son transformaciones lineales entonces Im(T ◦S) ⊆ Im(T ) y Im(T ◦S) ⊆ Im(S). 3.5.7. Si T, S : V −→ V son transformaciones lineales y T ◦ S es invertible entonces T y S son invertibles. De un ejemplo en el que T : V −→ W y S : W −→ V con T ◦ S invertible pero ni T ni S son invertibles. 110 3.5.8. Sea T : Mn (R) −→ Mn (R) definida por T (A) = A − At . Demuestre que ker T = Sn(R) es el conjunto de marices sim´etricas y la imagen Im(T ) = An (R) es el conjunto de matrices antisim´etricas. 3.5.9. Si T : V −→ W y S : W −→ V son transformaciones lineales con dim V > dim W entonces S ◦ T no es invertible. 3.6. Propiedades de los Espacios Vectoriales En esta secci´on estudiaremos resultados cl´asicos de espacios vectoriales, como el Teorema de la Base Incompleta y los teoremas de la dimensi´on, entre otros. Comenzamos con el siguiente resultado que garantiza que la representaci´ on de un vector en t´erminos de una base es u ´nica salvo el orden. Teorema 3.18. Sea V un espacio vectorial, {v1 , . . . , vn } una base de V y v ∈ V , entonces existen constantes u ´nicas α1 , . . . , αn talque v = α1 v1 + · · · + αn vn . Demostraci´ on. Supongamos que existen constantes α1 , . . . , αn talque v = α1 v1 + · · · + αn vn y supongamos que existen otras constantes β1 , . . . , βn tal que v = β1 v1 + · · · + βn vn . Entonces restando estas dos ecuaciones obtenemos: 0 = v − v = α1 v1 + · · · + αn vn − (β1 v1 + · · · + βn vn ) = (α1 − β1 )v1 + · · · + (α1 − βn )vn luego, como los vectores v1 , . . . , vn son LI, entonces 0 = α1 −β1 = · · · = αn −βn , por tanto α1 = β1 , . . . , αn = βn y las constantes son u ´nicas. Los siguientes resultados son generalizaciones de los Teoremas 2.11 ´ıtem 2. y 2.16 que se enunciaron y se demotraron en el Cap´ıtulo 2. Teorema 3.19. Sea V un espacio vectorial y sea {v1 , . . . , vn } un conjunto linealmente independiente. Si dim(V ) = n entonces {v1 , . . . , vn } es una base para V. Demostraci´ on. Como dim(V ) = n entonces V tiene una base X con n elementos, aplicando el Teorema 3.12 existe un isomorfismo T = RX : V −→ Rn y por el Teorema 3.14 ´ıtem 1 el conjunto {T (v1 ), . . . , T (vn )} es linealmente independiente en Rn , luego por el Teorema 2.11 ´ıtem 2, este conjunto forma una base para Rn . Aplicando nuevamente el Teorema 3.14 ´ıtem 1 tenemos que {v1 , . . . , vn } es una base de V . Teorema 3.20. Sean V y W espacios vectoriales con dim(V ) = n y sea T : V −→ W una transformaci´ on lineal. Entonces dim(ker T ) + dim(ImT ) = n. Demostraci´ on. Sea m = dim(W ), sean X y Y bases de V y W respectivamente, y sean RX : V −→ Rn y −1 RY : W −→ Rm los isomorfismos can´ onicos de V y W , respectivamente. Definamos S = RY ◦ T ◦ RX y sea A = E SE la matriz de transformaci´on de S, entonces por el Corolario 2.17 tenemos que dim(N ulA) + dim(ColA) = n. ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 111 Ahora por el Corolario 3.17, se tiene que dim(ImT ) = dim(ImS) = dim(ColA) y dim(KerT ) = dim(KerS) = dim(N ulA) entonces tenemos dim(ImT ) + dim(KerT ) = dim(ImS) + dim(N ulS) = dim(ColA) + dim(N ulA) = n. Ahora pasamos a demostrar el teorema de la base incompleta en su versi´on general, para facilitar su demostraci´on veamos el siguiente lema. Lema 3.21. Sea V un espacio vectorial, {v1 , . . . , vk } ⊆ V un conjunto de vectores linealmente independientes y w ∈ V . Si w ∈ / gen{v1 , . . . , vk } entonces el conjunto {v1 , . . . , vk , w} es linealmente independiente. Demostraci´ on. Supongamos que w ∈ / gen{v1 , . . . , vk }. Para demostrar que {v1 , . . . , vk , w} es linealmente independiente, supongamos que α1 v1 + · · · + αk vk + βw = 0 (3.1) y veamos que las constantes son todas cero. Primero n´otese que β = 0, ya que si β 6= 0, entonces de la Ecuaci´ on 3.1 tenemos que w = − αβ1 v1 − · · · − αβk vk y por tanto w ∈ gen{v1 , . . . , vk } lo que contradice la hip´ otesis, por tanto β = 0. Entonces la Ecuaci´ on 3.1 se reduce a α1 v1 + · · · + αk vk = 0. Pero por hip´ otesis {v1 , . . . , vk } es un conjunto LI, se sigue por tanto que 0 = α1 = · · · = αk . De esto concluimos que {v1 , . . . , vk , w} es linealmente independiente. Teorema 3.22. (Teorema de la Base Incompleta) Sean V un espacio vectorial con dim(V ) = n, {v1 , . . . , vk } un conjunto de vectores linealmente independientes con k < n. Entonces existen vectores vk+1 , . . . , vn tal que {v1 , . . . , vk , vk+1 , . . . , vn } es una base para V . Demostraci´ on. Como {v1 , . . . , vk } es linealmente independiente, entonces dim gen{v1 , . . . , vk } = k y como k < n entonces gen{v1 , . . . , vk } = 6 V , por tanto existe v ∈ V tal que v ∈ / gen{v1 , . . . , vk }, entonces aplicando el lema anterior tenemos que {v1 , . . . , vk , v} es LI. Tomemos vk+1 = v y as´ı tenemos que {v1 , . . . , vk , vk+1 } es linealmente independiente. Si n = k + 1 entonces V = gen{v1 , . . . , vk , vk+1 } y por tanto {v1 , . . . , vk , vk+1 } es una base de V . En el caso k + 1 < n tenemos que gen{v1 , . . . , vk , vk+1 } 6= V y existe w ∈ V tal que w ∈ / gen{v1 , . . . , vk , vk+1 }, entonces aplicando de nuevo el lema anterior tenemos que {v1 , . . . , vk , vk+1 , w} es linealmente independiente. Hacemos vk+2 = w y tenemos que {v1 , . . . , vk , vk+1 , vk+2 } es linealmente independiente. Continuando de manera inductiva conseguimos vectores vk+1 , . . . , vn tal que {v1 , . . . , vk , vk+1 , . . . , vn } es linealmente independiente, entonces como dim(V ) = n, por el Teorema 3.19 tenemos que {v1 , . . . , vk , vk+1 , . . . , vn } es una base para V . Teorema 3.23. Sea V un espacio vectorial y sean W1 y W2 subespacios de V . Entonces dim(W1 + W2 ) = dim(W1 ) + dim(W2 ) − dim(W1 ∩ W2 ). 112 Demostraci´ on. Sea n = dim(V ), r = dim(W1 ), s = dim(W2 ) y t = dim(W1 ∩ W2 ). Sea {w1 , . . . , wt } una base para W1 ∩W2 , por el Teorema de la Base Incompleta, existen vectores xt+1 , . . . , xr tal que {w1 , . . . , wt , xt+1 , . . . , xr } es una base para W1 y existen vectores yt+1 , . . . , ys tal que {w1 , . . . , wt , yt+1 , . . . , ys } es una base para W2 . Afirmaci´ on 1: El conjunto {w1 , . . . , wt , xt+1 , . . . , xr , yt+1 , . . . , ys } es linealmente independiente. Para demostrar esta afirmaci´ on, supongamos que α1 w1 + · · · + αt wt + βt+1 xt+1 + · · · + βr xr + λt+1 yt+1 + · · · + λs ys = 0. (3.2) Sea v = λt+1 yt+1 + · · · + λs ys ∈ W2 , entonces por la Ecuaci´ on 3.2 tenemos que v = λt+1 yt+1 + · · · + λs ys = −α1 w1 − · · · − αt wt − βt+1 xt+1 − · · · + βr xr ∈ W1 por tanto v ∈ W1 ∩ W2 , entonces existen constantes σ1 , . . . , σt tal que v = σ1 w1 + · · · + σt wt . Se sigue que 0 = v − v = σ1 w1 + · · · + σt wt − λt+1 yt+1 − · · · − λs ys , pero como {w1 , . . . , wt , yt+1 , . . . , ys } es linealmente independiente, por ser base de W2 , entonces 0 = σ 1 = · · · = σ t = λ1 = · · · = λs . Entonces la Ecuaci´ on 3.2 se reduce a α1 w1 + · · · + αt wt + βt+1 xt+1 + · · · + βr xr = 0, pero el conjunto {w1 , . . . , wt , xt+1 , . . . , xr } es linealmente independiente, por ser base de W1 , entonces 0 = α 1 = · · · = αt = β1 = · · · = βs . Concluimos que {w1 , . . . , wt , xt+1 , . . . , xr , yt+1 , . . . , ys } es linealmente independiente, lo que demuestra la Afirmaci´on 1. Afirmaci´ on 2: El conjunto {w1 , . . . , wt , xt+1 , . . . , xr , yt+1 , . . . , ys } genera a W1 + W2 . Tomemos w ∈ W1 + W2 , entonces existen x ∈ W1 y y ∈ W2 tal que w = x + y. Como {w1 , . . . , wt , xt+1 , . . . , xr } es una base para W1 , existen constantes α1 , . . . , αr tal que x = α1 w1 + · · · + αt wt + αt+1 xt+1 + · · · + αr xr . (3.3) Similarmente existen constantes β1 , . . . , βs tal que y = β1 w1 + · · · + βt wt + βt+1 yt+1 + · · · + βs ys . De las Ecuaciones 3.3 y 3.4 tenemos que w =x + y =α1 w1 + · · · + αt wt + αt+1 xt+1 + · · · + αr xr + β1 w1 + · · · + βt wt + βt+1 yt+1 + · · · + βs ys =(α1 + β1 )w1 + · · · + (αt + βt )wt + αt+1 xt+1 + · · · + αr xr + βt+1 yt+1 + · · · + βs ys . (3.4) ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 113 Lo que demuestra la Afirmaci´ on 2. De las Afirmaciones 1. y 2. tenemos que el conjunto {w1 , . . . , wt , xt+1 , . . . , xr , yt+1 , . . . , ys } es una base para W1 + W2 . Por tanto dim(W1 + W2 ) = t + r − t + s − t = r + s − t = dim(W1 ) + dim(W2 ) − dim(W1 ∩ W2 ). Problemas 3.6.1. Sea V un espacio vectorial de dimensi´ on n. 1. Si n es impar, demuestre que no existe ninguna transformaci´ on lineal T : V −→ V tal que ker(T ) = Im(T ). 2. Exhiba un contraejemplo a la afirmaci´ on anterior si n es par. 3.6.2. Muestre que si T : V → W es una transformaci´ on lineal inyectiva, entonces dim V ≤ dim W . 3.6.3. Considere una transformaci´ on lineal T : V −→ W , donde V y W son espacios vectoriales de dimensi´ on finita tales que dim W < dim V . 1. Demuestre que existe un elemento no nulo v ∈ V talque T (v) = 0. 2. Si X es una base arbitraria de V , ¿existe un vector v ∈ X tal que T (v) = 0? Demuestre o de un contra ejemplo. 3.6.4. Sea T : V −→ V una transformaci´ on lineal demuestre que las siguientes afirmaciones son equivalentes 1. T es invertible 2. T es inyectiva 3. T es sobreyectiva 3.6.5. El problema anterior no es cierto en dimensi´ on infinta, muestre que la transformaci´ on lineal T : R[t] −→ Rt R[t] definida por T (p) = 0 p(x)dx es inyectiva pero no sobre y la transformaci´ on T : R[t] −→ R[t] definida por T (p) = p′ es sobre pero no inyectiva. Los dos siguientes problemas bosquejan otra forma de demostrar el Teorema 3.20 3.6.6. Sean V y W espacios vectoriales, T : V −→ W una transformaci´ on lineal y {v1 , . . . , vt } una base de ker T . Si vt+1 , . . . , vn son vectores tal que {v1 , . . . , vt , vt+1 , . . . , vn } es una base de V entonces {T (vt+1 ), . . . , T (vn )} es una base de Im(T ). 3.6.7. Sean V y W espacios vectoriales, T : V −→ W una transformaci´ on lineal y {w1 , . . . , wt } una base de Im(T ) y sean v1 , . . . , vt vectores tal que wi = T (vi ), para i = 1, . . . , t. Demuestre lo siguiente 1. El conjunto {v1 , . . . , vt } es linealmente independiente. 114 2. Si vt+1 , . . . , vn son vectores tal que {v1 , . . . , vt , vt+1 , . . . , vn } es una base de V entonces {vt+1 , . . . , vn } es una base de ker(T ). 3.6.8. Muestre que la funci´ on tr : Mn (R) −→ R es una TL sobreyectiva con ker tr = sln (R) = {A ∈ A 7→ tr(A) Mn (R) | trA = 0}. Use esto y el Teorema de la Dimensi´ on para transformaciones lineales para determinar dim sln (R). 3.7. Suma Directa de Espacios Terminamos el cap´ıtulo con la definici´ on de suma directa y las propiedades m´ as relevantes. Definici´ on 3.7. (Suma Directa) Sean V un espacio vectorial y W1 y W2 subespacios de V , decimos que V es la suma directa de W1 y W2 , lo cual denotamos por V = W1 ⊕ W2 , si V = W1 + W2 y W1 ∩ W2 = {0}. Los siguientes resultados exhiben condiciones suficientes y necesarias para que un espacio sea suma directa de dos subespacios. Teorema 3.24. Sean V un espacio vectorial y W1 y W2 subespacios de V . Entonces V = W1 ⊕ W2 si y s´ olo si V = W1 + W2 y dim W1 + dim W2 = dim V . Demostraci´ on. “⇒”Si V = W1 ⊕ W2 entonces por definici´on tenemos que V = W1 + W2 y por el Teorema de la dimensi´on (Teorema ??) tenemos que dim V = dim W1 + dim W2 − dim(W1 ∩ W2 ) = dim W1 + dim W2 . | {z } =0 “⇐”Si V = W1 + W2 y dim W1 + dim W2 = dim V por el Teorema de la dimensi´on tenemos que dim V = dim W1 + dim W2 − dim(W1 ∩ W2 ), se sigue que dim(W1 ∩ W2 ) = 0 y por tanto V = W1 ⊕ W2 . Teorema 3.25. Sean V un espacio vectorial, W1 y W2 subespacios de V y X y Y bases para W1 y W2 , respectivamente. Entonces V = W1 ⊕ W2 si y s´ olo si X ∪ Y es una base para V . Demostraci´ on. “⇒”Supongamos que V = W1 ⊕ W2 y sean X = {v1 , . . . , vr } y Y = {w1 , . . . , ws } bases de W1 y W2 . Veamos que {v1 , . . . , vr , w1 , . . . , ws } es LI. Supongamos que α1 v 1 + · · · + αr v r + β1 w1 + · · · + βs ws = 0 (3.5) y definamos x = α1 v1 + · · · + αr vr entonces x ∈ W1 y de (3.5) se sigue que x = α1 v1 + · · · + αr vr = −(β1 w1 + · · · + βs ws ) y por tanto x ∈ W2 . Se sigue que x ∈ W1 ∩ W2 pero por hip´ otesis W1 ∩ W2 = {0}, luego x = 0 y como x = α1 v1 + · · · + αr vr y {v1 , . . . , vr } es LI por ser base para W1 tenemos que α1 = · · · = αr = 0. Adem´ as como −(β1 w1 + · · · + βs ws ) = x = 0 y {w1 , . . . , ws } es LI entonces 0 = β1 = · · · = βs . ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 115 Concluimos que X ∪ Y = {v1 , . . . , vr , w1 , . . . , ws } es LI. Ahora, por el teorema anterior dim V = dim W1 + dim W2 = r + s entonces X ∪ Y es un conjunto LI con r + s = dim V elementos y por tanto es una base de V . “⇐”Supongamos que X ∪ Y = {v1 , . . . , vr , w1 , . . . , ws } es una base para V . Afirmaci´ on 1. V = W1 + W2 Demostraci´on. Sea v ∈ V , como {v1 , . . . , vr , w1 , . . . , ws } es una base para V , existen constantes α1 , . . . , αr , β1 , . . . , βs tal que v = α1 v1 + · · · + αr vr + β1 w1 + · · · + βs ws ∈ W1 + W2 . {z } | | {z } ∈W1 ∈W2 La otra inclusi´ on es clara ya que como W1 y W2 son subespacios entonces W1 + W2 es un subespacio, en particular es un subconjunto. Esto demuestra la afirmaci´on. Afirmaci´ on 2. W1 ∩ W2 = {0}. Demostraci´on. Sea v ∈ W1 ∩ W2 , entonces v ∈ W1 y v ∈ W2 . Como {v1 , . . . , vr } es una base de W1 , existen constantes α1 , . . . , αr tal que v = α1 v 1 + · · · + αr v r . (3.6) Un argumento similar garantiza la existencia de constantes β1 , . . . , βs tal que v = β1 v 1 + · · · + βr v r . (3.7) De las ecuaciones 3.6 y 3.7 tenemos que 0 = v − v = α 1 v 1 + · · · + αr v r − β1 w1 + · · · + βs ws . Ahora, como {v1 , . . . , vr , w1 , . . . , ws } es linealmente independiente, por ser base para V , tenemos que 0 = α1 = · · · = αr = β1 = · · · = βs . Por tanto v = α1 v1 + · · · + αr vr = 0 y W1 ∩ W2 ⊆ {0}. La otra inclusi´ on es trivial ya que 0 ∈ W1 + W2 luego {0} ⊆ W1 ∩ W2 . Lo que prueba la afirmaci´on. De las afirmaciones 1. y 2. tenemos que V = W1 ⊕ W2 . Terminamos la secci´ on con una u ´ltima caracterizaci´ on de la suma directa de espacios vectoriales. Teorema 3.26. Sea V un espacio vectorial, sean W1 y W2 subespacios de V . Entonces V = W1 ⊕ W2 si y s´ olo si para todo v ∈ V existen vectores u ´nicos w1 ∈ W1 y w2 ∈ W2 tal que v = w1 + w2 . Demostraci´ on. “⇒”: Supongamos que V = W1 ⊕ W2 , entonces por definici´on tenemos que V = W1 + W2 , por tanto para v ∈ V existen w1 ∈ W1 y w2 ∈ W2 tal que v = w1 + w2 . Ahora veamos que estos vectores son u ´nicos: supongamos que v = w1 +w2 y que v = w1′ +w2′ con w1 , w1′ ∈ W1 y w2 , w2′ ∈ W2 . Entonces tenemos que 0 = v − v = (w1 − w1′ ) + (w2 − w2′ ) se sigue que w1 − w1′ = w2′ − w2 ∈ W2 , pero como w1 , w1′ ∈ W1 tenemos que w1 − w1′ ∈ W1 y por tanto w1 − w1′ ∈ W1 ∩ W2 = {0}, obtenemos que w1 − w1′ = 0 o equivalentemente w1 = w1′ . Similarmente se demuestra que w2 = w2′ . 116 “⇐”: Supongamos que para todo v ∈ V existen vectores u ´nicos w1 ∈ W1 y w2 ∈ W2 tal que v = w1 + w2 . Se sigue que V = W1 + W2 , ahora veamos que W1 ∩ W2 = {0}. Sea x ∈ W1 ∩ W2 , entonces x = 0 + x ∈ W1 + W2 y x = x + 0 ∈ W1 + W2 , como la expresi´ on es u ´nica se sigue que x = 0. Problemas 3.7.1. Demuestre que si T : V −→ V es una transformaci´ on lineal tal que T ◦ T = T entonces V = Im(T ) ⊕ ker(T ). 3.7.2. Exhiba un ejemplo de una transformaci´ on lineal T : V −→ V tal que ker(T ) ∩ Im(T ) 6= {0}. 3.7.3. Sean W1 y W2 subespacios de un espacio vectorial V , demuestre que V = W1 ⊕ W2 si y s´ olo si dim W1 + dim W2 = dim V y W1 ∩ W2 = {0}. 3.7.4. Demuestre que R2 = gen{(1, 0)} ⊕ gen{(1, 1)}. 3.7.5. Demuestre que el espacio de matrices n × n es la suma directa del subespacio de matrices sim´etricas y el subespacio de matrices antisim´etricas, es decir, Mn (R) ∼ = Sn (R) ⊕ An (R). (Ayuda: Use el Ejercicio 1.2.11). 3.7.6. Sean V = F(R, R) el conjunto de las funciones f de R en R, W1 = {f ∈ V : f (x) = f (−x), ∀x ∈ R} y W2 = {f ∈ V : f (−x) = −f (x), ∀x ∈ R}. Demuestre que W1 y W2 son subespacios de V y que V = W1 ⊕ W2 . 3.7.7. Muestre que todo espacio vectorial finitamente generado es una suma directa de subespacios vectoriales de dimensi´ on 1. 3.7.8. Demuestre que si W es un subespacio de un espacio vectorial V entonces existe un subespacio Z de V tal que V = W ⊕ Z 3.7.9. Demuestre que si V = W1 ⊕ · · · ⊕ Wn , entonces 1. dim V = Pn i=1 dim Wi . 2. Si v ∈ V entonces v se escribe de manera u ´nica como v = w1 + · · · + wn , con wi ∈ Wi para i = 1, . . . , n. 3.7.10. Sean H1 y H2 subespacios de un espacio vectorial V , si dim H1 = dim H2 = dim V − 1 entonces dim(H1 ∩ H2 ) = dim V − 2. Deduzca que dos planos en R3 siempre siempre tienen una intersecci´ on no trivial. 3.7.11. Sean H y K subespacios de un espacio vectorial V , si dim H = dim V −1 y KH entonces dim(H ∩K) = dim K − 1. 3.7.12. Si A, B ⊆ V son subconjuntos de un espacio vectorial V y A ∩ B = Φ muestre que L(AU B) = L(A) ⊕ L(B), donde L(A) = intersecci´ on de los subespacios que contienen a A. 3.7.13. Sean V = W1 ⊕ · · · ⊕ Wt y Bi ⊂ Wi , para i = 1, . . . , t. Considere B = B1 ∪ · · · ∪ Bt . ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 117 1. Muestre que si Bi es LI para i = 1, . . . , t, entonces B es LI. 2. Muestre que si Bi es una base para Wi para i = 1, . . . , t, entonces B es una base de V . 3.7.14. Si W1 = {A ∈ Mn (R) | aij = 0 para i ≥ j} es el conjunto de matrices estrictamente triangulares superiores y y W2 = {A ∈ Mn (R) | aij = 0 para i < j} es el conjunto de matrices triangulares inferiores entonces Mn (R) = W1 ⊕ W2 . 3.7.15. Si V y W son subespacios de Rn con dim V > n 2 y dim W > n 2 entonces V ∩ W 6= Φ. 3.7.16. Sea T : V −→ W una transformaci´ on lineal, si V = H1 ⊕ H2 y T (H1 ) ∩ T (H2 ) = {0} entonces T (V ) = T (H1 ) ⊕ T (H2 ). 3.7.17. Si T : V −→ W es un isomorfismo y V = H1 ⊕ H2 entonces W = T (H1 ) ⊕ T (H2 ). 3.7.18. Sea T : V −→ V una TL, demuestre que existe k > 0 tal que V = Im(T k ) ⊕ Ker(T k ). 3.7.19. Si T : V −→ W un isomorfismo y V = H1 ⊕ H2 entonces W = T (H1 ) ⊕ T (H2 ). 118 Cap´ıtulo 4 Ortogonalidad en Rn En este cap´ıtulo se define el producto interno usual en espacios vectoriales sobre R y se muestra como se define, a trav´es de este producto, la norma de un vector y el ´ angulo entre vectores en Rn . Esto a la vez nos permitir´ a hablar de ortogonalidad y proyecci´ on ortogonal de un vector sobre un subespacio. Se dar´ a tambi´en el m´etodo de los m´ınimos cuadrados, el cual es una aplicaci´ on de proyecci´ on ortogonal. Al final se define el concepto de base ortogonal, la importancia de estas bases y el proceso de Gramm-Schmidt, el cual es un m´etodo para calcular este tipo de bases. Se termina el cap´ıtulo con la llamada descomposici´ on QR de una matriz, la cual se obtiene a partir del proceso Gramm-Schmidt. 4.1. Producto interno en Rn Comenzamos el cap´ıtulo con la definici´ on de producto interno o producto escalar de vectores en Rn .     α1 β1      .   .  Definici´ on 4.1. Sean v =  ..  y w =  ..  vectores en Rn , definimos el producto escalar de v y w,     αn βn denotado por v · w, por la f´ ormula v · w = α1 β1 + · · · + αn βn = n X αi βi . i=1     1 −1         Ejemplo 4.1. Sean v = 2 y w = −1, entonces v · w = 1 · (−1) + 2 · (−1) + 3 · 2 = −1 − 2 + 6 = 3.     2 3     −1 1         Ejemplo 4.2. (MatLab) Sean v = 1 y w = −1. El producto escalar v · w se calcula en MatLab como se     0 1 muestra a continuaci´ on 119 120 >> v = [1; 1; 1]; w = [−1; −1; 0]; v ′ ∗ w y se tiene que v · w = −2. Observaci´ on 4.1. (Propiedades del producto escalar) Sean v, w, z ∈ Rn 1. (v + w) · z = v · z + w · z 2. v · (w + z) = v · w + v · z 3. (αv) · w = v · (αw) = αv · w 4. v · v ≥ 0 y v · v = 0 si y solo si v = 0. 5. v · w = w · v. El producto por escalar induce una geometr´ıa en Rn , ya que a partir de este, podemos definir la longitud (o norma) de un vector y la distancia entre vectores.   α1    .  Definici´ on 4.2. (Norma de un vector) Sea v =  ..  un vector en Rn , definimos la norma de x, denotada   αn por ||v||, por la f´ ormula q √ ||v|| = v · v = α12 + · · · + αn2 .  −1     a dada por Ejemplo 4.3. De acuerdo a esta f´ ormula, la norma del vector v = −1 est´   2  ||v|| = p (−1)2 + (−1)2 + 22 = √ 6. Definici´ on 4.3. (Distancia entre vectores) Sean v y w vectores en Rn , la distancia entre v y w est´ a dada por la f´ ormula ||w − v||.     1 −1         Ejemplo 4.4. Sean v = 2 y w = −1, entonces la distancia entre v y w est´ a dada por     3 2 ||w − v|| = p (−1 − 1)2 + (−1 − 2)2 + (2 − 3)2 = √ 14. Observaci´ on 4.2. Si v y w son vectores en Rn , entonces se cumple que v · w = ||v|| ||w||cosθ, donde θ es el ´ angulo formado por v y w. (4.1) ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 121 v−w v θ w b O La Ecuaci´ on (4.1) se obtiene de la siguiente forma: aplicando la ley de cosenos (en el plano generado por los vectores v y w ) obtenemos ||v − w||2 = ||v||2 + ||w||2 − 2||v||||w|| cos θ, (4.2) pero, por la definici´ on de norma y las propiedades del producto escalar tenemos ||v − w||2 = (v − w) · (v − w) = v · v − v · w − w · v + w · w = ||v||2 − 2v · w + ||w||2 . (4.3) Por tanto de las Ecuaciones (4.2) y (4.3) se tiene que v · w = ||v|| ||w||cosθ. Definici´ on 4.4. (Vectores ortogonales) Sean v, w ∈ Rn . 1. Decimos que v y w son ortogonales si v · w = 0. 2. Usando la Ecuaci´ on (4.1) definimos el ´ angulo entre v y w, esto es,   v·w −1 El ´ angulo entre v y w = cos . (4.4) ||v|| ||w||     1 1         angulo que forman v y w y determinar si son Ejemplo 4.5. Sean v = −1 y w = 1, encuentre el ´     1 2 ortogonales. Soluci´ on. El producto escalar v · w = 1 − 1 + 2 = 2, entonces los vectores no son ortogonales. El ´ angulo θ formado por v y w est´ a dado por la Ecuaci´ on (4.4), as´ı: √ !     v·w 2 2 −1 −1 −1 √ √ θ = cos = cos = cos . ||v||||w|| 3 6 3     1 1          0  0    Ejemplo 4.6. Calcular el ´ angulo formado por los vectores v =    y w =  .  1  0     0 1 √ √ on Soluci´ on N´ otese que v · w = 1 + 0 + 0 + 0 = 1, ||v|| = 2 y ||w|| = 2. Entonces de acuerdo a la Ecuaci´ (4.4) tenemos que el ´ angulo entre v y w = cos−1  v·w ||v|| ||w||  = cos−1  1 √ √ 2 2  = cos−1   1 = 60◦ . 2 122 Definici´ on 4.5. (Espacios ortogonales) Sean V y W subespacios de Rn , decimos que V y W son ortogonales si v · w = 0 para todo v ∈ V y w ∈ W .               1 −1  0                            −1 1 −1  ,   y W =   subespacios de R4 , entonces V y W son Ejemplo 4.7. Sean V = gen         −2 1   0                         0  1   1        1 0 a             −1 1  −a + b   + b  =   y todo elemento ortogonales ya que todo elemento en v ∈ V tiene la forma v = a        −2 1 −2a + b       0 1 b     −1 −c         −1 −c    w ∈ W tiene la forma w = c  umeros reales, por tanto   =  , donde a, b y c son n´  0   0     1 c v · w = −ac + (−a + b)(−c) + (−2a + b)0 + bc = −ac + ac − bc + bc = 0. Los subespacios ortogonales satisfacen lo siguiente. Lema 4.1. Sean V y W subespacios ortogonales de Rn , entonces 1. V ∩ W = {0}, 2. Si {v1 , . . . , vr } y {w1 , . . . , ws } son bases para V y W , respectivamente, entonces el conjunto {v1 , . . . , vr , w1 , . . . , ws } es linealmente independiente. Demostraci´ on. 1. Sea v ∈ V ∩ W , entonces como V y W son ortogonales se tiene que v · v = 0 y por las propiedades del producto interno se tiene que v = 0. 2. Supongamos que α1 v1 + · · · + αr vr + β1 w1 + · · · + βs ws = 0, entonces α1 v1 + · · · + αr vr = −β1 w1 − · · · −s ws ∈ V ∩ W. Por la parte 1. tenemos que α1 v1 + · · · + αr vr = 0 y por tanto α1 = · · · = αr = 0, de esto se sigue que −β1 w1 − · · · − βs ws = 0 y como {w1 , . . . , ws } es una base entonces β1 = · · · = βr = 0. El caso que estudiaremos a fondo en este cap´ıtulo es cuando los dos subespacios ortogonales son complementarios, esto lo definimos a continuaci´ on. Definici´ on 4.6. (Complemento ortogonal) Sea V un subespacio de Rn , definimos el complemento ortogonal de V, al cual denotaremos por V ⊥ , como el conjunto V ⊥ = {w ∈ Rn | v · w = 0, para todo v ∈ V }. ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 123 El siguiente teorema nos da un algoritmo para calcular la base para el complemento ortogonal de un subespacio V de Rn . Teorema 4.2. Sea A una matriz de tama˜ no m × n, entonces tenemos que: 1. F il(A)⊥ = N ul(A), 2. Col(A)⊥ = N uliz(A). Demostraci´ on. Sean F1 , . . . , Fm las filas y C1 , . . . , Cn las columnas de A. 1. Para la demostraci´ on de este ´ıtem usamos el Lema 1.9. “⊆”Sea x ∈ F il(A)⊥ , entonces v · x = 0 para todo v ∈ F il(A), en particular, 0 = Fit · x = Fi x, para i = 1, . . . , m. De donde es decir x ∈ N ul(A).       F1 F1 x 0        ..   ..   ..  Ax =  .  x =  .  =  .  ,       Fm Fm x 0  F1 x    .  “⊇”Sea x ∈ N ul(A), entonces 0 = Ax =  .. , por tanto para i = 1, . . . , m tenemos que 0 = Fi x = Fit · x.   Fm x Ahora si v ∈ F il(A), entonces v = a1 F1 + · · · + am Fm y por tanto v · x = a1 F1 · x + · · · + am Fm · x = 0 y por | {z } | {z }  tanto x ∈ F il(A)⊥ . =0 =0 2. Como Col(A) = F il(At ) por el ´ıtem 1. se sigue que Col(A)⊥ = F il(At )⊥ = N ul(At ) = N uliz(A). A continuaci´ on describimos el procedimiento para calcular el complemento ortogonal, el cual se deduce del teorema anterior. Procedimiento 4.1. (C´ alculo del complemento ortogonal). Sea {v1 , . . . , vk } una base para V , para cal- cular una base para V ⊥ hacemos lo siguiente:   vt  1 . 1. Definimos la matriz A =  ..  y de esta forma V = F il(A).   vkt 2. Sea W = N ul(A) entonces W = V ⊥ , esto por el Teorema 4.2, ya que V ⊥ = F il(A)⊥ = N ul(A) = W .           1  0                 0 0 ,  . Ejemplo 4.8. Calcular V ⊥ si V = gen         0  1              1 1  124     0 1            0 0 1 0 v1t     = Soluci´ on. Sea v1 =    y v2 =  , debemos calcular N ul(A) donde A = 1 0 0 0 v2t     1 1 est´ a en forma escalonada reducida entonces tenemos que   x  1   x2  x = −x4   ∈ N ul(A) si y solo si 1   x3  x3 = −x4   x4         −1 0 −x4 x1                  0 1 x2   x2   = x2   + x4   .   si y solo si        = −1 0 x3  −x4          1 0 x4 x4 0 1 1 1  , como A        −1  0               1  0   ,   es una base para V ⊥ . Por el procedimiento indicado arriba y el Teorema 2.16 se concluye que       0 −1              0 1  Ejemplo 4.9. (MatLab) Calcular el complemento ortogonal V ⊥ del subespacio V de R5 generado por los    2 1         −1 3         vectores v1 =  1  y v2 = 2.          0 2     1 1   v1t Soluci´ on. Sea A =  , necesitamos calcular N ul(A), lo cual hacemos en MatLab como sigue v2t >> format rat, A = [2, −1, 1, 0,1; 1, 3,2, 2,     1]; null(A)     −4/7 −2/7 −5/7                      −3/7 −4/7 −1/7                ⊥ Se obtiene que V = gen  1  ,  0  ,  0  .                        0  1 0                 1 0 0 Terminamos le secci´ on con el siguiente resultado que explica porque a V ⊥ se le llama el complemento orto- gonal de V . Corolario 4.3. Sea V ⊆ Rn un subespacio entonces Rn = V ⊕ V ⊥ . ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 125   vt  1 . Demostraci´ on. Sea {v1 , . . . , vk } una base de V , definiendo A =  .. , por el procedimiento anterior tenemos   vkt que V = F il(A) y V ⊥ = N ul(A) y por tanto dim V + dim V ⊥ = dim F il(A) + dim N ul(A) = dim Col(A) + dim N ul(A) = n = dim Rn . N´ otese adem´ as que V y V ⊥ son, por definici´on, conjuntos ortogonales y por tanto V ∩ V ⊥ = {0} (Lema 4.1), se sigue del Problema 3.7.3 que Rn = V ⊕ V ⊥ . Problemas 4.1.1. Sean v = (2, 3, −5) y w = (3, 0, 4) determine lo siguiente: a. ||v|| b. ||w|| c. v · w d. el ´ angulo formado por v y w e. la distancia entre v y w 4.1.2. Determine si el par de vectores dados es ortogonal, si no lo es, determine el ´ angulo formado por ellos. a. v = (2, −3) y w = (3, 2) b. v = (1, 4, −7) y yw(2, 3, 2) c. v = (1, 1, 1) y w = (1, 1, −1). 4.1.3. Encuentre la relaci´ on entre α y β para que los vectores v = (1, 1, 2, α) y w = (−β, 2, 3, 4) sean ortogonales. 4.1.4. Calcule una base para V ⊥ en cada uno de los siguientes casos: 1. V = gen{(1, 3, 1), (1, 1, 2)} 2. V = gen{(2, 1, 1, 0)} 3. V = gen{(1, 0, 0, 0, 1), (1, 2, 3, 4, 5)} 4.1.5. Calcule una base para V ⊥ si V = {(x, y, z, t) | x + 2y + 3z + 4t = 0}.   1 1 1 0 . 4.1.6. Calcule una base para V = F ilA donde A =  0 1 1 1 4.1.7. Sean v, w, z ∈ Rn , si se sabe que v · w = 3, v · v = 4, v · z = −1, w · w = 1 y w · z = 2, determine lo siguiente: 1. una combinaci´ on lineal de los vectores w y z que sea ortogonal a v, 2. la distancia entre los vectores v y w. 3. Explique porqu´e el ´ angulo formado por v y z es obtuso. 4. v · (−w) 5. v · (w + z) 6. (v − 2w) · (w − 3z) 7. el ´ angulo formado por v y w 4.1.8. Determine todos los vectores v ∈ Rn tal que ||v|| = α con α un real positivo. 4.1.9. Demuestre las propiedades de producto escalar enunciadas en la Observaci´ on 4.1 126 4.1.10. Determine el ´ angulo que forma el vector v = (1, 1, 1, 1) con cada uno de los vectores de la base est´ andar de R4 . 4.1.11. Sea A ∈ Mn (R) una matriz sim´estrica, demuestre que N ulA es el complemento ortogonal de ColA. 4.1.12. Demuestre que si V = {(x1 , . . . , xn ) | α1 x1 + · · · + αn xn = 0} entonces se tiene que V ⊥ = gen{(α1 , . . . , αn )}. 4.1.13. Sean v, w ∈ Rn , demuestre que v + w y v − w son ortogonales si y s´ olo si ||v|| = ||w||. Deduzca que un paralelogramo es un rombo si y s´ olo si sus diagonales son perpendiculares. 4.1.14. Sea A ∈ Mn (R), demuestre que Rm = F ilA ⊕ N ulA, deduzca que si V ⊆ Rn es un subespacio entonces Rm = V ⊕ V ⊥ . 4.1.15. Sea A ∈ Mn (R) una matriz, demuestre que v ∈ N ulA ∩ F ilA si y s´ olo si v = 0. 4.1.16. Encuentre una matriz A tal que el vector v = (1, 2, 2) pertenezca a 1. al espacio fila y el espacio columna de A, 2. al espacio nulo y el espacio columna de A. 4.1.17. Sean V, W ⊆ Rn subespacios, demuestre 1. Si V ⊆ W entonces W ⊥ ⊆ V ⊥ , 2. (V ⊥ )⊥ = V , 3. (V + W )⊥ = V ⊥ ∩ W ⊥ , 4. (V ∩ W )⊥ = V ⊥ + W ⊥ . 4.1.18. Encuentre contraejemplos que muestren que las siguientes afirmaciones son falsas 1. Si V y W son subespacios ortogonales de Rn entonces V ⊥ y W ⊥ son subespacios ortogonales. 2. Si V y W son subespacios ortogonales y W y Z son subespacios ortogonales entonces V y Z son subespacios ortogonales. 3. 4.1.19. Calcule una base de V si se sabe que {(1, 2, −1, 0), (0, 2, 1, 3)} es una base de V ⊥ 4.1.20. Demuestre que para todo v, w ∈ Rn se tiene que |v · w| ≤ ||v||||w||. (Esta desigualdad se conoce como la desigualdad de Cauchy-Schwartz.) 4.1.21. Demuestre que lo siguiente 1. v · w = 0 para todo w ∈ Rn si y s´ olo si v = 0. ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 127 2. v = w si y s´ olo si v · z = w · z para todo z ∈ Rn . 4.1.22. Demuestre que para todo v, w ∈ Rn se cumple lo siguiente 1. v · w = 14 (||v + w||2 − ||v − w||2 ), 2. v · w = 12 (||v + w||2 − ||v||2 − ||w||2 ), 3. ||v + w||2 + ||v − w||2 = 2||v||2 + 2||w||2 . (Esta igualdad es conocida como la Ley del paralelogramo.) 4.1.23. Un vector u ∈ Rn se llama si ||u|| = 1. Demuestre que si w ∈ Rn el vector u = 1 ||w|| w es unitario. Muestre adem´ as que si u y w son vectores LD con u unitario (esto es equivalente a decir que u y w est´ an en la l´ınea ) entonces w = ±||w||u. (El caso positivo se da cuando los vectores tienen la misma direcci´ on). 4.2. Proyecci´ on Ortogonal sobre un Vector En esta secci´ on se muestra como calcular la proyecci´ on ortogonal de un vector sobre otro, la f´ ormula que se obtiene se verifica f´ acilmente. Usaremos la f´ ormula obtenida para generalizarla obteniendo la f´ ormula de la proyecci´ on de un vector en un subespacio. Definici´ on 4.7. Sean v y w vectores en Rn , la perpendicular desde el extremo del vector v a la l´ınea que contiene a w determina un punto sobre esta l´ınea, el vector que va desde el origen hasta este punto es llamado la proyecci´ on ortogonal de v sobre w, denotado por proyw v. v θ v w v b O w θ b O θ p = proyw v b w p = proyw v p = proyw v O N´ otese que el vector proyw v es el m´ ultiplo de w m´ as cercano a v. La siguiente proposici´ on proporciona una f´ ormula para calcular la proyecci´ on ortogonal de un vector sobre otro. Proposici´ on 4.4. Sean v y w vectores en Rn , la proyecci´ on ortogonal del vector v sobre el vector w est´ a dada por proyw v = v·w w. w·w Demostraci´ on. Sea p = proyw v, θ el ´ angulo formado entre v y w y u un vector unitario en la direcci´on de w 128 b B v w θ b 1 ||w|| w P p = proyw v u O Se sigue que p = ||p||u y u = b (Problema 4.1.23 ) y por tanto p= ||p|| w. ||w|| (4.5) Como el tri´angulo ∆OBP en la figura anterior es un tri´angulo rect´angulo, tenemos que cos θ = de la Observaci´ on 4.2 se sigue que v·w ||w|| ||p|| ||v|| . Adem´ as, = ||v|| cos θ. Por tanto ||p|| = v·w . ||w|| (4.6) De las Ecuaciones (4.5) y (4.6) se sigue que p= v·w v·w w= w. 2 ||w|| w·w Ejemplo 4.10. Sean v = (1, 0, 1, −1) y w = (2, 2, 1, 0), se sigue que v · w = 3 y w · w = 9. Por tanto proyw v = 39 w = 13 w = (2/3, 2/3, 2/3, 0). 4.2.1. La matriz proyecci´ on. La u ´ltima f´ ormula se puede expresar matricialmente de la siguiente forma: N´ otese que wwt es una matriz y a la matriz P = 1 wwt wt w wt v 1 v·w w = t w = t wwt v. w·w ww ww (4.7) se le llama la matriz de la proyecci´ on sobre w y tiene la propiedad que para todo v ∈ Rn , P v = proyw v.     1 1         Ejemplo 4.11. Sean v = 1 y w = 0, calcular la matriz que proyecta sobre w y usarla para calcular     2 1 proyw v.   1 0 2     Soluci´ on. N´ otese que w w = w · w = 5 y ww = 0 0 0   2 0 4 matriz  1 0 1  P = 0 0 5 2 0 t t por tanto la matriz de la proyecci´ on sobre w es la  2   0 .  4 ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN Ahora, proyw v = P v = 1 5  1 0   0 0  2 0   1 2     0 1 =   1 4 "7# Ejemplo 4.12. (MatLab)Sean a = proyw v del vector v sobre w. 7 7 7 7   3   1   0 . 5    6 " −2 # yb= −1 1 0 1 129 , calcule la matriz que proyecta sobre w y la proyecci´ on Soluci´ on. La matriz de que proyecta sobre w est´ a dada por P = 1 wwt . Esto lo podemos calcular con MatLab wt w como sigue >> format rat, w = [−2; −1; 1; 0; 1]; P = inv(w′ ∗ w) ∗ (w ∗ w′ ) as´ı la matriz de la proyecci´ on est´ a dada por  P =  4/7 2/7 −2/7 0 −2/7 2/7 1/7 −1/7 0 −1/7 −2/7 −1/7 1/7 0 1/7  0 0 0 0 0 −2/7 −1/7 1/7 0 1/7 Para calcular la proyecci´ on del vector v sobre w, proyw v, seguimos los comandos en MatLab >> v = [7; 7; 7; 7; 7]; P ∗ v Se obtiene que proyw v = −w. La matriz de la proyecci´ on satisface las siguientes condiciones. Teorema 4.5. Sea w ∈ Rn y P = 1 on, entonces para todo v ∈ Rn tenemos lo wwt la matriz proyecci´ wt w siguiente 1. P v = proyw v ∈ gen{b}, 2. v − P v ⊥ w, 3. P P v = P v, en general P 2 = P , 4. si v ∈ gen{w} entonces P v = v, 5. v ⊥ w si y solo si P v = 0. Demostraci´ on. Se deja como ejercicio. Problemas 4.2.1. Sean v = (2, 3, −5) y w = (3, 0, 4) calcule lo siguiente: a. proyw v b. proyw v c. la matriz de la proyecci´ on sobre w y d. la matriz de la proyecci´ on sobre v 4.2.2. Repita el problema anterior si v = (0, 1, 2, 3, 2, 1, 0) y w = (−3, −2, −1, 0, 1, 2, 3). (Use Matlab). 4.2.3. Determine el m´ ultiplo del vector v = (2, 2, 1) m´ as cercano al vector w = (1, 1, 1). 130 4.2.4. Si v y w son vectores en Rn tal que v · w = 4, w · w = 2 y v · v = 1, determine los vectores proyw v y proyv w en t´erminos de w y v respectivamente. 4.2.5. Encuentre la matriz de la proyecci´ on sobre la l´ınea x + y = 0 en R2 . 4.2.6. Demuestre el Teorema 4.5. 4.2.7. Sea v = (1, 2, 2, 3), si sabe que la proyecci´ on proyw v de v sobre un vetor w est´ a dada por proyw v = (2, 2, 2, 2) y ||w|| = 2, determine el vector w. 4.2.8. Demuestre que la proyecci´ on proyw v es independiente del vector escogido en gen{w}. Es decir, proyαw v = proyw v, para todo α ∈ R. 4.2.9. Demuestre que si Pv es la matriz que proyecta sobre un vector v ∈ Rn entonces rangoPv = 1. (Este es un caso particular del Problema 1.2.14). 4.3. Proyecci´ on Ortogonal sobre un Subespacio El principal objetivo de la secci´ on es extender el concepto de proyecci´ on sobre un vector, al de proyecci´ on sobre un subespacio (ver figura abajo) y construir una matriz P que al multiplicarla por un vector x, el resultado P x es el vector proyecci´ on. De hecho, esta matriz ser´ a obtenida generalizando la matriz dada por la Ecuaci´ on (4.7) y la definiremos como sigue. h Sea {v1 , . . . , vk } una base para un subespacio H de Rn y sea A = v1 matriz ··· i vk , vamos a demostrar que la P = A(At A)−1 At (4.8) satisface las condiciones de la matriz proyecci´ on enunciadas en el Teorema 4.5. v H p = proyH v b O Proyecci´ on de v sobre H N´ otese que la F´ ormula (4.7) la podemos escribir en la forma: P = 1 vv t = v(v t v)−1 v t , vt v ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 131 de esta manera se ve que en realidad que (4.8) es simplemente una generalizaci´ on de (4.7). Ahora vamos a demostrar que la matriz definida en (4.8) determina la proyecci´ on sobre el subespacio H. Para esto necesitaremos los siguientes lemas preliminares. Lema 4.6. Sea A una matriz, entonces N ul(A) = N ul(At A). Demostraci´ on. “⊆ ” Sea x ∈ N ul(A), entonces Ax = 0 y por tanto At Ax = At 0 = 0. Concluimos que x ∈ N ul(At A). “⊇ ” Sea x ∈ N ul(At A), entonces At Ax = 0, y multiplicando a la izquierda por xt tenemos que xt At Ax = xt 0 = 0, por tanto 0 = xt 0 = xt At Ax = (Ax)t Ax = Ax · Ax = ||Ax||2 , de donde ||Ax|| = 0, pero por las propiedades del producto escalar, esto implica que Ax = 0 y por tanto x ∈ N ul(A). h Lema 4.7. Sea A = v1 ··· dientes entonces i vk una matriz donde {v1 , . . . , vk } son las columnas y son linealmente indepen- 1. At A es invertible. 2. La matriz (At A)−1 At es una inversa a la izquierda de A. Demostraci´ on. 1. Como las columnas de A son linealmente independientes entonces rango(A) = k, as´ı por el Teorema 2.16 se tiene que N ul(A) = {0}, entonces por el lema anterior N ul(At A) = N ul(A) = {0} de donde rango(At A) = n´ umero de columnas de (At A), pero (At A) es una matriz cuadrada, entonces rango(At A) = n´ umero de columnas de (At A) = n´ umero de filas de (At A), y por el Corolario 1.22, At A es invertible. 2. Como (At A)−1 At A = I entonces (At A)−1 At es una inversa a la izquierda de A.   1 0     Ejemplo 4.13. Calcular una inversa a la izquierda de la matriz A = 1 1.   1 2 Soluci´ on. Observe que los vectores columna de la matriz A son linealmente independientes. Comencemos calculando At A y su inversa.  At A =  1 1 0 1   1 1   1 2  1   0  3  1 =   3 2    3 5 −3 1  y por tanto (At A)−1 =  . 6 5 −3 3 Por el Lema 4.7 resta calcular (At A)−1 At , esto es,   1 5 −3 1  L = (At A)−1 At =  6 −3 0 3   5 1 =  6 −3 1 2 1 1  2 −1 . 0 3 132 El lector puede verificar f´ acilmente que LA = I. Ejemplo 4.14. (MatLab) Usar MatLab para calcular la inversa a la izquierda de la matriz A = "1 2 1 2 1 −1 2 1 1 3 2 2 1 2 2 1 1 1 3 2 # . Soluci´ on. Usamos MatLab para calcular la inversa a la izquierda con la f´ ormula dada en el Teorema 4.7, como sigue >> format rat; A = [1, 2, 1, 2; 1, −1, 2, 1; 1, 3, 2, 2; 1, 2, 2, 1; 1, 1, 3, 2]; L = inv(A′ ∗ A) ∗ A′ la inversa a la izquierda de A est´ a dada por " 2/3 L= 1 −1/3 1 −1/12 −1/4 1/6 1/4 −13/24 −1/8 1/12 1/8 11/24 −1/8 1/12 −7/8 −4/3 −1/12 11/24 11/24 # . El siguiente resultado es el caso dual del lema anterior, m´ as espec´ıficamente, el caso en que las filas de la matriz son LI. Corolario 4.8. Sea A una matriz cuyas filas son linealmente independientes, entonces se tiene que 1. AAt es invertible, 2. La matriz At (AAt )−1 es una inversa a la derecha de A. Demostraci´ on. Como las filas de A son linealmentes entonces las columnas de At son linealmente independientes, usando el Lema 4.7 tenemos que (At )t At = AAt es invertible y por tanto (AAt )−1 existe y adem´ as como AAt (AAt )−1 = I, es decir, la matriz At (AAt )−1 es una inversa a la derecha de A.   1 1 1 , calcular una inversa a la derecha de A. Ejemplo 4.15. Sea A =  0 1 1 Soluci´ on: Es f´ acil ver que las filas de A son linealmente independientes. Primero calculamos AAt y su inversa    1 0        1 1 1 3 2 2 −2 1    de donde (AAt )−1 =  . AAt =   1 1 =  2 −2   0 1 1 2 2 3 1 1 Ahora calculamos la inversa a la derecha At (AAt )−1    1 0  1 2   R = At (AAt )−1 = 1 1    2 −2 1 1 Nuevamente se deja al lector verificar que AR = I.    2 −2   −2  = 1 0 1 . 2  3 0 1 Ahora usamos los resultados obtenidos en esta secci´ on para construir la matriz proyecci´ on de un vector sobre un subespacio dado. h Teorema 4.9. Sean H un subespacio de Rn , {h1 , . . . , hk } una base para H y A = h1 P = A(At A)−1 At entonces para todo v ∈ Rn se tiene lo siguiente ··· i hk . Si definimos ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 133 1. P v ∈ H, 2. v − P v ∈ H ⊥ , 3. P 2 = P , 4. v ∈ H si y s´ olo si P v = v, 5. v ∈ H ⊥ si y s´ olo si P v = 0. Demostraci´ on. Primero observese que H = Col(A) y que si x ∈ Rk , entonces Ax ∈ Col(A) = H, esto ya que   x1    ..  si x =  .  entonces   xk   x1 h i   ..  (4.9) Ax = h1 · · · hk  .  = x1 h1 + · · · + xk hk ∈ Col(A) = H.   xk M´as a´ un, si h ∈ H, entonces h = x1 h1 + · · · + xk hk y por la Ecuaci´ on (4.9) h = Ax. 1. P v = A (At A)−1 At v = Av ′ ∈ Col(A) = H. | {z } v′ 2. Debemos demostrar que si h ∈ H entonces h · (v − P v) = 0. Sea h ∈ H, entonces existe x tal que h = Ax y por tanto h · (v − P v) = Ax · (v − P v) = Ax · v − Ax · P v = (Ax)t v − (Ax)t P v = xt At v − xt At P v = xt At v − xt At A(At A)−1 At v | {z } I t t t t = x A v − x A v = 0. 3. P 2 = P P = A (At A)−1 At A(At A)−1 At = A(At A)−1 At = P . {z } | I 4. Sea v ∈ H, entonces existe x tal que v = Ax y por tanto P v = P Ax = A (At A)−1 At A x = Ax = v. | {z } I Para la otra implicaci´ on si v = P v, por el numeral 1. tenemos P v ∈ H, por tanto v = P v ∈ H. 5. ”⇒”Supongamos que v ∈ H ⊥ , entonces v · h = 0, para todo h ∈ H, en particular v · hi = 0 para i = 1, . . . , k. Entonces tenemos que         ht1 ht1 v h1 · v 0          ..   ..   ..   ..  t A v =  .  v =  .  =  .  = . ,         htk htk v hk · v 0 134 y por tanto P v = A(At A)−1 |{z} At v = A(At A)−1 0 = 0. =0 t ”⇐”Supongamos que P v = 0, entonces A(A A) −1 t A v = 0, multiplicando esta ecuaci´on a ambos lados por At obtenemos At 0 = At A(At A)−1 Av = IAt v = At v. |{z} | {z } =0   =I ht  1 . Como At =  ..  tenemos que 0 = hti v = hi · v, para i = 1, . . . , k. Por tanto v ∈ H ⊥ .   htk Estas propiedades demuestran que P v satisface las condiciones del vector proyecci´ on de v sobre H. h Definici´ on 4.8. Sean H un subespacio de Rn , {v1 , . . . , vk } una base para H, A = v1 Definimos la proyecci´ on de v sobre H, denotada por proyH v, como el vector: ··· proyH v = P v, donde P es la matriz P = A(At A)−1 At .           1 0  1                Ejemplo 4.16. Sean v = 1 y H = gen 1 , 1 , calcular el vector proyH v.             0 3 1    1 0     Soluci´ on. Sea A = 1 1, entonces proyH v = A(At A)−1 At v.   0 1  At A =  1 0      1 0   2 1 1 0  2 1   de donde (At A)−1 =    1 1 =  3 −1  1 2 1 1  0 1  Finalmente tenemos 1   A(At A)−1 = 1  0   0 1   2 1  3 −1 1    2 −1   −1  = 1  1 1 . 3   2 −1 2  −1   1 1   proyH v = A(At A)−1 At b =  1 1  3  0 −1 2  2  −1 , 2        1 0 0  1    1 0        1 = 6 = 2 , 1 1   3    3 2 6 i vk y v ∈ Rn . ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 135   0     entonces proyH v = 2 .   2 Ejemplo 4.17. matriz que sobre el subespacio H de R6 generado por los    2proyecta la1    2Calcular  1 (MatLab) 11 1 vectores v1 =  11 , v2 =  1 0 −1 3 , 1 1 1 2 1 3 0 2 1 v3 =  21  y v4 =  21 . Si b = 11e1 =  0 0 0 0 0  calcular proyH b. Soluci´ on. La matriz de la proyecci´ on est´ a dada por P = A(At A)−1 At , usamos el siguiente comando en MatLab >> A = [1, 2, 1, 2; 1, −1, 2, 1; 1, 3, 2, 2; 1, 1, 1, 1; 1, 1, 3, 2; 0, 1, 0, 1]; P = A ∗ inv(A′ ∗ A) ∗ A′ obtenemos que la matriz de la proyecci´ on est´ a dada por P = proyH   =   7/11 1/11 1/11 3/11 −1/11 4/11 1/11 8/11 −3/11 2/11 3/11 −1/11 1/11 −3/11 8/11 2/11 3/11 −1/11   3/11 2/11 2/11 6/11 −2/11 −3/11  −1/11 3/11 3/11 −2/11 8/11 1/11 4/11 −1/11 −1/11 −3/11 1/11 7/11  7 1 1 3 8 −3 2 1  11 −3 8 2 = 3 2 2 6 11 −1 3 3 −2 −1 4  3 −1 3 −1  −2 −3 . 8 1 4 −1 −1 −3 1 7 La proyecci´ on del vector b sobre H est´ a dado por proyH b = P b, as´ı que en MatLab hacemos lo siguiente >> b = [11; 0; 0; 0; 0; 0]; P ∗ b  y obtenemos que proyH b =   7 1 1 3 . −1 4 Terminamos la secci´ on con la siguiente observaci´ on. Observaci´ on 4.3. Por el Corolario 4.3, si H es un subespacio de Rn entonces Rn = H ⊕ H ⊥ . Por tanto todo vector v ∈ R se puede descomponer como una suma de un vector en H y un vector en H ⊥ . Esto se logra de la siguiente forma. Sea v ∈ Rn y P la matriz que proyecta sobre H, entonces por el Teorema 4.9 se tiene que P v ∈ H y v−P v ∈ H ⊥ . Por tanto v = |{z} Pv +v − Pv | {z } ∈H ∈H ⊥ es la descomposici´ on de un vector como suma de un vector en H y un vector perpendicular a H. N´ otese que, por el Teorema 3.26, esta descomposici´ on es u ´nica .  Ejemplo 4.18. En el ejemplo anterior, H = gen{v1 , v2 , v3 , v4 } ⊆ R6 y x = 11e1 , como proyH x =  entonces podemos descomponer a x como la suma de vectores  x = proyH x + (x − proyH x) =  | {z } | {z } ∈H ∈H ⊥ Problemas  7 1 1 3 −1 4  + 4 −1 −1  −3 . 1 −4  7 1 1 3 , −1 4 136  1   4.3.1. Sea A =  1  −2 b sobre H.   1       on de −1, b = 0 y H = ColA. Calcule la matriz que proyecta sobre H y la proyecci´    1 4 1  4.3.2. Sea V = gen{(1, 2, 0, 0), (1, 0, 1, 0)}, calcule la matriz que proyecta sobre V y el vector en V m´ as cercano al vector v = (2, 1, 0, −1). 4.3.3. Sea V = gen{(1, 1, 0, 1), (0, 0, 1, 0)}, calcule la matriz que proyecta sobre V ⊥ y la proyecci´ on del vector v = (2, 1, 0, −1) sobre V ⊥ . "1 1 1 1# 4.3.4. Sean A = 1 1 1 0 1 2 0 1 1 3 0 1 2 4 0 0 yB= 1 1 1 1 1 1 1 0 2 1 1 1 0 3 2 1 1 0 4 3 . Use MatLab para calcular lo siguiente 1. una inversa a la izquierda de la matriz A, 2. una inversa a la derecha de la matriz B, 3. las matrices que proyectan sobre ColA y ColB, 4. la proyecci´ on del vector v = (1, 2, 3, 2, 1) sobre ColA, 5. la proyecci´ on del vector w = (1, 2, 2, 1) sobre ColB.  0   4.3.5. Sea A una matriz 4×3, se sabe que At A =  1  −1 1 −1    0 , determine N ulA y F ilA.  0 0 0 4.3.6. Sea W ⊆ Rn un subespacio y sean P1 , P2 las matrices que proyectan sobre W y sobre W ⊥ , respectivamente. Demuestre que P1 + P2 = I y que P1 P2 = 0. 4.3.7. Si P = P t P muestre que P es una matriz proyecci´ on, es decir, P 2 = P . 4.3.8. Sea H ⊆ Rn y P la matriz que proyecta sobre H, demuestre lo siguiente 1. ColP = H y rangoP = dim H. 2. N ulP = H ⊥ . (Recuerde que P es sim´etrica.) Use lo anterior para calcular bases para H y H ⊥ si P = 1 3  2 1    1 2  −1 1  −1   1 .  2 4.3.9. Sea H ⊆ Rn un subespacio y sea P la matriz que proyecta sobre H, demuestre que H = {v ∈ Rn | P v = v}. En general, muestre que si P ∈ Rn es una matriz proyecci´ on, es decir, P 2 = P entonces ColP = {v ∈ Rn | P v = v}. ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 137 4.3.10. Sea H un subespacio vectorial de Rn y P es la matriz que proyecta sobre H. Viendo a P como aplicaci´ on lineal P : Rn −→ Rn , demuestre que P/H = IdH donde P/H : H −→ H es la restricci´ on de P a H. v 7→ P v Demuestre tambi´en que P/H ⊥ ≡ 0. 4.3.11. Sea H ⊆ Rn un subespacio y w ∈ Rn , definimos el conjunto w + H como w + H = {w + h | h ∈ H}. Sean v ∈ Rn y w ∈ H, demuestre que proyH v = w si y s´ olo si v ∈ w + H ⊥ . 4.4. M´ınimos Cuadrados El m´etodo de los m´ınimos cuadrados consiste en encontrar una soluci´ on “´ optima” a un sistema que no tiene soluci´ on. La idea es la siguiente. Dado un sistema de ecuaciones Ax = b, sabemos que el sistema tiene soluci´ on si y solo si b ∈ Col(A), esto ya que h b = Ax = C1 ···   x1 i   .  Cn  ..  = x1 C1 + · · · + xn Cn ∈ gen{C1 , . . . , Cn } = Col(A),   xn donde C1 , . . . , Cn son las columnas de A. De esto se deduce que si el sistema Ax = b es inconsistente, entonces b ∈ / Col(A) y el vector m´ as cercano a b que pertence a Col(A) es el vector proyCol(A) b = A(At A)−1 At b. Como el sistema Ax = b es inconsistente, lo reemplazamos por el sistema consistente Aˆ x = proyCol(A) b = A(At A)−1 At b. Este u ´ltimo sistema tiene soluci´ on dada por x ˆ = (At A)−1 At b. A esta soluci´ on la llamamos la soluci´ on de los m´ınimos cuadrados. Definici´ on 4.9. Sea A una matriz cuyas columnas son linealmente independientes y b ∈ Rn , si el sistema Ax = b es inconsistente entonces la soluci´ on de los m´ınimos cuadrados al sistema est´ a dada por −1 t A b. x ˆ = At A Esta soluci´ on al sistema Ax = b “es la mejor” en el sentido que ´este se reemplaza por el sistema Ax = ¯b donde ¯b = proyColA b es el vector m´ as cercano a b para el cual el sistema Ax = ¯b si tiene soluci´ on.     1 2 1         acilmente que el Ejemplo 4.19. Considere el sistema Ax = b donde A = −1 1 y b = 2. Se verifica f´     0 1 1 sistema es inconsistente (usar el Teorema 1.2). Como las columnas de A son LI, se puede usar el m´etodo de los m´ınimos cuadrados para calcular la “mejor soluci´ on”. Esta est´ a dada por x ˆ = (At A) a continuaci´ on. −1 At b, y la calculamos 138  At A =  da por 2 1      2 1  6 2 −1 1     de donde (At A)−1 =  −1 1 =   2 3 1 1  1 1   −1 t 1  3 −2 2 x ˆ = At A Ab= 14 −2 1 6 1 14   3 −2  −2  entonces la mejor soluci´ on est´ a da6    1    −1 1  −6 1    . 2 = 1 1   14 18 0 Otra aplicaci´ on de los m´ınimos cuadrados es la de ajustar datos encontrados en observaciones, que se esperan se ajusten a una linea pero sin embargo los puntos obtenidos experimentalmente no son colineales. Supongamos que los valores observados son (x1 , y1 ), (x2 , y2 ), . . . , (xn , yn ) y supongamos que los datos deben satisfacer la ecuaci´ on y = mx + b, esto es, y1 = mx1 + b y2 = mx2 + b .. . yn = mxn + b    x1 1   y1     ..  m .  . , como los puntos (x1 , y1 ), . . . , (xn , yn ) Esto lo podemos escribir matricialmente en la forma  ..  =  ..  .  b    xn 1 yn no todos satisfacen la ecuaci´ on y = mx + b, el sistema es inconsistente. Usando la soluci´ on de los m´ınimos cua drados obtenemos que la mejor soluci´ on al sistema esta dado por  x1   .. donde A =  .  xn    y1 1    ..   ..  y y =  . . .    1 yn −1 t x ˆ = At A A y, Ejemplo 4.20. Supongamos que los valores observados son (−2, 0), (1, 0) y (2, 3), es f´ acil ver que estos valores no pertecen son colineales. Los valores m y b de la linea y = mx  + b que mejor an dados   se ajusta a los datos est´   −2 1 0     m     −1 ˆ = (At A) At y con A =  1 1 y y = 0. en el vector x ˆ =   donde x     b 2 1 3        −2 1    9 1 3 −1 −2 1 2   , entonces se tiene que (At A)−1 = 1  , y por   1 1 =  N´ otese que At A =  26  1 3 −1 9 1 1 1  2 1 ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN tanto x ˆ = (At A)−1 At y = De aqu´ı tenemos que m = y= 15 26 x + 15 26 y b=   1  3 −1 −2 26 −1 1 9 21 26 139    0      15 1 2  15 1     =  26  .  0 = 21 1 1   26 21 26 3 y por tanto la ecuaci´ on de la linea que mejor se ajusta a los datos es 21 26 . Los m´ınimos cuadrados tambi´en se pueden usar para calcular ecuaciones polin´ omicas de cualquier grado (en general cualquier funci´ on) que mejor se ajusten a ciertos datos, generalizando el ejemplo anterior que se hizo para lineas. Esto lo ilustramos a contiuaci´ on. Ejemplo 4.21. (MatLab) Un experimeto arroj´ o los puntos (−1, 2), (1, 0), (3, 1) y (2, −1), si se espera que estos puntos est´en sobre una par´ abola y = ax2 + bx + c, calcule la ecuaci´ on de la par´ abola que mejor se ajuste a los datos. Soluci´ on. Como se espera que los puntos satisfagan la ecuaci´ on y = ax2 + bx + c, evaluando esta en los puntos obtenemos 2=a−b+c 0=a+b+c 1 = 9a + 3b + c −1 = 4a + 2b + c     1 −1 1   2   a        1 1 1    0    b  =  , el cual es inconsistente (ver Teorema Estas ecuaciones son equivalentes al sistema      9 3 1    1    c   4 2 1 −1 1.2), por tanto, usando MatLab para calcular la soluci´ on de losm´ınimos cuadrados   para  obtener los coeficientes 1 −1 1 2         1  0 1 1  y v =  , obtenemos a, b y c, los cuales estan dados por x ˆ = (At A)−1 At v con A =      9  1 3 1     4 2 1 −1 ′ ′ >> A = [1,−1, 1; 1, 1, 1; 9, ˆ = inv(A ∗ A) ∗ A ∗ v  3, 1; 4, 2, 1]; v = [2; 0; 1; −1]; x 21/44     on que mejor se ajusta a los datos es as´ı x ˆ =  −283/220  . De este resultado obtenemos que la ecuaci´   7/22 y= 7 21 2 283 x − x+ 44 220 22 ⇔ 220y = 105x2 − 283x + 70. El siguiente ejemplo muestra como este m´etodo se puede usar en problemas del d´ıa a d´ıa. 140 Ejemplo 4.22. La demanda d de un art´ıculo en venta depende del precio p del mismo. En un concesionario de motocicletas se observo lo siguiente: Si el precio por unidad es $3 millones se venden 5 motos en un d´ıa. Si el precio se incrementa a $3.5 millones se venden 4 motos en d´ıa y cuando el precio se incrementa a $4 millones, se venden solo 2 motos en el d´ıa. Asumiendo que la relaci´ on entre precio y demanda es lineal, d = pm + b, determine la ecuaci´ on que mejor se ajusta a estos datos. Determine cuantas motos se vender´ıan en un d´ıa si se fija el precio en $2.7 millones. Soluci´ on. De acuerdo a los datos tenemos el sistema 5 = 3m + b 4 = 3,5m + b 2 = 4m + b donde el precio est´ a dado en millones.      5 1     m       y v = 4. Se verifica Escrito matricialmente tenemos la ecuaci´ on Ax = v con A = 3,5 1, x =     b 2 4 1 que el sistema es inconsitente. La soluci´ on de los m´ınimos cuadrados est´ a dada por   −3 . x ˆ = (At A)−1 At v =  14,16  3 Se sigue que la ecuaci´ on que mejor se ajusta a los datos es d = −3p + 14,16. Si se fija el precio en $2.7 millones, se obtiene una demanda diaria d = −3 ∗ 2,7 + 14,16 = 6,06, es decir, se espera vender unas 6 motos por ese precio. La interpretaci´ on de la pendiente es el crecimiento de la demanda por cada incremento de un mill´ on en el precio (ya que d′ (p) = m esta es la raz´ on de cambio de la demanda con relaci´ on al precio). En este caso, como m = −3, quiere decir que por cada incremento de un mill´ on en el precio, la demanda disminuye en 3. El siguiente ejemplo muestra que, incluso en algunos casos, se puede hasta encontrar curvas no polin´ omicas que se ajusten a un sistema de datos. Ejemplo 4.23. Encuentre la curva exponencial y = aecx que mejor se ajuste a los puntos (1, 1), (2, 8) y (3, 8). Soluci´ on. La curva la podemos “linearizar” aplicando logaritmo a ambos lados ln y = ln(becx ) = ln b + cx |{z} ln e = ln b + cx. =1 Por tanto reemplazando los datos en esta ecuaci´ on obtenemos el sistema    1 0 0 = ln 1 = ln b + c       ln 8 = ln b + 2c equivalente al sistema ln 8 = 1    1 ln 8 ln 8 = ln b + 3c  1    ln b  2   .  c 3 ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 141 Este sistema los m´ınimos cuadrados est´ a dada por x ˆ = (At A)−1 At v donde    on de  es inconsistente yla soluci´     0 0 1 1       4/3 1/3 −2/3 ln b       , por tanto otese que (At A)−1 At =  ˆ =   y v = ln 8 = ln 2 3. N´ A = 1 2, x       −1/2 0 1/2 c 3 ln 8 1 3  x ˆ = ln 2  4/3 −1/2 1/3 0       0     − ln 2 −1 −2/3  ln(1/2)  =  . = 3 = ln 2  3 ln 2   3/2 1/2 1,04 2 3 Se sigue que ln b = ln(1/2), lo que implica que b = 1/2, y c ≈ 1,04. Concluimos que la ecuaci´ on de la “mejor” curva est´ a dada por y= 1 1,04x e . 2 Problemas Ejemplo 4.24. Use m´ınimos cuadrados para calcular la “mejor” soluci´ on al sistema     1 1 0     3x = 10     b. Ax = v si A = 0 1 y v = 1 . a.     4x = 5 0 1 1 4.4.1. Determine la ecuaci´ on que mejor se ajusta a los puntos (1, 1), (2, 4), (3, 8) y (4, 8) si la relaci´ on es 1. lineal (y = mx + b), 2. cuadr´ atica (y = ax2 + bx + c), 3. exponencial (y = aebx ). 4.4.2. Si en el Ejemplo 4.22 se sabe adem´ as que por el precio de $4.5 millones no se logr´ o ninguna venta, determine 1. la ecuaci´ on lineal d = mp + b que mejor se ajusta a los datos. 2. la ecuaci´ on cuadr´ atica d = ap2 + bp + c que mejor se ajusta a los datos y en este caso determine la m´ axima demanda posible. 4.4.3. En una plaza de mercado se ha observado que la demanda de naranja se comporta de acuerdo a la siguiente tabla precio 500 1000 1500 2000 3000 demanda 600 450 400 300 100 donde el precio est´ a dado en pesos y la demanda en toneladas. Use MatLab para determinar la ecuaci´ on que mejor se ajusta a los datos si la relaci´ on entre las variables es 142 1. lineal ( d = mp + b). 2. Cuadr´ atica (d = ap2 + bp + c). 3. C´ ubica (d = ap3 + bp2 + cp + d). 4. Exponencial (d = aebp ). 4.4.4. La poblaci´ on P de un peque˜ no poblado se est´ a reduciendo de forma exponencial P = aebt , la tabla de poblaci´ on es como sigue: a˜ no 2004 2009 2011 2014 habitantes 5mil 4.5mil 4mil 3.8mil Usar m´ınimos cuadrados para responder lo siguiente: 1. Una ecuaci´ on que modele la cantidad de habitantes con respecto al tiempo. 2. La cantidad de habitantes en el a˜ no 2020. 3. El a˜ no en el cual se espera que la poblaci´ on se reducir´ıa a 2500 habitantes. 4.5. El Proceso Gramm-Schmidt El objetivo de esta secci´ on es introducir los conceptos de base ortogonal y base ortonormal y mostrar que es posible construir, a partir de cualquier base para un subespacio de Rn , una base ortonormal para ´este. Este proceso es conocido como el proceso Gramm-Schmidt. Tambi´enn veremos las ventajas que se obtienen de tener una base ortogonal u ortonormal, las cuales permite calcular proyecciones de manera sencilla. Comenzamos con las definiciones de conjunto ortogonal, conjunto ortonormal, base ortogonal y base ortonormal. Definici´ on 4.10. Sean v1 , . . . , vk vectores en Rn , 1. decimos que {v1 , . . . , vk } es un conjunto ortogonal si los vectores v1 , . . . , vk son ortogonales entre s´ı, es decir, si vi · vj = 0 para 1 ≤ i 6= j ≤ k, 2. decimos que {v1 , . . . , vk } es una conjunto ortonormal, si es un conjunto ortogonal y ||vi || = 1 para i = 1, . . . , k, 3. si {v1 , . . . , vk } es una base de Rn y si es un conjunto ortogonal (ortonormal), decimos que {v1 , . . . , vk } es una base ortogonal (ortonormal) de Rn .     0 1             Ejemplo 4.25. El conjunto {v1 , v2 , v3 } donde v1 = −1 , v2 = 1 y v3 = 0 es un conjunto ortogonal de       1 0 0       0 1 1             R3 y los vectores w1 = √12 −1 , w2 = √12 1 y w3 = 0 forman una conjunto ortonormal de R3 .       1 0 0  1  ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 143 Observaci´ on 4.4. Si {v1 , . . . , vk } es un conjunto ortogonal, a partir de ´este podemos formar un conjunto ortonormal. Basta con definir wi = 1 ||vi || vi , para i = 1, . . . , k, de lo cual se sigue que el conjunto {w1 , . . . , wk } es un conjunto ortonormal. Al vector wi se le llama la normaliazci´ on del vector vi , esto hace referencia al hecho que wi es un vector normal o unitario (de norma 1) en la misma l´ınea que contiene a vi y con la misma direcci´ on. Esto ya que para i 6= j se tiene que wi · wj = Adem´ as w i · w i =  1 ||vi || vi    · ||v1j || vj =  1 ||vi ||2 1 ||vi || vi    · ||v1j || vj = vi · vi = 1. | {z } 1 ||vi || ||vj || vi · vj . | {z } =0 =||vi ||2 De hecho, el conjunto ortonormal {w1 , w2 , w3 } del ejemplo anterior se construy´ o a partir del conjunto ortogonal {v1 , v2 , v3 } normalizando cada uno de estos vectores. En realidad se puede verificar que los conjuntos {v1 , v2 , v3 } y w1 , w2 , w3 } son bases para R3 . Esto no es casualidad, en general se demuestra que un conjunto orrtogonal es LI. Lema 4.10. Sea {v1 , . . . , vk } ⊆ Rn un conjunto ortogonal con vi 6= 0 i = 1, . . . , k. Entonces el conjunto {v1 , . . . , vk } es LI. Demostraci´ on. Supongamos que el conjunto {v1 , . . . , vk } es ortogonal y supongamos que α1 v1 + · · · + αk vk = 0. (4.10) Multiplicando a ambos lados de la Ecuaci´ on (4.10) por vi tenemos: 0 = vi · 0 = vi · (α1 v1 + · · · + αk vk ) = α1 v i · v 1 + · · · + αi v i · v i + · · · + αk v i · v k = αi v i · v i | {z } | {z } | {z } =0 6=0 =0 Se sigue que αi vi · vi 6= 0 y como vi · vi 6= 0 se debe dar que αi = 0 y esto para i = 1, . . . , n. Por tanto los vectores v1 , . . . , vk son LI. De este lema se sigue que si {v1 , . . . , vk } es un conjunto ortogonal (ortonormal), ´este forma una base del espacio H = gen{v1 , . . . , vk }. A continuaci´ on definimos la noci´ on de matriz ortogonal, este ser´ au ´til en lo que sigue de la secci´ on. h i Definici´ on 4.11. Decimos que una matriz A = v1 · · · vk es una matriz ortogonal, si vi · vj = δij para i, j ∈ {1, . . . , ≤ k. Es decir, las columnas de A forman un conjunto ortonormal.   √1 √1 0 2  2   −1  √1 Ejemplo 4.26. La matriz A =  √  es una matriz ortogonal ya que el conjunto de columnas de esta 0 2  2  0 0 1         √1 √1   0     2   2      −1   1    matriz,  √  ,  √  , 0 , es un conjunto ortonormal, lo cual se demostr´ o en el Ejemplo4.25.   2   2          1 0 0 144 La propiedad m´ as importante de las matrices ortogonales es la siguiente. Lema 4.11. (Propiedad de las matrices ortogonales) Sea A ∈ Mmn (R), entonces A es una matriz orto- gonal si y s´ olo si At A = I. Por tanto si A es una matriz cuadrada entonces A es invertible y A−1 = At . Si A no es cuadrada entonces At es una inversa a la izquierdaA. h Demostraci´ on. Si A = v1 ··· i vk es una matriz ortogonal, entonces   vt  1 h . At A =  ..  v1   vkt ··· vk  i    t  v2 v1 =  ..  .  vkt v1 v1 · v1 v1 · v2 · · · | {z } | {z }  =1 =0   v2 · v1 v2 · v2 · · · | {z } | {z }  =  =0 =1  . .. ..  .. . .   v · v v · v · · · | k{z }1 | k{z }2 =0 v1t v1 =0 v1t v2 v2t v2 .. . ··· ··· .. . v1t vk   v2t vk   ..  .   vkt vk vkt v2 · · ·  v1 · vk | {z }  =0   1 0 · · ·  v2 · vk  0 1 ··· | {z }    = =0  . . ..  ..   .. .. .   .   0 0 ··· vk · vk  | {z } =1  (4.11)  0   0  ..  = I. .  1 Si At A = I se sigue de la Ecuaci´ on 4.11 que las columnas de A forman un conjunto ortonormal y por definici´on A es ortogonal. Si A es una matriz cuadrada, por el Corolario 1.22, A es invertible y A−1 = At . La otra afirmaci´on es inmediata. Ejemplo 4.27. 1. Este teorema nos permitecalcular la inversa de una matriz ortonormal de manera f´ acil, por el  1 1 √ √ 0 2   2   −1 √1 Ejemplo 4.26 tenemos que la matriz A =  √ 0 es una matriz ortogonal, por tanto 2   2 0 0 1 A−1 = At =  √1  2  1 √  2 0 −1 √ 2 √1 2 0  0   0 .  1 2. El teorema tambi´en se puede usar para calcular a la izquierda de matrices ortonormales cuando no   la inversa √1  2  −1 son cuadradas. Por ejemplo la matriz B =  √  2 0   −1 √1 √ 0 2 . izquierda de B es B t =  2 1 1 √ √ 0 2 2 √1 2  √1  2 0 es una matriz ortonormal, por tanto una inversa a la ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 145 Las bases ortogonales (ortonormales) tiene ventajas importantes, estas se reflejan cuando se quiere calcular la proyecci´ on de un vector sobre un subespacio. El siguiente teorema provee una f´ ormula para determinar la proyecci´ on sin usar la matriz de la proyecci´ on. La f´ ormula se obtiene a partir de una base ortogonal u ortonormal. Teorema 4.12. Sea {v1 . . . , vk } una base ortonormal para un subespacio vectorial H de Rn y sea b ∈ Rn , entonces proyH b = (v1 · b)v1 + · · · + (vk · b)vk . Si la base {v1 . . . , vk } es ortogonal entonces proyH b = h Demostraci´ on. Sea A = v1 ··· v1 ·b v1 ·v1 v1 + ··· + vk ·b vk ·vk vk . i vk , entonces proyH b = A(At A)−1 At b. Como A es una matriz ortogonal por el Teorema 4.11 se tiene que At A = I, por tanto h proyH b = A (At A)−1 At b = AAt b = v1 | {z } ··· =I h = v1 ···   vt i  1 . vk  ..  b   vkt  v1t b i   .  t t vk  ..  = (v1 b)v1 + · · · + (vk b)vk   vkt b  = (v1 · b)v1 + · · · + (vk · b)vk . Si la base {v1 , · · · , vk } es ortogonal, entonces por la Observaci´ on 4.4, tenemos que el conjunto {w1 , . . . , wk } es una base ortonormal de H donde wi =   (wi · b)wi = ||v1i || vi · b ||v1i || vi = ||vvii·b||2 vi = 1 ||vi || vi , con i = 1, . . . , k. vi ·b vi ·vi vi , por tanto proyH b = (w1 · b)w1 + · · · + (wk · b)wk = Entonces para i = 1, . . . , k tenemos que vk · b v1 · b v1 + · · · + vk . v1 · v1 vk · vk           1 1 −1                 Ejemplo 4.28. Sea b = 1 y H = gen v1 = 1 , v2  1  . Es f´ acil ver que {v1 , v2 } es una base ortogonal             3 0 2  de H, entonces por el teorema anterior tenemos que   0   v2 · b 2 6 v1 · b   v1 + v 2 = v 1 + v 2 = v 1 + v 2 =  2 . proyH b = v1 · v1 v2 · v2 2 6   2 De hecho el este subespacio es el mismo del Ejemplo 4.16 y obtenemos, como debe ser, la misma respuesta. Simplemente en este caso tenemos una base ortogonal de H, lo cual nos permite usar el teorema anterior sin tener que calcular la matriz de la proyecci´ on y la cantidad de c´ alculos se reduce. 146   0     Para ver que los subespacios de este ejemplo y el ejemplo en menci´ on coinciden, n´ otese que si w = 1   1 entonces       1/2 −1/2 0       v1 · w v2 · w 1 3       proyH w = v1 + v2 = v1 + v2 = v1 + v2 = 1/2 +  1/2  = 1 = w. v1 · v1 v2 · v2 2 6       0 1 1 Se tiene que w = proyH w y por tanto w ∈ H. Es decir, tanto {v1 , v2 } como {v1 , w} son bases de H. El siguiente corolario tambi´en muestra la importancia de tener una base ortonormal, porque provee una f´ ormula para escribir un vector en un subespacio como combinaci´ on lineal de una base ortonormal sin tener que hacer reducci´ on Gauss-Jordan. Corolario 4.13. Sea H ⊆ Rn un subespacio con base ortonormal {v1 . . . , vk }. Entonces para todo b ∈ H se tiene que b = (b · v1 )v1 + · · · + (b · vk )vk . M´ as a´ un, si {v1 . . . , vk } una base ortogonal de H, entonces b = b·v1 v1 ·v1 v1 + ··· + b·vk vk ·vk vk . Demostraci´ on. Si b ∈ H por el Teorema 4.9 tenemos que proyH b = b, por tanto el resultado se sigue aplicando el teorema anterior.       1 0             Ejemplo 4.29. De acuerdo al Ejemplo 4.25 Los vectores v1 = −1 , v2 = 1 y v3 = 0 forman una base       0 0 1   1     3 ortogonal para R . Usando el teorema anterior podemos escribir el vector b = 1 de la siguiente forma:   1 b= 1 b · v2 b · v3 0 2 1 b · v1 v1 + v2 + v3 = v1 + v2 + v3 = v2 + v3 . v1 · v1 v2 · v2 v3 · v3 2 2 1       0             Ejemplo 4.30. De acuerdo al Ejemplo 4.25 Los vectores w1 =  √ −1  , w2 =  √ 1  y w3 = 0 forman una  2    2 1 0 0   1     3 base ortonormal para R . Usando el teorema anterior podemos escribir el vector b = 1 de la siguiente forma:   1 1 √ 2 1 √ 2 √ 2 b = (b · w1 )w1 + (b · w2 )w2 + (b · w3 )w3 = 0w1 + √ w2 + w3 = 2w2 + w3 . 2 ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 147             Ejemplo 4.31. El conjunto v1 =  √1  , v2 =  √1  es una base ortonormal para el plano xy (o z = 0)   2   2       0 0   1     entonces usando el teorema anterior para calcular proyH b con H = plano xy y b = 2 obtenemos:   1       1 √ 2   −1 √ 2   1   3 1   proyH b = (b · v1 )v1 + (b · v2 )v2 = √ v1 + √ v2 = 2 .   2 2 0 El Teorema 4.12 y el Corolario 4.13 muestran la importancia de tener una base ortogonal u ortonormal para un subespacio, sin embargo hasta ahora no sabemos como se puede calcular tal base. El siguiente teorema muestra como, a partir de una base arbitraria de un subespacio de Rn , podemos construir una base ortogonal. Teorema 4.14. (El proceso Gramm-Schmidt) Sea H ⊆ Rn un subespacio y sea {v1 , . . . , vk } una base de H si hacemos w1 = v 1 , W1 = gen{w1 } w2 = v2 − proyW1 v2 W2 = gen{w1 , w2 } w3 = v3 − proyW2 v3 .. . W3 = gen{w1 , w2 , w3 } .. . wk−1 = vk−1 − proyWk−2 vk−1 Wn−1 = gen{w1 , . . . , wn−1 } wk = vn − proyWk−1 vk Entonces {w1 , . . . , wk } es una base ortogonal de H. M´ as a´ un, si hacemos qi = 1 ||wi || wi para i = 1, . . . , n, entonces {q1 , . . . , qn } es una base ortonormal de H. Demostraci´ on. Por definici´on de proyecci´ on ortogonal tenemos que wi = vi − proyWi−1 vi es ortogonal al subespacio Wi−1 para i = 1, . . . , k y por tanto wi ortogonal a cada uno de los vectores w1 , . . . , wi−1 . Se sigue que los vectores w1 , . . . , wk son ortogonales entre s´ı, es decir, el conjunto {w1 , . . . , wk } es un conjunto ortogonal. En consecuencia, por el Lema 4.10, el conjunto {w1 , . . . , wi } es una base ortogonal de Wi , , para i = 1, . . . , k−1, y {w1 , . . . , wk } es una base ortogonal del subespacio que ellos generan, gen{w1 , . . . , wk }. Solo nos resta demostrar que H = gen{w1 , . . . , wk }. Como el conjunto {w1 , . . . , wk } es base de gen{w1 , . . . , wk }, se sigue que dim H = k = dim gen{w1 , . . . , wk }. Por tanto es suficiente demostrar que w1 , . . . , wk ∈ H, ya que de esta forma se sigue que gen{w1 , . . . , wk } ⊆ H y por tener dimesiones iguales se concluye que los subespacios son iguales (Problema ???). Primero n´otese que w1 = v1 ∈ H. Tambi´en tenemos que w2 = v2 − proyw1 v2 = v2 − v2 ·w1 w1 ·w1 w1 ∈ H. 148 Continuando por inducci´on supongamos que w1 , . . . , wi−1 ∈ H. Como el conjunto {w1 , . . . , wi−1 } es una base ortogonal de Wi−1 , entonces por el Teorema 4.12 tenemos que proyWi−1 vi = vi · wi−1 v i · w1 w1 − · · · − wi−1 w1 · w1 wi−1 · wi−1 (4.12) por tanto wi = vi − proyWi−1 vi = vi − v i · w1 vi · wi−1 w1 − · · · − wi−1 ∈ H. w1 · w1 wi−1 · wi−1 Concluimos que w1 , . . . , wk ∈ H y por tanto el conjunto {w1 , . . . , wk } es una base ortogonal para H. De la Observaci´ on 4.4 se sigue que el conjunto {q1 , . . . , qk } es una base ortonormal. Observaci´ on 4.5. Si {v1 , . . . , vk } es una base para un subespacio H de Rn , entonces por la Ecuaci´ on (4.12), los vectores w1 , . . . , wk de la base ortogonal del proceso Gramm-Schmidt est´ an dados por w1 = v 1 , v2 ·w1 w1 ·w1 w1 v2 ·w1 w1 ·w1 w1 w2 = v 2 − w3 = v 3 − .. . wk−1 = vk−1 − wk = v k − Ejemplo 4.32. Sean v1 = 1 1 0 0 , v2 = 1 1 0 v2 ·w2 w2 ·w2 w2 vk−1 ·w1 w1 ·w1 w1 vk ·w1 w1 ·w1 w1 0 − y v3 = − ··· − − ··· − 1 0 0 1 (4.13) vk−1 ·wk−1 wk−1 ·wk−1 wk−1 vk ·wk wk ·wk wk y H = gen{v1 , v2 , v3 }. Calcule lo siguiente 1. una base ortonormal {q1 , q2 , q3 } para H.  1 2. Escriba el vector v = 31 en t´erminos de la base ortonormal. −1 3. Calcule la proyecci´ on del vector z = 1 1 1 1 sobre H. Soluci´ on. 1. Usaremos las ecuaciones dadas en (4.13) para calcular los vectores w1 , w2 y w3 y despu´es los normalizamos. # " En primer lugar se tiene que w1 = v1 , el vector w2 est´ a dado por w2 = v2 − finalmente w3 = v3 − w1 ·v3 w1 ·w1 w1 − w2 ·v3 w2 ·w2 w2 = v3 − 21 w1 − (−1/2) 3/2 w2 w1 ·v2 w1 ·w1 w1 = v3 − 21 w1 + 13 w2 = = v2 − 21 v1 = " 1/3 # −1/3 1/3 1 −1/2 1/2 1 0 y . Se verifica f´ acilmente que los vectores w1 , w2 y w3 son ortogonales. Para la base ortonormal, con el fin de agilizar c´ alculos, se puede trabajar con m´ ultiplos de los vectores  que no hayan denominadores.  1 , w2 y w3 de tal  forma  −1 w 1 −1 1 y u3 = 3w3 = Para este efecto tomamamos u1 = w1 , u2 = 2w2 = 1 . 2 Finalmente se tiene que los vectores   1 1 1 q1 = u1 = √ 10 , ||u1 || 2 0 forman una base ortonormal para H. 3 0 q2 = 1 1 u2 = √ ||u2 || 6  −1  1 2 0 y q3 = 1 1 u3 = √ ||u2 || 12  1 −1 1 3  ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 149 2. Por el Corolario 4.13 tenemos que 4 4 4 v = (q1 · v)q1 + (q2 · v)q2 + (q3 · v)q3 = √ q1 + √ q2 − √ q3 . 2 6 12 La u ´ltima igualdad se obtiene racionalizando el denominador. En t´erminos de la base ortogormal v= u1 · v u2 · v u3 · v 2 1 u1 + u2 + u3 = 2u1 + u2 − u3 . u1 · u1 u2 · u2 u3 · u3 3 3 3. Por el Teorema 4.12 tenemos que √ √ √ 6 12 2 4 2 q2 + q3 . proyH z = (q1 · z)q1 + (q2 · z)q2 + (q3 · z)q3 = √ q1 + √ q2 + √ q3 = 2q1 + 3 3 2 6 12 La u ´ltima igualdad se obtiene racionalizando el denominador. En t´erminos de la base ortogormal v= u1 · v u2 · v u3 · v 1 1 u1 + u2 + u3 = u1 + u2 + u3 . u1 · u1 u2 · u2 u3 · u3 3 3 Finalizamos la secci´ on mostrando la idea geom´etrica detras del proceso de Gramm-Schmidt. En la siguiente figura se muestran los vectores w1 y w2 (en rojo) obtenidos al aplicar Gram-Schmidt a un par de vectores v1 y v2 . En ´esta se ve que los vectores w1 y w2 son ortogonales y pertencen al mismo plano que v1 y v2 . w2 = v2 − proyv1 v2 v2 b proyv1 v2 O v 1 = w1 En la siguiente figura se muestra el caso en dimensi´ on 3. Si se tienen vectores LI v1 , v2 y v3 y ya se han determinado los vectores ortogonales w1 y w2 , en la figura se muestra como se obtiene el vector w3 , ortogonal al plano W2 = gen{w1 , w2 }. Obteniendo as´ı, los vectores w1 , w2 y w3 (en rojo), los cuales forman una base ortogonal. v3 w3 = v3 − proyW2 v3 w2 proyW2 v3 v2 b O v1 = w1 W2 150 Problemas 4.5.1. Verifique que las matrices son ortogonales y que su correspondiente transpuesta es una inversa a la izquierda  1/2 A =  1/2 1/2 1/2 √  −1/ 6 √ −1/ 6  √ 2/ 6 0  √ √ √  1/ 3 1/ 6 1/ 2  √ √ √    B = 1/ 3 1/ 6 −1/ 2 .  √  √ 0 1/ 3 −2/ 6 4.5.2. Sean w1 = (1, 1, 2), w2 = (2, 0, −1) y w3 = (1, −5, 2), H = gen{w1 , w2 } y v = (1, 1, 1), haga lo siguiente 1. verifique que X = {w1 , w2 , w3 } es una bas ortogonal, 2. escriba el vector v en t´erminos de la base X, 3. calcule la proyecci´ on, proyH v, del vector v sobre H, 4. calcule el vector u y proyH u si se sabe que u · w1 = 5, u · w2 = 3 y u · w3 = −1, 5. calcule el vector z ∈ H tal que z · w1 = 3, z · w2 = 5, 6. muestre que H ⊥ = gen{w3 }. 4.5.3. Sea {w1 , . . . , wn } una base ortogonal de Rn y H = gen{w1 , . . . , wk }, muestre que H ⊥ = gen{wk+1 , . . . , wn }. Demuestre tambi´en que si v = α1 w1 + · · · + αn wn entonces proyH v = α1 w1 + · · · + αk wk . 4.5.4. Aplique el procedo de Gramm-Scdmidt para calcular una base ortonormal del subespacio generado por los vectores v1 , v2 y v3 si             0 1 1 1 0 0                         a. v1 = 1 , v2 = 1 , v3 = 1 . b. v1 = 1 , v2 = 0 , v3 = 1 .             1 1 0 1 1 0       1 0 0             −1  1  0      c. v1 =    , v2 =   , v3 =   .  0 −1  1       0 0 −1 4.5.5. Calcule una base ortogonal y una base ortonormal para cada uno de los espacios en los problemas 4.3.1, 4.3.2, 4.3.3 y 4.3.4. En cada caso calcule la proyecci´ on del vector indicado en cada problema sobre el respectivo subespacio en t´erminos de la base ortogonal y en t´erminos de la base ortonormal. 4.5.6. Encuentre los valores de α y β tal al aplicar el proceso de Gramm-Schmidt a los vectores v1 , v2 y v3 se obtengan los vectores w1 , w2 y w3 , donde       β 1 1             v3 =  1  , v2 =  1  , v1 = 1 ,       0 α 0   1     w1 = 1 ,   0   0     w2 =  0   1 y  −1     w3 =  1  .   0  ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 151 4.5.7. Determine los vectores v1 , v2 y v3 tal que al aplicar el proceso Gramm-Schmidt se obtienen los vectores w1 = (1, 1, 1, 1), w2 = (1, 1, −1, −1) y w3 = (1, −1, 1, −1) si se sabe adem´ as que v2 · w1 = −2, v3 · w1 = 8 y v3 · w2 = 2. 4.5.8. Determine todos los posibles vectores v1 y v2 talque al aplicar el proceso Gramm-Schmidt y normalizar el resultado sean los vectores q1 = (1/2, 1/2, 1/2, 1/2) y q2 = (1/2, 1/2, −1/2, −1/2). 4.5.9. Determine las columnas faltantes de tal forma que cada una de las siguientes matrices sean ortogonales.     1/2 1/2 √     1/2 1/ 6 √ √       1/ 3 1/ 6 1/2 1/2 √         1/2 1/ 6 √ √       b. B = q c. C = a. A =  1/ 3 q q q q q   1/ 6 3 1/2 −1/2 3 4 5  3 4  √       1/2 −2/ 6  √ √      1/2 −1/2  1/ 3 −2/ 6   1/2 0 0 0 Ayuda: En cada caso los vectores qi , i = 3, 4, 5, pertenecen al complemento ortogonal del espacio generado por las dos primeras columnas de la matriz. 4.5.10. Sea A = [v1 · · · vn ] ∈ Mn (R), donde v1 , . . . , vn son las columnas de A, y sea B = t Demuestre que si {v1 , . . . , vn } es un conjunto ortogonal entoncesB es la inversa  de A. 1 1 1     Use lo anterior para determinar la inversa de la matriz A = 1 1 −1 .   1 −2 0 h 1 v1 ·v1 v1 ··· 1 vn ·vn vn 4.5.11. Si A es de tam˜ no m × n con columnas ortonormales, demuestre que P = AAt es una matriz proyecci´ on, es decir, P 2 = P . 4.5.12. Sea u ∈ Rn un vector unitario y v ∈ Rn arbitrario. Demuestre lo siguiente: 1. la matriz Q = I − ut u es una matriz sim´etrica ortogonal. 2. Si U = gen{u} demuestre que Qv es la proyecci´ on de v sobre U ⊥ . 3. Calcule Q si u = (1/2, 1/2, 1/2, 1/2) y la proyecci´ on de v = (1, 2, 3, 4) sobre U y U ⊥ . 4.5.13. Una isometr´ıa de Rn es un isomorfismo T : Rn −→ Rn tal que T (v)·T (w) = v ·w, para todo v, w ∈ Rn . Muestre que T es una isometr´ıa si y s´ olo si la matriz E TE de T es una matriz ortogonal. 4.5.14. Sea T : Rn −→ Rn una isometr´ıa, demuestre lo siguiente: 1. ||T (v)|| = ||v||, para todo v ∈ R, es decir, T preserva longitudes. 2. T preserva ´ angulos, es decir, ∡(v, w) = ∡(T (v), T (w)), para todo v, w ∈ R. 3. La inversa de una isometr´ıa es una isometr´ıa y la composici´ on de isometr´ıas es una isometr´ıa. 4. T env´ıa bases ortonormales en bases ortonormales, es decir, {v1 , . . . , vn } es una base ortonormal de Rn si y s´ olo si {T (v1 ), . . . , T (vn )} es una base ortonormal de Rn . i . 152 4.5.15. Sean A, B ∈ Mn (R) matrices ortogonales, muestre que AB y A−1 son ortogonales. (Esto muestra que el conjunto de matrices ortogonales es un subgrupo del grupo de matrices invertibles, ´este subgrupo es conocido como el grupo ortogonal, denotado por On (R).)          cos θ  cos θ −senθ sin θ  0 ≤ θ ≤ 2π .  0 ≤ θ ≤ 2π ∪  Demuestre que O2 (R) =     sin θ − cos θ  sin θ cos θ Estas dos componentes de On (R) consisten de rotaciones en direcci´ on antihoraria del plano y rotaciones en direcci´ on de las manecillas del reloj del plano. El grupo On (R) tambi´en se puede ver como el conjunto formado por composiciones de rotaciones antihorarias y reflecciones con respecto a una l´ınea por el origen. Los geometras se refieren a este grupo como el grupo de movimientos r´ıgidos del plano que preservan el origen. 4.5.16. Sean P y Q de tama˜ nos m × n y n × q matrices ortogonales, muestre que P Q es ortogonal. Si m < n, es P t ortogonal? 4.6. La Factorizaci´ on QR de una Matriz h Teorema 4.15. Sea A = v1 ··· i vk una matriz cuyas columnas son LI, entonces exite una matriz ortogonal Q y una matriz triangular superior R tal que A = QR. Demostraci´ on. Sean H = gen{v1 , · · · , vk } y q1 , . . . , qk los vectores obtenidos al aplicar el proceso GrammSchmidt, es decir, los vectores obtenidos al normalizar los vectores en la Observaci´ on 4.5, los cuales forman una base ortonormal para H. Por el Teorema 4.13 tenemos que vi = (q1 · vi )q1 + · · · + (qk · vi )qk . (4.14) Recordemos que en la demostraci´ on del Teorema 4.14 vimos que gen{v1 , . . . , vi−1 } = gen{w1 , . . . , wi−1 } = gen{q1 , . . . , qi−1 }, para i = 2, . . . , k, y como qi es ortogonal a gen{q1 , . . . , qi−1 }, por ser ortonormal a q1 , . . . , qi−1 entonces qi · v1 = 0, . . . , qi · vi−1 = 0. Como esto es para todo i = 1, . . . , k obtenemos que qi · vj = 0 para i > j. Reemplazando esto en la Ecuaci´ on (4.14) obtenemos vi = (q1 · vi )q1 + · · · + (qi · vi )qi , para i = 1, . . . , k, por tanto tenemos la ecuaciones: v1 = (q1 · v1 )q1 v2 = (q1 · v2 )q1 + (q2 · v2 )q2 .. . vk−1 = (q1 · vk−1 )q1 + · · · + (qk−1 · vk−1 )qk−1 vk = (q1 · vk )q1 + · · · + (qk · vk )qk . La cual podemos escribir matricialmente de la siguiente forma ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN  h v1 ··· i h v k = q1  h Si hacemos Q = q1 ···     i  qk y R =      ···    i  qk      153 q1 · v 1 q1 · v 2 q1 · v 3 ··· 0 q2 · v 2 q2 · v 3 ··· 0 .. . 0 .. . q3 · v 3 .. . ··· .. . 0 0 0 ··· q1 · v 1 q1 · v 2 q1 · v 3 ··· 0 q2 · v 2 q2 · v 3 ··· 0 .. . 0 .. . q3 · v 3 .. . ··· .. . 0 0 0 ··· q1 · v k  q1 · v k    q2 · v k    q3 · v k   ..  .   qk · v k   q2 · v k    q3 · vk  obtenemos A = QR.  ..  .   qk · v k De este Teorema se desprende el siguiente procedimiento para calcular la factorizaci´ on QR de una matriz. h Procedimiento 4.2. (Procedimiento para calcular las matrices Q y R) Sea A = v1 ··· i vk una matriz cuyas columnas v1 , . . . , vk son linealmente independientes. Calculamos su factorizaci´ on QR con los siguientes pasos: 1. Aplicamos el proceso Gramm-Schmidt y la Observaci´ on 4.5 a los vectores v1 , . . . , vk para obtener los vectores ortogonales w1 , . . . , wk . h 2. Se normalizan los vectores w1 , . . . , wk para obtener vectores ortonormales q1 , . . . , qk y hacemos Q = q1 3. Para 1 ≤ i ≤ j ≤ k calculamos los productos qi · vj y hacemos       R=     q1 · v 1 q1 · v 2 q1 · v 3 ··· 0 q2 · v 2 q2 · v 3 ··· 0 .. . q2 · v 2 .. . q3 · v 3 .. . ··· .. . 0 0 0 ··· q1 · v k    q2 · v k    q2 · v k  .  ..  .   qk · v k 4. De acuerdo al Teorema 4.15 tenemos que A = QR.   1 0 1      1 1 0 , calcular las matrices Q y R tal que A = QR. Ejemplo 4.33. Sea A =     0 1 0   0 0 1       1 0 1             1 1 0      Soluci´ on. Sean v1 =   , v2 =   y v3 =  , usando el Procedimiento 4.2 obtenemos lo siguiente. 0 1 0       0 0 1 ··· i qk . 154  1 √ 2   − √16        √1  √1  6   2 1. En el Ejemplo 4.32 usamos el proceso Gramm-Schdmit y obtuvimos q1 =  , q2 =    √2 0  6   0 0   1 √  2   √1 2 por tanto Q =   0  0 − √16 1 √ 6 2 √ 6 0 √1 12   √1 12        − √1    y q3 =  12 ,     √1    12   √3 12   .    − √112  √1 12 √3 12 2. Para 1 ≤ i ≤ j ≤ 3 calculamos los productos qi · vj , q1 · v 1 = √2 2 q1 · v 2 = q2 · v 2 =    Por tanto R =   2 √ 2 1 √ 2 1 √ 2 0 3 √ 6 −1 √ 6 0 0 √4 12 √1 2 √3 6 √1 2 −1 q2 · v 3 = √ 6 q3 · v3 = √412 . q1 · v 3 =    .   1 √ 2    √1 2 3. De esta manera obtenemos que A =   0  0 − √16 1 √ 6 2 √ 6 0    √2  2 − √112    0   √1 12  √1 12 1 √ 2 1 √ 2 3 √ 6 −1 √ 6 0 √4 12 0 √1 12    .  Usamos MatLab para corroborar que A = QR: >> Q = [1/sqrt(2), −1/sqrt(6), sqrt(3)/6; 1/sqrt(2), 1/sqrt(6), −sqrt(3)/6; 0, 2/sqrt(6), sqrt(3)/6; 0, 0, sqrt(3)/2], R = [2/sqrt(2), 1/sqrt(2), 1/sqrt(2); 0, 3/sqrt(6), −1/sqrt(6); 00, 2/sqrt(3)], Q ∗ R Lo que nos confirma que efectivamente A = QR. En la Secci´ on 5.6 del pr´ oximo cap´ıtulo veremos una interpretaci´ on geom´etrica de esta descomposici´ on. Problemas 4.6.1. Calcule la descomposici´ on QR de las matrices  0 0   A = 1 1  0 1  1   1 ,  1  1 1   B = 1 0  0 1  0   1 ,  1  1 0        1 1  C=    2 1   0 2 y 1   −1 D=   0  0 0 0    0 .  −1 1  0 −1 1 ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN  √ √  √ 1/ 3 −1/ 6  √ 3 √    4.6.2. Determine la matriz A si Q = 1/ 3 −1/ 6 y R =   √ 0 √  1/ 3 2/ 6 155 √  4/ 3 √ . 2/ 6 4.6.3. Determine la factorizaci´ on QR de una matriz A = [v1 v2 v3 ] si sabe que al aplicar el proceso GrammSchmidt a los vectores v1 , v2 y v3 se obtienen los vectores w1 = (1, 1, 1, 1), w2 = (1, 1, −1, −1) y w3 = (1, −1, 1, −1) y se sabe adem´ as que v2 · w1 = −2, v3 · w1 = 8 y v3 · w2 = 2.   1/2 1/2     1/2 1/2  . Determine tambi´en las posibles R. (Este 4.6.4. Determine todas las matrices A tal que Q =    1/2 −1/2   1/2 −1/2 problema est´ a relacionado con el Problema 4.5.8) 156 Cap´ıtulo 5 Determinantes La noci´ on de determinante es muy importante en matem´ aticas, a partir de este se puede definir volumen de n-p´ıpedos, los cual exhibimos en la u ´ltima secci´ on de este cap´ıtulo. En textos de ´ algebra multilineal se demuestra que el determinante, visto como funci´ on de (Rn )n en Rn , es la u ´nica n-forma n-lineal alternada tal que det(e1 , . . . , en ) = 1, lo que permite usarla como forma volumen bien definida en Rn . En este cap´ıtulo, al no usar las herramientas del ´ algebra multilineal, usamos los cofactores para definir el determinante. A partir de esta definici´ on y usando matrices elementales demostramos las propiedades de linealidad del determinante en cada fila y cada columna, al igual que su propiedad de alternabilidad. En la Secci´ on 5.3 demostramos la regla del producto y el determinante de la matriz inversa. Despu´es se introduce la matriz adjunta y una f´ ormula para la inversa de una matriz a partir de ´esta. Tambi´en se demuestra la regla de Cramer y terminamos el cap´ıtulo dando la interpretaci´ on geom´etrica del determinante us´ andolo para calcular vol´ umenes. 5.1. Definici´ on y ejemplos En esta secci´ on introducimos la definici´ on de determinante y las propiedades b´ asicas. Definici´ on 5.1. Sea A una matriz de tama˜ no m × n, para cada par (i, j) con 1 ≤ i ≤ m y 1 ≤ j ≤ n, definimos el ij-´ esimo menor de A, al cual denotaremos por Aij , como la matriz obtenida de A al eliminar su i-´esima fila y su j-´esima columna.  1 1   Ejemplo 5.1. Sea A = 1 −1  0 2  1 1 menor es la matriz A12 =  0 3 0 2    1 1  1 0 el 24-´esimo menor de A es la matriz A24 =   0 2 3 0  0 . 0 157  0  y el 12-´esimo 3 158   a11 · · · a1n   ..   . .. Definici´ on 5.2. (Determinante) Sea A =  .. una matriz de tama˜ no n × n. Definimos el . .    an1 · · · ann determinante de A, el cual denotaremos por det(A), recursivamente como sigue: Si n = 2 entonces det(A) = a11 a22 − a12 a21 . Para n ≥ 3, det(A) = n X (−1)1+i a1i det (A1i ) i=1 = a11 det (A11 ) − a12 det (A12 ) + · · · + (−1)1+n a1n det (A1n ) .  2 −1   Ejemplo 5.2. Sea A = 0  1 1 1  0   on el determinante de A est´ a dado por: 0 de acuerdo a esta definici´  1 det(A) = 3 X (−1)1+i a1i det (A1i ) i=1 = a11 det (A11 ) − a12 det (A12 ) + a13 det (A13 )       0 1 0 0 1 0   + 0 det   − (−1) det  = 2 det  1 1 1 1 1 1 = 2(1 · 1 − 0 · 1) + (0 · 1 − 0 · 1) + 0(0 · 1 − 1 · 1) =2 Definici´ on 5.3. Sea A una matriz n × n, para cada par (i, j) con 1 ≤ i ≤ m y 1 ≤ j ≤ n, el ij-´ esimo cofactor de A, denotado por Cij , se define como Cij = (−1)i+j det Aij , donde Aij es el ij-´esimo menor de A. Observaci´ on 5.1. Con esta definici´ on podemos reescribir la f´ ormula de del determinante como sigue: det(A) = n X i=1 A esta f´ ormula se le conoce como  −1 1   Ejemplo 5.3. Sea A =  0 1  −1 2 Soluci´ on: C11 a1i C1i = a11 C11 + a12 C12 · · · + a1n C1n . la expansi´ on por cofactores de A a lo largo de la primera fila.  0   1, calcular C11 , C12 y C13 y calcular el determinante de A.  1   1 1  = 1 · 1 − 1 · 2 = −1, = (−1)1+1 det A11 = (−1)2 det  2 1 ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN  C12 = (−1)1+2 det A12 = (−1)3 det   0 −1 1 C13 = (−1)1+3 det A13 = (−1)4 det  det(A) = a11 C11 + a12 C12 + a13 C13 1 0 1 159   = −1 (0 · 1 − 1 · (−1)) = −1,   = 0 · 2 − 1 · (−1) = 1 y as´ı −1 2 = −1 · (−1) + 1 · (−1) + 0 · 1 = 0. De la definici´ on se desprenden los siguientes resultados.   a11 0 ··· 0     0   a21 a22 · · ·   Lema 5.1. Sea A =  . .. ..  una matriz triangular inferior, entonces ..  .. . . .    an1 an2 · · · ann det(A) = a11 a22 · · · ann . Es decir, el determinante de una matriz triangular inferior es el producto de las entradas en la diagonal. En particular, el determinante de una matriz diagonal es el producto de las entradas en la diagonal. Demostraci´ on. Por inducci´on sobre n. Si n = 2 tenemos que det(A) = a11 a22 − 0a21 = a11 a22 . Supongamos que el determinante de toda matriz triangular inferior de tama˜ no (n − 1) × (n − 1) es el producto de las entradas en la diagonal. Usando la Observaci´ on 5.1 tenemos que det(A) = a11 C11 + a12 C12 + · · · + a1n C1n = a11 C11 . |{z} |{z} (5.1) =0 =0 Pero por hip´ otesis de inducci´on tenemos que C11  a22   . = (−1)1+1 det(A11 ) = 1 · det  ..  an2 ··· .. . 0 .. . ··· ann     = a22 · · · ann  (5.2) De las ecuaciones (5.1) y (5.2) tenemos que det(A) = a11 a22 · · · ann . Corolario 5.2. Sea I = In la matriz identidad de tama˜ no n × n, entonces det(I) = 1. En la Observaci´ on 5.1 se dijo que el determinante se obtiene por expansi´ on por coeficientes a lo largo de la primera fila. Esto porque en la f´ ormula se usan los coeficientes en esa fila. El siguiente teorema muestra que para calcular el determinante de una matriz podemos usar coeficientes en cualquier fila o cualquier columna con sus correspondientes menores. 160  a11   .. Teorema 5.3. Sea A =  .  an1 por cofactores en cualquier fila  a1n  ..  entonces el determinante de A se puede calcular usando la expansi´ on .   · · · ann o cualquier columna, es decir, para 1 ≤ i, j ≤ n tenemos que: ··· .. . det(A) = ai1 Ci1 + ai2 Ci2 + · · · + ain Cin = {z } | Expansi´ on por cofactores en la fila i n X aik Cik o (5.3) k=1 n X det(A) = a1j C1j + a2j C2j + · · · + anj Cnj = ahj Chj . | {z } h=1 (5.4) Expansi´ on por cofactores en la columna j Demostraci´ on. Primero demostraremos la F´ormula (5.3) por inducci´on sobre n. Para n = 2 tenemos que: Expansi´on por cofactores en la segunda fila = −a21 a12 + a22 a11 = det(A). Ahora supongamos que el teorema se cumple para cualquier matriz de tama˜ no (n − 1) × (n − 1) y mostremos que det(A) = Expansi´on por cofactores en la fila i. Por definici´on tenemos que det(A) = n X (−1)1+j a1j det(A1j ). (5.5) j=1 Ahora, como la matriz A1j es de tama˜ no (n − 1) × (n − 1), entonces por la hip´ otesis de inducci´on tenemos que su determinante se puede calcular por expansi´ on por cofactores en la fila i, por tanto det(A1j ) = (−1)i+1 ai1 det((A1j )i1 ) + · · · + (−1)i+n ain det((A1j )in ) = n X (5.6) (−1)i+k aik det((A1j )ik ). k=1 De las Ecuaciones (5.5) y (5.6) tenemos que det(A) = n X (−1)1+j a1j j=1 = n n X X n X (−1)i+k aik det((A1j )ik ) k=1 (−1)1+j+i+k a1j aik det((A1j )ik ). (5.7) j=1 k=1 Se demostrar´a que la expansi´ on por cofactores en la fila i coincide con esta f´ormula. N´ otese que como Cik = (−1)i+k det(Aik ), entonces tenemos que: Expansi´on por cofactores en la fila i = n X k=1 aik Cik = n X (−1)i+k aik det(Aik ). (5.8) k=1 Ahora, por definici´on de determinante tenemos que det(Aik ) = n X j=1 (−1)1+j a1j det((Aik )1j ). (5.9) ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 161 De las Ecuaciones (5.8) y (5.9) tenemos Expansi´on por cofactores en la fila i = = n X (−1)i+k aik k=1 n X n X n X (−1)1+j a1j det((Aik )1j ) j=1 (−1)i+k+1+j aik a1j det((Aik )1j ). (5.10) k=1 j=1 Finalmente n´otese que (A1j )ik = (Aik )1j ya que ambas se obtienen al eliminar las filas 1 e i y las columnas j y k de A. Entonces las Ecuaciones (5.7) y (5.10) son iguales, por tanto det(A) = Expansi´on por cofactores en la fila i. Similarmente se demuestra que el determinante se puede calcular por expansi´ on en cualquier columna.   −1 0 −1     on por cofactores en la tercera Ejemplo 5.4. Calcular el determinante de A =  2 0 1  usando expansi´   0 1 0 fila y segunda columna. Soluci´ on: Usando expansi´ on por cofactores en la tercera fila tenemos: det(A) = (−1)3+1 a31 det(A31 ) + (−1)3+2 a32 det(A32 ) + (−1)3+3 a33 det(A33 )       −1 0 −1 −1 0 −1   + 0 det   − 1 det  = 0 det  2 0 2 1 0 1 = −1(−1 + 2) = −1. Ahora, usando expansi´ on por cofactores en la segunda columna tenemos: det(A) = (−1)1+2 a12 det(A12 ) + (−1)2+2 a22 det(A22 ) + (−1)3+2 a32 det(A32 )       −1 −1 −1 −1 2 1   − 1 det   + 0 det  = −0 det  2 1 0 0 0 0 = −1(−1 + 2) = −1. A continuaci´ on presentamos dos propiedades importantes del determinante cuyas demostraciones son inmediatas del teorema anterior. Corolario 5.4. Sea A una matriz de tama˜ no n × n, si A tiene una fila o una columna de ceros, entonces det(A) = 0. Demostraci´ on. Supongamos que la i-´esima fila de A es nula, esto es, para 1 ≤ j ≤ n se tiene que aij = 0, entonces: det(A) = Expansi´on por cofactores en la fila i = n X j=1 aij Cij = 0. |{z} =0 En el caso en que haya una columna de ceros se hace una demostraci´ on similar usando expansi´ on por la columna de ceros. 162 Corolario 5.5. Sea A una matriz de tama˜ no n × n entonces det(At ) = det(A). Demostraci´ on. Sea B = At , entonces bij = aji y Bij = Atij = Aji , donde Aij y Bij son los ij-´esimos menores de A y de B respectivamente, entonces: det(At ) = det(B) = Expansi´on por cofactores en la columna 1 = n X bk1 (−1)k+1 det(Bk1 ) k=1 = n X a1k (−1)k+1 det(A1k ) = det(A). k=1     Corolario 5.6. Sea A =     a11 a12 ··· 0 .. . a22 .. . ··· .. . 0 0 ··· a1n    a21   ..  una matriz triangular superior, entonces .   a11 det(A) = a11 a22 · · · ann . Demostraci´ on. Se sigue del Lema 5.1 y del Corolario 5.5. Terminamos la secci´ on con la siguiente propiedad del determinante que ser´ au ´til en el Cap´ıtulo 6.  Teorema 5.7. Sea A ∈ Mn (F) una matriz tal que A =  B C 0 D   con B ∈ Mp (F) y D ∈ Mn−p (F) entonces det A = det B det D. Demostraci´ on. Por inducci´on sobre p.    a11 a12 · · · a1n   a22     0 a22 · · · a2n  ..   Si p = 1, tenemos que A =  . .. ..  entonces B = a11 , D =   .. ..   . . . .    an2 0 an2 · · · ann a11 . Aplicando cofactores a A a lo largo de la primera columna obtenemos que ··· .. . ···  a2n  ..  = A11 y det B = .   ann det A = a11 C11 + a21 C21 + · · · + an1 Cn1 = a11 det A11 = det B det D. |{z} |{z} |{z} =0 =0 =D Supongamos ahora que el resultado es cierto para submatrices de tama˜ no (p − 1) × (p − 1) y que B =   a11 · · · a1p   ..   .. .. . Aplicando nuevamente cofactores en la primera columna de A obtenemos que  . . .    ap1 · · · app ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 163 det A = a11 C11 + · · · + ap1 Cp1 + ap+1,1 Cp+1,1 + · · · + an1 Cn1 = a11 det A11 + · · · + (−1)p+1 ap1 det Ap1 |{z} | {z } =0 =0  a22   ..  . = a11 det   ap2   ··· .. . a2p .. . ··· app 0 a22   . = a11 det  .. |{z}  inducci´ on ap2 | ··· .. . ··· {z B11   a12 .. . ··· .. .     C1    + · · · + (−1)1+p ap1 det    ap−1,2 · · ·    0 D   a2p a12   ..   . det D + · · · + (−1)1+p ap1 det  .. .    app ap−1,2 } |  a1p .. . ap−1,p ··· .. . a1p .. . ··· {z ap−1,p    det D  } =Bp1 = (a11 det B11 + · · · + (−1)p+1 ap1 det Bp1 ) det D | {z }   Cp      D  f´ ormula por cofactores para det B = det B det D Problemas 5.1.1. Calcule el determinante de las siguientes matrices     −1 1 0 2 −1 1 2 0          3 2 0 1  0 −1 0 0     B= A=    4 3 0 2  1 2 1 0     5 3 0 1 3 −1 1 1 5.1.2.  −1 3    1 −1 C=   0 0  0 0 2 1    0 2   1 2  1 1  y  1 2   D = 0 2  3 2  1   2  1  a b 0 ··· 0 0 b a b ··· 0 0  0 b a ··· 0 0  5.1.3. Si Tn = det(An ) donde An es de la matriz tridiagonal: An =   ... ... ... . . . ... entonces Tn = aTn−1 − ..  . 0 0 0 ··· a b 0 0 0 ··· b a 2 b Tn−2 Si a = 2 y b = −1 demuestre que Tn = n + 1. En general demuestre que si a = 2b entonces Tn = (n + 1)bn Si a = 1 y b = 1 muestre que Tn = Tn−1 − Tn−2 . Muestre que Tn+6 = Tn para todo entero positivo n. Determine T900 .  a b −b a 0 −b  5.1.4. Si Sn = det(An ) donde An es la matriz tridiagonal An =   ... b2 Sn−2 0 0 .. . 0 0 0 ··· b ··· a ··· .. . . . .  0 0 0 0 0 0 .. . entonces Sn = aSn−1 + ..  . 0 ··· a b 0 ··· −b a 164 Si a = 1 y b = 1 demuestre que {Sn } es la sucesi´ on de Fibonacci.   B C , det A = −6 y det B = −3, determine det D. 5.1.5. Si A =  0 D  5.1.6. Si A =  B 0 C D   ∈ Mn (F) con B ∈ Mp (F) y D ∈ Mn−p (F) entonces det A = det B det D. 5.1.7. Sean A, B ∈ Mn (R) matrices triangulares superiores, demuestre que det(AB) = det A det B. Muestre que esto tambi´en se cumple si A y B son ambas triangulares inferiores o ambas diagonales. (Ayuda: Use el Problema 1.2.12.) 5.1.8. Sea A, B y C ∈ Mn (R), con A triangular superior, B diagonal y C triangular inferior, demuestre lo siguiente: b. det(BC) = det B det C . a. det(AB) = det A det B 5.1.9. Demuestre ormula del determinante de matrices 2 × 2 y 3 × 3.  la f´  a b , muestre que det(A) = ad − bc. Si A =  c d   a11 a12 a13     Si A = a21 a22 a23 , muestre que   a31 a32 a33 det(A) = a11 a22 a33 + a21 a32 a13 + a31 a12 a23 − a31 a22 a13 − a11 a32 a23 − a21 a12 a23 . 5.2. Determinantes y operaciones elementales de fila En esta secci´ on mostraremos que si E es una matriz elmental y A es una matriz arbitraria, ambas de tama˜ no n × n, entonces det(EA) = det E det A. Esto lo haremos considerando tres casos, uno por cada tipo de matriz elemental. Este resultado ser´ au ´til para demostrar que el determinante del producto de matrices es el producto de los determinantes, resultado que veremos en la pr´ oxima secci´ on.   a11 · · · a1n  . ..  ..  .  .  . .      Teorema 5.8. Sea A =  ai1 · · · ain  y B =    . ..  ..  .. . .    an1 · · · ann multiplicar una fila i por una constante c, entonces  a11  .  .  .   c · ai1   .  ..  an1 ··· .. . ··· .. . ··· det(B) = c · det(A).  a1n ..   .    c · ain  la matriz que se obtiene de A al  ..  .   ann ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 165 Demostraci´ on. Primero n´otese que para k = 1, . . . , n se tiene que Bik = Aik , ya que al eliminar la fila i de B se obtiene la misma matriz que al eliminar la fila i de A. Por tanto, det(B) = Expansi´on por cofactores en la fila i de B = n X bik (−1)i+k det( Bik ) |{z} |{z} k=1 =c·a = n X k=1 =c· c · aik (−1)i+k det(Aik ) n X k=1 =Aik ik aik (−1)i+k det(Aik ) = c · det(A). Ejemplo 5.5. El teorema anterior nos dice que si todas las entradas de una fila son m´ ultiplos de un real c, entonces ´este se puede factorizar de la fila como se muestra a continuaci´ on      1 1 2 −2 1 2 −2           det 4 2 −6 = det 2 · 2 2 · 1 2 · (−3) = 2 det 2      0 0 3 2 0 3 2 Del resultado anterior se deduce lo siguiente. 2 −2    1 −3 .  3 2 Corolario 5.9. Sea A una matriz n × n y sea E la matriz elemental que se obtiene de In al multiplicar una fila por una constante c 6= 0 entonces det(E) = c y det(EA) = det(E) det(A). Demostraci´ on. Por el Lema 5.1 tenemos que det In = 1 y por el teorema anterior se sigue det E = c det In = c. Ahora, la matriz EA se obtiene de A al multiplicar la fila i por c, Teorema 1.13, se sigue por el teorema anterior que det(EA) = c det A = det E det A. Ahora pasamos a mostrar el efecto que tiene un intercambio    a11 · · · a1n a    11  ..   . . . .. ..   .  ..        ai1 · · · ain   aj1     .   . . .   . . . . Teorema 5.10. Sea A =  . . .  y sea B =   .    a  a  j1 · · · ajn   i1    ..   ..  .. ..  .  . . .     an1 · · · ann an1 intercambiar las filas i y j de A, entonces de filas en el determinante de una matriz.  · · · a1n  ..  .. . .    · · · ajn   ..  .. . .   la matriz que se obtiene de A al  · · · ain    ..  .. . .   · · · ann det(B) = − det(A). 166 Demostraci´ on. Primero supongamos que las filas intercambiadas son consecutivas, es decir,  a11  .  .  .    ai1 A=  a(i+1)1   .  ..  an1 ··· .. . ··· ··· .. . ···   a1n a11  . ..    .  . .      a ain   y B =  (i+1)1    ai1 a(i+1)n     . ..    .. .   ann an1 ··· .. . ··· ··· .. . ···  a1n ..   .    a(i+1)n  .  ain   ..  .   ann Ahora, n´otese que b(i+1)k = aik y B(i+1)k = Aik ya que la matriz que se obtiene al eliminar la fila i + 1 de B coincide con la matriz que se obtiene al eliminar la fila i de A. Por tanto si usamos expansi´ on por cofactores en la fila i + 1 de B obtenemos: det(B) = = n X aik (−1)i+1+k det(Aik ) b(i+1)k (−1)i+1+k det(B(i+1)k ) = {z } {z } | | k=1 k=1 n X n X k=1 aik Aik aik (−1)(−1)i+k det(Aik ) = − n X k=1 aik (−1)i+k det(Aik ) = − det(A). En el caso general, para intercambiar las filas i y j de A se necesitan j − i cambios consecutivos de la fila i para llevarla a la fila j y j − i − 1 cambios consecutivos de la fila j para llevarla a la fila i, por tanto det(B) = (−1)j−i (−1)j−i−1 det(A) = (−1)2j (−1)−2i (−1)−1 det(A) = − det(A). | {z } | {z } | {z } =1 =1 =−1 De este resultado deducimos los siguiente. Corolario 5.11. Sea A una matriz n × n y sea E la matriz elemental que se obtiene de In al intercambiar las filas i y j entonces det(E) = −1 y det(EA) = det(E) det(A). Demostraci´ on. Si E se obtiene al intercambiar las filas i y j de In , entonces por el teorema anterior tenemos que det E = − det In = −1. Por el Teorema 1.13 tenemos que EA es la matriz obtenida de A al intercambiar sus filas i y j, se sigue del teorema anterior det EA = − det A = det E det A. Ahora demostramos un par de lemas necesarios para pasar al tercer tipo de matrices elementales. Lema 5.12. Si A es una matriz n × n con dos filas iguales, entonces det(A) = 0. ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 167 Demostraci´ on. Supongamos que las filas i y j de A son iguales y sea B la matriz que se obtiene de A al intercambiar las filas i y j, entonces B = A. Ahora, por el Teorema 5.10 tenemos que det(B) = − det(A), por tanto det(A) = − det(A), o equivalentemente, 2 det(A) = 0, concluimos que det(A) = 0. Lema 5.13. Sean A, B y C matrices cuyas filas son iguales excepto la fila i y   a11 · · · a1n  . ..  ..   . .  . .      C es la suma de las filas i de A y B, es decir, A =  ai1 · · · ain , B =    . ..  ..   .. . .   an1 · · · ann   a11 ··· a1n   .. .. ..   .   . .     ai1 + bi1 · · · ain + bin , entonces det(C) = det(A) + det(B).     .. .. ..   . . .   an1 ··· ann talque  a11  .  .  .    bi1   .  ..  an1 la i−´esima fila de  · · · a1n ..  ..  . .    · · · bin  y C =  ..  .. . .   · · · ann Demostraci´ on. Primero n´otese que para j = 1, . . . , n se tiene que Cij = Aij = Bij , ya que al eliminar la fila i de A se obtiene la misma matriz que al eliminar la fila i de B y la misma matriz al eliminar la fila i de C, por tanto al usar expansi´ on por cofactores en la fila i de C obtenemos det(C) = n X k=1 a = n X k=1 cik (−1)i+k Cik = |{z} ik +bik aik (−1)i+k Cik + |{z} Aik = det(A) + det(B). n X (aik + bik )(−1)i+k Cik = k=1 k=1 n X k=1 n X bik (−1)i+k Cik = |{z} Bik n X   aik (−1)i+k Cik + bik (−1)i+k Cik aik (−1)i+k Aik + n X bik (−1)i+k Bik k=1 k=1 Este lema se puede usar para reducir ciertos c´ alculos de determinantes como se muestra en el siguiente ejemplo.  0     Ejemplo 5.6. Calcular el determinante de la matriz A = −1 1 2.   2 2 2 Soluci´ on. Escribimos las entradas de la segunda fila como una suma de dos n´ umeros         3 2 0 3 2 0 3 2 0 3 2 0                 det(A) = det −1 1 2 = det 0 − 1 0 + 1 2 + 0 = det 0 0 2 + det −1 1 0 .         2 2 2 2 2 2 2 2 2 2 2 2  3 2 168 De esta forma obtenemos dos matrices ambas con una fila o una columna con 2 ceros, cuyos determinantes calculamos usando expansi´ on  3 2   det(A) = det 0 0  2 2 por dicha fila o   3 0     2 + det −1   2 2 columna y obtenemos:     2 0  3 3 2  2+3  + (−1)3+3 2 det  1 0 = (−1) 2 det   −1 2 2 2 2  2  1 = −2(6 − 4) + 2(3 − (−2)) = −4 + 10 = 14. Finalmente a pasamos a mostrar que al sumar un m´ ultiplo de una fila a otra fila    a11 a11 · · · a1n       .. .. . . .. ..    . .         ai1 · · · ain  ai1       . .. . .. ..  y sea B =  . Teorema 5.14. Considere la matriz A =  . .    .    a + ca  a  j1  j1 · · · ajn  i1    .. ..    .. ..   . . . .     an1 an1 · · · ann que se obtiene de A al sumar c veces la fila i a la fila j de A, entonces el determinante se preserva.  ··· a1n   .. ..  . .    ··· ain   . ..  la matriz . . .   · · · ajn + cain    ..  ..  . .  ··· ann det(B) = det(A). Demostraci´ on. Por el lema anterior tenemos que    a a11 ··· a1n   11     . . .. .. ..   ..  . .         ai1  ai1 ··· ain      .  .. .. ..   .. = det det(B) = det  . . .        a a + ca · · · ajn + cain   j1  j1 i1    .. ..   ..  ..   .  . . .    an1 an1 ··· ann |  a ···  11  .. ..  . .    ai1 · · ·   . .. . = det(A) + c · det  .  .  a  i1 · · ·   .. ..  . .  an1 · · · | {z  a1n  ..  .    ain   ..  .   = det(A).  ain    ..  .   ann } =0 (Lemma 5.12) ··· .. . ··· .. . ··· .. . ··· {z A   a1n a   11  .. ..   . .        ai1 ain     . ..   .. + det .      ca ajn   i1   ..   ..   . .   ann an1 } ··· .. . ··· .. . ··· .. . ···  a1n  ..  .    ain   ..  .    cain    ..  .   ann ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 169 Obtenemos el siguiente resultado. Corolario 5.15. Sea A una matriz n × n y sea E la matriz elemental que se obtiene de In al sumar c veces la fila i a la fila j de I entonces det(E) = 1 y det(EA) = det(E) det(A). Demostraci´ on. Como E se obtiene de sumar un m´ ultiplo de una fila a otra fila, tenemos por el teorema anterior que det E = det In = 1. Ahora, la matriz EA se obtiene de A al multiplicar la fila i por c, Teorema 1.13, se sigue por el teorema anterior que det(EA) = det A = det E det A. Resumimos los resultados de la secci´ on en el siguiente corolario. Corolario 5.16. Sea A una matriz n × n y E una matriz elemental, entonces det(EA) = det(E) det(A) y det(E) 6= 0. Mas a´ un, si E1 · · · , Ek son matrices elementales, entonces det(E1 · · · Ek A) = det(E1 ) · · · det(Ek ) det(A). Demostraci´ on. El resultado se sigue por inducci´on y los corolarios 5.9, 5.11 y 5.15. Los resultados de esta secci´ on nos permiten usar operaciones elementales para calcular el determinante de una matriz. La regla es simple: si intercambiamos dos filas, por el Teorema 5.10, el determinante de la nueva matriz es menos el determinante de la anterior. Si sumamos un m´ ultiplo de una fila a otra fila, por el Teorema 5.14, el determinante no cambia. En teor´ıa estas dos operaciones son suficientes para el calculo del determinante usando operaciones elementales, sin embargo el Teorema 5.8 nos permite factorizar una constante c en una fila tal como se mostr´ o en el Ejemplo 5.5. Para una mejor ilusatraci´ on presentamos los siguientes ejemplos.   0 3 1     Ejemplo 5.7. Usar operaciones elementales de fila para calcular el determinante de la matriz A = 0 2 3.   2 2 1 Soluci´ on. Para la reducci´ on lo primero que se har´ıa es intercambiar las filas 1 y 3, entonces por el Teorema 5.10 tenemos que  2 2 1      det A = − det 0 2 3 .   0 3 1 Lo siguiente para convertir la matriz en una matriz triangular superior debemos convertir el 3 en la posici´ on 2, 3 de la matriz en un 0. Para esto podemos sumar −3/2 de la fila 2 a la fila 3. El Teorema 5.14 nos dice que esta 170  2 2 1   2 2       operaci´ on no cambia el determinante, por tanto el determinante de las matrices 0 2 3 y 0 2    0 0 0 3 1 (obtenida de la anterior al aplicar la operaci´ on de fila − 32 F2 + F3 → F3 ) son iguales. Por tanto     2 2 1 2 2 1         det A = − det 0 2 3 = − det 0 2 3  = −2 · 2 · (−7/2) = 14,     0 0 −7/2 0 3 1 1    3   −7/2 este u ´ltimo resultado se obtiene del hecho que la matriz a la derecha es triangular superior y por tanto su determinante es el producto de las entradas en la diagonal. Concluimos que det A = 14.   0 1 2     apida, Ejemplo 5.8. En este ejemplo calculamos el determinante de la matriz A = 2 2 −2 de manera r´   3 3 2 solo se indica la operaci´ on que se hace, el teorema que se usa y el consecuente resultado.       2 2 −2 0 1 2 2 2 −2             = − det 0 1 det A = det 2 2 −2 F1 ↔F2 |{z} = − det 0 1 2  − 32 F1 +F3 ↔F3 |{z} 2  = −10       Tma 5.10 Tma 5.14 3 3 2 3 3 2 0 0 5 Tambi´en se pudo haber usado el Teorema 5.8 en el segundo paso como se indica a continuaci´ on, sin embargo como se mencion´ o antes, es suficiente con los Teoremas 5.10 y 5.14 en todos los casos.       1 1 −1 2 2 −2 0 1 2             = −2 det = − det 0 1 det A = det 2 2 −2 F1 ↔F2 |{z}   0 1 2 2    |{z}    Tma 5.8 Tma 5.10 3 3 2 3 3 2 3 3 2   1 1 −1     −2 det =   = −2 · 1 · 1 · 5 = −10 0 1 2 |{z}   Tma 5.14 0 0 5 −3F1 +F3 ↔F3 Problemas 5.2.1. Use operaciones elementales de fila para calcular el determinante de las siguientes matrices        1 2 −1 3 0 2 −1    0 2 −1 1 2 3        2 2 −2 4 1 1 −1      y D= C= B = 1 3 −2 , A =  4 5 4 ,        3 2 −1 0 2 1 −3    3 4 −3 3 2 1 2 3 −1 2 1 1 −1  4   1   1  2 5.2.2. Sea A una matriz de tama˜ no 3×3 invertible, si las operaciones elementales que se aplicaron a A para llevarla a su forma escalonada reducida son 2F1 + F3 → F3 , 2F2 → F2 , F2 ↔ F3 y −F3 + F1 → F1 , calcule lo siguiente ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 171 1. det A, usando las propiedades vistas en esta secci´ on 2. la matriz A y caclule el determinante por cofactores. 3. La inversa de A y verifique que det A = 1 det A . 5.2.3. Si E ∈ Mn (R) es una matriz elemental, muestre que det E = det1 E .     F1 F1 + F3         5.2.4. Si A = F2  es una matriz con F1 , F2 y F3 las filas de A y det A = 3. Calcule det F1 + F2 .     F3 F2 + F3 5.2.5. Sea A una matriz n × n y c ∈ R. Muestre que det(cA) = cn det(A). 5.2.6. Si A es una matriz 3×3 con det A = −3 determine det( 12 A) y det(−A). 5.2.7. Si A es una matriz 4×4 y se sabe que det(2A) = 4, determine det(A) y det(−A). 5.2.8. En este problema se propone demostrar que las propiedades del determinante con respecto a operaciones de fila tambi´en se cumplen en operaciones columna. Sean v1 , . . . , vn , w ∈ Rn y sea A = [ v1 · · · vn ] la matriz cuyas columnas son los vectores v1 , . . . , vn y λ ∈ R. Demuestre lo siguiente: 1. det[ v1 · · · λvi · · · vn ] = λ det A. 2. si i < j entonces det[ v1 · · · vj · · · vi · · · vn ] = − det A. 3. det[ v1 · · · vi · · · vi · · · vn ] = 0. 4. det[ v1 · · · vi + w · · · vn ] = det[ v1 · · · vi · · · vn ] + det[ v1 · · · w · · · vn ]. 5. si i 6= j entonces det[ v1 · · · vi · · · vj λvi · · · vn ] = det A. 6. det[ λv1 · · · λvn ] = λn det A. (Ayuda: Use el hecho que det A = det At .) 5.2.9. Sean A, B ∈ Mn (R) con B diagonal, demuestre que det(AB) = det A det B. Muestre tambi´en que det(BA) = det B det A. (Ayuda: Use el Problema 1.2.13). 5.2.10. Si B es antisim´etrica con n impar entonces det B = 0.   1+a b c     5.2.11. Muestre que det  a 1+b c  = 1 + a + b + c.   a b 1+c  1 c1 5.2.12. Sea A =  .. . n−1 Vandermonde. c1 1 c2 ··· ··· 1 cn ··· cn−1 n .. . . . . n−1 c2  .. . Demuestre que det A = . Y i> A = [1, 2, −1, 0; 2, 1, −1, 2; 3, 0, −2, 2; 0, 2, 2, 0]; det(A) el resultado que se obtiene en este caso es que det A = −12. Por tanto el volumen V del paralelep´ıpedo es V = | − 12| = 12. ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 185 Problemas 5.6.1. Calcule el ´ area del paralelogramo determinado por el par de vectores dados         −4 1 1 3 b. v1 =   y v2 =   . a. v1 =   y v2 =   . 1 1 4 2 5.6.2. Calcule el volumen del paralelep´ıpedo determinado por los vectores dados             3 1 1 1 2 −4                         a. v1 = 1 , v2 = 3 y v3 = 1 . b. v1 = 1 , v2 = 1 y v3 =  1  .             1 1 3 1 0 −1 5.6.3. Considere los vectores v1 , v2 , v3 , v4 y v5 en R5 con coordenadas (1, −4, 2, 2, 3), (1, 1, 1, 1, 2), (1, 0, 0, 4, 1), (1, 3, 1, 5, 0) y (1, 0, 0, −1, 2), respectivamente. Calcule lo siguiente: 1. el volumen del paralelep´ıpedo 5-dimensional determinado por v1 , v2 , v3 , v4 y v5 , 2. el volumen del paralelep´ıpedo 4-dimensional determinado por los vectores v1 , v2 , v3 y v4 , 3. el volumen del paralelep´ıpedo 3-dimensional determinado por los vectores v1 , v2 y v3 , 4. el ´ area del paralelogramos determinado por los vectores v1 y v2 5.6.4. Determine el ´ area del tri´ angulo determinado por los puntos: 1. A : (1, 0, 1), B : (1, 3, 1) y C : (1, 2, 3) en R3 . 2. A : (1, 0, 0, 1), B : (1, 3, 1, 0) y C : (1, 0, 0, −1) en R4 . 3. A : (1, 0, 0, 4, 1), B : (1, 3, 1, 5, 0) y C : (1, 0, 0, −1, 2) en R5 . 5.6.5. Sean A = (2, 1, 3, 4, 1, 0), B = (1, 1, 1, 1, 0, 1), C = (3, 5, 0, 0, 1, 1) D = (1, 2, 3, 4, 5, 6). Calcule el volumen de la piramide en R6 con v´ertices en los puntos A, B, C, D. Ayuda: Defina los vectores v1 , v2 y v3 con coordenadas A−D, B −D y C −D, respectivamente. Calcule al volumen del paralelep´ıpedo determinado por estos tres vectores y note que el volumen de la piramide es 1/6 del volumen del paralelep´ıpedo. 5.6.6. Sean A : (α1 , . . . , αn ), B : (β1 , . . . , βn ) y C : (γ1 , . . . , γn ) tres puntos en Rn y sean v1 y v2 los vectores con coordenadas (α1 − γ1 , . . . , αn − γn ) y (β1 − γ1 , . . . , β1 − γn ), respectivamente. Demuestre que los puntos A, B y C son colineales si y s´ olo si det[ v1 v2 ] = 0. (Un conjunto de puntos es colineal si existe una l´ınea que los contiene.) 5.6.7. Sean A : (α1 , . . . , αn ), B : (β1 , . . . , βn ), C : (γ1 , . . . , γn ) y D : (δ1 , . . . , δn ) cuatro puntos en Rn y sean v1 , v2 y v3 los vectores con coordenadas (α1 − δ1 , . . . , αn − δn ), (β1 − δ1 , . . . , β1 − δn ) y (γ1 − δ1 , . . . , γn − δn ), respectivamente. Demuestre que los puntos A, B, C y D son coplanares si y s´ olo si det[ v1 v2 v3 ] = 0. (Un conjunto de puntos es coplanar si existe un plano que los contiene.) 186 Cap´ıtulo 6 Valores y Vectores Propios En este cap´ıtulo estudiaremos los valores y vectores propios de una matriz. Este t´ opico es uno de los m´ as importantes en el ´ algebra lineal y tal vez el que tiene m´ as aplicaciones conocidas dentro de las matem´ aticas y a otras ´ areas. El objetivo principal es estudiar la diagonalizaci´ on de matrices y los criterios para que una matriz sea diagonalizable. Dado que los valores propios de una matriz son las ra´ıces del polinomio caracter´ıstico, todas las matrices en este cap´ıtulo se tomar´ an con entradas en C, el conjunto de los n´ umeros complejos, debido a que a cada matriz le asociaremos un polinomio, cuyas ra´ıces juegan un papel importante en la teor´ıa y necesitamos garantizar que el polinomio de grado n tiene exactamente n ra´ıces contando multiplicidades. 6.1. Polinomio Caracter´ıstico En esta secci´ on se introducen los conceptos de polinomio caracter´ıstico, valores propios, vectores propios y subespacios propios de una matriz. Tambi´en se definen las multiplicidades algebraica y geom´etrica de un valor propio. Veremos que los valores propios son las ra´ıces del polinomio caracter´ıstico y demostraresmos algunas propiedades de de los valores propios y vectores propios. Comenzamos con el siguiente lema del cual se sigue la definici´ on de polinomio caracter´ıstico. Lema 6.1. Sea A ∈ Mn (C) e I la matriz identidad, entonces det(A − xI) es un polinomio en x de grado n. El coeficiente del monomio xn en este polinomio es (−1)n . Demostraci´ on. Procedemos por inducci´on sobre n siendo el caso n = 1 inmediato. Para k < n y toda B ∈ Mk (C), supongamos que det(B − xI) es un polinomio de grado k y que (−1)k es el coeficiente de xk . Sean aij (i, j = 1, . . . , n) las entradas de A y sea C = A − xI. Aplicando cofactores en la primera fila de A − xI tenemos que det(A − xI) = det C = (a11 − x) det C11 + · · · + (−1)1+n a1n det C1n , 187 (6.1) 188 donde C1i (i = 1, . . . , n) es la matriz que se obtiene despu´es de eliminar la fila 1 y la columna i de C. Es f´acil ver que C11 = A11 − xI, donde A11 es la matriz que se obtiene despu´es de eliminar la fila 1 y la columna 1 de A. Se sigue por inducci´on que det C11 = (−1)n−1 xn−1 + t´erminos de grado menor a n − 1. Por otra parte, aplicando cofactores en la fila i de C1i , para i = 2, . . . , n, se tiene que det C1i = (−1)n−2 xn−2 + t´erminos de grado menor a n − 2. Por tanto, de (6.1) tenemos que  det(A − xI) = (a11 − x) (−1)n−1 xn−1 + t´erminos de grado menor a n − 1 + otros t´erminos de grado menor a n − 2 = (−1)n xn + t´erminos de grado menor a n. . Definici´ on 6.1. Sea A ∈ Mn (C) una matriz, al polinomio det(A − xI) se le llama el polinomio carater´ıstico de A y ´este ser´ a denotado por pA (x).  Ejemplo 6.1. El polinomio carater´ıstico de la matriz A =   pA (x) = det(A − xI) = det  1−x 1 2 −x  1 2  1  es el polinomio: 0  = (1 − x)(−x) − 2 = x2 − x − 2. La raz´ on por la cual en esta secci´ on estamos considerando matrices con entradas en los complejos, es con el fin de poder usar el Teorema fundamental de ´ algebra, el cual dice que todo polinomio de grado n con coeficientes en los complejos, tiene exactamente n ra´ıces contando multiplicidades. Por lo tanto para toda matriz compleja, su polinomio carater´ıstico tiene n ra´ıces. Estas ra´ıces juegan un papel importante en la matriz A, ya que estas coinciden con los valores propios de A. Esto lo mostraremos en el siguiente lema, despu´es de definir valor propio de una matriz. Definici´ on 6.2. Sea A ∈ Mn (C), decimos que λ ∈ C es un valor propio de A si existe un vector v 6= 0 tal que Av = λv. En este caso decimos tambi´en que v es un vector propio de valor propio λ. Lema 6.2. Sea A ∈ Mn (C), tenemos las siguientes caracterizaciones de valor propio para A. λ ∈ C es un valor propio de A si y s´ olo si N ul(A − λI) 6= 0 si y s´ olo si λ es una ra´ız de pA (x). Demostraci´ on. Esto lo podemos ver por equivalencias como sigue. λ es un valor propio de A si y s´ olo si existe v 6= 0 tal que Av = λv si y s´ olo si existe v 6= 0 tal que (A − λI)v = 0 si y s´ olo si existe v 6= 0 tal que v ∈ Nul(A − λI) si y s´ olo si A − λI no es invertible (Por el Corolario 1.22) si y s´ olo si 0 = det(A − λI) = pA (λ) (Por el Teorema 1.22) si y s´ olo si λ es un ra´ız de pA (x). ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 189 Sea A ∈ Mn (C), si λ es un valor propio de A, los vectores propios de valor propio λ forman un subespacio de Cn . Adem´ as ´este espacio coincide con N ul(A − λI). Lema 6.3. Sea λ ∈ C, tenemos lo siguiente 1. el conjunto E(λ) = {v ∈ Cn | Av = λv} es un subespacio de Cn . 2. E(λ) = N ul(A − λI) y se tiene adem´ as que E(λ) 6= {0} si y s´ olo si λ es un valor propio. Demostraci´ on. Le demostraci´ on de este hecho es f´acil y lo dejamos como ejercicio. Definici´ on 6.3. Si λ ∈ C es un valor propio, al subespacio E(λ) = N ul(A − λI) lo llamaremos el subespacio propio de valor propio λ. Del Lema 6.2 se deduce el siguiente procedimiento para calcular los valores y vectores propios de una matriz. Procedimiento 6.1. (Procedimiento para calcular los valores y vectores propios) 1. Se calcula el polinomio caracter´ıstico pA (x) = det(A − xI), 2. Se resuelve la ecuaci´ on pA (x) = 0, cuyas ra´ıces corresponden a los valores propios. 3. Para cada valor propio λ encontrado en en el paso anterior, se calcula una base para N ul(A − λI). Los vectores en dicha base son vectores propios de valor propio λ.   −3 5 , calcular los valores y vectores propios de A y determine los subespacios Ejemplo 6.2. Sea A =  −2 4 propios. Soluci´ on. El polinomio caracteristico de A, est´ a dado por   −3 − x 5  = x2 − x − 2 = (x − 2)(x + 1). pA (x) = det(A − xI) = det  −2 4−x Despu´es se resuelve la ecuaci´ on pA (x) = (x − 2)(x + 1) = 0, cuyas soluciones son x = 2 y x = −1. Tenemos por tanto para A dos valores propios: λ1 = 2 y λ2 = −1. Ahora se calulan bases para N ul(A − λi I) con i = 2 e i = −1.    Para λ1 = 2 tenemos que N ul(A − 2I) = N ul  1 −1 0 0  . De esto se sigue que −5 5 −2 2 , cuya forma escalonada reducida est´ a dada por         1 y x x   ∈ N ul(A − 2I) si y s´ olo si x = y si y s´ olo si   =   = y   .] 1 y y y 190   1 Concluimos que v1 =   es un vector propio de valor propio λ1 = 2. 1  Ahora calculamos N ul(A − λ2 I) con λ2 = −1. Es decir, N ul(A + I) = N ul   reducida de esta matriz est´ a dada por  1 −5/2 0 0  −2 5 −2 5  . La forma escalonada . Por tanto tenemos que         5 5 x y x 5   ∈ N ul(A + I) si y s´ olo si x = y si y s´ olo si   =  2  = y  2  . 2 y 1 y y   5 Se sigue que v2 =  2  es un vector propio de valor propio λ2 = −1. 1 En conclusi´ o n la matriz λ1=2y λ2 = −1 y los correspondientes subespacios propios   tiene valores propios 5     1 son E(2) = gen v1 =   y E(−1) = gen v2 =  2  .   1  1  b Observaci´ on 6.1. Es importante notar que los subespacios propios son subespacios invariantes bajo una trans- formaci´ on lineal. En el ejemplo anterior si consideramos la transformaci´ on T definida por T (v) = Av, entonces los subespacios E(2) y E(−1) son invariantes bajo T E(2) + T (E(2) ) + T + T (v1 ) + v1 + + E(−1) T (E(−1) ) v2 + + + b O + + + + + + b O T (v2 ) + + + + + + + + + Los vectores en la l´ınea E(−1) son enviados por T a la misma l´ınea. M´ as especificamente, para v ∈ E(−1) , T (v) = Av = −v, esto por ser un vector de valor propio −1. Similarmente, vectores en la l´ınea E(2) son enviados por T a la misma l´ınea y en este caso para v ∈ E(2) se tiene que T (v) = Av = 2v por ser un vector de valor propio 2. Tambi´en se sigue del Lema 6.2 que las l´ıneas E(−1) y E(2) son las u ´nicas l´ıneas invariantes bajo multiplicaci´ on por la matriz A. El hecho de que en general los subespacios propios E(λ) son invariantes bajo multiplicaci´ on por la matriz A es f´ acil de ver. De hecho si v ∈ E(λ) entonces Av = λv, y como E(λ) es un subespacio, se sigue que Av = λv ∈ E(λ) . Por tanto A(E(λ) ) ⊆ E(λ) . ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 191 En el ejemplo anterior tambi´en se puede verificar que los vectores propios encontrados son linealmente independientes. Esto no es una casualidad, de hecho vectores propios correspondientes a valores propios distintos son linealmente independientes. Teorema 6.4. Sea A ∈ Mn (C) y sean v1 , . . . , vk vectores propios con valores propios λ1 , . . . , λk , respectivamente. Si los λi son diferentes entre s´ı entonces los vectores v1 , . . . , vk son linealmente independientes. Demostraci´ on. Procedemos por inducci´on sobre k. Si k = 2 vamos a demostrar que v1 y v2 son LI. Para esto supongamos que existen escalares α1 y α2 tal que α1 v 1 + α2 v 2 = 0 (6.2) multiplicando por A ambos lados obtenemos α1 Av1 +α2 Av2 = 0, equivalentemente |{z} |{z} λ1 v 1 λ2 v 2 α1 λ1 v1 + α2 λ2 v2 = 0. (6.3) Ahora, multiplicando la Ecuacion (6.2) por λ1 obtenemos α1 λ1 v1 + α2 λ1 v2 = 0. (6.4) Restando la Ecuaci´ on (6.4) de la Ecuaci´ on (6.3) tenemos que α2 (λ1 − λ2 )v2 = 0. Pero como λ1 6= λ2 , es decir, λ1 − λ2 6= 0 y v2 6= 0 entonces se debe dar que α2 = 0. Reemplazando este valor en la Ecuaci´ on (6.2) tenemos que α1 v1 = 0 y como v1 6= 0 se debe dar que α1 = 0. Por tanto v1 y v2 son linealmente independientes. Ahora supongamos por inducci´on, que k − 1 vectores propios correspondientes a k − 1 valores propios distintos son LI y mostremos que v1 , . . . , vk son LI. Para esto supongamos que α1 v1 + · · · + αk vk = 0, multiplicando por A ambos lados tenemos que α1 Av1 + · · · + αk Avk = 0 o equivalentemente |{z} |{z} λ1 v1 (6.5) λk vk α1 λ1 v1 + · · · + αk λk vk = 0. (6.6) Ahora, multiplicando a ambos lados de la Ecuaci´ on (6.5) por λk tenemos α1 λk v1 + · · · + αk λk vk = 0. (6.7) Restando la Ecuaci´ on (6.7) de la Ecuaci´ on (6.6)obtenemos α1 (λ1 − λk )v1 + · · · + αk−1 (λk−1 − λk )vk−1 = 0. Por hip´ otesis los vectores v1 , . . . , vk−1 son k − 1 vectores propios correspondientes a distintos valores propios y por tanto son LI. Se sigue entonces que α1 (λ1 − λk ) = · · · = αk−1 (λk−1 − λk ) = 0 | {z } | {z } 6=0 6=0 192 como λ1 − λk 6= 0, · · · , λk−1 − λk 6= 0 se debe dar que α1 = · · · = αk−1 = 0. Reemplazando estos valores en la Ecuaci´ on (6.5) obtenemos αk vk = 0 y como vk 6= 0 se sigue que αk = 0. Concluimos que los vectores v1 , . . . , vk son LI.  5 6   Ejemplo 6.3. (MatLab) Calcule los valores y vectores propios de la matriz A = −3 −4  0 0 Soluci´ on. Calculamos el polinomio caracter´ıstico con MatLab como sigue 9    −9.  2 >> A = [5 6 9; −3 − 4 − 9; 0 0 2]; p = poly(sym(A)) p = x3 − 3 ∗ x2 + 4 para calcular los valores propios podemos factorizar p, lo cual podemos hacer con MatLab como sigue >> factor(p) ans = (x + 1) ∗ (x − 2)2 De donde tenemos que los valores propios son λ1 = −1 de multiplicidad 1 y λ2 = 2 de multiplicidad 2. Ahora para cada valor propio calculamos los vectores propios como sigue: Para λ = −1 >> null(A + eye(3),′ r′ ) ans = −1 1 0  −1     Por tanto el vector v1 =  1  es un vector propio de valor propio λ = −1.   0 Para λ = 2  >> null(A − 2 ∗ eye(3),′ r′ ) ans = −2 −3 1 0 0 1     −3         Luego los vectores v2 =  1  y v3 =  0  son vectores propios de valor propio λ = 2.     0 1 En este caso obtenemos que E(−1) = gen{v1 } y E(2) = gen{v2 , v3 }. El subespacio propio E(−1) es un −2 subespacio de dimensi´ on 1 y E(2) es de dimensi´ on 2. ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 193 El ejemplo anterior exhibe un caso en el que, para un valor propio λ, dim E(λ) es diferente de 1. En general este espacio puede tener cualquier dimensi´ on entre 1 y n. Los valores propios, por ser ra´ıces del polinomio caracter´ıstico tambi´en tienen una multiplicidad algebraica. Como en el caso anterior la multiplidad algebraica de λ = 2 es 2, ya que (x − 2)2 es factor de pA (x). Por tanto a un valor propio λ le podemos asociar dos enteros positivos: la multiplicidad algebraica como ra´ız del polinomio caracter´ıstico y la dimensi´ on del subespacio E(λ) . Esto motiva la siguiente definici´ on. Definici´ on 6.4. Sea A una matriz de tama˜ no n×n y sean λ1 , . . . λk los valores propios de A, 1. Decimos que la multiplicidad algebraica de λi , es k si (λi − x)k es la m´ axima potencia de λi − x que divide a pA (λ). La multiplicidad algebraica de un valor propio λ ser´ a denotada por a(λ) . 2. La multiplicidad geom´etrica de λi esta dada por dim Eλi . La multiplicidad geom´etrica de un valor propio λ ser´ a denotada por g(λ) . Ejemplo 6.4. En el ejemplo anterior tenemos que a(−1) = 1 = g(2) y a(2) = 2 = g(2) . Ejemplo 6.5. En el Ejemplo 6.2 tenemos que a(−1) = g(−1) = 1 y a(2) = g(2) = 1.  3 −1 0 0      −1 3 0 0 . Ejemplo 6.6. (MatLab) Calcular los valores y vectores propios de la matriz A =     7 −1 −4 0   7 −1 0 −4 Soluci´ on. En MatLab podemos usar un comando diferente al usado en el Ejemplo 6.3 que nos permite calcular todos los valores y vectores propios con una sola instrucci´ on como sigue. >> A = [3 − 1 0 0; −1 3 0 0; 7 − 1 − 4 0; 7 − 1 0 − 4]; [V, D] = eig(A) V = 0 0 1/2 1/2 0 0 −1/2 1/2 1 0 1/2 1/2 0 1 D = −4 1/2 1/2 0 0 0 0 −4 0 0 0 0 4 0 0 0 0 2 Con este comando los vectores propios son las columnas de la matrizV y los correpondientes valores propios   0 0         0  0    en la matriz D. Tenemos entonces que A tiene vectores propios v1 =    y v2 =   ambos de valor propio 1  0     0 1 194  1/2   1/2          1/2 −1/2  de valor propio λ = 2. N´    otese que en este ejemplo λ = −4, v3 =    de valor propio λ = 4 y v4 =  1/2  1/2      1/2 1/2 se tiene que cada valor propio tiene multiplicidad geom´etrica y algebraica iguales. En realidad este comando nos da mas informaci´ on acerca de la matriz, ver Ejemplo 6.24. Hasta ahora solo hemos visto ejemplos donde la multiplicidad geom´etrica y algebraica de cada valor propio son iguales, pero esto no siempre se cumple. De hecho es posible que la multiplicidad geom´etrica sea estrictamente menor que la multiplicidad algebraica, a continuaci´ on damos ejemplos donde se da esto. Ejemplo 6.7. (MatLab) Calcular los valores propios y sus multiplicidades algebraica y geom´etrica de la matriz   −3 −2 1     A =  1 −6 1 .   1 −2 −3 Soluci´ on. Primero calculamos el polinomio caracter´ıstico del A. >> A = [−3 − 2 1; 1 − 6 1; 1 − 2 − 3]; f actor(poly(sym(A))) ans = (4 + x)3 Es decir que pA (x) = (4 + x)3 y se sigue que λ = −4 es el u ´nico valor propio con multiplicidad algebraica 3. Ahora, necesitamos el subespacio propio para calcular la multiplicidad geom´etrica. >> null(A − 3 ∗ eye(3),′ r′ ) ans = 2 −1 1 0 0 1 Esto indica que E(−4)          2 −1       = gen 1 ,  0  y se sigue que g(−4) = 2 < 3 = a(−4) .           0 1  Ejemplo 6.8. (MatLab) Calcular los valores propios y sus multiplicidades algebraica y geom´etrica de la matriz   −4 −1 1     A =  0 −5 1 .   −1 0 −3 Soluci´ on. Calculamos el polinomio caracter´ıstico >> A = [−4 − 1 1; 0 − 5 1; −1 0 − 3]; f actor(poly(sym(A))) ans = (4 + x)3 Nuevamente obtenemos que λ = −4 es el u ´nico valor propio con multiplicidad algebraica 3, ahora necesitamos el subespacio propio para calcular la multiplicidad geom´etrica. ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 195 >> null(A − 3 ∗ eye(3),′ r′ ) ans = 1 1 1 Por tanto E(−4)       1         = gen 1 . En este caso obtenemos que g(−4) = 1 < 3 = a(−4) .        1   Como los valores propios son las ra´ıces de el polinomio caracter´ıstico, y sabemos que existen polinomios con coeficientes reales (incluso enteros) y ra´ıces complejas, entonces tambi´en existen matrices con entradas reales (enteras) y valores propios complejos. A continuaci´ on exhibimos un ejemplo.  −1   Ejemplo 6.9. (MatLab) Calcular los valores y vectores propios de la matriz A = −2  −4 Soluci´ on. Usamos MatLab para calcular los valores propios −2 2    −1 2.  −1 3 >> A = [−1 − 2 2; −2 − 1 2; −4 − 1 3]; p = poly(sym(A)) x3 − x2 + x − 1 Depu´es lo factorizamos: f actor(p) ans = (x − 1) ∗ (x2 + 1) De aqui deducimos que los valores propios son λ1 = 1, λ2 = i y λ3 = −i. Ahora calculamos los vectores propios: >> v1 = null(c − eye(3),′ r′ ) v1 = 1/3 2/3 1 >> v2 = null(c − i ∗ eye(3),′ r′ ) v2 = 3/5 − 1/5i 3/5 − 1/5i 1 >> v2 = null(c + i ∗ eye(3),′ r′ ) v3 = 3/5 + 1/5i 3/5 + 1/5i 1 196  1/3   3/5 − 1/5i   3/5 + 1/5i              Por tanto los vectores propios son v1 = 2/3, v2 = 3/5 − 1/5i y v3 = 3/5 + 1/5i de valores propios       1 1 1 λ1 = 1, λ2 = i y λ3 = −i, respectivamente. Problemas 6.1.1. Encuentre los valores, vectores y subespacios propios de la matriz. Determine tambi´en las multiplicidades geom´etricas y algebraicas de cada valor propio.     2 −1 −2 −2 , , b. B =  a. A =  5 −2 −5 1  5 4 2      d. D = 4 5 2   2 2 2  4   g. G =  6  10 −3 −6 −9  0   1 ,  1  0 1   e. E = 0 0  1 −3  5   h. H =  7  10  c. C =    0   1  3 −3 −7 −11 −3 1   1 ,  2  , −3 0 −1 −2   f. F =  1  1  2    1 ,  −2 −1 −4  1 0 0   1 0 i. J =   0 1  0 0 0 1    0 0 .  0 0  1 0 6.1.2. Sea A ∈ M3 (C) con dos valores propios distintos λ1 y λ2 . cuales son los posibles polinomios caracteristicos de A. Repita si A ∈ M4 (C). 6.1.3. Sean λ1 , λ2 , . . . , λk todos los diferentes valores propios de A ∈ Mn (C) con multiplicidades algebraicas a(λ1 ) , . . . , a(λk ) , respectivamente. Demuestre que lo siguiente. 1. El vector v es un vector propio de A de valor propio λ si y s´ olo v es un vector propio de αA valor propio αλ. 2. Para α 6= 0, todos los diferentes valores propios de la matriz αA son αλ1 , αλ2 , . . . , αλk . Deduzca que a(λi ) es la multiplicidad algebraica de αλi como valor propio de αA , para i = 1, . . . , k. 3. El vector v es un vector propio de A de valor propio λ si y s´ olo v es un vector propio de A − αI valor propio λ − α. 4. Demuestre que todos los diferentes valores propios de A − αI son λ1 − α, λ2 − α, . . . , λk − α. Deduzca que, para i = 1, . . . , k, la multiplicidad algebraica de λi − α como valor propio de A − αI es a(λi ) . 5. El vector v es un valor propio de A de valor propio λ si y s´ olo si v es un vector Am con valor propio λm . m m m 6. Demuestre que λm 1 , λ2 , . . . , λk son todos los diferentes valores propios de A . Deduzca que la multiplicidad m algebraica de λm es a(λi ) , para i = 1, . . . , k. i como valor propio de A ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 197 7. Sea v es un vector propio de A con valor propio λ, f (x) = a0 + a1 x + · · · + ak xk un polinomio y f (A) la matriz definida por f (A) = a0 I + a1 A + · · · + ak Ak , entonces v es un vector propio de f (A) con valor propio de f (λ). Deduzca que f (λ1 ), f (λ2 ), . . . , f (λk ) son valores propios de f (A).   −2 −2  y f (x) = 1 − 2x + 3x3 . 8. Verifique lo anterior si A =  −5 1  6.1.4. Encuentre los valores y vectores propios de la matrices A =  a −a2 1 0   yB= a a2 1 0  . 6.1.5. Sea A una matriz sim´etrica 2×2 con entradas reales. Demuestre que los valores propios de A son reales.   B C  entonces pA (x) = pB (x)pD (x). 6.1.6. Demuestre que si A =  0 D 6.1.7. Demuestre el Lema 6.3. 6.1.8. Demuestre que si A es invertible y v es un vector propio de A entonces v es un vector propio de A−1 de valor propio 1/λ. 6.1.9. Demuestre que si A ∈ Mn (R) y v ∈ E(λ) entonces v¯ ∈ E(λ) ¯ . 6.1.10. Demuestre que A es invertible si y s´ olo si λ = 0 no es un valor propio de A si y s´ olo si pA (0) 6= 0. 6.1.11. Si P es una matriz proyecci´ on, es decir, si P 2 = P y P 6= I entonces det P = 0. (Recuerde que P visto como aplicaci´ on lineal satisface que ImP = ColP = {v | P v = v} y KerP = (ImP )⊥ ) 6.1.12. Demuestre que si A es nilpotente, es decir, si Ak = 0 para alg´ un k > 0, entonces λ = 0 es el u ´nico valor propio de A. 6.1.13. Demuestre que si A2 = I entonces los valores propios de A son λ = 1 o λ = −1. 6.1.14. Si λ1 , . . . , λk son todos los valores propios de A entonces 1 1 λ1 , . . . , λk son todos los valores propios de A−1 . 6.1.15. Si λ1 , . . . , λn son los valores propios de A entonces det(A) = λ1 · · · λn . 6.1.16. Demuestre que A + I es invertible si y s´ olo si λ = −1 no es un valor propio de A. 6.1.17. Si A ∈ Mn (C) es invertible, demuestre que existe α ∈ Cn tal que A + αI no es invertible. 6.1.18. Sea A ∈ Mn (C), demuestre que A y At tienen el mismo polinomio caracter´ıstico, es decir, pA (x) = pAt (x). Deduzca que A y At tienen los mismos valores propios.  0 0 0 ··· 0 −a0  1 0 0 ··· 0  0 1 0 ··· 0 6.1.19. Si A =   ... ... ... . . . ... −a1 −a2 .. . 0 0 0 ··· 0 −an−2 0 0 0 ··· 1 −an−1   demuestre que pA (x) = (−1)n (xn + an−1 xn−1 + · · · + a1 x + a0 ).  Exhiba una matriz A cuyo polinomio caracter´ıstico sea pA (x) = x4 − x + 1. 198 6.2. Matrices Similares En esta secci´ on se definen los conceptos de matrices similares y matriz diagonalizable. Veremos que no todas las matrices son diagonalizables, que matrices similares tienen el mismo polinomio caracter´ıstico y usaremos esto para mostrar que la multiplicidad geom´etrica de un valor propio es menor o igual a su multiplicidad algebraica. Definici´ on 6.5. Sean A y B matrices de tama˜ no n×n, decimos que A y B son similares si existe una matriz invertible C tal que A = CBC −1 . Escribiremos A ∼ B para denotar que A y B son similares.       1 −1 3 0 2 1 , se  son similares. Ya que si se toma C =  yB= Ejemplo 6.10. Las matrices A =  1 1 0 1 1 2 tiene que A = CBC −1 . La siguiente propiedad de matrices similares es importante para lo que sigue. Teorema 6.5. Matrices similares tienen el mismo polinomio caracter´ıstico. Es decir, si A, BMn (C) son similares entonces pA (x) = pB (x). Se deduce adem´ as que matrices similares tienen los mismos valores propios. Demostraci´ on. Como A y B son similares, existe una matriz invertible C tal que B = CAC −1 , luego pB (λ) = det(B − λI) = det(CAC −1 − λI) = det(CAC −1 − λCIC −1 )   = det C(A − λI)C −1 = det(C) det(A − λI) det(C −1 ) = det(C) det(A − λI) 1 = det(A − λI) det(C) = pA (λ). Hay un caso especial de similaridad de matrices que definimos a continuaci´ on y ser´ a tratado m´ as a fondo en la Secci´ on 6.4. Definici´ on 6.6. Sea A una matriz de tama˜ no n×n, decimos que A es diagonalizable si existe una matriz diagonal D tal que A ∼ D.  Ejemplo 6.11. La matriz A =   la matriz diagonal  3 0  0 . 1 2 1  1  es diagonalizable ya que en el Ejemplo 6.10 vimos que A es similar a 2 Es importante aclarar que no todas las matrices son diagonalizables. A continuaci´ on exhibimos un ejemplo.   1 1  no es diagonalizable. Por el absurdo supongamos que existe Ejemplo 6.12. Veamos que la matriz A =  0 1   a 0 . una matriz D diagonal tal que A ∼ D, con D =  0 b ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 199 N´ otese que los valores propios de A son λ = 1 con multiplicidad 2 y los valores propios de D son λ = a y λ = b. Como A ∼ D, entonces por el Teorema 6.5 A y D tienen los mismos valores valores propios, por tanto a = b = 1, entonces D = I. Finalmente, como A ∼ D(= I), existe una matriz invertible C tal que A = CDC −1 por tanto   1 1 0 1    = A = C D C −1 = CIC −1 = I =  |{z} =I 1 0  0  1 De esta igualdad se sigue que 1 = 0, lo que es absurdo. Concluimos que A no es diagonalizable. Este tambi´en muestra que el rec´ıproco del Teorema 6.5 no es cierto. De acuerdo al ejemplo, la matriz   ejemplo 1 1  y la matriz identidad tienen los mismos valores propios y en consecuencia el mismo polinomio A =  0 1 caracter´ıstico, sin embargo no son similares. La pregunta natural es bajo cuales condiciones una matriz es diagonalizable. La respuesta est´ a en la Secci´ on 6.4, m´ as precisamente los Teoremas 6.13 y 6.15, caracterizan las matrices diagonalizables. En los ejemplos de la secci´ on anterior vimos que la multiplicidad geom´etrica de de los valores propios es menor o igual a la multiplicidad algebraica, esto es cierto en general. Teorema 6.6. Sea A una matriz de tama˜ no n×n y sea λ un valor propio de A, entonces g(λ) ≤ a(λ) , es decir, multiplicidad geom´etrica de λ ≤ multiplicidad algebraica de λ. Demostraci´ on. Sea λ un valor propio de A, Como λ es un valor propio, entonces existe v 6= 0 tal que Av = λv y por tanto E(λ) 6= 0. Sea k = dim E(λ) , es decir k = g(λ) , y sean {v1 , . . . , vk } es una base para E(λ) . Tenemos entonces que Avi = λvi para i = 1, . . . , k. Ahora tomemos wk+1 , . . . , wn tal que {v1 , . . . , vk , wk+1 , . . . , wn } es una base para h i Cn y sea S = v1 . . . vk wk+1 . . . wn . Como {v1 , . . . , vk , wk+1 , . . . , wn } es una base, entonces por el Corolario 2.13 tenemos que S es invertible y se tiene que h I = S −1 S = S −1 v1 · · · h = S −1 v1 · · · vk wk+1 S −1 vk ··· S −1 wk+1 wn i ··· i S −1 wn , de donde se sigue que S −1 v1 = e1 , . . . , S −1 vk = ek . Ahora definamos B = S −1 AS, de esto se sigue que A y B son similares y por el teorema anterior tenemos 200 que pA (x) = pB (x) y la matriz B tiene la siguiente forma: h i B = S −1 AS = S −1 A v1 · · · vk wk+1 · · · wn # " Av Aw · · · Aw · · · Av 1 k+1 n k = S −1 |{z} |{z} λv1 λvk h = S −1 λv1 · · · " S −1 λv · · · = | {z }1 λvk −1 = λ |S {z v} · · · h ··· λ S −1 vk S −1 Awk+1 | {z } ek λek S −1 Awk+1  λ . . .   0 =  0  .  ..  0 h donde R = S −1 Awk+1 ··· Awn i ··· S −1 Awn ··· S −1 Awn λS −1 vk e1 = λe1 ··· S −1 λvk S −1 Awk+1 | {z } λS −1 v1 " Awk+1 ··· .. . 0 .. . ··· λ ··· .. . 0 .. . ··· 0 S −1 Awn ···        R       i  S −1 Awn . Si escribimos R =  una matriz (n − k) × (n − k), tenemos que   λ ··· 0 .  .  . ..  . .. R1  .     0 · · · λ    B= y por tanto  0 · · · 0    . .  . . ... R2   ..   0 ··· 0 R1 R2  # # i   con R1 una matriz k × (n − k) y R2 es λ−x  .  .  .    0 B − xIn =    0   .  ..  0 ··· .. . 0 .. . ··· λ−x ··· .. . 0 .. . ··· 0        .     R2 − xIk   R1 Se sigue del Teorema 5.7 que pB (x) = det(B − xI) = (−1)k (λ − x)k × det(R2 − xIk ). En consecuencia, como A y B son similares, tenemos que pA (x) = pB (x) = det(B − xI) = (−1)k (λ − x)k × det(R2 − xIk ). Se sigue que (λ − x)k es un factor de pA (x) y por tanto la multiplicidad algebraica de λ como ra´ız de pA (x) es mayor o igual a k, es decir, k ≤ a(λ) . Concluimos que g(λ) = k ≤ a(λ) . ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 201 Problemas 6.2.1. Determine cual de las siguientes 3 matrices es diagonalizable      3 0 0 3 1 0 3 1           a. A = 0 3 0 b. B = 0 3 0 c. C = 0 3      0 0 3 0 0 3 0 0    3 0     0 y C=0   0 3 3 1   6.2.2. Muestre que las matrices B = 0 3  0 0 1 0   0   1  3   3 1no son similares.  0 3 6.2.3. Sea v ∈ Cn \ {0} y P = vv t , demuestre que v es un vector propio de P y que E0 = V ⊥ con V = gen{v}.   2b −b2  no es diagonalizable, para ning´ un b ∈ C. Muestre que la matriz 6.2.4. Muestre que la matriz A =  1 0   2 −2b −b  tampoco es diagonalizable para ning´ un b. B= 1 0  6.2.5. Muestre que la matriz A =  λ 1 0 λ  6.2.6. Muestre que las matrices A =    no es diagonalizable, para ning´ un λ ∈ C. λ1 0 0 λ2   yB= λ1 1 0 λ2   son similares si y s´ olo si λ1 6= λ2 . 6.2.7. Demuestre que si B es invertible entonces AB y BA son similares.   0 a b     olo si a = b = c = 0. 6.2.8. Demuestre que la matriz A = 0 0 c  es diagonalizable si y s´   0 0 0  a   6.2.9. Demuestre que las matrices A = 0  0 b a 0 c   a     d y B =  0   0 a 0 a 0  0   olo si a = b = c = 0. 0 son similares si y s´  0 ´ Y AGREGAR OTROS MOVER PROBLEMAS DEL FINAL HACIA ESTA SECCION 6.3. Cambio de Base El objetivo de esta secci´ on es demostrar que dos matrices son similares si y s´ olo si est´ an relacionadas por un cambio de coordenadas (cambio de base), para llegar a esto debemos definir cambio de coordenadas. 202 Definici´ on 6.7. Sean X = {v1 , . . . , vn } una base de Rn y v ∈ Rn , sabemos que existen escalares α1 , . . . , αn talque v = α1 v1 + · · · + αn vn y que esta representaci´ on es u ´nica. Definimos la representaci´ on del vector v en   α1    ..  t´erminos de la base X como el vector vX =  .  .   αn         −1  1 4 Ejemplo 6.13. Sea X = v1 =   , v2 =   . N´ otese que si w =   tenemos que v = 3v1 − v2 y por   2 1 1   3 tanto wX =  . −1 En la siguiente figura se pueden observar los vectores de la base X del ejemplo anterior y el vector w. 3 2 v2 1 b e2 −4 −3 −2 −1 v1 e1 1 w 2 3 4 −1 −2 −3 −4   4 on del vector w con respecto a los vectores Cuando escribimos que w =   estamos en realidad dando la posici´ 1 e1 y e2 , ya que w = 4e1 + e2 . Es decir, las componentes de w no son m´ as que las coordenadas del vector con respecto a los vectores de la base est´ andar. El vector wX en cambio, nos est´ a dando las coordenadas del vector w con respecto a la base X, ya que w = 3v1 − v2 (como se puede verificar en la gr´ afica). Esto nos permite decir que las componentes del vector vX son las coordenadas del vector v con respecto a los vectores v1 y v2 de la base X. A continuaci´ on definimos la matriz de cambio de base, que nos permitir´ a cambiar las coordenadas de un vector de una base a otra. Definici´ on 6.8. Sean X = {v1 , . . . , vn } y Y = {w1 , . . . , wn } bases para Rn , definimos la matriz del cambio de base (o cambio de coordenadas) de la base X a la base Y como la matriz. Y IX h = (v1 )Y ··· i (vn )Y .     0  1 andar y Ejemplo 6.14. Sean E y X las bases de R2 definidas por E = e1 =   , e2 =   la base est´  1  0   ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 203     −1  1 on anterior se tenemos que la matriz X = v1 =   , v2 =   , de la definici´  2  1   h E IX = (v1 )E i h  i (v2 )E = v1 v2 =  1 −1 1 2 E IX est´ a dada por  . En el siguiente teorema establecemos la propiedad que caracteriza la matriz de cambio de base. Teorema 6.7. Sean X = {v1 , . . . , vn } y Y = {w1 , . . . , wn } bases para Rn y sea v ∈ Rn , entonces vY = Y IX · vX . M´ as a´ un, la matriz de cambio de base es la u ´nica con esta propiedad. Demostraci´ on. Como X es una base, existen constantes β1 , . . . , βn tal que v = β1 v 1 + · · · + βn v n (6.8)  β1    .  de la definici´on tenemos que vX =  ..  , y como Y es una base, para 1 ≤ i ≤ n, existen constantes α1i , . . . , αni   βn tal que   vi = α1i w1 + · · · + αni wn ,  α1i    .  luego (vi )Y =  .. , por tanto   αni Y IX h = (v1 )Y ···  α11 i   .. (vn )Y =  .  αn1 (6.9) ··· .. . ···  α1n  ..  .   αnn De las Ecuaciones (6.8) y (6.9) tenemos que v = β1 v 1 + · · · + βn v n = β1 (α11 v1 + · · · + αn1 vn ) + · · · + βn (α1n v1 + · · · + αnn vn ) = (β1 α11 + · · · + βn α1n )v1 + · · · + (β1 αn1 + · · · + βn αnn )vn luego    β1 α11 + · · · + βn α1n α11    ..    .. vY =  = . .    β1 αn1 + · · · + βn αnn αn1 | ··· .. . ··· {z Y IX   α1n β1   ..   ..    = Y IX vY . .   .  αnn βn } | {z } vY 204 Para la segunda parte, supongamos que A es tal que vY = AvX para todo v ∈ Rn . En particular se tiene que para i = 1, . . . , n se tiene que (vi )Y = A(vi )X . Como (vi )X = ei se sigue que (vi )Y = A(vi )X = Aei = i´esima columna de A. Se sigue por tanto que las columnas de A son los vectores (v1 )Y , . . . , (vn )Y , es decir, A = [ (v1 )Y · · · (vn )Y ]. ´ Cada base determina ejes coordenados de Rn . Estos ejes corresponden a las l´ıneas generadas por cada uno de los vectores de la base. El Teorema anterior muestra que la matriz de cambio de base Y IX sirve para determinar las coordenadas en t´erminos de la base Y de un vector escrito en t´erminos de una base X. Esto se ilustra en el siguiente ejemplo.     −1  1 Ejemplo 6.15. Sean E = {e1 , e2 } la base est´ andar de Rn y X = v1 =   , v2 =   . Sea v = 3v1 − v2 ,  2  1     1 −1 3 , entonces se sigue que vX =  . Por el Ejemplo 6.14 se tiene que E IX =  1 2 −1    v = vE = E IX vX =    4   =  . 1 −1 2 1 −1 1  3  Como se muestra en la siguiente figura, estas dos bases determinan dos sistemas de ejes para R2 , uno determinado por los vectores de la base X y otro determinado por los vectores de la base est´ andar y la matriz E IX permite cambiar las coordenadas de un vector, en t´erminos de la base X, a las coordenadas en t´erminos de la base est´ andar. Usando la figura tambi´en se pueden determinar las coordenadas del vector w con respecto a cada una de estas bases. 6 4 v2 e2 v 1 v2 w 2 e2 v1 w b e1 b −4 e1 −2 −2 −4 2 4 6 ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 205           4  3 2 −1 Ejemplo 6.16. Considere las bases X = v1 =   , v2 =   y Y = w1 =   , w2 =   de R2 y   1  1 1  0 v = 2v1 + 3v2 , expresar a v en t´erminos de la base Y .     2 1 Soluci´ on. N´ otese que v1 = w1 − w2 y v2 = 2w1 − w2 , luego (v1 )Y =   y (v2 )Y =  , de donde −1 −1     2 1 2 . Ahora, como vX =  , entonces  Y IX = 3 −1 −1      8 2 1 2   =  . vY = Y IX vX =  −5 3 −1 −1    Es decir, v = 8w1 − 5w2 . El siguiente teorema describe una forma de calcular la matriz de cambio de base. h Teorema 6.8. Sean X = {v1 , . . . , vn } y Y = {w1 , . . . , wn } bases para Rn y sean A = v1 h i w1 · · · wn . Entonces Y IX = B −1 A. ··· i vn y B = Demostraci´ on. Expresando los vectores v1 , . . . , vn en t´erminos de la base Y obtenemos: v1 = α11 w1 · · · + αn1 wn .. . . (6.10) vn = α1n w1 · · · + αnn wn    α11 α1n      .   .  Entonces (v1 )Y =  ..  , . . . , (vn )Y =  ..  y por tanto     αn1 αnn De la Ecuaci´ on (6.10) tenemos que  h v1 | por tanto A = B Y IX , ··· {z =A i h v n = w1 } | ··· {z =B Y IX  α11   .. = .  αn1  α11 i  .. wn  . } αn1 | ··· ··· .. . ··· {z =Y IX multiplicando a ambos lados por B −1 obtenemos Y IX ··· .. .  α1n  ..  . .   αnn  α1n  ..  , .   αnn } = B −1 A. De este teorema se sigue un procedimiento para calcular la matriz del cambio de base, el cual damos a continuaci´ on. Procedimiento 6.2. (Procedimiento para calcular la matriz del cambio de base) Sean X = {v1 , . . . , vn } h i h i y Y = {w1 , . . . , wn } bases para Rn y sean A = v1 · · · vn y B = w1 · · · wn entonces 206 h i 1. Aplicar reducci´ on Gauss-Jordan a la matriz aumentada B A hasta encontrar su forma escalonda reducida. " # −1 2. Al final del paso 1. obtenemos I B | {z A} . Luego en la parte derecha de la matriz aumentada se obtiene la Y matriz de cambio de base IX Y IX .           1  2 1  1 Ejemplo 6.17. Considere las bases X = v1 =   , v2 =   y Y = w1 =   , w2 =   de R2 ,   0  −1 −1  1   1 calcular Y IX y vY si vX =  . 1   h i 2 1 1 1  obtenemos la matriz Al reducir la matriz w1 w2 v1 v2 =  −1 0 1 −1     1 0 −1 1 −1 1    y por tanto Y IX =  0 1 3 −1 3 −1   0 Por el Teorema 6.7 tenemos que vY =Y IX · vX =  . 2          1  1 2              3 Ejemplo 6.18. (MatLab) Sean X y Y las bases de R definidas por X = v1 = 1 , v2 =  2  , v3 = −2             3  −2 1           1  1 1                y Y = w1 = 2 , w2 = 1 , w3 = 1 . Calcular la matriz de cambio de base Y IX y calcular vY si v =             1  2 3 2v1 − v2 + v3 .      Soluci´ on. Por el procedimiento anterior la matriz de cambio de base es simplemente el producto de las matrices h i h i −1 B y A donde A = v1 v2 v3 y B = w1 w2 w3 . En MatLab hacemos lo siguiente: >> A = [2 1 1; 1 2 − 2; 1 − 2 3]; B = [1 1 1; 2 1 1; 3 2 1]; yIx = inv(B) ∗ A yIx = −1 1 −3 1 −5 8 2 5 −4 Se sigue que la matriz de cambio de base est´ a dada por   Y IX  −1   = 1  2 1 −5 5 −3    8 . Ahora, para el calculo de  −4 2     vY , tenemos que vX = −1 y vY =Y IX vX , esto lo hacemos en MatLab como sigue:   1 >> vx = [2; −1; 1]; vy = yIx ∗ vx vy = ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 207 −6 15 −5 Obtenemos que v = −6w1 + 15w2 − 5w3 . Las matrices de cambio de base cumplen las siguientes propiedades. Teorema 6.9. Sean X = {v1 , . . . , vn }, Y = {w1 , . . . , wn } y Z = {u1 , . . . , un } bases de Rn entonces se cumple que: 1. Y IX = (X IY )−1 2. Z IX = Z I Y ·Y I X h Demostraci´ on. 1. Sean A = v1 B −1 Ay X IY −1 =A B, por tanto i h v n , B = w1 ··· (X I Y ) 2. Sea C = Z IX h u1 ··· un = C −1 A, entonces i −1 = A−1 B i wn , por el Teorema 6.8 tenemos que ··· −1 = = B −1 A =Y IX . entonces por el Teorema 6.8 tenemos que Z IX Y IX Y IX = B −1 A, Z IY = C −1 B y = C −1 A = C −1 BB −1 A =Z IY ·Y IX .     −1  1 Ejemplo 6.19. Sean E la base est´ andar de Rn y X = v1 =   , v2 =   . En el Ejemplo 6.14 obtuvimos  2  1   1 −1  . Por el Teorema anterior anterior tenemos que la matriz de cambio de base E IX est´ a dado por E IX =  1 2 que la matriz de cambio de base X IE est´ a dada por     X IE = ( E IX ) −1 = 2 3 − 13 1 3 1 3 .   2 −1  2 Ahora, sea Y = w1 =   , w2 =   . Se sigue que E IY = [ (w1 )E (w2 )E ] = [ w1 w2 ] =    −1 −1 −1 Por el teorema anterior obtenemos que       1 2 1 −1 2 −1 . =  3 3  X IY = X IE · E IY = −1 0 −1 −1 − 13 31       −1 . −1 Se deja de ejercicio al lector verificar este c´ alculo usando el Procedimiento 6.2. 6.3.1. La matriz de una transformacion con respecto a dos bases La siguiente generalizaci´ on de la definici´ on de matriz de una transformaci´ on. La definici´ on anterior depende de las bases est´ andar y aca se hace para cualquier base del dominio y cualquier base del codominio. 208 Definici´ on 6.9. Sea T : Rn −→ Rm una transformaci´ on lineal y sean X = {v1 , . . . , vn } y Y = {w1 , . . . , wm } bases para Rn y Rm , respectivamente. Definimos la matriz de T con respecto a las bases X y Y , denotada por Y TX como la matriz Y h TX = T (v1 )Y ··· i T (vn )Y . La matriz de una transformaci´ on es la matriz con respecto a las bases est´ andar. Observaci´ on 6.2. Si T : Rn −→ Rm es una transformaci´ on lineal y E = e1 , . . . , en y E = e1 , . . . , em son las bases est´ andar de Rn y Rm , respectivamente, y S es la matriz de T , es decir, la matriz tal que T (x) = Sx, para todo x ∈ Rn , entonces S= E TE h = T (e1 ) ... i T (en ) . 2 2 Ejemplo 6.20. la transformaci´ on lineal  definida por T (x, y) = (2x + 2y, 2y) y sean     Sea T : R−→ R     0  2 1 1 X = v1 =   , v2 =   y Y = w1 =   , w2 =   bases de R2 . Determine la matriz Y TX de T   −1  1 −1  1 con respecto a la bases X y Y . Soluci´ on. N´ otese que T (v1 ) = (4, 2) = 2w1 y T (v2 ) = (0, −2) = 2w2 ,  2  Y TX = [ T (v1 )Y T (v2 )Y ] = 0 La importancia de la matriz de la transformaci´ on Y vector en t´erminos de X, vX , el producto de la matriz se sigue entonces que  0 . 2 TX es el hecho que si tenemos las coordenadas de un Y TX por vX nos da las coordenadas de la imagen de v, T (v), en t´erminos de la base Y . Al igual que la matriz de cambio de base, esta matriz est´ a determinada de manera u ´nica por dicha propiedad. Teorema 6.10. Sea T : Rn −→ Rm una transformaci´ on lineal, sean X = {v1 , . . . , vn } y Y = {w1 , . . . , wm } bases para Rn y Rm , respectivamente, y sea v ∈ Rn . Entonces T (v)Y = Y TX v X . Adem´ as tenemos que si existe una matriz A tal que V vX = T (v)Y para todo v ∈ Rn , entonces A = Y TX . Demostraci´ on. Como X es una base, existen constantes β1 , . . . , βn tal que v = β1 v 1 + · · · + βn v n y se tiene que vX que (6.11)  β1    .  =  ..  . Como Y tambi´en es una base, para 1 ≤ i ≤ m, existen constantes α1i , . . . , αmi tal   βn  T (vi ) = α1i w1 + · · · + αmi wm , (6.12) ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 209   α1i    .  luego T (vi )Y =  ..  y por tanto   αmi Y h TX = T (v1 )Y ··· De las Ecuaciones (6.11) y (6.12) tenemos que  α11 i   . T (vn )Y =  ..  αm1 ··· .. . ···  α1n  ..  .   αmn T (v) = β1 T (v1 ) + · · · + βn T (vn ) = β1 (α11 w1 + · · · + αm1 wn ) + · · · + βn (α1n w1 + · · · + αmn wn ) = (β1 α11 + · · · + βn α1n )w1 + · · · + (β1 αm1 + · · · + βn αmn )wn Se sigue que   α11 β1 α11 + · · · + βn α1n    ..   ..  T (v)Y =  = . .    αm1 β1 αn1 + · · · + βn αnn |  n ··· .. . ··· {z Y TX   α1n β1   ..   ..    = Y TX v X . .   .  αmn βn } | {z } vX Si A satisface que AvX = T (v)Y para todo v ∈ R , entonces para i = 1, . . . , n tenemos que T (vi )Y = A(vi )X = Aei = i-´esima columna de A. Se sigue que las columnas de A son T (v1 )Y , . . . , T (vn )Y y por tanto A = [ T (v1 )Y · · · T (vn )Y ] = Y TX . En el siguiente teorema se hace expl´ıcito un procedimiento para calcular la matriz Y TX . Teorema 6.11. Sea T : Rn −→ Rm una transformaci´ on lineal, sean X = {v1 , . . . , vn } y Y = {w1 , . . . , wm } h i h i n m bases para R y R , respectivamente y sean A = v1 . . . vn y B = w1 . . . wm , entonces h i −1 T = B T (v1 ) · · · T (vn ) , Y X m´ as a´ un Y TX = B −1 ·E TE · A. Demostraci´ on. La demostraci´ on se hace de manera directa como sigue i h i h · · · T (vn )Y = Y IE T (v1 )E · · · Y IE T (vn )E X TY = T (v1 )Y h i i h = Y IE T (v1 ) · · · Y IE T (vn ) = Y IE T (v1 ) · · · T (vn ) h i h i = B −1 E TE v1 · · · E TE vn = B −1 E TE v1 · · · vn = B −1 E TE A 210 A continuaci´ on damos un procedimiento para calcular la matriz de una transformaci´ on T : Rn −→ Rm con respecto a dos bases X = {v1 , . . . , vn } y Y = {w1 , . . . , wm }, basado en el teorema anterior Procedimiento 6.3. (Procedimiento para calcular Y TX ) Con Las mismas hip´ otesis del teorema anterior, h 1. Se calcula T (vi ) para i = 1, . . . , n, 2. Se aplica reducci´ on Gauss-Jordan a la matriz aumentada h w1 ··· wn | T (v1 ) ··· T (vn ) i = = h h B T (v1 ) B E TE ·A ··· i i T (vn ) hasta llevarla a la forma escalonada reducida. 3. Al final del paso 2., considerando que B es invertible, obtenemos " B | I −1 ·E T E · A {z } Y TX # . Por tanto las u ´ltimas n columnas de la matriz en forma escalonada reducida del paso 3. son las columnas de la matriz Y TX .     2x − y x , sean X = Ejemplo 6.21. Sea T : R2 −→ R2 la transformaci´ on lineal definida por T   =  x+y y             1  2 1  1 v1 =   , v2 =   y Y = w1 =   , w2 =   bases de R2 . Calcule la matriz Y TX y T (v)Y si   0  −1 −1  1   1 vX =   1   2 −1  y as´ı Soluci´ on. Primero n´ otese que E TE =  1 1  T (v1 ) =E TE · v1 =       1 1 · =  2 1 1 2 −1 1 h Se necesita reducir la matriz w1  forma escalonada es la matriz  w2 1 0 0 1 | T (v1 ) −2 0 5 3  y T (v2 ) =E TE · v2 =  i  T (v2 ) =  2 1 | 1 −1 0 | 2  TX =   T (v)Y =Y TX · vX =  −2 0 5 −2 5 3   3  ·   =  . 0 −1 1 2 −1 1   1   3  y f´ acilmente se ver´ıfica que su 0  . Se sigue por que Y Finalmente, tenemos que:   .      −2 1 0  ·   =  . 8 1 3 ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 211      x + y + 3z   x        2x + y − 2z    3 4  y  Ejemplo 6.22. (MatLab) Sea T : R −→ R la tranformaci´ on definida por T y  =       x + 2y + z    z −x − y + 2z                    1 1 1 1                  1 1 2                              2 1 1 1        , w2 =   , w3 =   , w4 =   bases sean X = v1 = 1 , v2 =  2  , v3 = −2 y Y = w1 =                   3 2   1  1                    3 −2 1    4 3 2 1  de R3 y R4 , respectivamente. Calcule la matriz Y TX y T (v)Y si v = x1 − x2 + x3 . Soluci´ on. Usamos el Teorema 6.11 que nos dice que Y TX = B−1 ·E TE · A,con    1 1 1 1 1    2 1 1       2 2 1 1 1    y E TE =  A = [v1 v2 v3 ] = 1 2 −2, B = [w1 w2 w3 w4 ] =        1 3 2 1 1    1 −2 3 −1 4 3 2 1 En MatLab solo necesitamos multiplicar las matrices, lo cual hacemos a continuaci´ on. 1 3    −2 .  2 1  −1 2 1 >> A = [2 1 1; 1 2 − 2; 1 − 2 3]; B = [1 1 1 1; 2 1 1 1; 3 2 1 1; 4 3 2 1]; eT e = [1 1 3; 2 1 − 2; 1 2 1; −1 − 1 2]; yT x = inv(B) ∗ eT e ∗ A yT x = −3 11 −14 5 −16 20 −8 −5 1 12 7 1  −3 11 −14       5 −16 20   . Finalmente, para calcular T (v) multiplicamos Entonces Y TX =  Y    −8 −5 1   12 7 1 >> vx = [1; −1; 1]; T vy = yT x ∗ vx Y  1      TX por vX = −1.   1 T vy = −28 41 −2 6  −28       41    . Lo que equivale a decir que T (v) = −28w1 + 41w2 − 2w3 + 6w4 . Por tanto T (v)Y =    −2    6 En MatLab tambi´en se puede usar el Procedimiento 6.3 para calcular la matriz Y TX de la siguiente forma. 212 Primero n´ otese que [T (v1 ) T (v3 )] = [E TE v1 T (v2 ) E TE v 2 E TE v 3 ] = E T E [v 1 v2 v3 ] =E TE A. Despu´es se calcula la matriz escalonada reducida de la matriz [B | E TE A]. En MatLab lo calculamos como sigue: >> C = [B, eT e ∗ A]; rref (C) ans = 1 0 0 0 −3 11 −14 0 1 0 0 5 −16 20 0 0 1 0 −8 −5 1 0 0 0 1 12 7 1 N´ otese que en la respuesta se tiene la matriz identidad en la parte izquierda y las tres u ´ltimas columnas coinciden con las columnas de la matriz Y TX calculada arriba. Concluimos la secci´ on mostrando que las matrices de tranformaciones de Rn con respecto a bases distintas son similares. Se muestra en realidad que dos matrices son similares si y s´ olo si las transformaciones lineales definidas por estas matrices est´ an relacionados por un cambio de base. Corolario 6.12. Sea T : Rn −→ Rn una transformaci´ on lineal y sea X = {v1 , . . . , vn } una base para Rn . Entonces las matrices X TX y E TE son similares. M´ as a´ un si A, B ∈ Mn (R) son matrices similares y tomamos la transformaci´ on T : Rn −→ Rn definida por T (v) = Av, entonces existe una base X de Rn tal que B = X TX . Es decir, A y B son la matriz de la misma transformaci´ on con respecto a bases diferentes. h i Demostraci´ on. Sea A = v1 · · · vn . Por el Teorema 6.11 tenemos que X TX = A−1 ·E TE · A, o equivalentemente E TE es decir E TE y X TX = A · X TX · A−1 , son similares. Para la segunda parte, supongamos que A ∼ B y sea T : Rn −→ Rn definida por T (v) = Av. Es f´acil ver que E TE = A, ya que por la definici´on de T se tiene que T (ei ) = Aei = i´esima columna de A. Pero T (ei ) es tambi´en la i´esima columna de E TE . Como A y B son similares, existe una matriz invertible C tal que A = CBC −1 , o equivalentemente B = C −1 AC. Sean v1 , . . . , vn las columnas de C, como C es invertible, tenemos que X = {v1 , . . . , vn } es LI y por tanto una base para Rn . Por el Teorema 6.11 tenemos que X TX = C −1 E TE C = C −1 AC = B. Concluimos que A = E TE y B = X TX son ambas matrices de T con respecto a diferentes bases. Problemas 6.3.1. Determine E TE si T (2, 1) = (3, 1) y T (1, 1) = (1, 2). ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 213 6.3.2. Demuestre que si A y B son similares entonces det A = det B y traza(A) = traza(B). En el segundo caso use el hecho que traza(AB) = traza(BA). 6.3.3. Sea T : Rn −→ Rn una transformaci´ on lineal y sean X y Y son bases de Rn , demuestre lo siguiente: 1. det X TX = det Y TY . 2. traza(X TX ) = traza(Y TY ). 6.3.4. Sean T, S : Rn −→ Rn transformaciones lineales y X una base de Rn . Demuestre que X TX + X SX , y X (λT )X =λ X TX X (T + S)X = donde T + S, λT : Rn −→ Rn son las transformaciones lineales definidas por (T + S)(v) = T (v) + S(v) y (λT )(v) = λT (v). 6.3.5. Sea I : Rn −→ Rn la transformaci´ on identidad, es decir, la transformaci´ on definida por I(v) = v. Demuestre que X IX = In , donde In es la matriz identidad de tama˜ o n × n. 6.3.6. Sea T : Rn −→ Rn y supongamos que existe v ∈ R tal que {v, T (v), . . . , T n−1 (v)} es una base de Rn y  0 0 0 ··· 0 −a0  1 0 0 ··· 0  0 1 0 ··· 0 T n (v) = −a0 v − a1 T (v) − · · · − an−1 T n−1 (v). Muestre que T =   ... ... ... . . . ... −a1 −a2 .. . 0 0 0 ··· 0 −an−2 0 0 0 ··· 1 −an−1    6.3.7. Sea T : V −→ V una transformaci´ on lineal y X una base de V , demuestre que T : V −→ V es invertible si y s´ olo si la matriz 6.4. X TX es invertible, para toda base X de Rn . Diagonalizaci´ on En esta secci´ on se dar´ an condiciones equivalentes a que una matriz sea diagonalizable, comenzamos con el siguiente resultado. Teorema 6.13. Sea A una matriz de tama˜ no n×n, entonces A es diagonalizable si y s´ olo si   A tiene n vectores λ1 0 · · · 0      0 λ2 . . . 0    propios linealmente independientes. En este caso A es similar a la matriz diagonal D =  . .. . . ..    .. . . .   0 0 · · · λn donde λ1 , . . . , λn son los valores propios de A y si los correspondientes vectores propios son v1 , . . . , vn entonces h i A = CDC −1 con C = v1 · · · vn . Demostraci´ on. “ ⇒ ” Supongamos que A es diagonalizable, entonces existe una matriz D diagonal y una matriz invertible C tal que A = CDC −1 . Sean c1 , . . . , cn las columnas de C y λ1 , . . . , λn las entradas en la diagonal de D. Afirmaci´ on: Los vectores c1 , . . . , cn son vectores propios de A con valores propios λ1 , . . . , λn . 214 Como A = CDC −1 entonces AC = DC, por tanto [Ac1 Acn ] = A[c1 · · · cn ] = AC = DC   λ1 · · · 0   ..  . .. =  ..  [c 1 · · · c n ] = [λ 1 c 1 . .   0 · · · λn ··· λn cn ]. ··· De esta igualdad se sigue que Ac1 = λ1 c1 , · · · , Acn = λn cn , lo que demuestra la afirmaci´on. Finalmente, como la matriz C es invertible, entonces sus columnas c1 , . . . , cn son linealmente independientes, por tanto A tiene n vectores propios linealmente independientes. “ ⇐ ” Sean v1 , . . . , vn vectores propios linealmente independientes de A con valores propios λ1 , . . . , λn , respectivamente, es decir, Avi = λi vi , para i = 1, . . . , n. Sea X = {v1 , . . . , vn } entonces X es una base para Rn y sea T : Rn 7−→ Rn la transformaci´on lineal determinada por A, es decir, T (x) = Ax, para todo x ∈ Rn . h Como T (ei ) = Aei = i-´esima columna de A, entonces E TE = A. Ahora, sea C = v1 Teorema 6.11 tenemos que X TX ··· = C −1 E TE C = C −1 AC, por tanto |{z} i vn , entonces por el A A=C X TX C −1 . (6.13) Ahora veamos que entonces T (vi )X T es una matriz diagonal. Como T (vi ) = Avi = λi vi = 0v1 + · · · + λi vi + · · · + 0vn ,  X X 0 . . .     = λi , por tanto   .  ..    0 X TX h = T (v1 ) De la Ecuaci´ on (6.13) tenemos que A y T (v2 ) X TX ···  λ1   0 T (vn ) =   .. .  0 i  0 ··· 0 λ2 .. . ··· .. . 0 .. . 0 ··· λn son similares y de la ecuaci´ on (6.14),    .    X TX (6.14) es diagonal, por tanto A es diagonalizable.      1 5 −5  tiene vectores propios v1 =   y v2 =   de valores propios 2 y Ejemplo 6.23. La matriz A =  1 2 2 −3 -1, respectivamente (ver Ejemplo 6.2.) h i Si tomamos la base X = {v1 , v2 } de R2 , formada por los valores propios de la matriz A, C = v1 v2 la  4 ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN  matriz de vectores propios y D =  2 0 0 215  , entonces de acuerdo al Teorema 6.13 tenemos que −1 A = CDC −1 . Esto lo podemos verificar de la siguiente manera. De acuerdo al Teorema 6.11 la matriz X AX de A con respecto a la base X esta dada por: X AX      5 4 −5 1 −1 1 · · = C −1 AC =  3 −2 2 2 −3 5 de donde C −1 AC = D y por tanto    2 0 1  = D, = 0 −1 1 A = CDC −1 .  3 −1 0 0      −1 3 0 0   Ejemplo 6.24. En el Ejemplo 6.6 calculamos los valores y vectores propios de la matriz A =    7 −1 −4 0   7 −1 0 −4       0 0 1/2             0  0 −1/2       y encontramos que los vectores propios son v1 =   y v2 =   ambos de valor propio λ = −4, v3 =   1  0  1/2        0 1 1/2   1/2     1/2  de valor propio λ = 2. Como A tiene cuatro vectores linealmente indepen de valor propio λ = 4 y v4 =   1/2   1/2 dientes entonces A es diagonalizable y A = CDC −1 con     0 0 1/2 1/2 −4 0 0 0         0 0 −1/2  0 −4 0 0 1/2    C= y D =     1 0  0 1/2 1/2 0 4 0     0 1 1/2 1/2 0 0 0 2 Corolario 6.14. Si una matriz A de tama˜ no n×n tiene n valores propios distintos, entonces A es diagonalizable.   −2 −2 3     Ejemplo 6.25. (MatLab) La matriz A = −5 1 3 tiene tres valores propios diferentes, λ = −1, λ = 3   −6 0 5 y λ = 2. Esto lo podemos verificar en MatLab como se muestra a continuaci´ on >> A = [−2 − 2 3; −5 1 3; −6 0 5]; f actor(poly(sym(A))) ans = -1 216 3 2  −1   Por tanto A es diagonalizable, de hecho A es similar a la matriz D =  0  0  0 0   3 0.  0 2 Teorema 6.15. Sea A una matriz de tama˜ no n×n, entonces A tiene n vectores propios linealmente independientes si y s´ olo si para cada valor propio λ, se tiene que multiplicidad geom´etrica de λ = multiplicidad algebraica de λ. En particular, si todos los valores propios de A son diferentes, todos los vectores propios de A son linealmente independientes. Demostraci´ on. Para comenzar la demostraci´ on, supongamos que A tiene k valores propios distintos, λ1 , . . . , λk , con multiplicidades n1 , . . . , nk , respectivamente. Es decir, el polinomio caracter´ıstico de A est´ a dado por pA (λ) = (λ − λ1 )n1 · · · (λ − λk )nk , con n = n1 + · · · + nk . “ ⇒”Supongamos que A tiene n vectores propios linealmente independientes, sean v11 , . . . , v1m1 , . . . , vk1 , . . . , vkmk estos vectores con m1 + · · · + mk = n y agrupados de tal forma que v11 , . . . , v1m1 tienen valor propio λ1 , v21 , . . . , v2m2 tienen valor propio λ2 y, de manera inductiva, vk1 , . . . , vkmk tienen valor propio λk . Como para i = 1, . . . , k, multiplicidad geom´etrica de λi ≤ multiplicidad algebraica de λi , entonces mi ≤ ni , ahora si mi < ni para alg´ un i = 1, . . . , k entonces tenemos que n = m1 + · · · + mk < n1 + · · · + nk = n, lo cual es imposible, por tanto para todo i = 1, . . . , k, mi = ni , es decir, para todo i = 1, . . . , k tenemos que multiplicidad geom´etrica de λi = multiplicidad algebraica de λi . “ ⇐”Supongamos que la multiplicidad geom´etrica de cada valor propio es igual a la multiplicidad algebraica, entonces dim(Eλj ) = nj , para 1 ≤ j ≤ k. Sean {v11 , . . . , v1n1 }, {v21 , . . . , v2n2 }, . . . , {vk1 , . . . , vknk } bases para Eλ1 , Eλ2 , . . . , Eλk , respectivamente. Veamos que los vectores v11 , . . . , v1n1 , v21 , . . . , v2n2 , · · · , vk1 , . . . , vknk son linealmente independientes. Supongamos que α11 v11 + · · · + α1n1 v1n1 + · · · + αk1 vk1 + · · · + αknk vknk = 0 (6.15) y sean v1 = α11 v11 + · · · + α1n1 v1n1 , . . . , vk = αk1 vk1 + · · · + αknk vknk , entonces la ecuaci´on (6.15) se convierte en v1 + v2 + · · · + vk = 0. (6.16) Afirmaci´ on: v1 = v2 = · · · = vk = 0 Supongamos que algunos de los vj 6= 0, como vij ∈ Eλi para 1 ≤ i ≤ k entonces tenemos que v1 ∈ Eλ1 , ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 217 v2 ∈ Eλ2 , . . . , vk ∈ Eλk , entonces los vectores de la lista v1 , . . . , vk que son no nulos, son vectores propios de valores propios λ1 , . . . , λk , respectivamente. Como los valores propios λ1 , . . . , λk son distintos, entonces, por el Teorema 6.4, los vectores no nulos de la lista v1 , . . . , vk son linealmente independientes, pero de la Ecuaci´ on (6.16) se sigue que estos vectores son linealmente dependientes, lo cual es contradictorio y por tanto v1 = · · · = vk = 0, y la afirmaci´ on se cumple. Luego para 1 ≤ j ≤ k tenemos que 0 = vj = αj1 vj1 + · · · + αjn1 vjnj , pero como los vectores {vj1 , . . . , vjnj } son una base para Eλj , entonces son linealmente independientes y por tanto αj1 = · · · = αjnj = 0. Como esto es para todo j = 1, . . . , k tenemos que α11 = · · · = α1n1 = · · · = αk1 = · · · = αknk = 0. Entonces los vectores v11 , . . . , v1n1 , v21 , . . . , v2n2 , . . . , vk1 , . . . , vknk son linealmente independientes y como todos estos son vectores propios de A y n1 + · · · + nk = n, entonces A tiene n vectores propios linealmente independientes. Corolario 6.16. Sea A una matriz A de tama˜ no n×n, entonces A es diagonalizable si y s´ olo si para todo valor propio λ de A se cumple que multiplicidad geom´etrica de λ = multiplicidad algebraica de λ. Demostraci´ on. El corolario se sigue de los Teoremas 6.13 y 6.15. Ejemplo 6.26. 1. En el Ejemplo 6.6 vimos que la matriz   3 −1 0 0     −1 3 0 0  tiene valores propios λ = −4, λ = 4 y λ = 2 y que las multiplicidades geom´etricas y  A=   7 −1 −4 0   7 −1 0 −4 algebraicas eran a−4 = g−4 = 2, a4 = g4 = 1 y a2 = g2 = 1, entonces la matriz es diagonalizable.   −3 −2 1     2. En el Ejemplo 6.7 vimos que el u ´nico valor propio de la matriz A =  1 −6 1  es λ = −4 con multplicidad   1 −2 −3 algebraica a−4 = 3 y geom´etrica g−4 = 2, entonces por el corolario anterior A no es diagonalizable.   −4 −1 1     3. En el Ejemplo 6.8 vimos que el u ´nico valor propio de la matriz A =  0 −5 1  es λ = −4 con multiplicidad   −1 0 −3 algebraica es a−4 = 3 y geom´etrica g−4 = 1, por tanto A no es diagonalizable. 6.4.1. Para cada una de las matrices del problema 6.1.1 determine si es diagonalizable. En caso afirmativo, encuentre las matrices C y D tal que A = CDC −1 . 218 6.5. Matrices Sim´ etricas y Diagonalizaci´ on Ortogonal  a11   .. Definici´ on 6.10. Sea A =  .  am1 ··· .. . ···  a1n  ..  de tama˜ no m × n con entradas complejas. .   amn 1. Definimos la matriz conjugada de A, denotada por A, como la matriz que se obtiene al conjugar las entradas de A, estos es  a11   . A =  ..  am1 ··· .. . ···  a1n  ..  .   amn t 2. La transpuesta hermitiana de A, denotada por AH , se define como AH = A . 3. Decimos que A es hermitiana si A = AH .  Ejemplo 6.27. Considere la matriz A =  t  AH = A =  1 1−i 1+i 2  1 1−i 1+i 2   , n´ otese que A =  1 1−i 1+i 2   = 1 1+i 1−i 2  y . Como A = AH entonces A es una matriz hermitiana. Teorema 6.17. Sea A una matriz hermitiana de tama˜ no n×n entonces los valores propios de A son reales. Esto es, si λ es un valor propio de A entonces λ ∈ R. En particular, si A una matriz sim´etrica con entradas reales, entonces sus valores propios son reales y por tanto sus vectores propios son reales. t Demostraci´ on. Como A es hermitiana, entonces A = AH = A de donde At = A, entonces t λv · v = λv t v = v t λv Av = v t Av = v t AH v = v t A v = (Av)t v = (Av)t v = (λv)t v = λv t v = λv · v. De donde se sigue que (λ − λ)v · v = 0, como v 6= 0 entonces v · v 6= 0. Por tanto λ − λ, es decir λ = λ. Teorema 6.18. Sea A una matriz hermitiana de tama˜ no n×n y sean x y y vectores propios de valores propios λ1 y λ2 , respectivamente. Si λ1 6= λ2 entonces x · y = 0, es decir, x y y son ortogonales. El teorema tambi´en se cumple si A es una matriz sim´etrica con entradas reales. Demostraci´ on. λ1 (v1 · v2 ) = (λ1 v1 · v2 ) = (Av1 · v2 ) = (Av1 )t v2 = (Av1 )t v2 t = v1 t |{z} A v2 = v1 t Av2 = v1 t λ2 v2 = λ2 v1 t v2 = λ2 (v1 · v2 ). AH =A Luego (λ1 − λ2 )v1 · v2 = 0, como λ1 6= λ2 entonces v1 · v2 = 0. ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 219  1 . Los valores propios de A son λ = 1 y λ = 3 los cuales son n´ umeros reales y Ejemplo 6.28. Sea A =  1 2     1 1 otese que v1 · v2 = 0. los vectores propios son v1 =   y v2 =  . N´ 1 −1   2 −1 −1     Ejemplo 6.29. La matriz sim´etrica A = −1 2 −1 debe tener valores propios reales, usamos MatLab   −1 −1 2 para calcular la factorizaci´ on de su polinomio caracter´ıstico:  2 >> A = [2 − 1 − 1; −1 2 − 1; −1 − 1 2]; f actor(poly(sym(A))) ans = x ∗ (x − 3)2 Por tanto los valores propios son λ = 0 y λ = 2 de multiplicidad 2. 6.6. Formas Cuadr´ aticas Definici´ on 6.11. Una forma cuadr´ atica es una expresi´ on de la forma n X i=1 aii x2i + X aij xi xj . i 0 constante y sean λ1 , . . . , λ2 los valores propios de Q, entonces tenemos lo siguiente: Si Q es 2x2 y: 1. λ1 , λ2 > 0 entonces xt Qx = c es una elipse. 2. λ1 , λ2 < 0 entonces xt Qx = c es vacia. 3. λ1 · λ2 < 0 entonces xt Qx = c es una hip´erbola. 4. λ1 · λ2 = 0 entonces xt Qx = c es una forma degenerada. ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 221 En el caso 3x3 tenemos: 1. Si λ1 , λ2 , λ3 > 0 entonces xt Qx = c es un elipsoide. 2. Si λ1 , λ2 , λ3 < 0 entonces xt Qx = c es vacia. 3. Si uno de los λi es positivo y los otros negativos entonces xt Qx = c es un hiperboloide de 2 hojas 4. Si uno de los λi es negativo y los otros positivos, entonces xt Qx = c es un hiperboloide de una hoja. 5. Si c = 0 y uno de los λi es positivo y los otros negativos o dos positivos y uno negativo entonces xt Qx = c es un cono. Ahora consideremos la ecuaci´ on z = xt Qx con z variable y Q de taman˜ no 2x2 con valores propios λ1 y λ2 . Entonces tenemos lo siguiente 1. Si λ1 · λ2 > 0 entonces z = xt Qx es un paraboloide el´ıptico. 2. Si λ1 · λ2 < 0 entonces z = xt Qx es un paraboloide hiperb´ olico o silla de montar.    i 2 1 x   = Ejemplo 6.31. La secci´ on c´ onica 2x2 +2xy+2y 2 = 4 se puede escribir matricialmente en la forma x y  y 1 2 4.       1 1 2 1  son v1 =   y v2 =   con valores propios 1 y 3, respectivamente. Los vectores propios de Q =  1 −1 1 2 Entonces con respecto a la base X = {v1 , v2 } tenemos que la ecuaci´ on de la forma cuadr´ atica est´ a dada por h x′2 + 3y ′2 = 4 cuya ecuaci´ on corresponde a una elipse. Ahora, si consideramos la ecuaci´ on z = 2x2 + 2xy + 2y 2 entonces con respecto a la base X la ecuaci´ on tiene la forma z = x′2 + 3y ′2 el cual corresponde a un paraboloide el´ıptico. h Ejemplo 6.32. La secci´ on c´ onica 4xy = 5 se puede escribir matricialmente en la forma x 5.    i 0 2 x   = y  y 2 0   1  son v1 =   y v2 =   con valores propios Los vectores propios de Q =  1 −1 2 0 -2 y 2, respectivamente. Normalizando estos vectores obtenemos w1 = √12 v1 y w2 = √12 v2 , entonces con respecto  0 2   1  a la base X = {w1 , w2 } tenemos que la ecuaci´ on de la secci´ on c´ onica est´ a dada por −2x′2 + 2y ′2 = 5 cuya ecuaci´ on corresponde a una hip´erbola abierta la direcci´ on de y ′ , es decir, on de la linea generada √ en   en la direcci´ √ √ √ √ − 5/2 5/2  y − √5 w 2 =  √ . por v2 y con interceptos √52 w2 = 25 v2 = √ 2 − 5/2 5/2 Ahora, si consideramos la ecuaci´ on z = 4xy entonces con respecto a la base X la ecuaci´ on tiene la forma z = −2x′2 + 2y ′2 la cual corresponde a un paraboloide hiperb´ olico o silla de montar.   5 −1 −1     onica corresponde a la ecuaci´ on Ejemplo 6.33. (MatLab) Sea Q = −1 5 −1, determinar que tipo de c´   −1 −1 5 xt Qx = 5. 222 Soluci´ on. Usamos MatLab para calcular los valores propios de A, >> A = [5 − 1 − 1; −1 5 − 1; −1 − 1 5]; eig(A) ans = 6 3 6 Por tanto la c´ onica corresponde a un elipsoide. Para calcular calculamos los vectores  coordenados,    los ejes   −1 −1 1             otese propios los cuales son v1 = 1 con valor propio 3 y v2 =  1  y v3 =  0  ambos de valor propio 6. N´       1 0 1 que v2 y v3 no son ortogonales, pero estos forman una base para el subespacio propio E6 , entonces usando   −1/2     Gramm-Schmidt, reemplazamos v3 por w3 = v3 − proyv2 v3 = −1/2. Obtenemos que los ejes coordenados bajo   1 los cuales la gr´ afica de xt Qx = 5 es un elipsoide son las lineas determinadas por los vectores:   1     v 1 =  1 ,   1  −1   Ejemplo 6.34. Sea Q =  5  −1 5 −1  −1      v2 =  1    0 y  −1/2      w3 = −1/2 .   1    onica corresponde a la ecuaci´ on xt Qx = 5. −1 −1, determinar que tipo de c´  −1 5 Soluci´ on. Se puede ver que los valores propios de Q son λ = 3, 6 y −6. Por tanto la c´ onica corresponde a un hiperboloide de una hoja.     −1/2 1         Es f´ acil ver que los vectores propios de Q son v1 = 1 con valor propio 3, v2 = −1/2 de valor propio     1 1   −1     6 y v3 =  1  de valor propio -6. De donde se sigue que la ecuaci´ on de esta c´ onica con respecto a la base   0 {v1 , v2 , v3 } es 3x′2 + 6y ′2 − 6z ′2 = 5, la cual corresponde a un hiperboloide de una hoja cuyo eje central es la linea generada por el vector v3 . Ejemplo 6.35. Determine el tipo de c´ onica determinada  0   Soluci´ on. La matriz de la forma cuadr´ atica es Q = 1  1 por la cuadr´ atica 2xy + 2xz + 2yz = 5.  1 1   0 1 cuyos vectores propios ortogonales son v1 =  1 0 ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 223      1 −1/2 −1             on de esta  1  y v2 = −1/2 ambos de valor propio -1 y v3 = 1 de valor propio 2. Por tanto la ecuaci´       1 1 0 c´ onica con respecto a la base {v1 , v2 , v3 } es −x′2 − y ′2 + 2z ′2 = 5 cuya gr´ afica corresponde a un paraboloide de  dos hojas cuyo eje central es la linea generada por el vector v3 . 6.7. Ejercicios En los problemas 4-8 λ1 , λ2 , . . . , λn son los valores propios de una matriz A. Encuentre una matriz ortogonal Q y una matriz diagonal D tal que A = QDQt si:  a. A =  3 4 4   −3  b. A =  3 2  2  3  3 1   c. A = 1 3  0 0  0   0  2  1 3   d. A = 3 1  0 0  0   0  1 Para cada una de las matrices del problema anterior identifique el tipo de c´ onica representada por la forma cuadr´ atica xt Ax = 4 y bosquejar su grafica. Para las matrices dadas en los Problemas 1a. y 1b. identifique el tipo de superficie que que representa la ecuaci´ on z = xt Ax con z variable. Para cada una de las matrices del 1 encuentre vectores propios A X . Sean Problema    y encuentre  una   baseX de  la matrizX         1 1 0 0 −1  1                                X = x1 = −1 , x2 =  1  , x3 =  0  y Y = y1 = 1 , y2 = 1 , y3 = 0 bases de R3 .                         0 0 −1 1 2  1  Encuentre las matrices de cambio  de base Y IX  y X IY . Sea T : R3 −→ R2 la transformaci´ on lineal cuya matriz −1 1 1 . Calcular la matriz Z TX de T con respecto a las bases −1               −1  0 1           0  1       X = x1 = −1 , x2 =  1  , x3 =  0  de R3 y Z = z1 =   , z2 =   de R2 . Sea           1  −1    2  −1 0   −1 1 0     T : R3 −→ R3 la transformaci´ on lineal cuya matriz E TE est´ a dada por E TE =  0 2 −1. Calcular la   1 0 −1           −1  0 1                matriz X TX de T con respecto a la base X = x1 = −1 , x2 =  1  , x3 =  0  de R3 .             2  −1 0 7. 6. 5. 4. 3. 2. 1. Mas Problemas.           −1  0 1                8. Sea X = x1 = −1 , x2 =  1  , x3 =  0  una base de R3 , encontrar una base Y = {y1 , y2 , y3 } tal             2  −1 0 E TE est´ a dada por E TE = 0  2 224 que X IY  1 0   = 1 1  0 1  1   0.  1  1 0 1      =  1 1 0 .   0 1 1       0  1 10. Sea T : R3 −→ R2 una transformaci´ on lineal y sea Z = z1 =   , z2 =   una base para R2 y X =  1  −1             1 0 −1           −1 1 1       , calcular la matriz E TE . x1 = −1 , x2 =  1  , x3 =  0  una base para R3 . Si Z TX =           0 2 −1    0 −1 2             0  1 x + 2y x  y sea Y = y1 =   , y2 =   una base de R2 . 11. Sea T : R2 −→ R2 definida por T   =   1  −1 2x + y y   −1 1 . Calcular la base X tal que Y TX =  0 2     1 1 2 1 .  . Demuestre que no existe una base X tal que X TX =  12. Sea T : R2 −→ R2 tal que E TE =  0 1 1 1 9. Repetir el problema anterior si en lugar de X IY se nos da Y IX Cap´ıtulo 7 Aplicaciones En esta secci´ on asumiremos que A  λ1 0 · · ·    0 λ2 · · · vectores propios y D =  .. . .  .. . . .  0 7.1. 0 ··· −1 es una donde C es la matriz de  matriz diagonalizabe con A = CDC 0   0  ..  con λ1 , . . . , λn los valores propios de A. .   λn Potencia de una matriz Es f´ acil ver que Ak = CDk C −1 . De hecho si suponemos por inducci´ on que Ak−1 = CDk−1 C −1 entonces −1 k−1 Ak = Ak−1 A = CDk−1 |C −1 DC −1 = CDk C −1 . {z C} DC = CD =I  λk1   0 Tambi´en se puede ver facilmente por inducci´ on que Dk =   .. .  0 0 λk2 .. . 0  Ejemplo 7.1. Calcule la k-´esima potencia de la matriz A =  2 1 1 2  ··· 0 ··· .. . 0 .. . ··· λkn         .   1 Se puede ver que los vectores propios de A son v1 =   de valor propio λ = 1 y v3 =   de valor propio 1 −1 λ = 3, entonces tenemos que  −1   1 1 3 0 1 1    A= 1 −1 0 1 1 −1  1  3k  Por tanto  Ak =  1 1 1  3 0 k  1 1 −1     1 −1 0 1 −1  = 1 1 1 −1  225 0     1 k 1 (3 + 1) 0 1 1  = 2   1 k 1 2 1 −1 2 (3 − 1) 1 k 2 (3 1 k 2 (3 − 1) + 1)  . 226 7.1.1. Relaciones de recurrencia Si se tiene una relaci´ on de recurrencia determinada por una ecuaci´ on de la forma an = αan−1 + βan−2 , entonces tenemos el sistema de ecuaciones        an = αan−1 + βan−2 , an−1 α β an ,  = El cual es equivalente al sistema   an−1 = an−1 , 1 0 an−2 an−1   α β  y si continuamos aplicando el sistema a los vectores el cual es cierto para todo n. Si hacemos A =  1 0     an−2 an−1  , . . . , obtenemos ,   an−3 an−2     an a   = An−1  1  . (7.1) an−1 a0 Si conocemos los valores de a1 y a0 , entonces con la Ecuaci´ on una f´ ormula para an en t´erminos   (7.1) obtenemos λ1 0  C −1 , con C la matriz de vectores propios de los valores propios de A y n. Esto se da porque si A = C  0 λ2   n−1 λ 0 1  C −1 . y λ1 y λ2 los valores propios de A, entonces An−1 = C  n−1 0 λ2 Ejemplo 7.2. (Suceci´ on de Fibonacci) La secuencia de Fibonacci satisface la relaci´ on Fn = Fn−1 + Fn−2 , para n ≥ 2, con F0 = 0 y F1 = 1. Encuentre una f´ ormula para calcular el n-´esimo t´ermino Fn .      Fn−1 1 1 Fn   = De acuerdo a las ecuaciones Fn = Fn−1 +Fn−2 y Fn−1 = Fn−1 , tenemos el sistema  1 0 Fn−2 Fn−1 y por tanto        Los vectores propios de A son v1 = valor propio λ1 = 12 (1 + √ 5). Fn Fn−1  1 2 Por tanto A = CDC −1 con C = obtenemos que  1 2  = An−1  F1 F0  , con A =  1 1 1 0 .  √  √  1 √ 5 5 1 +  con valor propio λ1 = 1 (1 − 5) y v2 =  2  con 2 1 1 1− 1− 1 √  5 1 2  √  √  1 1− 5 5  y D = 2 0 1 1+   1  = An−1   = CDn−1 C −1    0 F0 Fn−1     √ n−1 1 0 1 − 1 5 −1 =C 2 √ n−1  C   1 0 0 5 2 1−     √ n √ n 5 1 √1 − √15 12 − 25 2 + 2  =  5 √ n−1 √ n−1  5 5 1 1 √1 √1 + − − 2 2 5 2 5 2  Fn   F1  0 1 2 1+  √  y de estos 5 ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN De esto concluimos que Fn = 7.1.2. √1 5  1 2 + √ 5 2 n − √1 5  1 2 − √ 5 2 227 n Cadenas de Markov Esta subsecci´ on tambi´en se trata de una aplicaci´ on de la potencia de matrices y lo expondremos con ejemplos. Ejemplo 7.3. Dos compa˜ nias A y B manipulan el mercado de celulares y se calcula que A tiene el 60 % de los clientes, mientras que B maneja el 40 % del mercado. La compa˜ nia A prepara una agresiva campa˜ na comercial la cual, de acuerdo a un estudio de mercado, acarrear´ a las siguientes consecuencias: El 90 % de los clientes de A permancer´ an con A y el resto se ir´ aaB El 30 % de los clientes de B se cambiar´ an a A y el resto permanecer´ a con B. Determine los porcentajes de clientes de A y B si se aplica la campa˜ na 1 vez, 10 veces, k veces e indefinidamente. Si Xk y Yk es el porcentaje de clientes de A y B respectivamente despu´es de aplicar la campa˜ na k veces entonces tenemos que Xk = 0,9Xk−1 + 0,3Yk−1 Yk = 0,1Xk−1 + 0,7Yk−1  equivalentemente  Xk Yk   = 0,9 0,1   0,3 Xk−1 .  0,7 Yk−1 Por tanto, despues de aplicar la campa˜ na una vez otbtenemos           0,66 0,6 0,9 0,3 X0 0,9 0,3 X1 .   =    =   = 0,34 0,4 0,1 0,7 Y0 0,1 0,7 Y1 Es decir, A manejar´ a el 66 % de los clientes y B el 34 %. Si se aplica la campa˜ na 10 veces obtenemos que   X10 Y10   = 0,9 0,3 0,1 0,7   X9 Y9   = 0,9 0,3 0,1 0,7 2    X8 Y8    = ··· =  0,9 0,3 0,1 0,7 10    X0 Y0   = 0,749 0,251  . Es decir, despu´es de aplicar la campa˜ na 10 veces, A dominar´    mercado.    a el 74.9% del 0,9 0,3 ,6 X Xk 0 . Despue´s de aplicar la campa˜ na k veces obtenemos que   = Ak   = Ak  , donde A =  0,1 0,7 ,4 Y0 Yk Para determinar simapotencia de A calculamos los valores y vectores propios y encontramos que los   la k-´e −1 3 vectores v1 =   y v2 =   de valores propios λ = 1 y λ = 0,6, respectivamente, por tanto: A = CDC −1 1 1     1 0 3 −1 . De lo cual se obtiene que yD= con C =  0 0,6 1 1  Ak = CDk C −1 =  3 1    −1 1 0 1  1 k 4 1 0 0,6 −1    1 3 + 0,6k 1  = 4  1 k 3 4 1 − 0,6 3 4 1 4    1 + 3 · 0,6k 1 − 0,6k 228 De esta forma tenemos que   Xk Yk    = Ak  0, 6 0, 4  =  1 4 1 4 3 − 0,6k+1 1 + 0,6k+1   Por tanto el porcentaje de clientes de A despu´es de aplicar la campa˜ na k veces ser´ıa el  B ser´ıa 41 1 + 0,6k+1 1 4  3 − 0,6k+1 % y el de Esto indica que si se aplica la campa˜ na indefinidamente el m´ aximo porcentaje de clientes que obtiene A es   1 1 3 − 0,6k+1 = 0,75 % y el m´ınimo porcentaje al que B llegar´ıa es Y∞ = l´ım 3 + 0,6k+1 = X∞ = l´ım k→∞ 4 k→∞ 4 0,25 %. Comparando este u ´ltimo resultado con el obtenido al aplicar la campa˜ na 10 veces obtenemos que es suficiente con aplicar esta alrededor de 10 veces para obener un buen beneficio para la compa˜ nia. 7.2. Exponencial de una matriz diagonalizable La funci´ on exponencial de un real x, se define como la serie ex = convergente para todo x ∈ R y por tanto ex est´ a bien definido para todo x. ∞ X 1 k x . Se sabe que esta serie es k! k=0 ∞ X 1 k A y k! k=0 mostraremos en esta secci´ on que esta matriz est´ a bien definida si A es diagonalizable. En general la matriz de De igual forma para una matriz A definiremos la matriz exponencial como la matriz eA = cualquier matriz compleja est´ a bien definida, pero esto requiere de la forma de Jordan, en esta secci´ on solo nos concentraremos en las matrices diagonalizables.   λ1 0 · · · 0      0 λ2 · · · 0    Primero, si D =  . .. . . ..  es diagonal, entonces  ..  . . .   0 0 · · · λn eD  λk1   ∞ ∞ X 0 1 k X 1   D = = . k! k!   .. k=0 k=0  0 ∞ X 1 λk1 0  k=0 k!  ∞  X 1 k  0 λ2  k! = k=0  .. ..   . .    0 0 0 λk2 .. . 0 ··· ··· .. . ··· ··· ··· .. . ··· 0 0  λk1 0 λk2 .. . ··· ··· .. . 0 .. . 0 ··· λkn 0 eλ 2 .. . ··· ··· .. . 0 .. . 0 ··· eλ n     ∞  X 0 1 =   .  k=0 k!  ..   λkn 0  0 .. .    eλ 1      0   0 =   .. ..   .   .  ∞ 0 X 1  k λn k! k=0  0 0                 ´ GIRALDO Autor: OMAR DAR´IO SALDARRIAGA, HERNAN 229 Ahora, si la matriz A es diagonalizable con A = CDC −1 , tenemos que: ∞ ∞ ∞ X X 1 1 k X 1 −1 k A = (CDC ) = CDk C −1 = C k! k! k! k=0 k=0 k=0 por tanto eA est´ a bien definido y eA = CeD C −1 .   2 1 . Ejemplo 7.4. Calcular eA si A =  1 2  En el Ejemplo 7.1 vimos que A = CDC −1 con C =   eA = CeD C −1 =  7.2.1. ∞ X 1 k D k! 1 1 1 −1   1 1 1 −1 e3 0 0 e   1 k=0   yD= 1 1 −1 −1  3 0  = ! C −1 = CeD C −1 ,  0 . Entonces 1 e4 e2 e4 e−2   Sistemas Lineales de Ecuaciones diferenciales Considere el sistema lineal de ecuaciones diferenciales de la forma    x′1 = a11 x1 + · · · + a1n xn ,    .. .     x′ = a x + · · · + a x , n1 1 nn n n   a11 x′1     ..   .. El cual es equivalente al sistema  .  =  .    an1 x′n    a11 x1    . .    el cual tambi´en, por simplicidad, escribiremos X ′ = AX con X =  ..  y A =  ..    an1 xn Si A es diagonalizable con A = CDC −1 entonces el sistema tenemos que  ··· .. . ··· ··· .. . ···   x1 a1n   ..   ..   , .   .  xn ann  a1n  ..  . .   ann X ′ = AX = CDC −1 X o equivalentemente C −1 X ′ = DC −1 X o equivalentemente Y ′ = DY donde Y = C −1 X y por tanto Y ′ = C −1 Y ′ . Si denotamos por y1 , . . . , yn las coordenadas del vector Y , entonces la ecuaci´ on Y ′ = DY produce el sistema de ecuaciones y1′ = λ1 y1 , ..., yn = λn yn cuyas soluciones est´ an dadas por y 1 = c 1 eλ 1 t , ..., y n = eλ n t . Como X = CY , obtenemos la siguiente soluci´ on al sistema inicial     x1 c 1 eλ 1 t      ..   .   .  = X = CY = C  ..  .     xn c 1 eλ 1 t 230 Ejemplo 7.5. Resolver el sistema de ecuaciones lineales   x′ = 2x1 + x2 , 1  x′ = x1 + 2x2 . 2      x 2 1 x′1   1  y por el Ejemplo 7.1 sabemos que la matriz El sistema se puede escribir en la forma   =  ′ 1 2 x2 x2       3 0 1 1 2 1 . yD=  se puede escribir como el producto A = CDC −1 con C =  A= 0 1 1 −1 1 2      ′ y 3 0 y 1   1  cuyas Entonces haciendo Y = C −1 X obtenemos el sistema Y ′ = DY , es decir,   =  0 1 y2 y2′ soluciones est´ an dadas por y1 = c1 e3t y y 2 = c 2 et con c1 y c2 constantes. Finalmente obtenemos la soluci´ on          c1 e3t + c2 et c1 e3t 1 1 c1 e3t x1  . = =  =C c1 e3t − c2 et 1 −1 c 2 et c 2 et x2 Es decir, las soluci´ on al sistema est´ a dada por x1 = c1 e3t + c2 et con c1 y c2 constantes. y x2 = c1 e3t − c2 et