Álgebra lineal II con Aplicaciones en Estadística

  • Commentary
  • Por favor revisa la página de la facultad para más libros (son gratis): http://ciencias.bogota.unal.edu.co/menu-principal/publicaciones/biblioteca-digital/ Please look at the page of the faculty for more books (they are free): http://ciencias.bogota.unal.edu.co/menu-principal/publicaciones/biblioteca-digital/
Citation preview

Notas de Clase ´ Algebra Lineal II Con Aplicaciones en Estad´ıstica Jos´ e Alfredo Jim´ enez Moscoso Facultad de Ciencias Universidad Nacional de Colombia Sede Bogot´a

A Mi Esposa Mi Hija Mis Padres

´ Indice General Pr´ologo

V

1. Preliminares 1.1. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.1. Conceptos b´asicos . . . . . . . . . . . . . . . . . . . . . 1.1.2. Operaciones con matrices . . . . . . . . . . . . . . . . . 1.1.3. Operaciones elementales sobre los renglones . . . . . . . 1.1.4. Traza de una matriz . . . . . . . . . . . . . . . . . . . . . 1.2. Inversa de una matriz . . . . . . . . . . . . . . . . . . . . . . . . 1.2.1. M´etodo de Gauss-Jordan para encontrar la inversa de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4. Matrices especiales . . . . . . . . . . . . . . . . . . . . . . . . . 1.5. Matrices particionadas . . . . . . . . . . . . . . . . . . . . . . . 1.5.1. Definiciones y operaciones . . . . . . . . . . . . . . . . . 1.5.2. Determinantes de matrices particionadas . . . . . . . . . . 1.5.3. Inversas de matrices particionadas . . . . . . . . . . . . . 1.6. Espacio vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . 1.6.1. Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.6.2. Espacios con producto interno . . . . . . . . . . . . . . . 1.6.3. Complemento ortogonal . . . . . . . . . . . . . . . . . . 1.6.4. Subespacios asociados a una matriz . . . . . . . . . . . . 1.7. Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . 1.7.1. M´etodo de eliminaci´on de Gauss . . . . . . . . . . . . . . 1.8. Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . 1.8.1. Representaci´on matricial de una transformaci´on lineal . . 1.9. Matrices con entradas complejas . . . . . . . . . . . . . . . . . . 1.9.1. Definici´on y propiedades b´asicas . . . . . . . . . . . . . . 1.9.2. Espacios vectoriales complejos . . . . . . . . . . . . . . .

1 1 1 3 6 8 9

I

10 11 16 23 23 33 36 42 46 48 51 52 54 56 57 58 59 60 63

´ INDICE GENERAL

II

1.9.3. Soluci´on de sistemas lineales con entradas complejas . . . 2. Valores propios y vectores propios 2.1. Valores propios y vectores propios . . . 2.2. Matrices semejantes y diagonalizaci´on . 2.3. Valores propios complejos . . . . . . . 2.4. Diagonalizaci´on de matrices sim´etricas . 2.5. Vectores propios generalizados . . . . . 2.6. M´etodos iterativos . . . . . . . . . . . . 2.6.1. M´etodo de la potencia . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

3. Descomposici´on de matrices 3.1. Triangularizaci´on de una matriz . . . . . . . . 3.2. Factorizaci´on QR . . . . . . . . . . . . . . . . 3.3. Ra´ıces cuadradas . . . . . . . . . . . . . . . . 3.3.1. Ra´ıces cuadradas de matrices sim´etricas 3.3.2. Descomposici´on de Cholesky . . . . . 3.4. Polinomio m´ınimo . . . . . . . . . . . . . . . 3.5. Forma can´onica de Jordan . . . . . . . . . . . 3.6. Descomposici´on en valores singulares . . . . . 3.6.1. Descomposici´on en valores singulares . 3.6.2. Descomposici´on polar . . . . . . . . . 4. Matrices complejas 4.1. Clases especiales de matrices complejas . . . 4.1.1. Matrices hermitianas . . . . . . . . . 4.1.2. Matrices anti-hermitianas . . . . . . . 4.1.3. Matrices unitarias . . . . . . . . . . . 4.1.4. Matrices normales . . . . . . . . . . 4.2. Factorizaciones . . . . . . . . . . . . . . . . 4.2.1. Forma can´onica de Jordan . . . . . . 4.2.2. Descomposici´on en valores singulares 4.2.3. Descomposici´on polar . . . . . . . .

. . . . . . .

. . . . . . . . . .

. . . . . . .

. . . . . . . . . .

. . . . . . .

. . . . . . . . . .

. . . . . . .

. . . . . . . . . .

. . . . . . .

. . . . . . . . . .

. . . . . . .

. . . . . . . . . .

. . . . . . .

. . . . . . . . . .

. . . . . . .

. . . . . . . . . .

64

. . . . . . .

67 . 68 . 79 . 89 . 95 . 104 . 115 . 116

. . . . . . . . . .

. . . . . . . . . .

123 123 134 139 151 153 156 161 169 171 174

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

177 177 177 180 182 183 184 193 195 196

5. Formas bilineales 5.1. Formas bilineales . . . . . . . . . . . . . . . . . . . . . 5.2. Formas cuadr´aticas . . . . . . . . . . . . . . . . . . . . 5.3. Diagonalizaci´on de una forma cuadr´atica . . . . . . . . . 5.3.1. Diagonalizaci´on por completaci´on de cuadrados 5.3.2. Diagonalizaci´on por transformaci´on ortogonal .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

201 201 207 213 213 224

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

´ INDICE GENERAL

III

5.4. Ley de la inercia para formas cuadr´aticas . . . . . . 5.5. Aplicaciones a la geometr´ıa anal´ıtica . . . . . . . . 5.5.1. Rotaci´on de ejes en R2 . . . . . . . . . . . 5.5.2. Clasificaci´on de las ecuaciones cuadr´aticas 5.5.3. Rotaci´on de ejes en R3 . . . . . . . . . . . 5.5.4. Clasificaci´on de las superficies cu´adricas . 5.6. Clasificaci´on de las formas cuadr´aticas . . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

227 231 235 240 244 250 251

. . . . . . . . . . . . . . . . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

259 259 263 265 269 270

7. Normas matriciales 7.1. Definici´on y resultados b´asicos . . . . . . . . . . . . . . . . . . . 7.2. Tipos de normas matriciales . . . . . . . . . . . . . . . . . . . . 7.3. Condici´on de ecuaciones lineales . . . . . . . . . . . . . . . . . .

273 273 275 282

6. Formas herm´ıticas 6.1. Forma herm´ıtica . . . . . . . . . . . . . . . . 6.2. Forma cuadr´atica compleja . . . . . . . . . . 6.3. Diagonalizaci´on de una forma herm´ıtica . . . 6.4. Clasificaci´on de formas cuadr´aticas complejas 6.5. Orden parcial entre matrices . . . . . . . . .

8. Matrices idempotentes 291 8.1. Definici´on y propiedades . . . . . . . . . . . . . . . . . . . . . . 291 9. Inversa generalizada de matrices 9.1. Definici´on y propiedades b´asicas . . . . . . . 9.2. Propiedades de las inversas generalizadas . . 9.3. M´etodos para calcular inversas generalizadas 9.4. Vectores y valores propios . . . . . . . . . . 9.5. Soluci´on de sistemas . . . . . . . . . . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

10. Aplicaciones 10.1. Matrices estoc´asticas . . . . . . . . . . . . . . . . . . 10.2. Modelos Gen´eticos . . . . . . . . . . . . . . . . . . . 10.2.1. Herencia autos´omica . . . . . . . . . . . . . . 10.2.2. Los cuadros de Punnett . . . . . . . . . . . . . 10.3. Modelo de regresi´on lineal . . . . . . . . . . . . . . . 10.3.1. M´etodos de estimaci´on . . . . . . . . . . . . . 10.4. Multicolinealidad . . . . . . . . . . . . . . . . . . . . 10.4.1. Soluciones al problema de la multicolinealidad

. . . . .

. . . . . . . .

. . . . .

. . . . . . . .

. . . . .

. . . . . . . .

. . . . .

. . . . . . . .

. . . . .

. . . . . . . .

. . . . .

305 305 309 311 334 337

. . . . . . . .

347 347 355 356 359 362 366 370 371

IV

´ INDICE GENERAL

A.

377 ´ A.1. Algebra de los n´umeros complejos . . . . . . . . . . . . . . . . . 377 A.1.1. Operaciones fundamentales . . . . . . . . . . . . . . . . 378 A.1.2. Representaci´on polar . . . . . . . . . . . . . . . . . . . . 383

´ındice de materias

390

Pr´ologo El a´ lgebra de matrices ha llegado a ser en la actualidad un elemento esencial de los conocimientos matem´aticos necesarios para ingenieros y cient´ıficos. Adem´as, los conocimientos de los m´etodos fundamentales del a´ lgebra matricial son necesarios para soci´ologos, economistas, estudiantes de pedagog´ıa y de comercio. A pesar de las diversas aplicaciones del a´ lgebra matricial, en la mayor´ıa de textos de a´ lgebra lineal no se introducen estos temas, por eso en muchos casos no se encuentra un libro que se ajuste a los requerimientos y necesidades de ciertas ´ materias. Estas notas de clase est´an basadas en el curso de Algebra Lineal II de la carrera de Estad´ıstica, el cual he tenido a mi cargo durante tres a˜nos y que he preparado usando diferentes textos. Se resaltan principalmente los libros referenciados en la bibliograf´ıa como Apostol (1985), Asmar (1995), Barbolla (1998), Bru (2001) y Searle (1982) los cuales fueron de gran apoyo en la elaboraci´on de estas notas. Este escrito ser´a una ayuda adicional para aquellos estudiantes que toman varios cursos en los cuales deben tener o les ser´ıan provechosos los conocimientos del a´ lgebra de matrices. Aun cuando en estas circunstancias siempre es inadecuado comenzar un curso de teor´ıa de matrices, estas notas le permitir´a al lector adquirir la pr´actica necesaria en el manejo de matrices. El objetivo principal de estas notas consiste en capacitar al lector a fin de que adquiera la habilidad de usar el a´ lgebra de matrices. Este material busca proporcionar al lector los conceptos de diagonalizaci´on y factorizaci´on matricial, formas cuadr´aticas e inversas generalizadas de una manera sencilla; durante su desarrollo se plantean ejemplos y ejercicios relacionados con la teor´ıa. Estas notas est´an escritas en forma programada por lo cual le ayudar´a al lector a alcanzar su principal objetivo. A cada lector le proporciona un medio individual para estudiar el tema expuesto y es muy u´ til como texto auto-did´actico. Adem´as, le permitir´a al lector avanzar a su propio ritmo. De esta manera, las notas pueden usarlas estudiantes con diferentes aptitudes, conocimientos y rapidez de lectura. Por supuesto que estas notas pueden contener errores, espero que me los coV

VI

´ PROLOGO

menten en una forma constructiva, que me permita corregirlos. Esta es tal vez la u´ nica forma como en un ambiente acad´emico se podr´a ir avanzando. Agradezco la colaboraci´on del Departamento de Matem´aticas quien a trav´es de su oficina de publicaciones me permiti´o la divulgaci´on de este material. Tambi´en quiero dar las gracias tanto a los colegas que evaluaron este manuscrito como a ´ mis estudiantes del curso de Algebra Lineal II de la carrera de Estad´ıstica, por sus sugerencias y comentarios, los cuales fueron muy u´ tiles en la redacci´on de estos apuntes.

Jos´e Alfredo Jim´enez M.

Cap´ıtulo 1

Preliminares Este cap´ıtulo es una recopilaci´on de conceptos, procedimientos y resultados ´ b´asicos que, por lo general, forman parte del primer curso de Algebra Lineal. Por consiguiente, una gran parte de estos resultados aparecen sin prueba; adem´as, en algunos casos se consideran temas que el lector debe manejar y que por su importancia son retomados posteriormente. El prop´osito fundamental de este material es servir como prerrequisito para los siguientes cap´ıtulos y, como ya se mencion´o, no se profundizara en los temas considerados en este cap´ıtulo. Si el lector tiene amplios conocimientos del contenido de este apartado puede pasar de inmediato al siguiente cap´ıtulo, aunque es recomendable que desarrolle las secciones 1.5 y 1.9.

1.1.

Matrices

En esta secci´on se introducen los conceptos y las reglas b´asicas del a´ lgebra ´ de matrices. Dentro de los diferentes elementos estudiados por el Algebra Lineal, uno de los m´as utilizados es el de matriz. Esto se debe a que la Teor´ıa de Matrices ofrece, entre otras, la posibilidad de trabajar c´omodamente con modelos de gran dimensi´on, tanto en n´umero de variables, como de ecuaciones o datos, ya que brinda una notaci´on simple y compacta para designar amplios conjuntos de informaci´on.

1.1.1.

Conceptos b´asicos

En esta secci´on se presenta la definici´on formal del t´ermino “matriz”, las matrices se denotan con letras may´usculas y con min´usculas los elementos que las 1

´ CAPITULO 1. PRELIMINARES

2 constituyen.

Definici´on 1.1. Una matriz A de tama˜no m × n es un arreglo rectangular de m · n n´umeros reales (o complejos1 ) dispuestos en m filas y n columnas, escritos entre corchetes (o par´entesis), como sigue 



 a11 a12 . . . a1 j  . .. .. ..  .. . . .    A =  ai1 ai2 . . . ai j   . .. .. ..  .. . . .   am1 am2 . . . am j

. . . a1n  ..  ... .     , . . . ain    ..  ... .   . . . amn

donde los sub´ındices indican la “fila” y la “columna” de localizaci´on en la matriz de cada n´umero real (o complejo); a los n´umeros a11 , a12 , . . . , amn se les llama elementos o entradas de la matriz. Observaci´on Cuando m = n, la matriz recibe el nombre de cuadrada; si es m 6= n, se denomina rectangular. Al conjunto de todas las matrices de tama˜no m × n, se le notar´a por Mmn . Definici´on 1.2. Matrices iguales Sean las matrices reales A = [ai j ] y B = [bi j ], se dice que son iguales, cuando teniendo el mismo tama˜no, se verifica que

ai j =bi j

∀ i = 1, 2, . . . , m; ∀

1 Si

j = 1, 2, . . . , n.

el lector no est´a familiarizado con estos n´umeros puede consultar el ap´endice.

1.1. MATRICES

1.1.2.

3

Operaciones con matrices

En esta secci´on se consideran las operaciones con matrices, adem´as se recuerda que s´olo se pueden sumar matrices que tienen el mismo tama˜no y para que el producto sea posible es preciso que el n´umero de columnas de la primera matriz coincida con el n´umero de filas de la segunda. Definici´on 1.3. Dadas A = [ai j ] y B = [bi j ], matrices de tama˜no m × n, la suma A + B, es una matriz C = [ci j ] de tama˜no m × n, donde ∀ i = 1, 2, . . . , m,

ci j =ai j + bi j



j = 1, 2, . . . , n.

Teorema 1.1. Propiedades b´asicas de la suma Para todas A, B y C matrices de tama˜no m × n, se verifica que 1. Conmutativa: A + B = B + A. 2. Asociativa: (A + B) +C = A + (B +C). 3. Existencia de elemento neutro o matriz nula: Existe una matriz O de tama˜no m×n en donde, todos sus elementos son iguales a cero, tal que ∀A de tama˜no m × n, se verifica que A + O = O + A = A. 4. Elemento opuesto: Para todas matriz A de tama˜no m × n, existe una matriz que llamaremos matriz opuesta de A y denotaremos por −A, que verifica A + (−A) = O. La u´ ltima propiedad permite, dadas dos matrices A = [ai j ] y B = [bi j ] del mismo tama˜no m × n, introducir el concepto de matriz diferencia A − B, la cual puede ser definida como sigue A − B = A + (−B) .

´ CAPITULO 1. PRELIMINARES

4 Demostraci´on Sean A = [ai j ], B = [bi j ] y C = [ci j ]. 1. ai j + bi j = bi j + ai j . 2. (ai j + bi j ) + ci j = ai j + (bi j + ci j ).

3. Es evidente, que ∀A de tama˜no m × n, se verifica que ai j + 0 = 0 + ai j = ai j . 4. Al tomar −A = [−ai j ], se verifica que ai j + (−ai j ) = (−ai j ) + ai j = 0. Definici´on 1.4. El producto de una matriz A = [ai j ] de tama˜no m×n, por un escalar α ∈ R, es una matriz C = [ci j ] del mismo tama˜no que A, de elementos

ci j =αai j

∀ i = 1, 2, . . . , m; ∀

j = 1, 2, . . . , n,

esto es, los elementos de C se obtienen multiplicando los elementos correspondientes de A por α. El resultado de efectuar el producto de una matriz A por un escalar α, se simboliza por αA y se lee multiplicaci´on de A por α. Teorema 1.2. Propiedades de la multiplicaci´on por un escalar Para todas A y B de tama˜no m × n y α, β ∈ R se satisface que a) α (A + B) = αA + αB,

b) (α + β) A = αA + βA,

c) α (βA) = (α β) A,

d) 1A = A.

Demostraci´on Sean A = [ai j ] y B = [bi j ], entonces a) α (A + B) = α [ai j + bi j ] = α[ai j ] + α[bi j ].

1.1. MATRICES

5

b) (α + β) A = (α + β) [ai j ] = α[ai j ] + β[ai j ]. c) α (βA) = α (β[ai j ]) = (α β) [ai j ]. d) 1A = 1[ai j ] = [ai j ]. Definici´on 1.5. Matriz identidad Una matriz A = [ai j ] de tama˜no n × n, cuyos elementos son    1 si i = j ai j =   0 si i 6= j se llama matriz identidad y se denota por In . Definici´on 1.6. Sean A = [ai j ] y B = [b jk ] de tama˜no m × n y n × p, respectivamente, entonces el producto de las matrices A y B, operaci´on que se denotar´a por A.B, es una matriz C de tama˜no m × p, cuyo elemento gen´erico cik (i = 1, 2, . . . , m; k = 1, 2, . . . , p), es cik =ai1 b1k + ai2 b2k + . . . + ain bnk n

= ∑ ai j b jk . j=1

Teorema 1.3. Propiedades del producto de matrices Sean A, B,C y D matrices reales tales que A ∈ Mmn , B,C ∈ Mnp y D ∈ M pq . Entonces se satisface que 1. Asociativa: A. (B.D) = (A.B) .D. 2. Distributiva: a) A. (B +C) = A.B + A.C

b) (B +C) .D = B.D +C.D.

3. El producto por una matriz nula O del tama˜no adecuado es una matriz nula.

´ CAPITULO 1. PRELIMINARES

6

4. En general, esta operaci´on matricial no es conmutativa: A.B 6= B.A.

5. Existen matrices Im e In , tales que Im .A =A

y

A.In = A.

Demostraci´on Queda como ejercicio para el lector. Definici´on 1.7. Transpuesta Si A = [ai j ] es una matriz real de tama˜no m × n, se llama transpuesta de A a la matriz B = [bi j ] de tama˜no n × m cuyo elemento bi j = a ji . Se denota por At . Teorema 1.4. Propiedades de la transpuesta Sean A y B matrices de tama˜no m × n, C una matriz de tama˜no n × p y sea α ∈ R. Entonces ¡ ¢t 1. At = A.

2. (A ± B)t = At ± Bt .

3. (αA)t = αAt .

4. (AC)t = Ct At .

Demostraci´on Queda como ejercicio para el lector.

1.1.3. Operaciones elementales sobre los renglones Sea A una matriz real de tama˜no m × n, entonces las operaciones elementales en las filas de la matriz son: R1 Multiplicar cada elemento de la i-´esima fila por un escalar α 6= 0. R2 Sumar a la i-´esima fila un m´ultiplo de la k-´esima fila.

1.1. MATRICES

7

R3 Intercambiar (permutar) dos filas. y las operaciones elementales en las columnas de la matriz son: C1 Multiplicar cada elemento de la j-´esima columna por un escalar α 6= 0. C2 Sumar a la j-´esima columna un m´ultiplo de la l-´esima columna. C3 Intercambiar (permutar) dos columnas. Definici´on 1.8. Matrices elementales Una matriz Ekl (α) de tama˜no m × m se llama una matriz elemental si es el resultado de aplicar una operaci´on elemental a la matriz identidad Im . Realizar una operaci´on elemental en una fila (o columna) de una matriz A es equivalente a premultiplicar (o postmultiplicar) a A respectivamente, por la matriz elemental adecuada. Esto se tiene de la definici´on de multiplicaci´on de matrices que nos aclar´o el hecho de que premultiplicar (o postmultiplicar) una matriz A por una matriz elemental daba el mismo resultado que aplicar la operaci´on elemental a la fila correspondiente de A. Notaci´on La notaci´on que se usar´a para los tres tipos de operaciones R1 , R2 y R3 con matrices elementales, es el siguiente: La Matriz elemental tipo R1 , es una matriz Ekl (α) = [νi j ], cuyos elementos son   1 si i = j 6= k, α si i = j = k, νi j = k=l  0 si i 6= j. N´otese que es una matriz diagonal. La Matriz elemental tipo R2 , es una matriz Ekl (α) = [νi j ]   1 si i = j, α si i = k, j = l, νi j = k6=l  0 en otro caso. Esta matriz es triangular superior (inferior) dependiendo de la relaci´on de orden que exista entre r y s. Adem´as, si k = l, coincide con la matriz elemental tipo R1 .

´ CAPITULO 1. PRELIMINARES

8

Matriz elemental tipo R3 , es una matriz Ekl (1) = [νi j ]  1 si i = j, i 6= k, i 6= l,    1 si i = k, j = l, νi j = 1 si i = l, j = k, α=1    0 en otro caso. Definici´on 1.9. Matriz escalonada Se dice que una matriz es escalonada si el n´umero de ceros que precede al primer elemento diferente de cero de una fila, aumenta fila por fila, hasta tener posiblemente filas de s´olo ceros. Definici´on 1.10. Forma escalonada reducida Una matriz se dice que es escalonada reducida si verifica las siguientes condiciones i. Es una matriz escalonada. ii. El primer elemento no nulo (por la izquierda) de cada fila no nula es un 1 y e´ ste es el u´ nico elemento diferente de cero que se encuentra en la respectiva columna. iii. Las filas nulas, si existen, est´an en la parte inferior de la matriz.

1.1.4. Traza de una matriz En esta secci´on se estudiar´a una caracter´ıstica de las matrices cuadradas, la cual se expresa a trav´es de un n´umero llamado traza.

1.2. INVERSA DE UNA MATRIZ

9

Definici´on 1.11. Traza de una matriz Sea A = [ai j ] una matriz real de tama˜no n × n, la suma de los elementos de la diagonal principal se llama traza de A y se denota como tr(A), o sea n

tr (A) = ∑ aii .

(1.1)

i=1

Teorema 1.5. Propiedades 1. tr(In ) = n, siendo, In la matriz identidad de tama˜no n × n. 2. tr(O) = 0, siendo, O la matriz nula de tama˜no n × n. 3. tr(A) = tr(At ). n

n

4. tr(A.At ) = tr(At .A) = ∑ ∑ a2i j . i=1 j=1

5. tr(α A) = αtr(A), con α ∈ R. 6. Si A y B son del mismo tama˜no, tr(A + B) = tr(A) + tr(B). 7. Si son posibles los productos A.B y B.A, entonces se verifica tr(A.B) = tr(B.A). 8. tr(A.X) = 0, Para todas X ∈ Mnn , implica que A = O. Demostraci´on Queda como ejercicio para el lector.

1.2.

Inversa de una matriz

Es sabido que todo n´umero α 6= 0 tiene un inverso α−1 tal que αα−1 = α−1 α = 1,

(1.2)

´ CAPITULO 1. PRELIMINARES

10

este hecho permite resolver las ecuaciones del tipo αx = β, ya que multiplicando por α−1 se obtiene x = α−1 β. En este apartado se define un tipo de matriz que tiene una propiedad an´aloga en la teor´ıa de matrices, la matriz inversa. Definici´on 1.12. Inversa de una matriz Sea A una matriz real de tama˜no n × n, si existe una matriz real B de tama˜no n × n, tal que A.B = B.A = In .

(1.3)

Entonces, B se denota por A−1 y recibe el nombre de matriz inversa. Notaci´on Si A tiene inversa, entonces A se llama matriz no singular o invertible y si A no tiene inversa, entonces A se llama matriz singular o no invertible.

1.2.1. M´etodo de Gauss-Jordan para encontrar la inversa de una matriz Para encontrar la inversa de una matriz cuadrada A de tama˜no n × n, se procede de la siguiente manera 1. Se forma la matriz aumentada B = (A | In ) de tama˜no n × 2n. 2. Se aplican operaciones elementales ¡ ¢ entre filas, hasta llevar a B a una matriz escalonada reducida C = A˜1 | A˜2 . 3. Se decide si A es no singular. a. Si A˜1 = In , entonces A˜2 = A−1 . b. Si A˜1 6= In , entonces A˜1 tiene una fila de ceros. En este caso, A es singular, es decir A−1 no existe. Teorema 1.6. Propiedades de la inversa de una matriz 1. Si una matriz A tiene inversa, e´ sta es u´ nica.

1.3. DETERMINANTES

11

2. La inversa de la inversa es la matriz original. En s´ımbolos, ¡ −1 ¢−1 A = A. 3. Si A y B son dos matrices invertibles, el producto A.B es invertible y adem´as (A.B)−1 = B−1 .A−1 . 4. Si A es una matriz invertible a) B.A =O



B =O.

b) B.A =C.A



B =C.

5. La inversa de una matriz transpuesta es la transpuesta de la inversa. En s´ımbolos, ¡ t ¢−1 ¡ −1 ¢t A = A . Demostraci´on Queda como ejercicio para el lector.

1.3.

Determinantes

Los determinantes permiten caracterizar cuando una matriz cuadrada es invertible. Un determinante de n−´esimo orden es una expresi´on asociada con una matriz A = [ai j ] de tama˜no n × n, como se explica a continuaci´on empezando con n = 2.   a11 a12  Definici´on 1.13. Sea A =   una matriz de tama˜no 2 × 2. Entonces el a21 a22 determinante de A se define por det (A) = a11 .a22 − a12 .a21 .

(1.4)

´ CAPITULO 1. PRELIMINARES

12 Con frecuencia se denotar´a el det (A) por |A|

o

¯ ¯ ¯a11 a12 ¯ ¯ ¯ ¯a21 a22 ¯

aqu´ı se usan barras (mientras que una matriz tiene corchetes).   a11 a12 a13     Definici´on 1.14. Sea A =  a21 a22 a23  una matriz de tama˜no 3 × 3. Entonces   a31 a32 a33 el determinante de A se puede escribir en t´erminos de los determinantes de matrices 2 × 2, como sigue: ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯a22 a23 ¯ ¯a21 a23 ¯ ¯a21 a22 ¯ ¯ ¯ ¯ ¯ ¯ ¯ det (A) = a11 . ¯ ¯ − a12 . ¯ ¯ + a13 . ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯a32 a33 ¯ ¯a31 a33 ¯ ¯a31 a32 ¯

(1.5)

o en la forma expl´ıcita siguiente |A| = a11 (a22 a33 − a23 a32 ) − a12 (a21 a33 − a23 a31 ) + a13 (a21 a32 − a22 a31 ) . Tambi´en hay un artificio para memorizar esta f´ormula, llamado esquema de Sarrus. Se agregan las dos primeras columnas a la derecha de A y se forman los productos de los elementos que van de la izquierda superior a la derecha inferior se les asigna el signo m´as y a los elementos que van de la izquierda inferior a la derecha superior el signo menos. A continuaci´on se suman todos los productos con signo.   a11 a12 a13 a11 a12 a21 a22 a23  a21 a22 a31 a32 a33 a31 a32 |A| = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a31 a22 a13 − a32 a23 a11 − a33 a21 a12 . Observaci´on El esquema de Sarrus no se aplica para matrices de tama˜no 4 × 4, 5 × 5 o para las de m´as alto orden. Hasta ahora, hemos evaluado los determinantes para matrices de tama˜no 2 × 2 y 3 × 3, para evaluar el determinante de una matriz de tama˜no n × n, utilizaremos un m´etodo en el cual se reduce el problema a la evaluaci´on de los determinantes de matrices de orden n − 1. Luego se repite el proceso para estas matrices de de

1.3. DETERMINANTES

13

tama˜no (n − 1) × (n − 1) hasta llegar a las matrices de 2 × 2. Obs´ervese que este procedimiento fue empleado para calcular el determinante en la expresi´on 1.5, se obtiene eliminando en A la fila y columna que respectivamente indican el primer y segundo sub´ındice del elemento ai j por el que van multiplicadas, los determinantes de estas submatrices reciben el nombre de menores y cuando se les asocia los signos +, −, + se denominan cofactores o adjuntos. Las definiciones de estos conceptos son Definici´on 1.15. Menor y cofactor Sea A una matriz real de tama˜no n × n. 1. Se llama menor complementario (i, j), al determinante de la submatriz de tama˜no (n − 1)×(n − 1) que resulta de suprimir la i−´esima fila y la j−´esima columna de A. Se denota por Mi j (A). 2. Se dice que Ci j (A) = (−1)i+ j Mi j (A), es el adjunto o cofactor (i, j) de A. Obs´ervese que

(−1)i+ j =

   1

si i + j es par,

  −1 si i + j es impar.

Definici´on 1.16. Matriz de cofactores La matriz C = [Ci j (A)], donde el elemento Ci j (A) es el cofactor (i, j) de A, se denomina matriz de cofactores. Teorema 1.7. F´ormula o expansi´on de Laplace Sea A = [ai j ] una matriz de tama˜no n × n. Entonces el determinante de A, se puede desarrollar usando

´ CAPITULO 1. PRELIMINARES

14

i) La expansi´on de Laplace por la i−´esima fila como det A =

n

n

j=1

j=1

∑ ai jCi j (A) = ∑ (−1)i+ j ai j Mi j (A) .

ii) La expansi´on de Laplace por la j−´esima columna como n

n

i=1

i=1

det A = ∑ ai jCi j (A) = ∑ (−1)i+ j ai j Mi j (A) . Demostraci´on Queda como ejercicio para el lector. Teorema 1.8. Propiedades de los determinantes Dadas A, B y C matrices de tama˜no n × n y α ∈ R, se verifica que i) det At = det A. ii) Si se multiplica s´olo una fila (o columna) de la matriz A por un escalar α, entonces el determinante tambi´en queda multiplicado por α. iii) El determinante de la matriz αA es det (αA) = αn det A. iv) Si todos los elementos de una fila (o columna) de A son cero, el valor del determinante es cero. v) Si las matrices A, B y C difieren exclusivamente en los elementos de la j−´esima columna, siendo los elementos de esta columna para la matriz C la suma de los respectivos elementos de la j−´esima columna de las matrices A y B, entonces detC = det A + det B,

1.3. DETERMINANTES

15

el mismo resultado se cumple cuando las tres matrices difieren de manera an´aloga en una fila.

vi) Si dos filas (o columnas) cualesquiera de A se intercambian, el valor del determinante se multiplica por −1.

vii) Si dos filas (o columnas) de A son proporcionales o iguales, el valor del determinante es cero.

viii) Si se suma un m´ultiplo escalar de una fila (o columna) de A a otra fila (o columna) de A, entonces el determinante no cambia.

ix)

a) det (A.B) = det A. det B. ¡ ¢ b) Para cualquier k ∈ N, k 6= 0 det Ak = (det A)k . ¡ ¢ c) Si A es invertible, entonces det A−1 =

1 . det A

Demostraci´on Queda como ejercicio para el lector. Teorema 1.9. Sea A una matriz de tama˜no n × n, A es invertible si y s´olo si det A 6= 0. Demostraci´on Queda como ejercicio para el lector.

Definici´on 1.17. Matriz adjunta Sea A una matriz de tama˜no n × n. La matriz transpuesta de la matriz de cofac-

´ CAPITULO 1. PRELIMINARES

16

tores Ci j (A) es la adjunta de A y se representa por Ad j(A)   C11 (A) C21 (A) . . . Cn1 (A)     C12 (A) C22 (A) . . . Cn2 (A)   Ad j(A) =  . . .. ..  ..  .  . . .   .   C1n (A) C2n (A) . . . Cnn (A)

(1.6)

Teorema 1.10. Sea A una matriz de tama˜no n × n, si det A 6= 0, entonces A−1 =

1 Ad j (A) . det A

Demostraci´on Queda como ejercicio para el lector.

´ Algunas f´ormulas utiles para inversas Para una matriz invertible de tama˜no 2 × 2 se obtiene · ¸ · ¸ 1 a22 −a12 a11 a12 −1 . A= A = a21 a22 det A −a21 a11 Para una matriz invertible de tama˜no 3 × 3 se tiene     a11 a12 a13 C11 (A) C21 (A) C31 (A) 1 A = a21 a22 a23  A−1 = C12 (A) C22 (A) C32 (A) |A| a31 a32 a33 C13 (A) C23 (A) C33 (A)

(1.7)

(1.8)

1.4. Matrices especiales Los tipos de matrices que se analizan a continuaci´on tienen caracter´ısticas particulares y se presentan frecuentemente en el desarrollo de la teor´ıa y en las aplicaciones, de modo que han recibido denominaciones especiales.

1.4. MATRICES ESPECIALES

17

Definici´on 1.18. Matrices triangulares Una matriz cuadrada real A = [ai j ] cuyos elementos abajo de la diagonal principal son todos cero, es decir, ai j = 0 para i > j, se llama matriz triangular superior. De manera an´aloga, una matriz triangular inferior es una matriz cuadrada real A cuyos elementos arriba de la diagonal principal son cero, es decir, ai j = 0 para i < j. Teorema 1.11. Propiedades de las matrices triangulares Sean A, B ∈ Mnn matrices triangulares superiores (inferiores) y α ∈ R, entonces: i) Las matrices A + B y αA son triangulares superiores (inferiores). ii) La matriz A.B es tambi´en triangular superior (inferior). iii) El det(A) es igual al producto de los elementos de la diagonal principal. iv) La transpuesta de A es triangular inferior (superior). v) La matriz A es no singular si y s´olo si cada uno de los elementos de la diagonal es distinto de cero. vi) Si A es invertible, entonces A−1 es triangular superior (inferior). Demostraci´on Queda como ejercicio para el lector. Definici´on 1.19. Matrices sim´etricas Una matriz cuadrada real A = [ai j ] se llama sim´etrica si la transposici´on la mantiene invariable, es decir [ai j ] = [a ji ].

´ CAPITULO 1. PRELIMINARES

18

Teorema 1.12. Propiedades de las matrices sim´etricas Sean A y B matrices sim´etricas de tama˜no n × n y α ∈ R, entonces: i) A + B y αA son sim´etricas. ii) Cuando A.B = B.A, entonces A.B es sim´etrica. Sin embargo, esto no es cierto si A y B no conmutan en el producto. iii) Si A es invertible entonces su inversa A−1 tambi´en es sim´etrica. iv) Dada una matriz cualquiera C de tama˜no m × n, a) Si m = n, la matriz 12 (C +Ct ) es sim´etrica. b) Si m 6= n o´ m = n, las matrices (C.Ct ) y (Ct .C) son sim´etricas. Demostraci´on Queda como ejercicio para el lector. Un tipo especial de matrices sim´etricas son las matrices escalares. Definici´on 1.20. Matriz escalar Una matriz real S de tama˜no n × n, se llama matriz escalar si resulta de la multiplicaci´on de In por un escalar c ∈ R, es decir S = c.In . Cuando todos los elementos sii de S no son iguales al escalar c, se tiene un nuevo tipo de matrices sim´etricas, las matrices diagonales. Definici´on 1.21. Matrices diagonales Una matriz cuadrada real A = [ai j ] cuyos elementos arriba y abajo de la diagonal principal son todos cero, es decir, ai j = 0 Para todas i 6= j, se llama matriz diagonal.

1.4. MATRICES ESPECIALES

19

Teorema 1.13. Propiedades de las matrices diagonales Si D = [dii ] es una matriz diagonal de tama˜no n × n, entonces: i) Su producto por otra matriz diagonal tambi´en es una matriz diagonal. ii) El det(D) es igual al producto de los elementos de la diagonal principal. iii) D es una matriz no singular si y s´olo si todos los elementos de la diagonal son distintos de cero. iv) Si sus elementos de la diagonal principal d11 , d22 , . . . , dnn son todos distintos de cero, D−1 es tambi´en una matriz diagonal con elementos en la diagonal principal iguales a 1/d11 , 1/d22 , . . . , 1/dnn . Demostraci´on i) Sea C = [ci j ]; entonces, el elemento i j de DC es n

∑ dik ck j

k=1

pero como D y C son matrices diagonales, entonces dik = 0 si i 6= k y ck j = 0 si k 6= j. Luego, el t´ermino dik ck j = 0 si i 6= j. Por lo tanto, el u´ nico t´ermino que posiblemente es distinto de cero en esta suma es cuando i = j = k, es decir el t´ermino d j j c j j , el cual corresponde al elemento j j de D.C. ii) Se procede por inducci´on. Si se desarrolla el det(D) = |D| por la primera columna, se obtiene |D| = d11 |D0 | donde D0 es una submatriz real de tama˜no (n − 1) × (n − 1) obtenida al borrar la primera fila y la primera columna de D. Ahora obs´ervese que D0 tambi´en es diagonal. Se deja al lector completar los detalles de la prueba. iii) Dado que una matriz real de tama˜no n × n es no singular si y s´olo si su determinante es diferente de cero. Si D es diagonal, de la parte ii) se tiene que |D| = d11 d22 . . . dnn y e´ ste es distinto de cero si y s´olo si cada dii 6= 0.

´ CAPITULO 1. PRELIMINARES

20

iv) Esta se sigue inmediatamente a partir de i) y de iii). Si cada dii 6= 0    d11 0 . . . 0 1/d11 0 ... 0  0 d22 . . . 0   0 1/d22 . . . 0      .. .. . . ..   .. .. ..  = In . ..  . . .  . . . . .  0

0

. . . dnn

0

0

. . . 1/dnn

Definici´on 1.22. Matrices antisim´etricas Una matriz cuadrada real A = [ai j ] se llama antisim´etrica si la transposici´on da como resultado la negativa de A, es decir At = −A. Teorema 1.14. Propiedades de las matrices antisim´etricas Sean A y B matrices antisim´etricas de tama˜no n × n y α ∈ R, entonces: i) A + B y αA son antisim´etricas. ii) Cuando AB = BA, entonces AB es antisim´etrica. Sin embargo, esto no es cierto si A y B no conmutan en el producto. iii) Si A es invertible entonces su inversa A−1 tambi´en es antisim´etrica. iv) Dada una matriz cualquiera C de tama˜no n × n, la matriz 12 (C −Ct ) es antisim´etrica. Demostraci´on Queda como ejercicio para el lector. Definici´on 1.23. Matriz ortogonal Sea A = [~a1 ~a2 . . . ~an ] una matriz real de tama˜no n × n, donde ~ai es un vector n × 1 que consiste de los elementos de la i-´esima columna de A. Entonces A es ortogonal si y s´olo si ~ati~a j =

   1 si i = j,   0 si i 6= j.

1.4. MATRICES ESPECIALES

21

Teorema 1.15. Propiedades de las matrices ortogonales Sean A y B matrices ortogonales de tama˜no n × n y α ∈ R, entonces: i) A es ortogonal si y s´olo si At = A−1 , o equivalentemente, si y s´olo si At A = In .

(1.9)

ii) AB y BA son ortogonales pero, en general, A + B y αA no lo son. iii) El valor absoluto del det A es 1. iv) La transpuesta de una matriz ortogonal es ortogonal. v) Dada una matriz antisim´etrica C de tama˜no n × n, entonces la matriz A = (In −C) (In +C)−1 es ortogonal. Demostraci´on i) Por la unicidad de la inversa de una matriz y sus propiedades, se tiene que A.At = In ⇒ A−1 .A.At = A−1 ⇒ At = A−1 At = A−1 ⇒ A.At = A.A−1 ⇒ A.At = In . ii) Si A y B son ortogonales, entonces A.B tambi´en lo es, ya que (A.B) (A.B)t = A.B.Bt .At = A.In .At = A.At = In an´alogamente se prueba para B.A iii) Si A es ortogonal, como At .A = In , se tiene que ¡ ¢ ¡ ¢ det (In ) = det At .A = det At det A = 1 y como det (At ) = det A, se ve que (det A)2 = 1 y, por lo tanto, det A = ±1. iv) Obs´ervese que At .A = In se puede escribir como At . (At )t = In .

´ CAPITULO 1. PRELIMINARES

22

v) Si C ∈ Mnn es antisim´etrica, se tiene que Ct = −C y, por las propiedades de la matriz transpuesta, resulta que h it At A = (In −C) (In +C)−1 (In −C) (In +C)−1 h it = (In +C)−1 (In −C)t (In −C) (In +C)−1 = (In −C)−1 (In +C) (In −C) (In +C)−1 = In ya que (In +C) (In −C) = (In −C) (In +C). As´ı pues, A es ortogonal en virtud de la ecuaci´on (1.9). Definici´on 1.24. Una matriz ortogonal A, tal que det A = 1, se llama matriz ortogonal propia y si el det A = −1, se denomina matriz ortogonal impropia.   cos θ − sen θ Ejemplo 1.1. ¿Es ortogonal la matriz A =  ? sen θ cos θ Soluci´on Al multiplicar a A por la izquierda por At , se obtiene · ¸· ¸ · ¸ cos θ sen θ cos θ − sen θ 1 0 t AA= = . − sen θ cos θ sen θ cos θ 0 1 Esto muestra, por la ecuaci´on (1.9), que A es ortogonal. Definici´on 1.25. Matriz de Permutaci´on La matriz elemental tipo R3 de tama˜no n × n, se denomina matriz de permutaci´on ya que resulta de intercambiar (permutar) el orden de las filas de la matriz In . Teorema 1.16. Sea P una matriz de permutaci´on, entonces a) Para cualquier matriz A, se puede obtener PA a partir de A permutando las filas de A exactamente como se permutaron las filas de In para obtener P.

1.5. MATRICES PARTICIONADAS

23

b) P es no singular y ortogonal. Demostraci´on a) Esto se sigue f´acilmente de las definiciones de la multiplicaci´on de matrices y de matrices de permutaci´on. b) Separe P en sus respectivas filas ~r1 ,~r2 , . . . ,~rn , que son tan s´olo las filas ~eti de In en cierto orden. Entonces Pt tiene como columnas a ~rit . La definici´on de la multiplicaci´on de matrices implica que el elemento (i, j) de PPt es simplemente~ri~rtj , y esto es ½ ~ri~rtj

=

1 si i = j; 0 si i 6= j,

es decir, PPt = In . De manera an´aloga, en t´erminos de las columnas de P se demuestra que Pt P = In .

1.5.

Matrices particionadas

Un rasgo importante en nuestro trabajo con matrices reales ha sido la habilidad de considerar una matriz A como una lista de vectores columna en lugar de simplemente una serie rectangular de n´umeros. Este punto de vista ha sido tan u´ til que nosotros deseamos considerar otras particiones de la matriz A, tomando por reglas la divisi´on de A horizontal y verticalmente. En esta secci´on estudiaremos la forma de particionar una matriz en submatrices que nos permitan realizar las mismas operaciones que definimos anteriormente para las matrices de una manera m´as sencilla.

1.5.1.

Definiciones y operaciones

Si A = [ai j ] la matriz que se obtiene despu´es de que algunas filas y/o columnas de A se han eliminado es llamada una submatriz de A. Frecuentemente es conveniente particionar una matriz en submatrices y considerarla como una matriz cuyos elementos son estas submatrices.

´ CAPITULO 1. PRELIMINARES

24

Definici´on 1.26. Una matriz A de tama˜no m × n puede particionarse de la siguiente manera

  A11 A12 . . . A1s     A21 A22 . . . A2s    A= . .. ..  ..  . . .  .   .   Ar1 Ar2 . . . Ars

(1.10)

donde A11 es la submatriz real de tama˜no m1 × n1 formada por los elementos de A que ocupan las m1 primeras filas y las n1 primeras columnas, A12 la submatriz real de tama˜no m1 × n2 formada por los elementos de A que ocupan las m1 primeras filas y las columnas n1 + 1, . . . , n1 + n2 y as´ı sucesivamente. En general Ai j es la submatriz real de tama˜no mi × n j formada por los elementos de A que ocupan las filas m1 + . . . + mi−1 + 1, m1 + . . . + mi−1 + 2, . . . , m1 + . . . + mi−1 + mi y las columnas n1 + . . . + n j−1 + 1, n1 + . . . + n j−1 + 2, . . . , n1 + . . . + n j−1 + n j , siendo mi y n j n´umeros naturales tales que m1 + m2 + . . . + mr =m, n1 + n2 + . . . + ns =n. Se indicar´a la partici´on diciendo que A es de tama˜no (m1 + m2 + . . . + mr ) × (n1 + n2 + . . . + ns ).

1.5. MATRICES PARTICIONADAS

25

Ejemplo 1.2. Sea la matriz  a  11  a21  A=  a31  a41

 a12 a13 a14 a15 a22 a23 a24 a32 a33 a34 a42 a43 a44

  a25   .  a35   a45

Obtenga una partici´on de A de tama˜nos (i) (2 + 2) × (2 + 2 + 1)

y

(ii) (1 + 2 + 1) × (2 + 3).

Soluci´on En el primer caso  a a  11 12  a21 a22  A = ... ...   a31 a32 a41 a42

.. . a13 .. . a23 . ... .. . a33 .. . a43

 . a14 .. a15  .  a24 .. a25   ... . ...,  .  a34 .. a35  .. a . a

.. . A12 . ... .. . A22

 .. . A13  . ...   .. . A23

44

45

la cual puede ser escrita de la forma  A11 A=  ... A21 donde · a A11 = 11 a21 · a A21 = 31 a41

¸ a12 , a22 ¸ a32 , a42

· a A12 = 13 a23 · a A22 = 33 a43

¸ a14 , a24 ¸ a34 , a44

· ¸ a A13 = 15 , a25 · ¸ a A23 = 35 . a45

´ CAPITULO 1. PRELIMINARES

26 En el segundo caso  a11 a12 ... ...   a21 a22 A=  a31 a32  ... ...  a41 a42

.. . . .. . .. . . .. .

 a13 a14 a15  ... ... ...   a23 a24 a25  ,  a33 a34 a35   ... ... ...  a43 a44 a45

la cual puede ser escrita de la forma  0 A11  ...   A = A0  21  ...  0 A31

 .. 0 . A12  . ...   .. 0  . A22   . ...   .. 0 . A32

donde £ 0 A11 = a11 · 0 a A21 = 21 a31 £ 0 A31 = a41

¤ a12 , ¸ a22 , a32 ¤ a42 ,

£ 0 A12 = a13 · 0 a A22 = 23 a33 £ 0 A31 = a43

¤ a14 a15 , ¸ a24 a25 , a34 a35 ¤ a44 a45 .

Definici´on 1.27. Submatriz principal Si A es una matriz cuadrada se llama submatriz principal a toda submatriz de A formada eligiendo los mismos ´ındices para las filas y las columnas. El hecho de tomar las mismas filas y columnas es equivalente a que los elementos de la diagonal principal de la submatriz han de ser elementos que ya formaban parte de la diagonal principal de la matriz original. Luego si A es sim´etrica cualquier submatriz principal tambi´en es sim´etrica.

1.5. MATRICES PARTICIONADAS

27

Ejemplo 1.3. Obtenga algunas submatrices principales de la matriz   −5 3 5 1 0    −4 8 10 0 −1       A =  2 13 11 2 1       0  1 1 3 2     3 1 0 7 5 Soluci´on Las siguientes matrices son submatrices principales de A · ¸ · −5 3 −5 B= , C= −4 8 2    11 2 1 −5    D= 1 3 2 , E= 0 0 7 5 3

¸ 5 , 11  1 0 3 2 . 7 5

La submatriz B se ha formado con las filas y columnas 1 y 2. La submatriz C se ha conformado con las filas y columnas 1 y 3. En cambio la submatriz   −5 1 0 F = −4 0 −1 , 2 2 1 no es principal, por que se ha obtenido con las filas 1, 2 y 3 y con las columnas 1, 4 y 5. Definici´on 1.28. Submatriz angular Las submatrices principales que son formadas con las primeras filas y columnas de la matriz A y que denotaremos por A[k] , siendo k el orden de la submatriz, se denomina submatriz angular. Si A es la matriz cuadrada de tama˜no n × n   a11 a12 . . . a1n a21 a22 . . . a2n    A= . .. . . ..  ,  .. . .  . an1 an2 . . . ann

´ CAPITULO 1. PRELIMINARES

28 entonces las submatrices angulares de A son

  · ¸ a11 a12 a13 £ ¤ a11 a12 A[1] = a11 , A[2] = , A[3] = a21 a22 a23  , . . . , A[n] = A. a21 a22 a31 a32 a33 As´ı en el Ejemplo 1.3, la submatriz B ser´ıa una submatriz angular, concretamente A[2] . Definici´on 1.29. Dos matrices A y B est´an particionadas id´enticamente si las submatrices resultantes contienen el mismo n´umero de filas y de columnas y si, adem´as, las partes correspondientes tienen el mismo tama˜no. Por lo tanto, dos matrices particionadas id´enticamente son iguales si y s´olo si las submatrices correspondientes son iguales. Definici´on 1.30. Suma de matrices particionadas Sean A y B dos matrices particionadas id´enticamente. Entonces la suma de A y B tendra igual partici´on, en este caso cada bloque de A + B es obtenido de los correspondientes bloques de A y de B, en otras palabras  A A12  11  A21 A22  A+B = . ..  . .  .  Ar1 Ar2  A + B11  11  A21 + B21  = ..  .   Ar1 + Br1



  B11 B12 . . . B1s         . . . A2s  B21 B22 . . . B2s   + . ..  .. ..  .. ..   . . .   . . .  .     . . . Ars Br1 Br2 . . . Brs  A12 + B12 . . . A1s + B1s   A22 + B22 . . . A2s + B2s   , .. .. ..  . . .   Ar2 + Br2 . . . Ars + Brs . . . A1s

donde las submatrices Ai j y Bi j son de tama˜no mi × n j .

1.5. MATRICES PARTICIONADAS

29

Definici´on 1.31. Multiplicaci´on por un escalar Si A es una matriz real de tama˜no m × n particionada y α ∈ R. Entonces la multiplicaci´on de un escalar por A, es una matriz real de tama˜no m × n obtenida de multiplicar cada bloque de A por el n´umero α, en otras palabras,     αA11 αA12 . . . αA1s A11 A12 . . . A1s         A21 A22 . . . A2s  αA21 αA22 . . . αA2s      = . αA =α  . , . . .. ..  . ..     . . . . . . . . .  . .   .  .     αAr1 αAr2 . . . αArs Ar1 Ar2 . . . Ars donde cada Ai j es una submatriz real de tama˜no mi × n j . Definici´on 1.32. Transpuesta Sea A una matriz real de tama˜no m×n particionada de alguna manera. Entonces la transpuesta de A, que se escribe At , es una matriz real de tama˜no n × m obtenida de intercambiar los renglones por las columnas en cada uno de los bloques Ai j , en otras palabras,     A11 A12 . . . A1s At11 At21 . . . Atr1         t t A21 A22 . . . A2s  At     12 A22 . . . Ar2  t si A =  . , entonces A = ,   .. ..  .. ..  .. ..  .  ..  . . . .  . .   .  .     t t t Ar1 Ar2 . . . Ars A1s A2s . . . Ars donde, Ai j es la submatriz real de tama˜no mi × n j . Ejemplo 1.4. Obtenga la transpuesta de A   9 3 −5 8    A= 20 10 −10 8  .   21 −5 13 5

´ CAPITULO 1. PRELIMINARES

30

Soluci´on Consideremos la partici´on (2 + 1) × (2 + 2) de A, es decir,  A11 A=  ... A21

.. . . .. .





9 8 A12   20 10 ...  = . . . . . .  A22 21 −5

 .. . 3 −5  .. . −10 8  . . ... ...  .. . 13 5

Luego ·

¸t · ¸ 8 9 8 20 = = , 20 10 9 10 · ¸ £ ¤t 21 t A21 = 21 −5 = , −5

·

¸t · ¸ 3 −5 3 −10 = = , −10 8 −5 8 · ¸ £ ¤t 13 t A21 = 13 5 = , 5

At11

At12

por consiguiente,   . t 8 20 .. 21 ..   9 . 3 −5 . 8   10 .. −5   9 .. 20 10 . −10 8      = ... ... . .... . . . . . . . . . . . . .    ..      3 −10 . 13  .. 21 −5 . 13 5 .. −5 8 . 5 

Teorema 1.17. Multiplicaci´on Sean A y B matrices particionadas compatibles para el producto, digamos   A11 A12 . . . A1s     A21 A22 . . . A2s    A = . .. ..  ..  . . .  .   .   Ar1 ar2 . . . Ars

y

  B11 B12 . . . B1t     B21 B22 . . . B2t    . B = . .. ..  ..   . . . . .     Bs1 Bs2 . . . Bst

1.5. MATRICES PARTICIONADAS

31

Entonces la multiplicaci´on de las dos matrices es   C11 C12 . . . C1t     C21 C22 . . . C2t    A.B =  . , . . .  . .. . . ..    .   Cr1 Cr2 . . . Crt s

donde Cik = ∑ Ai j B jk . j=1

Demostraci´on Consideremos (m1 + m2 + . . . + mr ) × (n1 + n2 + . . . + ns ) una partici´on de A y (n1 + n2 + . . . + ns ) × (p1 + p2 + . . . + pr ) una partici´on de B. Entonces, £ ¤ Ai j = ahl ½m1 +m2 +...+mi−1 +1≤h≤m1 +m2 +...+mi−1 +mi ¾ n1 +n2 +...+n j−1 +1≤l≤n1 +n2 +...+n j−1 +n j

£ ¤ B jk = blq ½n1 +n2 +...+n j−1 +1≤l≤n1 +n2 +...+n j−1 +n j " Ai j B jk =

¾

p1 +p2 +...+pk−1 +1≤q≤p1 +p2 +...+pk−1 +pk

#

n1 +...+n j−1 +n j



l=n1 +...+n j−1 +1

ahl blq

n o m1 +m2 +...+mi−1 +1≤h≤m1 +m2 +...+mi−1 +mi p1 +p2 +...+pk−1 +1≤q≤p1 +p2 +...+pk−1 +pk

y por tanto s

Cik = ∑ Ai j B jk j=1

·

n

= ∑ ahl blq l=1

¸ n o, m1 +m2 +...+mi−1 +1≤h≤m1 +m2 +...+mi−1 +mi p1 +p2 +...+pk−1 +1≤q≤p1 +p2 +...+pk−1 +pk

es decir, Cik es el bloque (i, k) correspondiente a la partici´on (m1 + m2 + . . . + mr ) × (p1 + p2 + . . . + pt ) de A.B.

´ CAPITULO 1. PRELIMINARES

32 Ejemplo 1.5. Calcular A.B, siendo  8 9 3 −5      A = 20 10 −10 8     21 −5 13 5





y



2 1 3 1     1 1 −1 −1   B = .   1  1 −1 1   −1 1 2 −1

Soluci´on Sean las particiones (2 + 1) × (2 + 2) para A y (2 + 2) × (2 + 2) para B   ..   9 . 3 −5 .. 8 A . A  . 11 12   20 10 .. −10 8   = . . . . . . . A = ,   . . . . . . . . . . . . .   ..   A21 . A22 . 21 −5 .. 13 5   .. 2 1 . 3 1     .. ..   B . B 1 1 . −1 −1   11 12     = ... ... . ... ... . . . . . . . B = .     .. .   . B21 . B22 1  1 −1 . 1 . −1 1 .. 2 −1 Luego, · 25 A11 B11 + A12 B21 = 50 · 15 A11 B12 + A12 B22 = 50 £ A12 B11 + A22 B21 = 37 £ A12 B12 + A22 B22 = 68 Por consiguiente,

 33   A.B = 32 . . .  45

¸ · ¸ · ¸ 17 8 −8 33 9 + = , 30 −18 18 32 48 ¸ · ¸ · ¸ −1 −7 8 8 7 + = , 10 6 −18 56 −8 ¤ £ ¤ £ ¤ 16 + 8 −8 = 45 8 , ¤ £ ¤ £ ¤ 26 + 23 8 = 91 34 .  .. 9 . 8 7  .. 48 . 56 −8 . ... . ... ...  .. 8 . 91 34

1.5. MATRICES PARTICIONADAS

1.5.2.

33

Determinantes de matrices particionadas

En esta secci´on se muestran algunos resultados para encontrar el determinante de una matriz cuadrada particionada en bloques. Teorema 1.18. Sea A una matriz real de tama˜no n × n particionada como   A A 12   11 A= . A21 A22 Si A11 y A22 son submatrices cuadradas de tama˜no k × k y (n − k) × (n − k) respectivamente; y A12 = O o´ A21 = O, entonces det(A) = det(A11 ) det(A22 ). Demostraci´on Probaremos este resultado por inducci´on sobre k. Sin p´erdida de generalidad, supongamos que A12 = O y asumamos que el teorema es v´alido Para todass las matrices de tama˜no (n − 1) × (n − 1) de la forma apropiada. Dado que el determinante de una matriz A de tama˜no n × n se puede calcular mediante la Expansi´on de Laplace por la primera fila, como sigue n

det(A) = ∑ (−1)1+ j a1 j M1 j (A)

(1.11)

j=1

=a11 M11 (A) − a12 M12 (A) + . . . + (−1)n+1 a1n M1n (A) , donde cada uno de los menores complementarios M1 j (A) son de la forma ¯h i ¯ ¯ A[ j] O ¯¯ ¯ 11 M1 j (A) = ¯ j =1, 2, . . . , k. ¯, ¯[A21 ] A22 ¯ j h i [ j] Aqu´ı, A11 se consigue borrando de A11 la primera fila y la j-´esima columna y [A21 ] j se obtiene de suprimir de A21 la j-´esima columna. Por inducci´on sobre k, ³h i´ [ j] M1 j (A) = det A11 det (A22 ) . Si se reemplaza en (1.11) se tiene que "

# ³h i´ [ j] det(A) = ∑ (−1)1+ j a1 j det A11 det (A22 ) k

j=1

= det (A11 ) det (A22 ) .

´ CAPITULO 1. PRELIMINARES

34 Como se deseaba.

Teorema 1.19. Determinante de una matriz particionada Sea la matriz cuadrada A tal que   A11 A12  A= , A21 A22 con A11 y A22 submatrices cuadradas. Entonces 1. Si A11 es no singular se verifica que det(A) = det(A11 ) det(A22 − A21 A−1 11 A12 ).

(1.12)

2. Si A22 es no singular se cumple que det(A) = det(A22 ) det(A11 − A12 A−1 22 A21 ).

(1.13)

Demostraci´on 1. Consideremos que la submatriz A11 es no singular, luego la matriz A se puede particionar como sigue · ¸ · ¸· ¸ A11 0 A11 A12 I A−1 A12 11 = . A21 A22 A21 A22 − A21 A−1 0 I 11 A12 | {z } | {z }| {z } A

=

L

U

F´acilmente el lector puede probar que A = LU; por otra parte, dado que det(LU) = det(L) det(U) para matrices cuadradas L y U, por el Teorema 1.18 se tiene que det(A) = det(LU) = det(A11 ) det(A22 − A21 A−1 11 A12 ). 2. Queda como ejercicio para el lector.

1.5. MATRICES PARTICIONADAS

35

Ejemplo 1.6. Para una partici´on (2 + 2) × (2 + 2) de la matriz A, obtenga el determinante de





2 1 3 1     1 1 −1 −1   A= .   1  1 −1 1   −1 1 2 −1 Soluci´on Luego la matriz A particionada queda · ¸ A11 A12 A= , A21 A22 · ¸ 2 1 donde A11 = es no singular ya que su determinante es 1. Adem´as 1 1 · ¸· ¸−1 · ¸ · ¸ 1 −1 2 1 3 1 9 5 −1 A21 A11 A12 = = −1 1 1 1 −1 −1 −9 −5 y A22 − A21 A−1 11 A12

· ¸ · ¸ · ¸ 1 1 9 5 −8 −4 = − = 2 −1 −9 −5 11 4

con determinante igual a 12, luego por (1.12) se tiene que det(A) = 1 · 12 = 12. Teorema 1.20. Desigualdad de Fischer Sea A una matriz cuadrada y definida positiva, particionada como   A11 A12  A=  A21 A22 donde A11 y A22 son submatrices cuadradas, entonces det A ≤ det (A11 ) det (A22 ). Demostraci´on Queda como ejercicio para el lector.

36

´ CAPITULO 1. PRELIMINARES

1.5.3. Inversas de matrices particionadas Para determinar la inversa de una matriz cuadrada usualmente se emplea el m´etodo de Gauss-Jordan o´ el m´etodo del determinante y la matriz adjunta. En esta secci´on se ilustra la manera en que se pueden calcular las inversas de las matrices usando particiones. Teorema 1.21. Sea A una matriz no singular particionada como   A A 12   11 A=  A21 A22 donde A11 y A22 son submatrices cuadradas no singulares. Entonces, 1. Si A12 = 0, la inversa de A es  −1   −1 A11 0  A11 0     = . −1 −1 A21 A22 −A−1 A A A 21 22 11 22 2. Si A21 = 0, la inversa de la matriz dada en (1.14) es  −1   −1 −1 −1 A11 A12  A11 −A11 A12 A22    = . 0 A22 0 A−1 22 Demostraci´on Puesto que A−1 es la inversa de A, entonces AA−1 = I. 1. Sup´ongase que A12 es una submatriz nula, entonces · ¸· ¸ A11 0 A−1 0 −1 11 AA = −1 A21 A22 −A−1 A−1 22 A21 A11 22 · ¸ · ¸ A11 A−1 0 I 0 11 = = . −1 −1 0 I A21 A−1 A22 A−1 11 − A22 A22 A21 A11 22 2. De manera an´aloga, cuando A21 = 0 se tiene que · ¸· ¸ A11 A12 A−1 −A−1 A12 A−1 −1 11 11 22 AA = 0 A22 0 A−1 22 · ¸ · ¸ −1 −1 −1 A11 A−1 A A − A A I 0 12 22 11 11 A12 A22 11 = = . 0 I 0 A22 A−1 22

(1.14)

1.5. MATRICES PARTICIONADAS

37

Teorema 1.22. Inversa de una matriz particionada Sea A una matriz no singular particionada como sigue:   A11 A12  A= , A21 A22 donde Ai j son submatrices de tama˜no ni × n j para i, j = 1, 2, donde n1 + n2 = n y 0 < n1 < n. Denotemos A−1 por B y particionemos B como   B11 B12  B=  B21 B22 donde Bi j son submatrices de tama˜no ni × n j para i, j = 1, 2. Si det (A11 ) 6= 0, y det (A22 ) 6= 0, se tienen los siguientes resultados: −1 1. B−1 11 y B22 existen;

¤−1 ¤−1 £ £ −1 existen; y A − A A A A 2. A11 − A12 A−1 22 21 12 21 11 22 3. A−1 puede escribirse como   ¤−1 £ ¤−1 £ −1 −1 −1 −A11 A12 A22 − A21 A11 A12  A11 − A12 A22 A21  a) A−1 =  . ¤−1 £ ¤−1 £ −1 −1 A − A A A A − A A A −A−1 A 21 11 12 21 22 21 12 22 22 11   ¤−1 £ ¤−1 £ −1 −1 −1 A12 A22  − A11 − A12 A22 A21 A11 − A12 A22 A21  b) A−1 =  £ . ¤ £ ¤ −1 −1 −1 −1 − A22 − A21 A−1 A A A A − A A A 21 11 22 21 11 12 11 12 Demostraci´on Para probar 2. multiplicamos la matriz A por la izquierda por la matriz no singular · ¸ A−1 0 ∗ 11 A1 = . −A21 A−1 I 11

´ CAPITULO 1. PRELIMINARES

38

F´acilmente el lector puede probar que A∗1 A = C, es ¸ · I −A−1 A12 11 , C= 0 A22 − A21 A−1 11 A12 pero por el Teorema 1.18 se tiene que ∗ ∗ det(C) = det(I) det(A22 − A21 A−1 11 A12 ) = det(A1 A) = det(A1 ) det(A) 6= 0.

En consecuencia,

A22 − A21 A−1 11 A12 ,

es no singular. Para probar la otra parte de 2., se multiplica B por la izquierda por A∗2 , donde · ¸ I −A12 A−1 ∗ 22 A2 = . 0 A−1 22 Por otra parte, del resultado BA = I se tiene que · ¸· ¸ · ¸ B11 B12 A11 A12 I 0 = B21 B22 A21 A22 0 I y de estas se obtienen las siguientes cuatro ecuaciones matriciales: B11 A11 + B12 A21 =I

(1.15a)

B11 A12 + B12 A22 =0

(1.15b)

B21 A11 + B22 A21 =0

(1.15c)

B21 A12 + B22 A22 =I.

(1.15d)

Si se multiplica por la derecha de la ecuaci´on (1.15b) por A−1 22 se tiene B12 = −B11 A12 A−1 22 . Si se reemplaza en la ecuaci´on (1.15a) y se factoriza se obtiene ¤ £ B11 A11 − A12 A−1 22 A21 = I,

(1.16)

−1 as´ı B−1 11 existe y es igual a A11 − A12 A22 A21 . De manera an´aloga, si se utilizan las ecuaciones (1.15c) y (1.15d) se puede probar que £ ¤ B22 A22 − A21 A−1 (1.17) 11 A12 = I −1 es decir, B−1 22 existe y es igual a A22 − A21 A11 A12 . Esto prueba 1. De reemplazar en B12 y B21 se sigue la prueba de 3.

1.5. MATRICES PARTICIONADAS

39

Corolario 1.22.1. Sean A y B como en el Teorema 1.22, entonces £ ¤−1 £ ¤−1 −1 −1 A21 A−1 = A−1 A11 − A12 A−1 22 A21 11 + A11 A12 A22 − A21 A11 A12 11 . £ ¤−1 £ ¤−1 −1 −1 A22 − A21 A−1 = A−1 A12 A−1 11 A12 22 + A22 A21 A11 − A12 A22 A21 22 . £ ¤−1 £ ¤−1 −1 A−1 = A11 − A12 A−1 A12 A−1 11 A12 A22 − A21 A11 A12 22 A21 22 . £ ¤−1 £ ¤−1 −1 A−1 = A22 − A21 A−1 A21 A−1 22 A21 A11 − A12 A22 A21 11 A12 11 . Demostraci´on Como A11 es invertible, la matriz A se puede particionar como sigue ¸ · ¸ · ¸· A11 0 A11 A12 I A−1 A12 11 . = A21 A22 0 I A21 A22 − A21 A−1 11 A12 | {z } | {z }| {z } A

=

L

U

Luego, A−1 = B = U −1 L−1 y por el Teorema 1.21 se tiene # ¸" −1 A 0 I −A−1 A 12 11 11 ¤−1 ¤−1 £ £ A = 0 I A21 A−1 A22 − A21 A−1 − A22 − A21 A−1 11 11 A12 11 A12 " ¤−1 # £ ¤−1 £ −1 −1 −1 −1 −1 A − A A A A A −A A A − A A A A−1 + A A 22 21 12 21 12 22 21 12 12 11 11 11 11 . = 11 ¤−1 ¤11−1 £ £ −1 −1 A A A − A A A − A22 − A21 A−1 A 21 22 21 12 12 11 11 11 ·

−1

Como en el Teorema 1.22 se obtuvo A−1 , comparando los t´erminos se obtiene £ ¤−1 ¤−1 £ −1 −1 A21 A−1 A11 − A12 A−1 = A−1 11 + A11 A12 A22 − A21 A11 A12 11 22 A21 ¤−1 ¤−1 £ £ −1 −1 −1 −1 = A22 − A21 A11 A12 A21 A11 . A22 A21 A11 − A12 A22 A21 Por otra parte, dado que A22 es no singular, la matriz A tambi´en podr´ıa particionarse de la siguiente manera ¸· ¸ · ¸ · I 0 A11 A12 A11 − A12 A−1 A21 A12 22 = , A21 A22 0 A22 A−1 22 A21 I | {z } | {z }| {z } A

=

R

S

´ CAPITULO 1. PRELIMINARES

40

por lo tanto, A−1 = B = S−1 R−1 y en virtud del Teorema 1.21 se tiene que # · ¸ "£ ¤−1 ¤−1 £ −1 −1 −1 I 0 A12 A22 − A11 − A12 A22 A21 A11 − A12 A22 A21 A−1 = −1 −A−1 A I 0 A 21 22 22 " # £ ¤ £ ¤−1 −1 A11 − A12 A−1 A21 − A11 − A12 A−1 A21 A12 A−1 22 22 22 = . £ ¤−1 £ ¤−1 −1 −1 −1 −A−1 A−1 A12 A−1 22 A21 A11 − A12 A22 A21 22 + A22 A21 A11 − A12 A22 A21 22 Aqu´ı se comparan de nuevo los t´erminos con los de la matriz A−1 , para obtener £ ¤−1 £ ¤−1 −1 −1 A22 − A21 A−1 = A−1 A12 A−1 11 A12 22 + A22 A21 A11 − A12 A22 A21 22 £ ¤−1 £ ¤−1 −1 −1 −1 −1 A11 A12 A22 − A21 A11 A12 = A11 − A12 A22 A21 A12 A22 y el corolario queda probado. Ejemplo 1.7. Obtenga la inversa de la matriz dada en el Ejemplo 1.6. Soluci´on En el Ejemplo 1.6 se considero la partici´on · ¸ A11 A12 A= obteni´endose que A21 A22

det(A) = 12,

es decir, A es invertible. Asumiendo la misma partici´on se tiene que · ¸−1 · ¸ · ¸−1 · 1 ¸ 1 2 1 1 −1 1 1 −1 −1 3 3 A11 = = , A22 = = 2 1 , 1 1 −1 2 2 −1 3 −3 · ¸· ¸−1 · ¸ · ¸ 3 1 1 1 1 −1 1 −1 −1 A12 A22 A21 = = . −1 −1 2 −1 −1 1 −1 1 −1 es Aunque A12 A−1 22 A21 no es invertible, el primer bloque B11 de la matriz A · ¸−1 · ¸ ¤−1 £ 1 2 0 12 −1 A11 − A12 A22 A21 = = 1 1 . 2 0 2 −4 £ ¤−1 −1 La submatriz B21 = −A−1 , esta dada por 22 A21 A11 − A12 A22 A21 · ¸−1 · ¸· ¸ ¸ · 0 0 1 1 1 −1 0 12 B21 = − y 3 1 1 = 1 2 −1 −1 1 2 −4 2 −4 · ¸· ¸−1 · ¸ · ¸ 1 −1 2 1 3 1 9 5 −1 A21 A11 A12 = = . −1 1 1 1 −1 −1 −9 −5

1.5. MATRICES PARTICIONADAS

41

A pesar de que A21 A−1 11 A12 no es invertible, el bloque B22 se obtiene de · ¸−1 · 1 ¸ 1 £ ¤−1 −8 −4 −1 3 3 A22 − A21 A11 A12 = = 2 11 4 − 11 12 − 3 £ ¤−1 −1 es y finalmente, se tiene que B12 = −A−1 11 A12 A22 − A21 A11 A12 ¸ ¸ · ¸−1 · ¸· 1 · 1 1 2 1 3 1 0 3 3 2 B12 = − 2 = 1 . 1 1 −1 −1 − 11 − 13 12 − 3 12 − 3 Por lo tanto, 

−1  0 12 2 1 3 1 1 1 1 1 −1 −1   = 2 −4  1 −1 1 0 0 1 1 3 −1 1 2 −1 2 −4

1 2 − 13 12 1 3 − 11 12

 0 − 13   1 . 3 − 23

Ejercicios 1.1. 1. Utilizando particiones encuentre el determinante y la inversa de   −5 3 5 1 0    −4 8 10 0 −1        2 13 11 2 1  .      0 1 1 3 2     3 1 0 7 5 2. Si A y C son no singulares. Pruebe que i) det(I + AB) = det(I + BA). ii) det(A +CBCt ) = det(A) det(I + BCt A−1C). 3. Demuestre que

      · ¸ P Q  I 0 X Y  P    =  X Y . R S 0 0 Z W R

´ CAPITULO 1. PRELIMINARES

42

4. Muestre que la inversa de una matriz no singular particionada es 

−1

A B    C D

    · ¸ −1 −1 0 −A B A −1 −1 = +  [D −CA B] −CA−1 I . 0 0 I

1.6. Espacio vectorial Los conjuntos R2 (vectores en el plano) y R3 (vectores en el espacio) junto con las operaciones de suma de vectores y multiplicaci´on por un escalar se llaman espacios vectoriales. Las propiedades algebraicas de un espacio vectorial arbitrario son muy semejantes a las de los elementos de R2 y R3 . En consecuencia, se acostumbra llamar vectores tambi´en a los elementos de un espacio vectorial arbitrario. Definici´on 1.33. Un espacio vectorial real2 V es un conjunto no vac´ıo de vectores, dotado de dos operaciones Suma

Multiplicaci´on por un escalar

V×V → V

R×V → V

(~x,~y) →~x +~y

(α,~x) → α~x

que satisfacen los diez axiomas enumerados a continuaci´on.

Axiomas de un espacio vectorial Dado V un espacio vectorial real, se verifica que: Para la suma en V: i. Clausurativa: Si ~x,~y ∈ V, entonces ~x +~y ∈ V. ii. Asociativa: Para todo ~x,~y y~z ∈ V, (~x +~y) +~z =~x + (~y +~z). iii. Conmutativa: Si ~x,~y ∈ V, entonces ~x +~y =~y +~x. 2 La

palabra “real” significa que los escalares que se usan son n´umeros reales.

1.6. ESPACIO VECTORIAL

43

iv. Existencia de elemento neutro: Existe un vector de V, denotado por ~0, tal que para todo ~x ∈ V, ~x +~0 = ~0 +~x =~x. v. Elemento opuesto: Si ~x ∈ V, existe un vector −~x en V tal que ~x + (−~x) = ~0. Para el producto por un escalar de R: vi. Clausurativa: Si ~x ∈ V y α es un escalar, entonces α~x ∈ V. vii. Distributiva respecto de la suma de vectores: Si ~x,~y ∈ V y α es un escalar, entonces α (~x +~y) = α~x + α~y. viii. Distributiva respecto de la suma de escalares: Si ~x ∈ V y α y β son escalares, entonces (α + β)~x = α~x + β~x. ix. Asociativa respecto a la multiplicaci´on de escalares: Si ~x ∈ V y α y β son escalares, entonces α (β~x) = (αβ)~x. x. Existencia del elemento unidad: Para cada vector ~x ∈ V, 1~x =~x. Definici´on 1.34. Sea V un espacio vectorial y W un subconjunto no vac´ıo de V. Se dice que W es un subespacio vectorial de V si W dotado de las mismas operaciones definidas en V es, a su vez, espacio vectorial. Teorema 1.23. Un subconjunto no vac´ıo W de un espacio vectorial V es un subespacio vectorial de V si cumple que i) La suma de elementos de W es un elemento de W. ii) El producto de un escalar por un elemento de W pertenece a W. Una condici´on equivalente para que W sea subespacio vectorial es que para todo par de elementos ~v y ~w de W y cualesquiera α y β de R, se verifique α~v + β~w pertenece a W. Demostraci´on Queda como ejercicio para el lector.

´ CAPITULO 1. PRELIMINARES

44

Definici´on 1.35. Si U y W son subespacios de un espacio vectorial real V, entonces se define la suma U + W como U + W = {~u + ~w | ~u ∈ U,~w ∈ W}. Teorema 1.24. Si U y W son subespacios de un espacio vectorial real V, entonces la suma U + W es un subespacio de V. Demostraci´on Se debe probar que U + W satisface las condiciones del teorema 1.23: i) Si ~u1 ,~u2 ∈ U y ~w1 ,~w2 ∈ W, entonces (~u1 + ~w1 ) + (~u2 + ~w2 ) = ~u1 +~u2 + ~w1 + ~w2 ∈ U + W. ii) Si α ∈ R, entonces α (~u1 + ~w1 ) = α~u1 + α~w1 ∈ U + W. Finalmente, ~0 +~0 ∈ U + W. Lo cual prueba que U + W es un subespacio. Definici´on 1.36. Se dice que V es una suma directa de U y W si todo ~v ∈ V tiene una representaci´on u´ nica de la forma ~v = ~u + ~w. con ~u ∈ U y ~v ∈ V. Esta suma directa se denotar´a como V = U

L

W.

Teorema 1.25. Si U y W son subespacios no nulos de un espacio vectorial real V, T su suma U + W es una suma directa si y s´olo si U W = {~0}.

Demostraci´on Queda como ejercicio para el lector.

1.6. ESPACIO VECTORIAL

45

Definici´on 1.37. Combinaci´on lineal Sean ~v1 ,~v2 , . . . ,~vn vectores en un espacio vectorial real V. Un vector ~v en V es una combinaci´on lineal de ~v1 ,~v2 , . . . ,~vn si ~v = c1~v1 + c2~v2 + . . . + cn~vn para ciertos n´umeros reales c1 , c2 , . . . , cn . Definici´on 1.38. Sea S = {~v1 ,~v2 , . . . ,~vn } un conjunto de vectores en un espacio vectorial V, entonces se dice que S es 1. Linealmente dependiente o ligado si y s´olo si existen escalares c1 , c2 , . . . , cn no todos nulos, tales que c1~v1 + c2~v2 + . . . + cn~vn = ~0.

2. Linealmente independiente o libre si y s´olo si no son ligados. Esto es, c1~v1 + c2~v2 + . . . + cn~vn = ~0. se cumple s´olo para c1 = c2 = . . . = cn = 0 Definici´on 1.39. Espacio generado Si S = {~v1 ,~v2 , . . . ,~vn } es un conjunto de vectores en un espacio vectorial V, entonces el conjunto de todos los vectores en V que son combinaciones lineales de los vectores en S se denomina espacio generado y se denota por genS

o

gen{~v1 ,~v2 , . . . ,~vn }.

´ CAPITULO 1. PRELIMINARES

46

1.6.1. Bases En esta secci´on se contin´ua con el estudio de la estructura de un espacio vectorial V determinando un conjunto m´ınimo de vectores de V que describa completamente a V. Definici´on 1.40. Base Si V es cualquier espacio vectorial y B = {~v1 , . . . ,~vn } es un conjunto finito de vectores en V, entonces B se denomina base para V si es un conjunto generador para V con el n´umero m´as peque˜no de elementos en un conjunto generador para V. El teorema principal acerca de las bases es: Teorema 1.26. Base Sea B = {~v1 , . . . ,~vn } un conjunto de vectores en un espacio vectorial V. El conjunto B es una base para V si y s´olo si B es linealmente independiente y genera a V. Demostraci´on Queda como ejercicio para el lector. Definici´on 1.41. Dimensi´on Si un espacio vectorial V tiene una base B con n elementos (n ∈ N), entonces se define a n como la dimensi´on del espacio vectorial V y se escribe n = dim V. n o Si V = ~0 , entonces se tiene que dim V = 0. Teorema 1.27. Sea S = {~v1 ,~v2 , . . . ,~vn } un conjunto de vectores en un espacio vectorial V de dimensi´on n. Sea ·

¸

A = ~v1 ~v2 . . . ~vn ,

1.6. ESPACIO VECTORIAL

47

entonces S es un conjunto de vectores linealmente independiente si y s´olo si det A 6= 0. Demostraci´on Queda como ejercicio para el lector. Teorema 1.28. Suponga que dim V = n. Si ~v1 ,~v2 , . . . ,~vm es un conjunto de m vectores linealmente independientes en V, entonces m ≤ n. Demostraci´on Queda como ejercicio para el lector. Teorema 1.29. Cualesquiera n vectores linealmente independientes en un espacio vectorial V de dimensi´on n constituyen una base para V. Demostraci´on Queda como ejercicio para el lector. Definici´on 1.42. Sea B = {~v1 ,~v2 , . . . ,~vn } una base para el espacio vectorial V de dimensi´on n. Las coordenadas de cualquier vector ~x ∈ V, en B, se relacionan por −1 (~x)B = MB ~x,

·

(1.18)

¸

donde MB = ~v1 ~v2 . . . ~vn . Ejemplo 1.8. Muestre que los vectores~vt1 = (2, −1) y ~vt2 = (1, 5) forman una base de R2 y halle las componentes del vector ~xt = (7, 4) con relaci´on a esta base. Soluci´on F´ormese A = [~v1 ~v2 ] y calc´ulese su determinante ¯ ¯ ¯ ¯ ¯ 2 1¯ ¯ = 11 6= 0. ¯ ¯ ¯ det A = ~v1 ~v2 = ¯ −1 5¯ Luego, S = {~v1 ,~v2 } es un conjunto de vectores linealmente independientes y como R2 tiene dimensi´on dos, se deduce que forman una base.

´ CAPITULO 1. PRELIMINARES

48

Para hallar las componentes de ~x en t´erminos de esta base, se hace −1 (~x)B =MB ~x = A−1~x · ¸−1 · ¸ · · ¸ ¸· ¸ 1 5 −1 7 1 31 2 1 7 = = = . −1 5 4 11 1 2 4 11 15

Estas son las componentes de ~x relativas a la base ~v1 ,~v2 . Teorema 1.30. Cambio de Base Sean B1 = {~v1 ,~v2 , . . . ,~vn } y B2 = {~w1 ,~w2 , . . . ,~wn } bases para el espacio vectorial V de dimensi´on n. Para cualquier vector~x ∈ V, las coordenadas en B1 , (~x)B1 y las coordenadas en B2 , (~x)B2 se relacionan por −1 (~x)B2 = MB MB1 (~x)B1 . 2

(1.19)

Demostraci´on Queda como ejercicio para el lector.

1.6.2. Espacios con producto interno En esta secci´on se define una operaci´on que no puede ser clasificada como externa o interna, ya que aunque se opera con los elementos de un espacio vectorial, el resultado es un escalar el cual no pertenece al conjunto sobre el cual se define la operaci´on. Definici´on 1.43. Espacio con producto interno Un espacio vectorial real V de dimensi´on finita, se dice que es un espacio con producto interno si a cada par de vectores ~u,~v ∈ V, le asigna un n´umero real denotado por < ~u,~v >, tal que n

< ~u,~v >= ~u ·~v = ~ut~v = ∑ ui vi .

(1.20)

i=1

Debido a la notaci´on en (1.20), el producto interno se llama con frecuencia producto escalar o producto punto entre vectores.

1.6. ESPACIO VECTORIAL

49

Teorema 1.31. Propiedades del producto interno Sea V un espacio vectorial real con un producto interno . Entonces, para todo ~u,~v,~w ∈ V y todo α ∈ R se tiene i) < ~u,~v >=. ii) < (~u +~v) ,~w >=< ~u,~w > + . iii) < ~u, (~v + ~w) >=< ~u,~v > + < ~u,~w >. iv) < (α~u) ,~v >= α < ~u,~v >=< ~u, (α~v) >. v) < ~u,~u > ≥ 0 y < ~u,~u >= 0 si y s´olo si ~u = ~0. Definici´on 1.44. Longitud o norma Sea V un espacio vectorial real, con un producto interno . Una norma en V es una funci´on de V en R, tal que a cada ~v ∈ V, le asigna un n´umero real no negativo, denotado por k~vk y definido como k~vk =

p .

Teorema 1.32. Propiedades de la norma Para todo ~u,~v ∈ V y todo α ∈ R i) k~uk ≥ 0. ii) k~uk = 0 si y s´olo si ~u = ~0. iii) kα~uk = |α|k~uk. iv) k < ~u,~v > k ≤ k~ukk~vk.

(1.21)

´ CAPITULO 1. PRELIMINARES

50 v) k~u +~vk ≤ k~uk + k~vk. Demostraci´on Queda como ejercicio para el lector.

Teorema 1.33. Sea un producto interno en un espacio vectorial V de dimensi´on finita. Sean ~u y ~v dos vectores diferentes de cero. Si θ es el a´ ngulo entre ellos, entonces cos θ =

< ~u,~v > . k~ukk~vk

(1.22)

Demostraci´on Queda como ejercicio para el lector. Definici´on 1.45. Vectores ortogonales 1. Sea V un espacio vectorial con un producto interno y sean dos vectores~u,~v ∈ V. Se dice que ~u y ~v son ortogonales (~u ⊥~v) si y s´olo si < ~u,~v >= 0. 2. Un conjunto de vectores S = {~v1 ,~v2 , . . . ,~vm } de un espacio vectorial V se dice que es ortogonal si y s´olo si los vectores son ortogonales dos a dos, es decir, =0

siempre que

i 6= j.

3. El conjunto de vectores S (en 2), se dice que es ortonormal si y s´olo si a) S es ortogonal.

b) k~vi k = 1, para todo i.

Teorema 1.34. Todo conjunto ortogonal de un espacio vectorial V es linealmente independiente.

1.6. ESPACIO VECTORIAL

51

Demostraci´on Queda como ejercicio para el lector. Teorema 1.35. Proceso de ortonormalizaci´on de Gram-Schmidt Todo subespacio H de dimensi´on k de Rn tiene al menos una base ortogonal y una base ortonormal. Si B = {~v1 ,~v2 , . . . ,~vk } es cualquier base de H, entonces 0

B = {~w1 ,~w2 , . . . ,~wk } es una base ortogonal, donde ~w1 =~v1 .

~w1 . k~w1 k2

~w3 =~v3 − ~w1 − ~w2 . k~w1 k2 k~w2 k2 .. . ~w2 =~v2 −

k−1

~wi . k~wi k2 i=1

~wk =~vk − ∑ y

gen{~v1 , . . . ,~vk } =gen{~w1 , . . . ,~wk }, 00

i = 1, . . . , k. 0

La base ortonormal B se obtiene normalizando B : ½ ¾ 00 ~w1 ~wk B = ,..., . k~w1 k k~wk k Demostraci´on Queda como ejercicio para el lector.

1.6.3. Complemento ortogonal Consideremos un subespacio V ⊆ Rn . Para V puede haber muchos subespacios de Rn que son ortogonales a V (por ejemplo, en R3 , si V es el eje Z, todas las rectas en el plano XY que pasan por el origen y el propio plano XY , son ortogonales a V). Entre todos los subespacios que son ortogonales a V hay uno de particular importancia: aquel subespacio V∗ tal que Rn = V ⊕ V∗ .

´ CAPITULO 1. PRELIMINARES

52 Definici´on 1.46. Complemento Ortogonal

Sea H un subespacio del espacio con producto interno V. Entonces el complemento ortogonal de H, denotado por H ⊥ , est´a dado por D E H ⊥ = {~u ∈ V : ~u,~h = 0 Para toda ~h ∈ H}.

1.6.4. Subespacios asociados a una matriz Hay cuatro subespacios asociados a una matriz los cuales se consideran a continuaci´on. Definici´on 1.47. Espacio Nulo y Nulidad de una matriz Sea A una matriz de tama˜no m × n. Entonces el conjunto NA = {~u ∈ Rn |A~u = ~0},

(1.23)

se llama el espacio nulo de A y ν (A) = dim NA se denomina nulidad de A. El espacio nulo de una matriz tambi´en se conoce como n´ucleo. Definici´on 1.48. Imagen de una matriz Sea A una matriz de tama˜no m × n. Entonces la imagen de A, denotada por ImA , est´a dada por ImA = {~v ∈ Rm |A~u =~v para alg´un ~u ∈ Rn }.

(1.24)

Definici´on 1.49. Espacio de los renglones (o de las filas) de una matriz Sea A una matriz de tama˜no m × n, sean {~r1 ,~r2 , . . . ,~rn } los renglones (o filas) de A. Entonces se define R(A) = espacio de los renglones de A = gen{~r1 ,~r2 , . . . ,~rn }.

(1.25)

1.6. ESPACIO VECTORIAL

53

Definici´on 1.50. Espacio de las columnas de una matriz Sea A una matriz de tama˜no m × n, sean {~c1 ,~c2 , . . . ,~cn } las columnas de A. Entonces se define C(A) = espacio de las columnas de A = gen{~c1 ,~c2 , . . . ,~cn }.

(1.26)

Definici´on 1.51. Rango de una matriz Sea A = [ai j ] una matriz real de tama˜no m × n, se llama rango de A, denotado por ρ(A), al n´umero m´aximo de vectores fila (o columna) linealmente independiente, o tambi´en, a la dimensi´on del subespacio generado por los vectores fila (o columna) de A. Teorema 1.36. Propiedades del rango Sea A una matriz real de tama˜no m × n, entonces se cumple que (i) 0 ≤ ρ(A) ≤ m´ın{m, n}. (ii) Si ρ(A) = m < n, se dice que A tiene rango completo fila. (iii) Si ρ(A) = n < m, se dice que A tiene rango completo columna. (iv) Si ρ(A) = r ≤ m´ın{m, n}, entonces existen matrices K y L de rango r y tama˜nos m × r y r × n, respectivamente, tales que A = KL. (v) ρ(In ) = n, con In la matriz identidad de tama˜no n × n. (vi) ρ(O) = 0, siendo, O la matriz nula de tama˜no n × n. (vii) ρ(A) = ρ(At ). (viii) ρ(A.B) ≤ m´ın{ρ(A), ρ(B)}.

´ CAPITULO 1. PRELIMINARES

54

(ix) Si A es diagonal, entonces ρ(A), es el n´umero de elementos no nulos en su diagonal. (x) Si A es no singular, entonces ρ(A.B) = ρ(B) y ρ(B.A) = ρ(B). Demostraci´on Queda como ejercicio para el lector.

1.7. Sistemas de ecuaciones lineales ´ En esta secci´on se mencionan las relaciones lineales, pues gran parte del Algebra Lineal estudia y desarrolla relaciones lineales las cuales son una generalizaci´on de la ecuaci´on de una recta. Definici´on 1.52. Un sistema de ecuaciones se dice que es lineal si todas las ecuaciones que lo componen son lineales en los escalares desconocidos o inc´ognitas x1 , x2 , . . . , xn . Es decir, son de la forma α1 x1 + α2 x2 + . . . + α j x j + . . . + αn xn = β, donde αi , i = 1, 2, . . . , n y β habitualmente son n´umeros reales, n´umeros complejos o funciones. As´ı pues, en una ecuaci´on lineal no pueden aparecer productos o potencias de las inc´ognitas x1 , x2 , . . . , x j , . . . , xn . Definici´on 1.53. Se llama sistema lineal de m ecuaciones con n inc´ognitas al conjunto de m igualdades a11 x1 + a12 x2 + . . . + a1 j x j + . . . + a1n xn =b1 a21 x1 + a22 x2 + . . . + a2 j x j + . . . + a2n xn =b2 .. .

. = ..

am1 x1 + am2 x2 + . . . + am j x j + . . . + amn xn =bm ,

(1.27)

1.7. SISTEMAS DE ECUACIONES LINEALES

55

donde ai j , i = 1, 2, . . . , m j = 1, 2, . . . , n son los coeficientes del sistema; bk , k = 1, 2, . . . , m son los t´erminos independientes y x1 , x2 , . . . , x j , . . . , xn son las inc´ognitas del sistema. El sistema de ecuaciones (1.27) puede escribirse en forma matricial como sigue      b1 a11 a12 . . . a1 j . . . a1n x1  a21 a22 . . . a2 j . . . a2n  x2  b2        .. .. .. ..   ..   ..  ..  .     . . . ... .    .  = . , (1.28)  ai1 ai2 . . . ai j . . . ain   xi  b j        .. .. .. ..   ..   ..  ..  . . . . ... .  .   .  bn am1 am2 . . . am j . . . amn xn ~X = ~b A donde A es la matriz de coeficientes de tama˜no m × n, ~X ∈ Rn es el vector columna de las inc´ognitas y ~b ∈ Rm , es el vector columna de los t´erminos independientes. El sistema (1.28) se dice que es homog´eneo cuando el vector ~b de t´erminos independientes es nulo. Es decir, A~X = ~0. Se conoce como sistema lineal no homog´eneo general al sistema de la forma A~X =~b

con

~b 6= ~0.

Definici´on 1.54. Sistemas consistentes e inconsistentes Un sistema de ecuaciones lineales A~X = ~b con A una matriz de tama˜no m × n, ~X ∈ Rn y ~b ∈ Rm , es Consistente si admite al menos una soluci´on. Inconsistente si no tiene soluci´on. En caso de existir soluci´on para el sistema 1.29, e´ ste es

(1.29)

´ CAPITULO 1. PRELIMINARES

56

Consistente determinado si la soluci´on es u´ nica. Consistente indeterminado cuando hay infinitas. soluciones

1.7.1. M´etodo de eliminaci´on de Gauss Para resolver un sistema de m ecuaciones con n inc´ognitas de la forma A~X = ~b se procede de la siguiente manera ³ ´ 1. Se forma la matriz aumentada B = A | ~b . 2. Se aplican operaciones elementales entre filas, hasta llevar a B a una matriz escalonada reducida C. 3. Se halla el sistema de ecuaciones que representa la matriz C. 4. En este u´ ltimo sistema, se encuentra la soluci´on. Por u´ ltimo en esta secci´on se presenta la aplicaci´on de determinantes, bien conocida, para resolver sistemas de ecuaciones lineales A~X = ~b, donde A es una matriz invertible de tama˜no n × n. Sean     a11 . . . a1 j . . . a1n b1 a21 . . . a2 j . . . a2n  b2     ~b =  A = . . y  ..  . . . ... . . . ...   ..  . an1 . . . an j . . . ann

bn

Para j = 1, 2, . . . , n, denotemos por B j la matriz que resulta de sustituir la columna j−´esima de A por la columna ~b,   a11 . . . a1, j−1 b1 a1, j+1 . . . a1n a21 . . . a2, j−1 b2 a2, j+1 . . . a2n    (1.30) Bj = . . .. .. .. ..  . . . . .  . . . .  . . . an1 . . . an, j−1 bn an, j+1 . . . ann

1.8. TRANSFORMACIONES LINEALES

57

Teorema 1.37. Regla de Cramer Consideremos el sistema A~X = ~b, donde A es invertible. Entonces, la soluci´on del sistema viene dada por     x1 det B1         x2   det B2  1     ~X =   = ,   ..  det A  ..  .  .      xn det Bn

(1.31)

donde las matrices B1 , B2 , . . . , Bn , est´an definidas en (1.30) Demostraci´on Queda como ejercicio para el lector.

1.8.

Transformaciones lineales

Definici´on 1.55. Sean V y W espacios vectoriales reales. Sea T : V → W una funci´on de V en W. Se dice que T es una transformaci´on lineal de V en W si y s´olo si para cualquier ~u,~v vectores de V y α escalar, se tiene que T (~u +~v) =T (~u) + T (~v)

T (α~u) =αT (~u) .

y

Teorema 1.38. Sea T una transformaci´on lineal de V en W. Entonces, ³ ´ 1. T ~0 = ~0. 2. T (−~u) = −T (~u), para todo ~u ∈ V. n

3. Si ~v = ∑ αi~ui , con ~ui ∈ V y αi escalares, entonces i=1

à T

n

∑ αi~ui

i=1

!

n

= ∑ αi T (~ui ) . i=1

(1.32)

´ CAPITULO 1. PRELIMINARES

58

4. Si el conjunto {~v1 ,~v2 , . . . ,~vm }, es linealmente dependiente en V, entonces el conjunto {T (~v1 ) , T (~v2 ) , . . . , T (~vm )} es linealmente dependiente en W. Demostraci´on Queda como ejercicio para el lector.

1.8.1. Representaci´on matricial de una transformaci´on lineal En este apartado se ver´a que para toda transformaci´on lineal T : V → W existe una matriz A de tama˜no m × n con m = dim W y n = dim V, tal que T~x =A~x

para todo ~x ∈ V.

Este hecho es sumamente u´ til ya que permite determinar de manera f´acil el n´ucleo, la imagen, la nulidad y el rango de una transformaci´on lineal. Teorema 1.39. Sean V y W espacios vectoriales reales de dimensiones n y m, respectivamente. Sea T : V → W una transformaci´on lineal. Entonces existe una matriz u´ nica de tama˜no m × n, AT tal que T~x =AT~x

para todo ~x ∈ V.

Demostraci´on Queda como ejercicio para el lector. Definici´on 1.56. Matriz de transformaci´on La matriz AT en el Teorema 1.39 se llama matriz de transformaci´on correspondiente a T o representaci´on matricial de T . Teorema 1.40. Sea AT la matriz de transformaci´on correspondiente a la transformaci´on lineal T . Entonces i.

ImT = ImAT = C (AT ) .

iii. NT = NAT .

ii.

ρ(T ) = ρ (AT ) .

iv. ν(T ) = ν (AT ) .

1.9. MATRICES CON ENTRADAS COMPLEJAS

59

Demostraci´on Queda como ejercicio para el lector. Definici´on 1.57. Transformaci´on uno a uno Sea T : V → W una transformaci´on lineal. Entonces T es uno a uno, si T~v1 =T~v2

implica que ~v1 =~v2 .

(1.33)

Es decir, T es uno a uno (escrito 1 − 1) si y s´olo si todo vector ~w en la imagen de T es la imagen de exactamente un vector en V. Definici´on 1.58. Transformaci´on sobre Sea T : V → W una transformaci´on lineal. Entonces T es sobre, si para todo ~w ∈ W existe al menos una ~v ∈ V tal que T~v = ~w. Es decir, T es sobre si y s´olo si ImT = W. Definici´on 1.59. Isomorfismo Sea T : V → W una transformaci´on lineal. Entonces T es un isomorfismo si T es uno a uno y sobre.

1.9.

Matrices con entradas complejas

En esta secci´on se desarrollar´a algunas de las propiedades de las matrices cuyos elementos son n´umeros complejos. Toda la aritm´etica y los teoremas que se han expuesto se aplican a matrices complejas. Estas matrices tienen importantes aplicaciones, por ejemplo, en la mec´anica cu´antica.

´ CAPITULO 1. PRELIMINARES

60

1.9.1. Definici´on y propiedades b´asicas Definici´on 1.60. Matriz compleja Una matriz A de tama˜no m × n se dice que es una matriz compleja si sus elementos son n´umeros complejos. Definici´on 1.61. Matriz conjugada Sea A = [ai j ] una matriz compleja, se llama matriz conjugada de A a la matriz A = [ai j ], donde ai j es el conjugado complejo de ai j . Ejemplo 1.9. Determine la matriz conjugada de la matriz compleja   2 − 3i 2 + i A= . 2−i 2i Soluci´on A=

· ¸ · ¸ 2 − 3i 2 + i 2 + 3i 2 − i = . 2−i 2i 2 + i −2i

Teorema 1.41. Propiedades de la conjugada compleja Sean A y B matrices de componentes complejas y sea α ∈ C. Entonces: 1. A + B = A + B.

2. A = A.

4. αA = αA.

5. AB = A B.

Demostraci´on Sean A = [ai j ] y B = [bi j ], entonces: 1. A + B = [ai j + bi j ] = [ai j + bi j ] = A + B. 2. A = [ai j ] = [ai j ] = A. 3. Queda como ejercicio para el lector. 4. αA = [αai j ] = [α ai j ] = αA.

t

3. At = A .

1.9. MATRICES CON ENTRADAS COMPLEJAS

61

5. Definamos C = AB, luego el conjugado del elemento cik , es cik =ai1 b1k + ai2 b2k + . . . + ain bnk n

= ∑ ai j b jk = j=1

n

∑ ai j b jk =

j=1

n

∑ ai j b jk

j=1

=ai1 b1k + ai2 b2k + . . . + ain bnk . Definici´on 1.62. Transpuesta conjugada La transpuesta conjugada de una matriz compleja A, denotada por AH , se define como AH = At

(1.34)

donde los elementos de A son los conjugados complejos de los elementos correspondientes de A. Ejemplo 1.10. Determine AH para la matriz   4 + 3i 2 + i    A= 6i   2−i    −1 1 + 3i Soluci´on

    4 + 3i 2 + i 4 − 3i 2 − i −6i  A = 2−i 6i  =  2 + i −1 1 − 3i −1 1 + 3i · ¸ 4 − 3i 2 + i −1 t H A =A = 2 − i −6i 1 − 3i

Teorema 1.42. Propiedades de la transpuesta conjugada Si A y B son matrices complejas y α ∈ C, entonces se cumplen las siguientes propiedades 1. (AH )H = A.

2. (A + B)H = AH + BH .

3. (α A)H = α AH .

4. (A B)H = BH AH .

´ CAPITULO 1. PRELIMINARES

62 Demostraci´on Queda como ejercicio para el lector.

Teorema 1.43. Sea A una matriz compleja de tama˜no n × n, entonces det(A) = det(A). Demostraci´on La prueba se har´a por inducci´on sobre n. Sea A = [a] una matriz de tama˜no 1 × 1, entonces es claro que det(A) = a = det(A). Ahora, supongamos que el Teorema es cierto para matrices de tama˜no (n − 1) × (n − 1). Sea A = [ai j ] una matriz de tama˜no n × n, si se calcula el det(A) por la k-´esima fila, se tiene que n

det(A) =

∑ ak jCk j (A) =

j=1

n

∑ (−1)k+ j ak j Mk j (A),

j=1

donde Mk j (A) es el menor complementario (k, j). Por la hip´otesis de inducci´on, se verifica que Mk j (A) = Mk j (A). Por lo tanto, n

det(A) = ∑ (−1)k+ j ak j Mk j (A) j=1 n

= ∑ (−1)k+ j ak j Mk j (A) j=1 n

= ∑ (−1)k+ j ak j Mk j (A) j=1 n

= ∑ (−1)k+ j ak j Mk j (A) j=1

= det(A).

1.9. MATRICES CON ENTRADAS COMPLEJAS

1.9.2.

63

Espacios vectoriales complejos

Definici´on 1.63. Espacios vectoriales complejos Un espacio vectorial complejo se define exactamente como un espacio vectorial real (defini´on 1.33), excepto que los escalares en los axiomas vi. a ix. pueden ser n´umeros complejos. Los t´erminos espacio vectorial complejo y espacio vectorial real destacan el conjunto del cual se eligen los escalares. Los conceptos de combinaciones lineales, conjuntos generadores, dependencia lineal, independencia lineal y base no cambian para los espacios vectoriales complejos, excepto que utilizamos escalares complejos. Definici´on 1.64. Producto interno en Cn Sean ~u,~v ∈ Cn , se define el producto punto ~u ·~v como n

~u ·~v = ~uH~u = ∑ ui vi , i=1

donde ui es el i-´esimo elemento de ~u y vi es el i-´esimo elemento de ~v. Teorema 1.44. Propiedades del producto punto en Cn Para todo ~u,~v,~w ∈ Cn y todo α ∈ C: i) ~u ·~u ≥ 0 y ~u ·~u = 0 si y s´olo si ~u = ~0 en Cn . ii) ~u ·~u =~v ·~u. iii) (~u +~v) · ~w =~v · ~w +~v · ~w. iv) (α~u) ·~v = α (~u ·~v) . Definici´on 1.65. Partes real e imaginaria de un vector complejo El complejo conjugado de un vector complejo ~u ∈ Cn es el vector ~u ∈ Cn , cuyas componentes son los complejos conjugados de las componentes de ~u. Las

´ CAPITULO 1. PRELIMINARES

64

partes real e imaginaria de un vector complejo ~u son respectivamente los vectores Re(~u) ∈ Rn y Im(~u) ∈ Rn formados a partir de las partes reales e imaginarias de cada una de las componentes de ~u. Ejemplo 1.11. Determine las partes real e imaginaria y el correspondiente vector conjugado, del vector ~ut = (−i, 1 + i, 1) Soluci´on Como



     −i 0 −1 ~u = 1 + i = 1 + i  1  , 1 1 0

entonces,   0 Re(~u) = 1 1

y

  −1 Im(~u) =  1  . 0

Luego, el vector conjugado es       0 −1 i ~u = 1 − i  1  = 1 − i . 1 0 1

1.9.3. Soluci´on de sistemas lineales con entradas complejas Los resultados y las t´ecnicas para resolver sistemas lineales, presentados en la secci´on 1.7, se traducen de manera directa a los sistemas lineales con coeficientes complejos. En este apartado, como transformar un sistema lineal de n × n con coeficientes complejos en un sistema lineal 2n × 2n con coeficientes reales. Consideremos el sistema A~X = ~b,

(1.35)

donde A es una matriz compleja de tama˜no n × n, ~X,~b ∈ Cn . Entonces, el sistema dado en (1.35) se puede escribir como  ³ ´ · ¸· ¸ Re ~b Re (A) −Im (A) Re (~x) =  ³ ´ , Im (A) Re (A) Im (~x) Im ~b

1.9. MATRICES CON ENTRADAS COMPLEJAS

65

donde Re (·) y Im (·) denotan las partes real e imaginaria, respectivamente. Este nuevo sistema lineal con coeficientes reales es de 2n ecuaciones con 2n inc´ognitas. Si se emplean los resultados de la secci´on 1.5 se tiene que el sistema dado en (1.35) tiene u´ nica soluci´on si y s´olo si det {Re (A)} 6= 0

y

n o det Re (A) + Im (A) [Re (A)]−1 Im (A) 6= 0.

En cuyo caso la soluci´on est´a dada por  ³ ´ ¸ −1 ~b C Re Re (~x) In [Re (A)] Im (A)  ³ ´ , = Im (~x) − [Re (A)]−1 Im (A) In C−1 Im ~b

·

¸

·

−1

donde In es la matriz identidad de tama˜no n×n y C = Re (A)+Im (A) [Re (A)]−1 Im (A). Ejemplo 1.12. Determine una soluci´on del sistema de ecuaciones lineales (2 + i) x1 + (1 + i) x2 =3 + 6i

(1.36)

(3 − i) x1 + (2 − 2i) x2 =7 − i. Soluci´on Al representar matricialmente (1.36) se llega a · ¸· ¸ · ¸ 2 + i 1 + i x1 3 + 6i = . 3 − i 2 − 2i x2 7−i Luego, la matriz A se puede expresar como · ¸ · ¸ · ¸ 2+i 1+i 2 1 1 1 A= = +i 3 − i 2 − 2i 3 2 −1 −2 | {z } | {z } = Re (A) + i Im (A) . De manera an´aloga, el vector de constantes es · ¸ · ¸ · ¸ 3 + 6i 3 6 = +i 7−i 7 −1

(1.37)

´ CAPITULO 1. PRELIMINARES

66

Si x1 = a1 + ib1 y x2 = a2 + ib2 , entonces (1.36) se puede reescribir como    ³ ´   .. Re ~b  Re (A) . −Im (A) Re (~x)   ...  ...  = ...  . . . .    ³ ´ . Im (~x) Im ~b Im (A) .. Re (A) 

 .. . −1 −1     3   a1 .     7 a 2 .. 1 2  3 2      ... . . . = ... ... . ... ...  .       . 6   b 1 .. 2 1 1  1 b2 −1 . −1 −2 .. 3 2 2

1

Para hallar C, el lector puede realizar las respectivas operaciones y llegar a · ¸ 0 −2 C= y detC =20 6= 0. 10 12 Por otra parte, el determinante de Re (A) = 1 6= 0. Luego, el sistema tiene u´ nica soluci´on y est´a dada por 

 .. . 3 4  5    a1 1   2 ..  3    a2   0 1 . −5 −7 − 2   2      . . . =     . . . . .. . ... ...      ...  = ....  7  b1   ..    2  0 2 −3 −4 . 1 b2 −1 −3 . 5 7 .. 0 1 



1

0

Por lo tanto, la soluci´on del sistema lineal dado es x1 =1 + 2i

y

x2 =2 − i.

Cap´ıtulo 2

Vectores caracter´ısticos y valores caracter´ısticos En una gran variedad de aplicaciones dada una transformaci´on lineal T : V → V, resulta u´ til encontrar un vector ~v en V tal que T~v y ~v sean paralelos. Esto es, se busca un vector ~v y un escalar λ tal que T~v = λ~v

(2.1)

tenga una soluci´on ~v 6= ~0. En este caso λ se denomina valor caracter´ıstico de T y ~v se llama vector caracter´ıstico de T correspondiente al valor caracter´ıstico λ. Si dim(V) = n, el problema de determinar los respectivos valores caracter´ısticos de T puede resolverse con la ayuda de los determinantes. N´otese que la ecuaci´on (2.1) puede escribirse en la forma (T − λI)~v = ~0 donde I es la transformaci´on identidad. Si denotamos Tλ = T − λI, entonces λ es un valor caracter´ıstico si y s´olo si la ecuaci´on Tλ (~v) = ~0

(2.2)

tiene una soluci´on ~v no nula, en cuyo caso Tλ no es invertible. Pues una soluci´on no nula de (2.2) existe si y s´olo si la matriz de Tλ es singular. Si AT es una representaci´on matricial de T , entonces AT − λI es una representaci´on matricial para Tλ . Por esta raz´on en este cap´ıtulo se estudiar´an algunas de las propiedades de los valores y vectores caracter´ısticos de las matrices de tama˜no n × n.

67

´ CAPITULO 2. VALORES PROPIOS Y VECTORES PROPIOS

68

2.1. Valores propios y vectores propios Definici´on 2.1. Valor Caracter´ıstico y Vector Caracter´ıstico Un vector caracter´ıstico de una matriz A de tama˜no n × n es un vector ~v diferente de cero, que cumple: A~v = λ~v

(2.3)

para alg´un escalar λ. El escalar λ es llamado valor caracter´ıstico de A si existe una soluci´on no trivial ~v del sistema A~v = λ~v; tambi´en ~v se denomina vector caracter´ıstico correspondiente a λ. Nota Los valores caracter´ısticos se llaman tambi´en autovalores, eigenvalores o valores propios y los vectores caracter´ısticos, vectores propios, eigenvectores o autovectores. Teorema 2.1. Sea ~v un vector propio de una matriz A asociado al valor propio λ. Sea α 6= 0, entonces α~v tambi´en es un vector propio de A correspondiente al valor propio λ. Demostraci´on Se debe probar que α~v satisface la ecuaci´on (2.3). Utilizando el hecho de que A~v = λ~v, se tiene que A(α~v) = α(A~v) = α(λ~v) = λ(α~v) lo cual completa la prueba. Ejemplo 2.1. Los vectores ~ut = (−1, 1) y ~vt = (2, 1) son vectores propios de la siguiente matriz

  1 2 A= . 5 4

2.1. VALORES PROPIOS Y VECTORES PROPIOS

69

Soluci´on Se tiene que · 1 5 · 1 A~v = 5

A~u =

¸· ¸ · ¸ · ¸ 2 −1 1 −1 = = −1 = −1~u. 4 1 −1 1 ¸· ¸ · ¸ · ¸ 2 2 4 2 = 6= λ . 4 1 14 1

As´ı, ~u es un vector propio correspondiente al valor propio λ = −1; pero ~v no es un vector propio de A, porque A~v no es un m´ultiplo de ~v, es decir, no existe un escalar λ tal que 2λ = 4 y λ = 14 se verifiquen simult´aneamente. Ejemplo 2.2. Considere la matriz A dada en el Ejemplo 2.1, muestre que 6 es un valor propio de A y encuentre el vector propio correspondiente. Soluci´on El escalar 6 es un valor propio de A si y s´olo si la ecuaci´on A~v = 6~v,

(2.4)

tiene una soluci´on no trivial. Pero (2.4) es equivalente a A~v − 6~v = ~0, o (A − 6I)~v = ~0.

(2.5)

Para resolver esta ecuaci´on homog´enea, se forma la matriz A − 6I =

· ¸ · ¸ · ¸ 1 2 6 0 −5 2 − = . 5 4 0 6 5 −2

Las columnas de A − 6I son obviamente linealmente dependientes, es decir, (2.4) tiene soluci´on no trivial; luego 6 es un valor propio de A. Para encontrar el vector propio correspondiente, se realizan operaciones por fila · ¸ · ¸ −5 2 | 0 −5 2 | 0 ∼ . 5 −2 | 0 F2 +F1 0 0 | 0 La soluci´on general tiene la forma

· ¸ 1 5 2

x. Seg´un el Teorema 2.1, cada vector de esta

forma con x 6= 0 es un vector propio correspondiente a λ = 6.

´ CAPITULO 2. VALORES PROPIOS Y VECTORES PROPIOS

70

Teorema 2.2. Sea A una matriz real de tama˜no n × n e In la matriz identidad de tama˜no n × n, entonces la funci´on p definida por la ecuaci´on pA (λ) = det(A − λIn ) = (−λ)n + tr1 (A) (−λ)n−1 + tr2 (A) (−λ)n−2 + . . . + trn−1 (A) (−λ) + trn (A),

(2.6)

donde trk (A) denota la suma de los menores principales de orden k del det (A), es un polinomio en λ de grado n y el t´ermino independiente es pA (0) = det(A). Demostraci´on Vamos a demostrar que pA es un polinomio de grado n u´ nicamente para el caso n ≤ 3. La demostraci´on para el caso general puede hacerse por inducci´on. Para n = 1 el determinante es el polinomio lineal pA (λ) = a11 − λ. Para n = 2 se tiene que ¯ ¯ ¯a11 − λ a12 ¯¯ ¯ det(A − λI2 ) = ¯ = (a11 − λ)(a22 − λ) − a12 a21 a21 a22 − λ¯ =λ2 − (a11 + a22 )λ + (a11 a22 − a12 a21 ) = λ2 − tr1 (A)λ + det(A). Obs´ervese que el polinomio obtenido es de segundo grado en λ. Para n = 3 tenemos ¯ ¯ ¯a11 − λ a12 a13 ¯¯ ¯ a22 − λ a23 ¯¯ det(A − λI3 ) = ¯¯ a21 ¯ a31 a32 a33 − λ¯ =(a11 − λ)(a22 − λ)(a33 − λ) + a12 a23 a31 + a13 a21 a32 − [a32 a23 (a11 − λ) + a13 a31 (a22 − λ) + a21 a12 (a33 − λ)] à ! = − λ3 + tr1 (A)λ2 −

3

∑ Mii (A)

λ + det(A)

i=1

N´otese que en este caso se obtiene un polinomio de tercer grado, siendo el t´ermino de mayor grado −λ3 . La afirmaci´on pA (0) = det(A) resulta inmediata de la definici´on de pA . Teorema 2.3. Sea A una matriz real de tama˜no n×n. Entonces λ es un valor propio de A si y s´olo si pA (λ) = det(A − λI) = 0

(2.7)

2.1. VALORES PROPIOS Y VECTORES PROPIOS

71

Demostraci´on Sup´ongase que λ es un valor propio de A. Entonces existe un elemento ~v 6= ~0 tal que A~v = λ~v, de donde A~v − λ~v = ~0 o (A − λI)~v = ~0. Por lo tanto, A − λI tiene un n´ucleo no nulo y A − λI no es invertible, es decir det(A − λI) = 0. Rec´ıprocamente, sup´ongase que det(A − λI) = 0, es decir A − λI no es invertible. Entonces A − λI debe tener un n´ucleo no nulo, lo que significa que existe un elemento ~v 6= ~0 tal que (A − λI)~v = ~0. Por lo tanto, A~v − λ~v = ~0 o A~v = λ~v; as´ı, λ es un valor propio de A. Definici´on 2.2. Ecuaci´on y polinomio caracter´ıstico La ecuaci´on (2.6) se llama el polinomio caracter´ıstico de A. La ecuaci´on (2.7) se llama la ecuaci´on caracter´ıstica de A. Definici´on 2.3. Multiplicidad algebraica Sea λk un valor propio de una matriz A de tama˜no n × n. Entonces la multiplicidad algebraica de λk es el n´umero de veces que λk aparece como ra´ız del polinomio caracter´ıstico de A; es decir, es igual a su multiplicidad como ra´ız de la ecuaci´on caracter´ıstica. Ejemplo 2.3. Encuentre el polinomio y ecuaci´on caracter´ıstica de   4 −1 6    A= 2 1 6 .   2 −1 8 Soluci´on F´ormese A − λI y calc´ulese su determinante ¯ ¯ ¯4 − λ −1 6 ¯¯ ¯ 1−λ 6 ¯¯ det(A − λI) = ¯¯ 2 ¯ 2 −1 8 − λ¯ ¯ ¯ ¯ ¯ ¯ ¯2 ¯2 ¯1 − λ 6 ¯¯ 6 ¯¯ ¯ ¯ ¯ + 6 − (−1) =(4 − λ) ¯ ¯2 ¯2 8 − λ¯ −1 8 − λ¯

¯ 1 − λ¯¯ −1 ¯

=(4 − λ)[(1 − λ)(8 − λ) + 6] + [2(8 − λ) − 12] + 6[−2 − 2(1 − λ)].

72

´ CAPITULO 2. VALORES PROPIOS Y VECTORES PROPIOS

simplificando el producto, se obtiene el polinomio caracter´ıstico pA (λ) = −λ3 + 13λ2 − 40λ + 36. 3

Los resultados del Teorema 2.2 se cumplen, ya que la tr1 (A) = 13, ∑ Mii (A) = 40 y el det(A) = 36; factorizando pA , se llega a

i=1

pA (λ) = −(λ − 2)2 (λ − 9). En este caso, la ecuaci´on caracter´ıstica es (λ − 2)2 (λ − 9) = 0. N´otese que el valor propio 2 tiene multiplicidad algebraica 2 porque (λ−2) aparece dos veces como factor del polinomio caracter´ıstico. Teorema 2.4. Sea A una matriz real de tama˜no n × n con valores propios distintos λ1 , λ2 , . . . , λm . Para k = 1, 2, . . . , m, sea

Bk = {~v ∈ Cn : A~v = λk~v}

(2.8)

Entonces para cada k, Bk es un subespacio de Cn . Demostraci´on Como A~0 = λk~0 para todo k, ~0 ∈ Bk . Si λk no es un valor propio, no existen vectores ~v 6= ~0 excepto ~0 que satisface A~v = λk~v; en este caso Bk es el subespacio trivial. Ahora supongamos que λk es un valor propio; entonces existe un ~v 6= ~0 tal que A~v = λk~v, en otras palabras (A − λk I)~v = ~0. De esta manera Bk = {~v ∈ Cn : (A − λk I)~v = ~0}; es el espacio soluci´on del sistema homog´eneo (A − λk I)~v = ~0, el cual es un subespacio de Cn . Definici´on 2.4. Espacio propio Sea λk un valor propio de A. El subespacio Bk se denomina espacio propio de A correspondiente al valor propio λk .

2.1. VALORES PROPIOS Y VECTORES PROPIOS

73

Teorema 2.5. Sea A una matriz real de tama˜no n×n. Entonces los espacios propios correspondientes a valores propios distintos de A tienen al vector nulo en com´un. n o Es decir, Bk ∩ Br = ~0 si λk 6= λr . Demostraci´on Supongamos que existe un vector propio de A tal que~v ∈ Bk y~v ∈ Br , entonces por (2.8) se tiene que A~v =λk~v

y

A~v =λr~v.

Luego, (λk − λr )~v ={~0} n o pero como λk 6= λr , se concluye que ~v =~0; por lo tanto, Bk ∩ Br = ~0 y la prueba queda completa. Teorema 2.6. Si ~v1 , . . . ,~vm son vectores propios correspondientes a valores propios distintos λ1 , . . . , λm de una matriz A de tama˜no n × n, entonces el conjunto {~v1 , . . . ,~vm } es linealmente independiente. Demostraci´on La demostraci´on es por inducci´on sobre m. El resultado es trivial cuando m = 1. Entonces supongamos, que se ha demostrado para cualquier conjunto m = k de vectores propios. Sean ~v1 , . . . ,~vk+1 , k + 1 vectores propios pertenecientes a valores propios distintos y supongamos que existen escalares ci tales que k+1

∑ ci~vi = ~0.

(2.9)

i=1

Si se multiplica por A a ambos lados de (2.9) y se utiliza el hecho de que A~vi = λi~vi , se obtiene k+1

∑ ci λi~vi = ~0.

i=1

Al restar de (2.10) el producto de (2.9) por λk+1 , se obtiene la ecuaci´on k

∑ ci (λi − λk+1 )~vi = ~0.

i=1

(2.10)

74

´ CAPITULO 2. VALORES PROPIOS Y VECTORES PROPIOS

Como los vectores ~v1 , . . . ,~vk son linealmente independientes por hip´otesis de inducci´on, se debe tener que ci (λi −λk+1 ) = 0 para cada i = 1, 2, . . . , k. Adem´as, dado que los valores propios son distintos se tiene que λi 6= λk+1 para i 6= k + 1, as´ı que ci = 0 para i = 1, 2, . . . , k y de (2.9) se tiene que ck+1 es tambi´en 0; por lo tanto, el conjunto de vectores propios ~v1 , . . . ,~vk+1 , es tambi´en linealmente independiente. Teorema 2.7. Los vectores no nulos tomados de espacios propios distintos son linealmente independientes. Es decir, los espacios propios B1 , . . . , Bm (correspondientes a los valores propios distintos λ1 , λ2 , . . . , λm ) cumplen que “Si ~u1 + . . . +~um = ~0 con ~uk ∈ Bk entonces ~u1 = . . . = ~um = ~0” Demostraci´on Supongamos que ~u1 + . . . +~um =~0 con ~uk ∈ Bk , esto es, A~uk = λk~uk . Si algunos ~uk no fueran ~0, ellos ser´ıan vectores propios de A, correspondientes a valores propios distintos y entonces el que la suma de ellos sea ~0 contradice el Teorema 2.6. Definici´on 2.5. Multiplicidad geom´etrica Sea λk un valor propio de una matriz A de tama˜no n × n. Entonces la multiplicidad geom´etrica de λk es el n´umero m´aximo de vectores propios de A linealmente independientes que tienen un valor propio igual a λk ; es decir, es igual a la dimensi´on del espacio propio correspondiente a λk (lo cual es la nulidad de la matriz A − λk I). En consecuencia, multiplicidad geom´etrica de λk = dim(Bk ) = ν (A − λk In ) . Nota La multiplicidad geom´etrica de un valor propio nunca es cero. Esto se establece de la definici´on 2.1, la cual expresa que si λ es un valor propio, entonces existe un vector propio diferente de cero correspondiente a λ. A continuaci´on se presenta un procedimiento para calcular los valores propios y vectores propios de una matriz A de tama˜no n × n.

2.1. VALORES PROPIOS Y VECTORES PROPIOS

75

Determinaci´on de valores propios y vectores propios i) Encuentre pA (λ) = det(A − λI). ii) Halle las ra´ıces λ1 , λ2 , . . . , λm de pA (λ) = 0. iii) Resuelva el sistema homog´eneo (A − λk I)~v = ~0, correspondiente a cada valor propio λk .

Ejemplo 2.4. Encuentre los vectores propios y espacios propios asociados a la matriz dada en el Ejemplo 2.3. Soluci´on En el Ejemplo 2.3, se obtuvo que la ecuaci´on caracter´ıstica era (λ − 2)2 (λ − 9) = 0. De esta manera los valores propios de A son λ1 = 9 y λ2 = 2 (con multiplicidad algebraica 2). Para λ1 = 9 tenemos      −5 −1 6 x 0 (A − 9I)~v =  2 −8 6  y = 0 . 2 −1 −1 z 0 Para determinar el vector propio correspondiente, se realizan operaciones por filas      −5 −1 6 | 0 1 −4 3 | 0 1 −4 3 |  2 −8 6 | 0 ∼ −5 −1 6 | 0 ∼ 0 −21 21 | 1 F +5F 2 −1 −1 | 0 F1 ↔ 2 F2 2 −1 −1 | 0 F23 −2F11 0 7 −7 |     1 −4 3 | 0 1 0 −1 | 0 ∼ 0 0 1 −1 | 0 ∼ 0 1 −1 | 0 . F +4F F2 +3F3 =F2 0 0 0 | 0 1 2 0 0 0 | 0 0 1 F2 ↔ 7 F3

La soluci´on general corresponde a x = z, y = z, luego el vector propio tiene la forma   1 1 z. Cada vector de esta forma con z 6= 0 es un vector propio correspondiente a 1    1  λ1 = 9. Por lo que B1 = gen 1 .   1

 0 0 0

76

´ CAPITULO 2. VALORES PROPIOS Y VECTORES PROPIOS Para λ2 = 2 tenemos

     2 −1 6 x 0 (A − 2I)~v = 2 −1 6 y = 0 . 2 −1 6 z 0

Para encontrar el vector propio correspondiente, se realizan operaciones por filas     2 −1 6 | 0 2 −1 6 | 0 2 −1 6 | 0 ∼ 0 0 0 | 0 . F −F 2 −1 6 | 0 F23 −F11 0 0 0 | 0 La soluci´  on general   corresponde a y = 2x + 6z, luego el vector propio tiene la 1 0    forma 2 x + 6 z. Cada vector de esta forma con x, z 6= 0 es un vector propio 0 1     0   1 correspondiente a λ2 = 2. Por lo que B2 = gen 2 , 6 .   0 1 Teorema 2.8. Sean λ1 , λ2 , . . . , λm valores propios distintos de la matriz A. Si para cada k = 1, 2, . . . , m, Sk es un conjunto linealmente independiente de vectores propios de A correspondientes a λk , entonces S = S1 ∪ S2 ∪ . . . ∪ Sm es todav´ıa un conjunto de vectores linealmente independiente. Demostraci´on Sea Sk = {~xk1 , . . . ,~xkrk } un conjunto linealmente independiente, de vectores propios de la matriz A, correspondiente al valor propio λk (para cada k ∈ {1, 2, . . . , m}). Para probar que S = S1 ∪ S2 ∪ . . . ∪ Sm es linealmente independiente, consideremos una combinaci´on lineal de los vectores en esa uni´on tal que (a11~x11 + . . . + a1r1~x1r1 ) + . . . + (am1~xm1 + . . . + amrm~xmrm ) = ~0. | {z } | {z } en B1

en Bm

Por el Teorema 2.7, se puede afirmar que cada suma entre par´entesis es~0. Entonces, como los vectores que participan en cada una de esas sumas son linealmente independientes, se concluye que los coeficientes tienen que ser nulos, con lo cual se prueba que S es linealmente independiente.

2.1. VALORES PROPIOS Y VECTORES PROPIOS

77

La prueba del siguiente enunciado no es dif´ıcil si se explican algunos otros resultados. Su demostraci´on se realiza en la siguiente secci´on. Teorema 2.9. Sea λk un valor propio de una matriz real A de tama˜no n × n, con multiplicidad algebraica r. Entonces, multiplicidad geom´etrica de λk ≤ multiplicidad algebraica de λk . Teorema 2.10. Si A es una matriz no singular de tama˜no n × n, con valores propios no nulos λ1 , λ2 , . . . , λn y vectores propios ~v1 , v2 , . . . ,~vn . Su matriz inversa A−1 tiene i) Los valores propios de la forma 1/λ1 , 1/λ2 , . . . , 1/λn . ii) Los mismos vectores propios de A. Demostraci´on i) Si los valores propios de A son diferentes de cero, entonces £ ¡ ¢¤ pA (λ) = det (A − λIn ) = det A In − λA−1 · µ ¶¸ 1 −1 = det(A) det −λ A − In λ µ ¶ 1 n −1 = (−λ) det(A) det A − In λ µ ¶ 1 = (−1)n λn det(A)pA−1 . λ Luego, se deduce que 1/λ es un valor propio de A−1 por cada valor λ de A. ii) Si A~u = λ~u, entonces premultiplicando por A−1 , se tiene A−1 (A~u) =A−1 (λ~u) ~u =λA−1~u 1 ~u =A−1~u. λ Por lo tanto, ~u es tambi´en un vector propio de A−1 .

´ CAPITULO 2. VALORES PROPIOS Y VECTORES PROPIOS

78 Ejercicios 2.1.

1. Para las siguientes matrices calcule los valores propios y los espacios propios          1 1 1 1   1 −1 1 2 a.  b.  c.  . .  . d.  . −1 3 3 −1 −1 3 4 3         2 2 1 3 −1 4 3 1 −1 1 3 −2                        e. 1 3 1 . f . −4 1 −5 . g. 2 2 −1 . h.  3 1 2  .         1 2 2 5 3 2 2 2 0 −1 1 1   1 k  2. Sea la matriz A =  , con k una constante arbitraria. ¿Para qu´e valores 1 1 de k la matriz A tiene dos valores propios reales distintos?. 3. Si A es una matriz diagonal de tama˜no n × n, muestre que sus valores propios son las entradas de su diagonal. 4. Si A es una matriz triangular de tama˜no n × n, muestre que sus valores propios son las entradas de su diagonal principal. 5. Si A es una matriz real de tama˜no n × n, muestre que es invertible si y s´olo si el n´umero 0 no es un valor propio de A. 6. Si A es una matriz real de tama˜no n × n con la propiedad de que la suma de los elementos de sus filas es igual siempre a un n´umero s, muestre que s es un valor propio de A. 7. Sean λ1 , λ2 , . . . , λn los valores propios de A, demuestre que a) La matriz At tiene los mismos valores propios.

´ 2.2. MATRICES SEMEJANTES Y DIAGONALIZACION

79

b) La matriz kA tiene valores propios kλ1 , kλ2 , . . . , kλn . c) La matriz Ak (donde k es un entero positivo) tiene valores propios λk1 , λk2 , . . . , λkn .

2.2.

Matrices semejantes y diagonalizaci´on

En la secci´on anterior, se desarroll´o parte del vocabulario y de las propiedades de los valores propios y vectores propios. En este apartado, continuaremos estudiando los valores propios, debido a que estos n´umeros son cruciales en muchas consideraciones incluyendo la representaci´on de matrices en formas en las cuales es m´as f´acil de trabajar la resoluci´on de problemas. Definici´on 2.6. Matrices congruentes Dos matrices reales A y B de tama˜no n × n son congruentes, si existe una matriz P no singular de componentes reales de tama˜no n × n tal que A = Pt BP.

(2.11)

Ejemplo 2.5. Determine si las siguientes matrices son congruentes     1 1 4 1 A = y B =  . 4 1 1 −14 Soluci´on Veamos si existe una matriz P, tal que B = Pt AP, en particular P puede ser una matriz triangular superior, en otras palabras, · ¸ · ¸t · ¸· ¸ 1 1 a b 1 4 a b = 1 −14 0 d 4 1 0 d · ¸ a2 a (b + 4d) = . a (b + 4d) b2 + 8bd + d 2

´ CAPITULO 2. VALORES PROPIOS Y VECTORES PROPIOS

80

En consecuencia, a2 =1,

a(b + 4d) =1

y

b2 + 8bd + d 2 = − 14.

Si se despeja b de la segunda ecuaci´on y se reemplaza en la tercera, se tiene que µ

1 − 4d a

¶2

µ +8d

¶ 1 1 − 4d + d 2 = 2 − 15d 2 a a

1 − 15d 2 = −14. Luego, d 2 = 1; por lo tanto, la matriz P puede ser · ¸ 1 −3 0 1



· ¸ −1 −5 0 1



· ¸ 1 5 . 0 −1

Teorema 2.11. Dos matrices reales A y B de tama˜no n × n son congruentes si y s´olo si tienen el mismo rango. Demostraci´on Como A y B son matrices congruentes de tama˜no n × n, existe una matriz no singular P tal que B = Pt AP, entonces £¡ ¢ ¤ ¡ ¢ ρ(B) =ρ Pt A P = ρ Pt A =ρ (A)

puesto que P es no singular, por ser Pt tambi´en no singular.

Aqu´ı, se utilizo la propiedad (x) dada en el Teorema 1.36. Teorema 2.12. La congruencia de matrices de tama˜no n × n cumple las propiedades de relaci´on de equivalencia, es decir, es a) Reflexiva: A es congruente a A. b) Sim´etrica: Si A es congruente a B entonces B es congruente a A. c) Transitiva: Si A es congruente a B y B es congruente a C, entonces A es congruente a C.

´ 2.2. MATRICES SEMEJANTES Y DIAGONALIZACION

81

Demostraci´on Queda como ejercicio para el lector. Para las matrices cuadradas, adem´as del concepto de congruencia, se tiene otro de mayor utilidad o generalidad el de similaridad. Definici´on 2.7. Matrices semejantes Una matriz A de tama˜no n×n es semejante (o similar) a una matriz B de tama˜no n × n si existe una matriz no singular P de tama˜no n × n tal que B = P−1 AP.

(2.12)

De manera an´aloga se dice que A y B son semejantes si y s´olo si existe una matriz no singular P tal que PB = AP. (2.13)       −1 0 −3 5  1 −1 Ejemplo 2.6. Sean A =  , B =  yP= . Determine 1 2 −2 4 −1 2 si A y B son semejantes. Soluci´on Se realizan los productos AP y PB · ¸· ¸ · −1 0 1 −1 −1 AP = = 1 2 −1 2 −1 · ¸· ¸ · 1 −1 −3 5 −1 PB = = −1 2 −2 4 −1

¸ 1 . 3 ¸ 1 . 3

As´ı, AP = PB. Como det(P) = 1 6= 0, entonces, P es no singular. Y por la ecuaci´on (2.13), se tiene que A y B son semejantes. Teorema 2.13. Las matrices semejantes tienen el mismo polinomio caracter´ıstico y, por tanto, los mismos valores propios.

´ CAPITULO 2. VALORES PROPIOS Y VECTORES PROPIOS

82

Demostraci´on Como A y B son matrices semejantes de tama˜no n × n, B = P−1 AP. Entonces B − λI = P−1 AP − λP−1 P = P−1 [AP − λP] = P−1 [A − λI]P. Por consiguiente, det(B − λI) = det[P−1 (A − λI)P] = det(P−1 ) det(A − λI) det(P) = det(P−1 ) det(P) det(A − λI) = det(A − λI). Esto significa que A y B tienen la misma ecuaci´on caracter´ıstica y como los valores propios son ra´ıces de la ecuaci´on caracter´ıstica, entonces tienen los mismos valores propios. Ejemplo 2.7. Para las matrices A y B dadas en el Ejemplo 2.6, muestre que tienen el mismo polinomio caracter´ıstico. Soluci´on Tenemos que ¯ ¯ ¯−1 − λ 0 ¯¯ ¯ det(A − λI) = ¯ = (−1 − λ)(2 − λ) = λ2 − λ − 2. 1 2 − λ¯ y

¯ ¯ ¯−3 − λ 5 ¯¯ ¯ det(B − λI) = ¯ = (−3 − λ)(4 − λ) + 10 = (λ2 − λ − 12) + 10. −2 4 − λ¯

Como det(A − λI) = det(B − λI), las matrices A y B tienen el mismo polinomio caracter´ıstico y por lo tanto los mismos valores propios. Teorema 2.14. La semejanza de matrices de tama˜no n × n cumple las propiedades de relaci´on de equivalencia, es decir, es a) Reflexiva: A es semejante a A. b) Sim´etrica: Si A es semejante a B entonces B es semejante a A. c) Transitiva: Si A es semejante a B y B es semejante a C, entonces A es semejante a C.

´ 2.2. MATRICES SEMEJANTES Y DIAGONALIZACION

83

Demostraci´on Queda como ejercicio para el lector. Teorema 2.15. Si B es una matriz semejante a A con B = P−1 AP, entonces ~v es un vector propio de A asociado con el valor propio λ si y s´olo si P−1~v es un vector propio de B asociado con el valor propio λ. Demostraci´on Si ~v es un vector propio de A, se tiene que A~v =λ~v ¡ ¢ PBP−1 ~v =λ~v ¡ ¢ B P−1~v =λP−1~v

puesto que B es semejante a A, puesto que P es no singular.

lo cual completa la prueba. Ejemplo 2.8. Para cada una de las matrices A y B dadas en el Ejemplo 2.6 determine sus vectores propios Soluci´on Para la matriz A se tiene que los valores · ¸ propios · ¸ son λ1 = −1 y λ2 = 2 y sus −3 0 correspondientes vectores propios son y , respectivamente. 1 1 Para la matriz B se tiene que los valores · ¸ propios · ¸ son λ1 = −1 y λ2 = 2 y sus −5 1 correspondientes vectores propios son y , respectivamente. −2 1 El lector puede verificar que los vectores propios de B son iguales a los vectores propios de A premultiplicados por la inversa de la matriz P dada en el Ejemplo 2.6. Con lo que se ha estudiado hasta ahora en esta secci´on, se puede presentar una demostraci´on del Teorema 2.9. Demostraci´on del Teorema 2.9 Sea Bk = {~v1 ,~v2 , . . . ,~vm } base del espacio propio correspondiente al valor propio λk , donde m es la multiplicidad geom´etrica de λk . Se extiende Bk hasta completar una base de Rn , digamos B = {~v1 ,~v2 , . . . ,~vm ,~vm+1 ,~vm+2 , . . . ,~vn }.

84

´ CAPITULO 2. VALORES PROPIOS Y VECTORES PROPIOS

En esta base, la matriz A est´a particionada como · ¸ λk Im A12 [A]B = . 0 A22 Luego, A y [A]B son matrices semejantes, es decir, tienen el mismo polinomio caracter´ıstico y los mismos valores propios con id´enticas multiplicidades algebraicas. As´ı que el polinomio caracter´ıstico de A es pA (λ) = p[A]B (λ) = (λk − λ)m pD (λ) por lo tanto, λk aparece como ra´ız de pA (λ) por lo menos m veces; por consiguiente, la multiplicidad algebraica de λk es mayor o igual a m. Definici´on 2.8. Matriz diagonalizable Una matriz A de tama˜no n × n es diagonalizable si existe una matriz diagonal D tal que A es semejante a D. Este resultado es muy importante ya que las matrices diagonales poseen muchas propiedades que permiten trabajar f´acilmente con ellas, v´ease Teorema 1.13. Teorema 2.16. Una matriz A de tama˜no n × n es diagonalizable si y s´olo si A tiene n vectores propios linealmente independientes. En tal caso, si A = PDP−1 donde D es diagonal, entonces los elementos de la diagonal de D son los valores propios de A y las columnas de P son los vectores propios correspondientes. Demostraci´on Primero se supone que A es diagonalizable. Entonces existe una matriz no singular P tal que P−1 AP = D es diagonal. Sean λ1 , λ2 , . . . , λn los elementos de la diagonal principal de D y sean ~v1 ,~v2 , . . . ,~vn los vectores columna de la matriz P, entonces   λ1 0 . . . 0  £ ¤  0 λ2 . . . 0  PD = ~v1 ~v2 . . . ~vn  . .. . . .  .. . ..  . 0 0 £ ¤ = λ1~v1 λ2~v2 . . . λn~vn ,

. . . λn

´ 2.2. MATRICES SEMEJANTES Y DIAGONALIZACION

85

£ ¤ pero como AP = A~v1 A~v2 . . . A~vn y por otra parte P−1 AP = D, se tiene que AP = PD, lo cual implica ¤ £ ¤ £ A~v1 A~v2 . . . A~vn = λ1~v1 λ2~v2 . . . λn~vn . En otras palabras, A~vi = λi~vi para todo vector columna ~vi . Esto significa que los vectores columna~vi de P son vectores propios de A. Adem´as, como P es una matriz no singular, entonces sus vectores columna son linealmente independientes. As´ı, A tiene n vectores propios linealmente independientes. Rec´ıprocamente, suponga que A tiene n vectores propios linealmente independientes ~v1 ,~v2 , . . . ,~vn con valores propios asociados λ1 , λ2 , . . . , λn . Sea P la matriz cuyas columnas son estos n vectores propios. Es decir, P = [~v1 ~v2 . . . ~vn ]. Como todo ~vi es un vector propio de A, entonces se tiene que A~vi = λi~vi y £ ¤ £ ¤ AP = A ~v1 ~v2 . . . ~vn = λ1~v1 λ2~v2 . . . λn~vn n´otese que la matriz del lado derecho de esta ecuaci´on puede escribirse como el siguiente producto de matrices

£ AP = ~v1 ~v2

  λ1 0 . . . 0  ¤  0 λ2 . . . 0  . . . ~vn  . .. . . .  = PD  .. . ..  . 0 0 . . . λn

Por u´ ltimo, dado que los vectores ~v1 ,~v2 , . . . ,~vn son linealmente independientes, entonces P es no singular y se puede escribir la ecuaci´on AP = PD como P−1 AP = D, lo cual significa que A es diagonalizable. Corolario 2.16.1. Si una matriz A de tama˜no n×n tiene n valores propios distintos, entonces A es diagonalizable. Demostraci´on Sean~v1 ,~v2 , . . . ,~vn los vectores propios correspondientes a los n valores propios distintos de la matriz A. Entonces, por el Teorema 2.6, se tiene que el conjunto {~v1 ,~v2 , . . . ,~vn } es linealmente independientes. Luego por el Teorema 2.16, A es diagonalizable. A continuaci´on se presenta un procedimiento para diagonalizar una matriz A de tama˜no n × n.

86

´ CAPITULO 2. VALORES PROPIOS Y VECTORES PROPIOS Procedimiento para diagonalizar una matriz cuadrada Sea A una matriz real de tama˜no n × n. i) Determine n vectores propios ~v1 ,~v2 , . . . ,~vn de A, con valores propios correspondientes λ1 , λ2 , . . . , λn . Si no existen n vectores propios linealmente independientes, entonces A no es diagonalizable. ii) Obtenga P como la matriz cuyas columnas son los vectores propios obtenidos en el paso i. Es decir, £ ¤ P = ~v1 ~v2 . . . ~vn . iii) La matriz diagonal D = P−1 AP tendr´a los valores propios λ1 , λ2 , . . . , λn en su diagonal principal (y ceros en el resto). La posici´on de los vectores propios en la matriz P determina la posici´on en que aparecen los valores propios sobre la diagonal de D.

Ejemplo 2.9. Determine si la matriz dada a continuaci´on es diagonalizable   2 −3  3   . A= −3 −4 9     −1 −2 5 Soluci´on La ecuaci´on caracter´ıstica asociada a la matriz A es −λ3 + 4λ2 − 4λ = −λ(λ − 2)2 = 0. Luego, los valores propios son λ1 = 0 y λ2 = 2 (de algebraica 2).  multiplicidad  −1 El vector propio correspondiente a λ1 = 0 es ~v1 =  3  y los correspondientes a 1     3 −2 λ2 = 2 son ~v2 =  1  y ~v3 = 0. Entonces, 1 0   −1 −2 3 1 0 P = 3 1 0 1

´ 2.2. MATRICES SEMEJANTES Y DIAGONALIZACION

87

y  1 1 P−1 AP = −3 2 −1  1 1 = −3 2 −1

  2 −3 3 2 −3 −1 −4 9  −3 −4 9   3 −2 5 −1 −2 5 1    2 −3 0 −4 6 0 1 −4 9  0 2 0 = 0 2 −2 5 0 0 0 2

 −2 3 1 0 0 1  0 0 4 0 . 0 4

Por lo tanto, A es diagonalizable. Ejemplo 2.10. Una matriz no diagonalizable Determine si la siguiente matriz es diagonalizable   3 −2 A= . 8 −5 Soluci´on La ecuaci´on caracter´ıstica de A es λ2 + 2λ + 1 = (λ + 1)2 = 0, luego λ = −1 es un valor propio de multiplicidad algebraica 2. Entonces, · ¸· ¸ · ¸ 4 −2 v1 0 (A − λI)~v = (A + I)~v = = . 8 −4 v2 0 · ¸ 1 Esto lleva al vector propio ~v1 = . Por lo tanto, A no contiene dos vectores pro2 pios linealmente independientes y entonces, se concluye que la matriz A no es diagonalizable. Teorema 2.17. Sean λ1 , λ2 , . . . , λn valores propios distintos de una matriz A de tama˜no n × n, entonces n

tr1 (A) = ∑ λi i=1

n

y

det(A) = ∏ λi . i=1

Demostraci´on Como A es diagonalizable, entonces A = PDP−1 ; luego, n

tr1 (A) =tr1 [P(DP−1 )] = tr1 [(DP−1 )P] = tr1 [D(P−1 P)] = tr1 (D) = ∑ λi . i=1

´ CAPITULO 2. VALORES PROPIOS Y VECTORES PROPIOS

88 Por otra parte,

n

det(A) =|A| = |P(DP−1 )| = |P||DP−1 | = |D||P−1 ||P| = |D| = ∏ λi . i=1

Ejercicios 2.2.

1. Para las siguientes matrices determine (en caso de ser posible) una matriz P no singular tal que P−1 AP sea diagonal  1 a.  −1  2 2  f. 1 3  1 2

      1 1 1   1 −1 1 b.  c.  . .  . d.  3 3 −1 −1 3 4       1  3 −1 4  3 1 −1 1       −4 1 −5 . h. 2 2 −1 . i.  3 . g. 1             2 5 3 2 2 2 0 −1

 2 . 3  3 −2  1 2 .  1 1

2. Muestre que las trazas de matrices semejantes son iguales. 3. Si A y B son semejantes demuestre que tienen el mismo determinante. 4. Sean A una matriz diagonalizable de tama˜no n × n y P una matriz no singular de tama˜no n × n tales que B = P−1 AP sea la forma diagonal de A. Pruebe que a) Bk = P−1 Ak P, donde k es un entero positivo. b) Ak = PBk P−1 , donde k es un entero positivo.   a b 5. Sea A =  , demuestre que A es diagonalizable si −4bc < (a − d)2 y c d no diagonalizable si −4bc > (a − d)2 .

2.3. VALORES PROPIOS COMPLEJOS

2.3.

89

Valores propios complejos

Puesto que la ecuaci´on caracter´ıstica de una matriz real de tama˜no n × n es ´ un polinomio de grado n, por el Teorema Fundamental del Algebra se sabe que cualquier polinomio de grado n con coeficientes reales (o complejos) tiene exactamente n ra´ıces (contando multiplicidades). En las secciones anteriores, desarrollamos la teor´ıa para valores propios y vectores propios reales. En esta secci´on, estudiaremos los valores propios y vectores propios complejos.

Definici´on 2.9. Sea A una matriz real de tama˜no n × n. El n´umero complejo λ es un valor propio de A si existe un vector no nulo ~v ∈ Cn tal que A~v = λ~v

(2.14)

Todo vector ~v no nulo que satisfaga (2.14) es un vector propio de A asociado al valor propio λ.   1 −1 Ejemplo 2.11. Sea A =  . Determine los valores propios y vectores pro2 1 pios de A. Soluci´on Primero se calcula el determinante de la matriz A − λI ¯ ¯ ¯1 − λ −1 ¯ ¯ ¯ det(A − λI) = ¯ 2 1 − λ¯ √ √ =(1 − λ)2 + 2 = [(1 − λ) + i 2][(1 − λ) − i 2]. De esta manera los valores propios de A son los complejos, a saber √ √ λ1 =1 + i 2 y λ2 =1 − i 2. √ Para λ1 = 1 + i 2 tenemos · √ ¸· ¸ · ¸ √ −i 2 −1 x 0 √ (A − (1 + i 2)I)~v = = . 0 2 −i 2 y

´ CAPITULO 2. VALORES PROPIOS Y VECTORES PROPIOS

90

Para encontrar el vector propio correspondiente, se realizan operaciones por filas √ √ ¸ · √ ¸ · ¸ · −i 2 −1 | 0 2 −i 2 | 0 2 −i 2 | 0 √ √ . ∼ ∼ 0 | 0 2 −i 2 | 0 i√2F1 2 −i 2 | 0 F2 −F1 0 √ La soluci´ o n general corresponde a 2x = i 2y, luego el vector propio tiene la forma · ¸ 1√ x. Cada vector de esta forma con x 6= 0 es un vector propio correspondiente −i 2 ¸¾ ½· √ 1√ . a λ1 = 1 + i 2. Por lo tanto, B1 = gen −i 2 √ Para λ2 = 1 − i 2 tenemos ¸· ¸ · ¸ ·√ √ x i 2 −1 0 √ (A − (1 − i 2)I)~v = = . 0 2 i 2 y Para encontrar el vector propio correspondiente, se realizan operaciones por filas √ √ ¸ ¸ · ·√ · ¸ | 0 2 | 0 i 2 −1 2 i 2 i 2 | 0 √ √ ∼ ∼ . 2 i 2 | 0 −i√2F1 2 i 2 | 0 F2 −F1 0 0 | 0 √ La soluci´ · on ¸general corresponde a 2x = −i 2y, luego el vector propio tiene la 1 forma √ x. Cada vector de esta forma con x 6= 0 es un vector propio corresi 2 ½· ¸¾ √ 1 √ pondiente a λ2 = 1 − i 2. Por lo tanto, B2 = gen . i 2 Teorema 2.18. Sea A una matriz real de tama˜no n × n. Entonces, i) Los valores propios de A cuando son complejos ocurren en pares conjugados, ii) Los vectores propios correspondientes a valores propios complejos, son conjugados complejos entre s´ı. Demostraci´on i) Si A es una matriz real de tama˜no n × n, su polinomio caracter´ıstico se puede reescribir como pA (λ) = det(A − λIn ) = cn λn + cn−1 λn−1 + . . . + c1 λ + c0

2.3. VALORES PROPIOS COMPLEJOS

91

donde cada ci ∈ R. Por lo tanto, ³ ´ ³ ´ ³ ´ pA (λ) =det(A − λIn ) = det A − λIn = det A − λIn = pA λ . Si λ0 es una ra´ız de pA (λ), entonces ³ ´ pA (λ0 ) =pA λ0 = 0. En consecuencia λ0 es tambi´en un valor propio de A. ii) Si λ es un valor propio complejo de A con un vector propio correspondiente ~u ∈ Cn , entonces en virtud del Teorema 1.41 se tiene A~u =λ~u A~u =λ~u A ~u =λ ~u Luego, ~v es tambi´en vector propio de A pero asociado al valor propio λ. Ejemplo 2.12. Considere la matriz A del Ejemplo 2.11 y aplique el Teorema 2.18. Soluci´on Para la matriz A cuyas componentes son · reales, ¸ se obtuvo un valor propio λ1 = √ 1√ 1 + i 2, con vector propio asociado ~u1 = y para el otro valor propio λ2 = −i 2 · ¸ √ 1 1 − i 2, un vector propio asociado ~u2 = √ claramente se nota que λ2 = λ1 y i 2 que ~u2 = ~u1 . Teorema 2.19. Sea A una matriz real de tama˜no 2×2 con un valor propio complejo λ = a + bi (b 6= 0) y vector propio correspondiente ~u ∈ C2 . Entonces ARe(~u) =aRe(~u) − bIm(~u) AIm(~u) =bRe(~u) + aIm(~u) adem´as, Re(~u) y Im(~u) son vectores linealmente independientes.

(2.15)

´ CAPITULO 2. VALORES PROPIOS Y VECTORES PROPIOS

92

Demostraci´on Sea ~u ∈ C2 un vector propio de A, por lo tanto, A~u =λ~u A[Re(~u) + i Im(~u)] =(a + bi)[Re(~u) + i Im(~u)] A Re(~u) + iA Im(~u) =[a Re(~u) − b Im(~u)] + i[b Re(~u) + a Im(~u)]. Al igualar las partes real e imaginaria se llega al sistema de ecuaciones (2.15). Adem´as, por la definici´on 2.1 se tiene que ~u es no nulo; luego, si Im(~u) = ~0, entonces Re(~u) 6=~0 y de la segunda ecuaci´on de (2.15), se tiene que b Re(~u) =~0, es decir, b = 0, lo cual contradice la suposici´on de que b 6= 0; por lo tanto, Im(~u) 6= ~0. Veamos ahora que Re(~u) y Im(~u) son vectores linealmente independientes (por contradicci´on); Supongamos que Re(~u) = α Im(~u), si se reemplaza en (2.15), se tiene que A α Im(~u) =a α Im(~u) − b Im(~u) A Im(~u) =b α Im(~u) + a Im(~u). Si se resuelve dicho sistema de ecuaciones, se obtiene que (α2 + 1)b Im(~u) = ~0. Como b 6= 0 y Im(~u) 6= ~0; entonces, α = ±i, luego Re(~u) ∈ C2 , lo cual es contradictorio ya que Re(~u) y Im(~u) ∈ R2 . El corolario que se enuncia a continuaci´on muestra que una matriz con componentes reales cuyos valores propios son complejos no es diagonalizable. Corolario 2.19.1. Sea A una matriz real de tama˜no 2 × 2 con un valor propio complejo λ = a + bi (b 6= 0) y vector propio asociado ~u ∈ C2 . Entonces, A = PRP−1

(2.16)

donde, ·



¸

P = Re(~u) Im(~u)

y

  a b R = . −b a

2.3. VALORES PROPIOS COMPLEJOS

93

Demostraci´on Expresando el sistema de ecuaciones propuesto en (2.15) en forma matricial se tiene que · ¸ £ ¤ £ ¤ a b A Re(~u) Im(~u) = Re(~u) Im(~u) , −b a es decir, AP = PR. Pero en el Teorema 2.19 se demostr´o que Re(~u) y Im(~u), eran vectores linealmente independientes; luego, P es no singular. Por lo tanto, A = PRP−1 . Ejemplo 2.13. Expresar de la forma PRP−1 la matriz   1 −1 A= . 2 1 Soluci´on √ En el Ejemplo 2.11, se encontraron los dos valores propios λ = 1 + i 1 · ¸ · 2 ¸y √ 1√ 1 λ2 = 1 − i 2 y los respectivos vectores propios ~v1 = y ~v2 = √ . −i 2 i 2 Estableciendo √ ¸ · ¸ · 1 0 1 2 √ P= y R= √ 0 − 2 − 2 1 el lector puede verificar f´acilmente que A = PRP−1 . Ejemplo 2.14. Encuentre las matrices P y R, de tal manera que se pueda expresar la siguiente matriz A como PRP−1   29 9 −31      A = 20 70 −5  .   66 −164 51 Soluci´on La ecuaci´on caracter´ıstica de A esta dada por det(A − λI) = − λ3 + 150λ2 − 8125λ + 312500 = − (λ − 100)(λ − 25 + 50 i)(λ − 25 − 50 i) = 0.

´ CAPITULO 2. VALORES PROPIOS Y VECTORES PROPIOS

94

Por lo tanto, los valores propios son λ1 = 100, λ2 = 25 − 50 i y λ3 = λ2 . Para v =~0 y se obtiene el vector propio asociado 1 = 100 se resuelve (A − λ1 I)~  λ 1  ~v1 = 1 . Para λ2 = 25 − 50 i se resuelve (A − λ2 I)~v = ~0 y se obtiene el vector −2     −1 −3 propio complejo asociado ~v2 =  1  +  0  i. 5 −2 Por consiguiente, estableciendo     −1 −3 1 25 −50 0 0 1 0  P = 1 y R = 50 25 5 −2 −2 0 0 100 se obtiene

    −1 −3 1 25 −50 0 2 −8 −3 1 0 1  50 25 0  7 −3 2 PRP−1 = −  1 25 5 −2 −2 0 0 100 −2 −17 3    −1 −3 1 −300 −50 −175 1  1 0 1   275 −475 −100 =− 25 5 −2 −2 −200 −1700 300     −725 −225 775 29 9 −31 1  −500 −1750 125  = 20 70 −5  . =− 25 −1650 4100 −1275 66 −164 51

En este ejemplo se ilustra la manera de expresar A como PRP−1 cuando sus valores propios no son todos complejos. Ejercicios 2.3. 1. Exprese cada una de las matrices dadas como PRP−1        1 2 1 −1 −1 3 a.  b.  c.  . . . −1 3 3 −1 −1 1        2 2 −3 −5 2 4 a −b         d.  f. g.  . −3 0 3  . −3 0 3 .     b a 4 1 −5 −3 1 2

´ DE MATRICES SIMETRICAS ´ 2.4. DIAGONALIZACION

95

2. Suponga que A es una matriz real de tama˜no 3 × 3, tal que det A = 50, tr1 (A) = 8 y un valor propio es 2. Encuentre los valores propios. 3. Sea A una matriz real de tama˜no n × n y sea ~x ∈ Cn . Muestre que Re(A~x) =ARe(~x)

2.4.

y

Im(A~x) =AIm(~x).

Diagonalizaci´on de matrices sim´etricas

Como se vio en la secci´on anterior una matriz A de tama˜no n × n puede tener valores propios complejos, a´un en el caso de que todos los elementos de A sean reales. En este apartado, se desarrollar´a la teor´ıa de valores propios para matrices sim´etricas reales. Definici´on 2.10. Matrices congruentes ortogonalmente Dos matrices sim´etricas reales A y B de tama˜no n × n son congruentes ortogonalmente, si existe una matriz P ortogonal de tama˜no n × n tal que A = Pt BP.

(2.17)

Definici´on 2.11. Matrices semejantes ortogonalmente Una matriz sim´etrica A de tama˜no n × n es semejante ortogonalmente a una matriz sim´etrica B de tama˜no n × n, si existe una matriz P ortogonal de tama˜no n × n tal que A = Pt BP.

(2.18)

Teorema 2.20. Dos matrices sim´etricas reales A y B son congruentes ortogonalmente si y s´olo si A y B son semejantes ortogonalmente.

96

´ CAPITULO 2. VALORES PROPIOS Y VECTORES PROPIOS

Demostraci´on Si A y B son matrices sim´etricas congruentes de tama˜no n × n, entonces B = Pt AP pero como Pt P = In , se tiene que Pt = P−1 . Por lo tanto, las matrices A y B son semejantes ortogonalmente. Teorema 2.21. Sea A una matriz sim´etrica real de tama˜no n × n. Entonces los valores propios de A son reales. Demostraci´on Sea ~v ∈ Cn un vector propio asociado al valor propio λ de A; entonces, A~v = λ~v

(2.19)

por el Teorema 2.18, se tiene que ~v es tambi´en vector propio de A pero asociado al valor propio λ. t Si se multiplica (2.19), por la izquierda por ~v , se obtiene t

t

t

~v A~v =~v λ~v = λ~v ~v.

(2.20)

t

Luego, la conjugada de ~v A~v, es t

t

~v A~v =~v A ~v =~vt λ ~v = λ~vt~v,

(2.21)

donde hemos utilizado el Teorema 1.41. Por otra parte, como A es real se tiene que A = A. Por lo tanto, la ecuaci´on (2.21) es igual a t

t

~v A~v =~v A ~v =~vt At ~v = (A~v)t ~v = λ~vt~v

(2.22)

aqu´ı se utilizo el hecho de que At = A ya que A es sim´etrica. Si se igualan (2.21) y (2.22) se tiene λ ~vt ~v = λ ~vt ~v (2.23) pero~vt ~v = k~vk2 6= 0, ya que~v es un vector propio. Entonces se puede dividir ambos lados de (2.23) entre ~vt ~v para obtener λ=λ lo cual se cumple s´olo si λ es real.

´ DE MATRICES SIMETRICAS ´ 2.4. DIAGONALIZACION

97

Definici´on 2.12. Matriz diagonalizable ortogonalmente Una matriz A de tama˜no n × n es diagonalizable ortogonalmente si existe una matriz ortogonal Q tal que Qt AQ = D

(2.24)

sea diagonal. Teorema 2.22. Si A es una matriz sim´etrica real de tama˜no n × n, entonces existe una matriz ortogonal Q tal que Q−1 AQ es una matriz diagonal. Demostraci´on Sea λ1 , λ2 , . . . , λn los valores propios de A. Puesto que λ1 es real, existe un vector propio unitario ~u1 ∈ Rn de A correspondiente a λ1 . Denotemos por V el complemento ortogonal a ~u1 de dimensi´on n − 1. Sea {~u2 ,~u3 , . . . ,~un } una base ortonormal de V . Luego, cada vector ~X de V tiene la forma ~X = a2 ~u2 + a3 ~u3 + . . . + an ~un y el producto punto entre A~X y ~u1 es (A~X) ·~u1 = (A~X)t~u1 = ~X t At~u1 = ~X t (A~u1 ) = ~X t (λ1~u1 ) = λ1~X t~u1 = 0. Puesto que cada vector de la base de V es ortogonal a ~u1 . La matriz de cambio de base, de la base can´onica de Rn a la base {~u1 ,~u2 , . . . ,~un } es la matriz ortogonal S cuyas columnas son los elementos de los vectores ~ui . Luego, £ ¤ AS = A~u1 A~u2 . . . A~un £ ¤ = λ1~u1 A~u2 . . . A~un , por lo tanto,

£ ¤ S−1 AS = S−1 λ1~u1 A~u2 . . . A~un .

98

´ CAPITULO 2. VALORES PROPIOS Y VECTORES PROPIOS

Pero como S es ortogonal se tiene que S−1 = St , por consiguiente, £ ¤t £ ¤ S−1 AS = ~u1 ~u2 . . . ~un λ1~u1 A~u2 . . . A~un  t  ~u1 λ1~u1 ~ut1 A~u2 . . . ~ut1 A~un ~ut λ1~u1 ~ut A~u2 . . . ~ut A~un  2 2  2  = . .. ..  ..  .. . . .  t t t ~un λ1~u1 ~un A~u2 . . . ~un A~un se puede probar f´acilmente que S−1 AS es sim´etrica, ya que (S−1 AS)t = (St AS)t = St AS = S−1 AS. Por consiguiente,

   S−1 AS =  

λ1 0 .. .

 0 ... 0        A1 

0 donde A1 es sim´etrica de tama˜no (n − 1) × (n − 1). La prueba es ahora completada por inducci´on, si R∗ es una matriz ortogonal de tama˜no (n − 1) × (n − 1) tal que R∗ A1 (R∗ )−1 = diag{λ2 , λ3 , . . . , λn }. Entonces, la matriz   1 0 ... 0    0    R= .    R∗  ..  0 es una matriz ortogonal y R−1 S−1 ASR = (SR)−1 A(SR) = diag{λ1 , λ2 , . . . , λn }. La matriz SR = Q es el producto de dos matrices ortogonales; por lo tanto, es tambi´en una matriz ortogonal. As´ı, Q−1 AQ es una matriz diagonal y nuestra prueba queda completa. Teorema 2.23. Sea A una matriz sim´etrica real de tama˜no n × n. Entonces los vectores propios asociados con valores propios distintos de A son ortogonales. Esto es, los espacios propios de una matriz sim´etrica son ortogonales.

´ DE MATRICES SIMETRICAS ´ 2.4. DIAGONALIZACION

99

Demostraci´on Sean ~v1 y ~v2 vectores propios que corresponden a valores propios distintos, digamos, λ1 y λ2 . Para demostrar que ~v1 ·~v2 = 0, se calcula λ1~v1 ·~v2 =(λ1~v1 )t~v2 = (A~v1 )t~v2 =(~vt1 At )~v2 =~vt1 (A~v2 ) =~vt1 (λ2~v2 ) =λ2~vt1~v2 = λ2~v1 ·~v2 .

puesto que ~v1 es un vector propio puesto que A es sim´etrica puesto que ~v2 es un vector propio

Por lo tanto, (λ1 − λ2 )~v1 ·~v2 = 0. Pero λ1 − λ2 6= 0, as´ı que ~v1 ·~v2 = 0 Teorema 2.24. Sea λk un valor propio de multiplicidad algebraica igual a p asociado a una matriz A sim´etrica real de tama˜no n × n. Entonces A tiene exactamente p vectores propios mutuamente ortogonales asociados al valor propio λk . Demostraci´on Por el Teorema 2.22, existe una matriz Q tal que Q−1 AQ es una matriz diagonal en la cual λk aparece exactamente p veces en la diagonal principal. Por otra parte, se tiene que, Q−1 AQ − λk In = Q−1 (A − λk In )Q tiene rango n − p. Pero como Q y Q−1 son no singulares, A − λk In tambi´en tiene rango n − p. Por lo tanto, el espacio soluci´on del sistema de ecuaciones (A − λk In )~v = ~0

con

~v ∈ Rn

tiene dimensi´on n − (n − p) = p y por consiguiente, existen exactamente p vectores unitarios mutuamente ortogonales de Rn . Teorema 2.25. Una matriz A sim´etrica real de tama˜no n × n, tiene n vectores propios unitarios mutuamente ortogonales. Demostraci´on Si D es la matriz diagonal Qt AQ, se tiene AQ = QD

(2.25)

donde D = diag{λ1 , . . . , λn }; al igualar los vectores columna de cada miembro de (2.25), se obtiene A ~v1 = λ1 ~v1 , A ~v2 = λ2 ~v2 , . . . , A ~vn = λn ~vn

´ CAPITULO 2. VALORES PROPIOS Y VECTORES PROPIOS

100

donde~v1 , ~v2 , . . . , ~vn son los vectores columna de Q; se deduce que las columnas de Q son vectores propios de A y que son vectores unitarios mutuamente ortogonales, por ser Q ortogonal. Teorema 2.26. Sea A una matriz real de tama˜no n × n. Entonces A es diagonalizable ortogonalmente si y s´olo si A es sim´etrica. Demostraci´on Sea A diagonalizable ortogonalmente, entonces por la Definici´on 2.12, existe una matriz ortogonal Q tal que Qt AQ = D. Si se multiplica esta ecuaci´on por la izquierda por Q y por la derecha por Qt y se usa el hecho de que Qt Q = QQt = In , se obtiene A = QDQt . Luego At = (QDQt )t = (Qt )t Dt Qt = QDQt = A. As´ı, A es sim´etrica. Rec´ıprocamente, suponga que A es sim´etrica. Entonces por los Teoremas 2.23 y 2.25, A es diagonalizable ortogonalmente con la matriz Q cuyas columnas son los vectores propios dados en el Teorema 2.25, y el teorema queda demostrado. Procedimiento para encontrar una matriz diagonalizante Q i) Encuentre una base para cada espacio propio de A. ii) Halle una base ortonormal para cada espacio propio de A usando el proceso de Gram-Schmidt o alg´un otro. iii) Obtenga Q como la matriz cuyas columnas son los vectores propios ortonormales obtenidos en el paso ii).

Ejemplo 2.15. Encuentre una matriz Q que diagonalice ortogonalmente a   2 2 1    A= 2 5 2 .   1 2 2

´ DE MATRICES SIMETRICAS ´ 2.4. DIAGONALIZACION

101

Soluci´on En este caso, los valores propios de A son λ1 = 1 (de multiplicidad algebraica 2) y λ2 = 7. Losvectores independientes correspondientes  propios  linealmente   a −1 2 1 λ1 = 1 son ~v1 =  0  y ~v2 = −1 y el correspondiente a λ2 = 7 es ~v3 = 2. 1 0 1 Para encontrar Q, se aplica el proceso de Gram-Schmidt a {~ v ,~ v }, una base 1 2 √   2 −1/ √ para B1 . Como k~v1 k = 2, se hace ~u1 = k~~vv11 k =  0√ . Despu´es, 1/ 2 √    −1/ 2 2 0 −2 ~v2 =~v2 − (~v2 ·~u1 )~u1 = −1 − √  0√  2 1/ 2 0       2 −1 1 = −1 +  0  = −1 . 0 1 1 

√   1/ √3 √ 0 Entonces k~v2 k = 3 y ~u2 = −1/√ 3. Se puede verificar que la nueva base de B1 1/ 3 √ es ortonormal observando que ~u1 ·~u2 = 0. Por u´ ltimo, se tiene que k~v3 k = 6 luego  √  1/√6  ~u3 = 2/√6. Tambi´en se verifica que la base obtenida para R3 es ortonormal 1/ 6 observando que ~u1 ·~u3 = 0 y ~u2 ·~u3 = 0. Por lo tanto, √ √  √  −1/ 2 1/ √3 1/√6 Q =  0√ −1/√ 3 2/√6 , 1/ 2 1/ 3 1/ 6

√ √   −1/√ 2 0√ 1/√2 Qt =  1/√3 −1/√ 3 1/√3 1/ 6 2/ 6 1/ 6

y √  −1/√ 2 0√ t  Q AQ = 1/√3 −1/√ 3 1/ 6 2/ 6 √  −1/√ 2 0√ =  1/√3 −1/√ 3 1/ 6 2/ 6

√ √  √  √  1/√2 2 2 1 −1/ 2 1/ √3 1/√6 1/√3 2 5 2  0√ −1/√ 3 2/√6 1/ 6 1 2 2 1/ 2 1/ 3 1/ 6 √ √  √  √ 7/ √6 1/√2 −1/ 2 1/ √3 1/√3  0√ −1/√ 3 14/√ 6 1/ 6 1/ 2 1/ 3 7/ 6

´ CAPITULO 2. VALORES PROPIOS Y VECTORES PROPIOS

102 As´ı,

  1 0 0 Qt AQ = 0 1 0 . 0 0 7

Teorema 2.27. Descomposici´on Espectral para Matrices Sim´etricas Sea A una matriz sim´etrica real de tama˜no n×n con valores propios λ1 , λ2 , . . . , λn , entonces A se puede escribir como A = λ1~v1~vt1 + λ2~v2~vt2 + . . . + λn~vn~vtn ,

(2.26)

donde ~v1 ,~v2 , . . . ,~vn son los vectores propios normalizados de A. Demostraci´on Por el Teorema 2.22, existe una matriz Q tal que Q−1 AQ es una matriz diagonal. Entonces, A =QDQ−1 = QDQt £ = ~u1 ~u2

£ = ~u1 ~u2

  t  λ1 0 . . . 0 ~u1    ¤  0 λ2 . . . 0  ~ut2   . . . ~un  . .. . . .  .   .. . ..   ..  . 0 0 . . . λn ~utn  t λ1~u1  ¤ λ2~ut2   . . . ~un  .   ..  λn~utn

=λ1~v1~vt1 + λ2~v2~vt2 + . . . + λn~vn~vtn esto prueba el teorema. Ejemplo 2.16. Ilustrar el teorema de descomposici´on espectral para la matriz dada en el Ejemplo 2.15. Soluci´on Del Ejemplo 2.15 se tiene que los valores propios asociados a la matriz A son λ1 = 7, λ2 = λ3 = 1 y los respectivos vectores propios normalizados de A eran       1 1 1 1 1 1 ~v2 = √ −1 ~v1 = √ 2 , y ~v3 = √  0  . 3 1 6 1 2 −1

´ DE MATRICES SIMETRICAS ´ 2.4. DIAGONALIZACION

103

Entonces       1 £ 1 £ 1 ¤ ¤ ¤ 7  1  1  £ t 2 1 2 1 −1 1 −1 1 0 1 0 −1 λ ~ v ~ v = + + ∑ iii 6 3 2 i=1 1 1 −1       1 2 1 1 −1 1 1 0 −1 7 1 1 = 2 4 2 + −1 1 −1 +  0 0 0  6 3 2 1 2 1 1 −1 1 −1 0 1       7 14 7 5 −2 −1 12 12 6 1 1 1 = 14 28 14 + −2 2 −2  = 12 30 12 , 6 6 6 7 14 7 −1 −2 5 6 12 12 3

la cual coincide con la matriz A dada en el Ejemplo 2.15. Teorema 2.28. Teorema espectral para matrices sim´etricas Sea A una matriz sim´etrica real de tama˜no n × n, entonces las siguientes afirmaciones son equivalentes i) A tiene n valores propios reales, contando multiplicidades. ii) Si λ es un valor propio de A con multiplicidad algebraica k, entonces el espacio propio para λ es k-dimensional. iii) Los vectores propios correspondientes a valores propios distintos son ortogonales, es decir los espacios propios son mutuamente ortogonales. iv) A es diagonalizable ortogonalmente. Demostraci´on Queda como ejercicio para el lector.

´ CAPITULO 2. VALORES PROPIOS Y VECTORES PROPIOS

104 Ejercicios 2.4.

1. Determine si las matrices dadas a continuaci´on son diagonalizables ortogonalmente  1 a.  1   1  d.   3  −2

 1 . 3  3 −2  1 2 .  2 1

  1 3  b.  . 3 −1   3 −1 4      f. −1 1 −5 .   4 −5 2



  1 −1 c.  . −1 1

2. Si las matrices A y B son ortogonalmente semejantes y B es ortogonalmente semejante a una matriz C, muestre que A y C son tambi´en ortogonalmente semejantes. 3. Sea A una matriz ortogonal de tama˜no n × n, muestre que si λ es un valor propio de A, entonces λ = ±1. 4. Muestre que si A es ortogonal de tama˜no n × n y ~x y ~y son vectores en Rn , entonces (A~x) · (A~y) =~x ·~y.

2.5. Vectores propios generalizados En las secciones anteriores hemos considerado matrices en las cuales la multiplicidad algebraica de cada valor propio es igual a su multiplicidad geom´etrica. En este apartado consideraremos matrices que violan esta condici´on, es decir la multiplicidad algebraica de cada valor propio es diferente de su multiplicidad geom´etrica y se obtendr´a un nuevo concepto de vector propio asociado a la matriz.

2.5. VECTORES PROPIOS GENERALIZADOS

105

Definici´on 2.13. Vector propio generalizado Sea A una matriz real de tama˜no n×n con un valor propio λ j cuya multiplicidad algebraica es diferente de su multiplicidad geom´etrica. Un vector ~v ∈ Cn se llama vector propio generalizado de A si cumple que (A − λ j In )k~v = ~0

(2.27)

para alg´un k entero positivo. El m´ınimo entero k para el cual (2.27) se satisface recibe el nombre de ´ındice del vector propio generalizado ~v. Nota Los vectores propios son vectores propios generalizados de ´ındice igual a 1. Ejemplo 2.17. El vector~vt = (− 17 , 0) es un vector propio generalizado asociado al valor propio λ = −5 de la siguiente matriz   −12 7 A= . −7 2 Soluci´on Veamos que ~v, cumple (2.27) para alg´un valor entero k. Para k = 1 · ¸· ¸ · ¸ −7 7 − 17 1 (A − (−5)I)~v = = =~v1 . −7 7 1 0 Obs´ervese que ~v1 es el vector propio correspondiente a λ. Para k = 2, se tiene que · ¸· ¸ · ¸ −7 7 1 0 2 (A − (−5)I) ~v = (A − (−5)I)~v1 = = . −7 7 1 0 Luego, ~v es un vector propio generalizado de ´ındice k = 2. Definici´on 2.14. Espacio propio generalizado Sea λ j un valor propio de la matriz real A ∈ Mnn . El subespacio

V j = {~v ∈ Cn : (A − λ j I)k ~v = ~0, para cierto entero positivo k}

(2.28)

106

´ CAPITULO 2. VALORES PROPIOS Y VECTORES PROPIOS

se denomina espacio propio generalizado de A asociado con el valor propio λ j . En otras palabras, V j = espacio nulo{(A − λ j I)k }. Teorema 2.29. Sea A una matriz real de tama˜no 2 × 2 con un u´ nico valor propio real λ de multiplicidad algebraica distinta de la multiplicidad geom´etrica. Entonces existe un vector propio generalizado ~w que satisface la ecuaci´on (A − λI)~w =~v,

(2.29)

donde ~v es un vector propio correspondiente a λ. Demostraci´on Sea ~x ∈ C2 un vector fijo, tal que ~x 6= α~v; luego, ~x no es un vector propio de A. Sea ~y = (A − λI)~x. (2.30) Demostremos que ~y es un vector propio de A; en otras palabras, que ~y = β~v. Como ~v y ~x son linealmente independientes y ~y ∈ C2 ; entonces existen constantes c1 y c2 tales que ~y = c1 ~v + c2 ~x. (2.31) Debemos mostrar que c2 = 0. Si se reemplaza (2.30) en (2.31) se tiene que (A − λI)~x =c1 ~v + c2 ~x [A − (λ + c2 )I]~x =c1 ~v. Si se supone que c2 6= 0, entonces, λ + c2 no es un valor propio de A (pues el u´ nico valor propio asociado a A es λ). Por lo tanto, det[A − (λ + c2 )I] 6= 0. Sea B = A − (λ + c2 )I; entonces B es no singular. As´ı, ~x es igual a ~x = B−1 c1 ~v = c1 B−1 ~v. Al multiplicar a ambos lados de (2.32) por λ, se obtiene λ ~x = λ B−1 c1 ~v = c1 B−1 (λ ~v) = c1 B−1 (A ~v). Pero A = B + (λ + c2 )I, de manera que λ ~x =c1 B−1 [B + (λ + c2 )I] ~v =c1 [I + (λ + c2 )B−1 ] ~v =c1 ~v + (λ + c2 ) [c1 B−1 ~v] =c1 ~v + (λ + c2 ) ~x.

(2.32)

2.5. VECTORES PROPIOS GENERALIZADOS

107

La cual se obtiene usando el hecho de que ~x = c1 B−1 ~v. Por lo tanto, λ ~x =c1 ~v + λ ~x + c2 ~x ~0 =c1 ~v + c2 ~x. Pero como ~x 6= α~v, se debe tener que c1 = c2 = 0; lo cual contradice la suposici´on de que c2 6= 0. Luego, c2 = 0 y sustituyendo en (2.31) se tiene que ~y = c1~v. Ahora, debemos mostrar que c1 6= 0, en otras palabras se debe mostrar que ~y 6= ~0; pues si ~y = ~0 y se reemplaza en (2.31) se tendr´ıa que ~x es un vector propio de A; lo cual contradice la suposici´on de que ~x 6= α~v. Por lo tanto, c1 6= 0; luego ~y es un m´ultiplo no nulo de ~v y por el Teorema 2.1, es un vector propio de A. Por u´ ltimo definamos ~w = c11~x, entonces (A − λI)~w =

1 1 (A − λI)~x = ~y =~v. c1 c1

Esto prueba el teorema.   4 −1 Ejemplo 2.18. Sea A =  . Determine sus vectores propios generalizados. 1 2 Soluci´on La ecuaci´on caracter´ıstica de A es λ2 − 6λ + 9 = (λ − 3)2 = 0. Luego, λ = 3 es el u´ nico valor propio (de multiplicidad algebraica 2). Entonces, · ¸· ¸ · ¸ 1 −1 x1 0 (A − λI)~v = (A − 3I)~v = = . 1 −1 x2 0 Esto conduce a x1 = x2 . Estableciendo · ¸ x2 = 1, se obtiene s´olo un vector propio li1 nealmente independientes: ~v1 = . Para encontrar un vector propio generalizado 1 ~v2 se calcula (A − 3I)~v2 =~v1 y se obtiene · ¸· ¸ · ¸ 1 −1 x1 1 = . 1 −1 x2 1 La soluci´on general ·corresponde a x1 − x2 = 1; luego x1 = 1 + x2 . Por lo tanto, si ¸ 1 x2 = 0 se tiene ~v2 = . 0

108

´ CAPITULO 2. VALORES PROPIOS Y VECTORES PROPIOS

Ejemplo 2.19. Encuentre los vectores propios generalizados de la matriz 



 1 1 1    A=  2 1 −1 .   −3 2 4 Soluci´on La ecuaci´on caracter´ıstica de A es −λ3 + 6λ2 − 12λ + 8 = − (λ − 2)3 = 0 Luego, λ = 2 es el u´ nico valor propio (de multiplicidad algebraica 3). Entonces,      −1 1 1 x 0      (A − λI)~v = (A − 2I)~v = 2 −1 −1 y = 0 . −3 2 2 z 0 Por lo tanto, el vector propio correspondiente se obtiene operando por filas       −1 1 1 | 0 −1 1 1 | 0 −1 0 0 | 0  2 −1 −1 | 0 ∼  0 1 1 | 0 ∼  0 1 1 | 0 . F −F F +2F −3 2 2 | 0 F23 +F21 −1 1 1 | 0 F31 −F12 0 0 0 | 0 Esto conduce  ax = 0 y y = −z. Estableciendo z = −1, se obtiene el vector pro0  pio: ~v1 = 1 . Para encontrar un vector propio generalizado ~v2 se calcula (A − −1 2I)~v2 =~v1 y se tiene que      −1 1 1 x 0  2 −1 −1 y =  1  , −3 2 2 z −1 si se realizan operaciones por filas se obtiene       −1 1 1 | 0 −1 0 0 | −1 −1 1 1 | 0  2 −1 −1 | 1  ∼  0 1 1 | 1 ∼  0 1 1 | 1  . F −F F +2F −3 2 2 | −1 F23 +F21 −1 1 1 | 0 F31 −F12 0 0 0 | 0

2.5. VECTORES PROPIOS GENERALIZADOS

109

Es decir,  x = 1 y y = 1−z. Si se hace z = 0, se obtiene el vector propio generalizado: 1 ~v2 = 1. Para encontrar el segundo vector propio generalizado ~v3 se calcula 0 (A − 2I)~v3 =~v2      −1 1 1 x 1  2 −1 −1 y = 1 . −3 2 2 z 0 Al resolver el sistema por Gauss-Jordan, se tiene que       −1 1 1 | 1 −1 0 0 | −2 −1 1 1 | 1  2 −1 −1 | 1 ∼  0 1 1 | 3 ∼  0 1 1 | 3  . F −F F +2F −3 2 2 | 0 F23 +F21 −1 1 1 | 1 F31 −F12 0 0 0 | 0 Luego, x = 2 y y = 3 − z. Si z = 0, se obtiene el vector propio generalizado:   2 ~v3 = 3 . 0 Ejemplo 2.20. Encuentre los vectores propios generalizados de la matriz 



18 7  1   B= 4 −1 13 .   1 −25 −8 Soluci´on La ecuaci´on caracter´ıstica de B es −λ3 + 6λ2 − 12λ + 8 = 0. Luego, λ = 2 es el u´ nico valor propio (de multiplicidad algebraica tres). Entonces,      0 x1 −1 18 7      x2 = 0 . 4 (B − λI)~v = (B − 2I)~v = −1 11 0 1 −25 −10 x3

110

´ CAPITULO 2. VALORES PROPIOS Y VECTORES PROPIOS

El vector propio correspondiente, se obtiene operando por filas    −1 18 7 | 0 −1 18 −1 11 4 | 0 ∼  0 −7 F −F 1 −25 −10 | 0 F23 +F11 0 −7  −3 5 ∼  0 7 F3 −F2 0 0 3F1 +7F2

 7 | 0 −3 | 0 −3 | 0  0 | 0 3 | 0 . 0 | 0

Esto conduce a x = 35 y y z = − 73 y. Estableciendo y = 3, se obtiene el vector   5 propio: ~v1 =  3 . Para encontrar un vector propio generalizado ~v2 se calcula −7 (B − 2I)~v2 =~v1 y se tiene que      −1 18 7 x 5 −1 11 4  y  =  3  . 1 −25 −10 z −7 Si se realizan operaciones por filas se obtiene    −1 18 7 | 5 −1 18 −1 11   4 | 3 0 −7 ∼ F −F 1 −25 −10 | −7 F23 +F11 0 −7  −3 5 ∼  0 7 F3 −F2 0 0 3F1 +7F2

 7 | 5 −3 | −2 −3 | −2  0 | 1 3 | 2 . 0 | 0

Es decir, x = − 13 + 53 y y z = 23 − 73 y. Si se hace y = 0, se obtiene el vector propio   −1 1 generalizado: ~v2 = 3 0 . Para encontrar el segundo vector propio generalizado 2 ~v3 se calcula (B − 2I)~v3 =~v2    1  x −3 −1 18 7 −1 11 4  y  =  0  . 2 1 −25 −10 z 3

2.5. VECTORES PROPIOS GENERALIZADOS Al resolver el sistema por Gauss-Jordan, se tiene que    −1 18 −1 18 7 | − 13 −1 11 4 | 0  ∼  0 −7 F2 −F1 1 −25 −10 | 23 F3 +F1 0 −7  −3 5 ∼  0 7 F3 −F2 0 0 3F1 +7F2

111

 7 | − 13 −3 | 31  −3 | 31  0 | 43 3 | − 13  0 | 0

Luego, x = − 49 + 35 y y z = − 19 − 37 y. Tomando y = 0, se obtiene el vector propio   4 generalizado: ~v3 = − 19 0. 1 Teorema 2.30. Sea~v 6=~0 un vector propio generalizado con ´ındice k de una matriz real A de tama˜no n × n. Entonces, n o ~v, (A − λ j In )~v, . . . , (A − λ j In )k−1~v

(2.33)

es un conjunto de vectores linealmente independientes. Demostraci´on Supongamos que ~v ∈ Cn es de ´ındice k y que los vectores dados en (2.33) son linealmente dependientes, entonces existen constantes cn 6= 0, tales que k−1

∑ cn (A − λ j In )n~v = ~0,

(2.34)

n=0

donde (A − λ j In )0 = In . Sea A j = A − λ j In y consideremos el polinomio1 f (t) = c0 + c1t + . . . + cr t r diferente de cero de grado r ≤ k − 1. De este modo, (2.34) se puede expresar de la manera siguiente f (A j )~v = ~0. Sea g(t) = t k , as´ı que g (A j )~v = ~0. Si h(t) = t d con d ≤ k − 1, es el m´aximo com´un divisor de f (t) y g(t), usando el Algoritmo de Euclides, el polinomio h(t) se puede escribir como h(t) = h1 (t) f (t) + h2 (t)g(t), 1 Si

el lector no est´a familiarizado con este concepto puede ver Lang (1976), Cap. 9

´ CAPITULO 2. VALORES PROPIOS Y VECTORES PROPIOS

112

donde h1 (t) y h2 (t) son polinomios distintos de cero. Luego, h (A j )~v =~0. Por lo tanto, d ser´ıa el ´ındice de ~v; lo cual contradice la hip´otesis de que k es el ´ındice de ~v y se concluye la prueba. Teorema 2.31. Los vectores no nulos tomados de espacios propios generalizados distintos son linealmente independientes. Demostraci´on n o k Sea A j = A−λ j In y V j = espacio nulo A j j para alg´un entero k j , j = 1, 2, . . . , r. Sean ~v1 , . . . ,~vr , con ~v j ∈ V j y supongamos que r

~w =

∑ ~v j = ~0.

(2.35)

j=1

Se debe mostrar que cada ~v j = ~0. Si se multiplica ambos lados de (2.35) por la k k matriz C = Ak22 Ak33 . . . Akr r y se utilizan los hechos de que A j j~v j = ~0 y que Aki i A j j = k

A j j Aki i , lo cual se tiene ya que Ai A j = (A − λi In ) (A − λ j In ) = A2 − λi A − λ j A + λi λ j In =A2 − λ j A − λi A + λi λ j In = (A − λ j In ) (A − λi In ) = A j Ai . Se obtiene que

C~w = C~v1 = ~0.

(2.36)

Por lo tanto,~v1 =~0. De manera an´aloga, todos los~v j restantes tienen que desaparecer. De acuerdo con la definici´on 2.7, las matrices reales cuadradas A y B se dicen que son semejantes, si existe una matriz P no singular, tal que A = PBP−1 . En ocasiones, adem´as de establecer el hecho en s´ı de la semejanza, se requiere encontrar la matriz P de la transformaci´on que satisface que A = PBP−1 . En estos momentos, se puede construir la matriz P utilizando los vectores propios generalizados de la siguiente manera P = SR−1 (2.37) donde las columnas de la matriz S son los vectores propios generalizados de la matriz A y las columnas de la matriz R son los vectores propios generalizados de la matriz B.

2.5. VECTORES PROPIOS GENERALIZADOS

113

Ejemplo 2.21. Determine si las matrices dadas en los ejemplos 2.19 y 2.20 son semejantes. Soluci´on Como las dos matrices tienen el mismo polinomio caracter´ıstico entonces son semejantes, encontremos la matriz P. En el Ejemplo 2.19 se obtuvieron los siguientes vectores propios generalizados para la matriz A       0 1 2 ~v1 =  1  , ~v2 = 1 y ~v3 = 3 . −1 0 0 Del Ejemplo 2.20 se tiene que los vectores propios generalizados de la matriz B, son    4  1 5 −9 −3      ~v1 = 3 , y ~v3 = 0  . ~v2 = 0 2 −7 − 19 3 Por lo tanto,   0 1 2 5 − 13 0 P =  1 1 3  3 2 −1 0 0 −7 3  13 17  −3 − 23 3 19 = − 3 7 − 53  . 0 − 13 0

−1   − 49 0 1 2 0 0  =  1 1 3 − 31 −1 0 0 −2 − 19

1 3 11 3

1

0 4 3

 

−1

El lector puede verificar que A = PBP−1 . Teorema 2.32. Todo vector en Rn es una combinaci´on lineal de vectores de los espacios propios generalizados V j . Demostraci´on Sup´ongase que V es el subespacio de Rn formado por los vectores de la forma ~u1 + . . . +~ur , donde ~u j ∈ V j . Se necesita probar que V = Rn . Supongamos que V es un subespacio adecuado. Entonces se escoge una base {~v1 + . . . +~vs } de V y se extiende este conjunto a una base B de Rn . En esta base la matriz [A]B est´a particionada como sigue · ¸ A A12 [A]B = 11 O A22

114

´ CAPITULO 2. VALORES PROPIOS Y VECTORES PROPIOS

donde A22 es una matriz de tama˜no (n − s)× (n − s). Los valores propios de A22 son valores propios de A. Como todos los valores propios distintos y vectores propios de A son considerados en V (es decir, en A11 ), se tiene una contradicci´on. Por lo tanto, V = Rn , como se quer´ıa demostrar. Teorema 2.33. Sea Vj una base para el espacio propio generalizado V j y sea V la uni´on de los conjuntos Vj . Entonces, V es una base para Rn . Demostraci´on Vamos a demostrar que los vectores en V generan Rn . Por el Teorema 2.32 se tiene que todo vector en Rn es una combinaci´on lineal de vectores en V j . Pero cada vector en V j es una combinaci´on lineal de vectores en Vj . Por lo tanto, los vectores en V generan Rn . Ahora, demostremos que los vectores en V son linealmente independientes. Supongamos que una combinaci´on lineal de vectores en V suma ~0. Es posible escribir esta suma como ~v1 + . . . +~vr = ~0 donde ~v j es la combinaci´on lineal de vectores en Vj . El Teorema 2.31 indica que cada ~v j = ~0. Como Vj es una base para V j , se deduce que los coeficientes de las combinaciones lineales~v j deben ser todos cero. Por lo tanto, los vectores en V son linealmente independientes. Por el Teorema 1.26 se deduce que V es una base de Rn . Ejercicios 2.5. 1. Encuentre la matriz P que satisface que A = PBP−1 para     3 1 −1  42 130 25        −8 −24 −5  . A = y B = 2 2 −1         2 2 0 −23 −73 −13 2. Determine los vectores propios generalizados para las siguientes matrices       −12 7 −10 −7 4 −1 a.  b.  c.  . . . −7 2 7 4 1 2

´ 2.6. METODOS ITERATIVOS 

115 

 5 −3 −2    d.   8 −5 −4 .   −4 3 3

2.6.





2 1  1   e.  1 1 1 .   −2 −3 −2

M´etodos iterativos para estimar valores propios y vectores propios

Hasta ahora para encontrar los valores propios de una matriz A = [ai j ] se resuelve la ecuaci´on caracter´ıstica asociada. En muchos problemas pr´acticos, obtener las ra´ıces correspondientes no es sencillo. Es m´as, en algunos problemas estad´ısticos s´olo se necesita el valor propio con el valor absoluto m´as grande. En esta secci´on se trataran algunos procedimientos para calcular valores aproximados de los valores propios de una matriz.

Definici´on 2.15. Valor propio dominante y vector propio dominante La matriz A de tama˜no n × n tiene un valor propio dominante si su valor absoluto es mayor que los valores absolutos de los valores propios restantes. El vector propio asociado al valor propio dominante se denomina vector propio dominante.

Ejemplo 2.22. Determine el valor propio dominante para la matriz   1 2 A=  5 4 Soluci´on Los valores propios asociados a A son −1 y 6. Por lo tanto, el valor propio dominante es 6.

116

´ CAPITULO 2. VALORES PROPIOS Y VECTORES PROPIOS

Ejemplo 2.23. Determine el valor propio dominante de la matriz   4 2 −2      A = 8 10 −14 .   8 8 −12 Soluci´on Los valores propios asociados a la matriz A son 2, −4 y 4. Por lo tanto, no hay valor propio dominante.

2.6.1. M´etodo de la potencia El m´etodo de potencias para aproximar valores propios es iterativo. Primero se supone que la matriz A tiene un valor propio dominante con vectores propios dominantes. Luego se elige un vector diferente de cero ~w1 ∈ Rn . Por u´ ltimo, se forma la sucesi´on definida por ~w2 =A~w1 ~w3 =A~w2 = A(A~w1 ) = A2~w1 ~w4 =A~w3 = A(A2~w1 ) = A3~w1 .. . ~wk+1 =A~wk = A(Ak−1~w1 ) = Ak ~w1 A medida que k crece, Ak ~w1 se hace paralelo al vector propio dominante de A. Teorema 2.34. Sea A una matriz real diagonalizable de tama˜no n × n con valores propios reales λ1 , λ2 , . . . , λn , tales que |λ1 | > |λ2 | ≥ |λ3 | ≥ . . . ≥ |λn |. Entonces existe un vector ~w1 diferente de cero de Rn tal que la sucesi´on de vectores definida por A~w1 , A2~w1 , A3~w1 , . . . , Ak ~w1 , . . . se aproxima al vector propio dominante de A cuando k aumenta.

´ 2.6. METODOS ITERATIVOS

117

Demostraci´on Como A es diagonalizable entonces existe una base de Rn formada por los n vectores propios {~v1 ,~v2 , . . . ,~vn }, asociados a los valores propios λi , i = 1, 2, . . . , n, respectivamente. Sea ~w1 cualquier vector distinto de cero de Rn , de forma que n

~w1 = ∑ ci~vi

con ci ∈ R.

(2.38)

i=1

Definamos el siguiente proceso iterativo ~wk+1 =A ~wk ,

k =1, 2, . . .

N´otese que ~wk+1 = Ak ~w1 , k = 1, 2, . . . Por lo tanto, se tiene que ! Ã n

∑ ci~vi

~w2 = A ~w1 =A

i=1 n

= ∑ ci λi~vi i=1

Ã

! λi =λ1 c1~v1 + ∑ ci ~vi , i=2 λ1 " Ã !# n λi ~w3 = A ~w2 =A λ1 c1~v1 + ∑ ci ~vi i=2 λ1 Ã µ ¶2 ! n λi =λ21 c1~v1 + ∑ ci ~vi , λ1 i=2 en general, por recurrencia, se obtiene Ã

n

n

~wk+1 = A ~wk = λk1 c1~v1 + ∑ ci i=2

µ

λi λ1

¶k ! ~vi .

Luego, con base en la hip´otesis original de que λ1 es mayor, en valor absoluto, que los dem´as valores propios se concluye que cuando k tiende a infinito cada una de ¯ ¯ ³ ´k ¯ ¯ las fracciones λλ1i para i > 1, tiende a cero, pues ¯ λλ1i ¯ < 1. Esto implica que la aproximaci´on ~wk+1 ∼ = λk1 c1~v1 ,

c1 6= 0,

118

´ CAPITULO 2. VALORES PROPIOS Y VECTORES PROPIOS

mejora a medida que k es suficientemente grande. Como ~v1 es el vector propio asociado a λ1 entonces es dominante; luego, cualquier m´ultiplo escalar de ~v1 tambi´en es un vector propio dominante. As´ı se ha demostrado que Ak ~w1 se aproxima arbitrariamente al vector propio dominante cuando k crece. Como las componentes de Ak ~w1 pueden ser n´umeros demasiados grandes al aumentar k, lo cual conducir´ıa a un error de redondeo. Este problema se evita multiplicando Ak ~w1 por un escalar adecuado en cada iteraci´on. A continuaci´on se presenta un procedimiento para obtener el valor propio dominante de una matriz A. C´alculo del valor propio dominante de A i) Seleccione un vector arbitrario diferente de cero ~w1 , cuya entrada m´as grande sea 1. ii) Para k = 1, 2, . . . , a) Calcule A~wk . b) Sea µk la componente de A~wk con valor absoluto m´as grande. c) Eval´ue ~wk+1 = µ1k A~wk iii) Para casi todas las escogencias de ~w1 , la sucesi´on {µk } se aproxima al valor propio dominante y la sucesi´on {~wk } se aproxima al correspondiente vector propio. Con esta metodolog´ıa no hay reglas eficaces y r´apidas para determinar cu´antas iteraciones se deben realizar. Adem´as, si se escoge el vector ~w1 de manera que en 2.38 el coeficiente c1 sea cero el m´etodo falla. Ejemplo 2.24. Ilustrar el m´etodo de la potencia para la matriz   1 2 A =  4 3

comenzando con

  1 ~w1 =   1

Soluci´on Si se aplica el m´etodo de la potencia de tal forma que en los resultados de cada no se utilicen cifras decimales y de esa manera nos evitemos el redondeo, se

´ 2.6. METODOS ITERATIVOS

119

obtiene la tabla siguiente k

1

2

3

4

5

6

7

·3¸

· 17 ¸

· 83 ¸

· 417 ¸

· 2083 ¸

~wk

· ¸ 1 1

7

33

167

833

4167

1

1

1

1

1

· ¸ 0,5 1

· ¸ 3 7

· 17 ¸

· 83 ¸

· 417 ¸

· 2083 ¸

· 10417 ¸

7 33 7

33 167 33

167 833 167

833 4167 833

4167 20833 4167

· ¸ 2,5 5,0

-

7

33 7

167 33

833 167

4167 833

4.9995

A~wk

λk

Luego, el valor propio · ¸dominante es aproximadamente 4,9995 y el correspondiente 0,5 vector propio es . 1 Las respuestas exactas son · ¸ 0,5 λ1 =5 y ~v1 = . 1 Definici´on 2.16. Cociente de Rayleigh Sea A una matriz real diagonalizable de tama˜no n × n se llama cociente de Rayleigh de A a la funci´on real definida para cada ~x 6= ~0 como ~xt A~x rA (~x) = t . ~x ~x

(2.39)

Aunque el cociente de Rayleight depende de la matriz, el sub´ındice A de r se omite si no hay confusi´on Teorema 2.35. Sea A una matriz real diagonalizable de tama˜no n × n. Sea ~w1 ∈ Rn cualquier vector no nulo. Consid´erese los cocientes de Rayleigh r (~wk ) =

~wtk A~wk ~wtk ~wk

para k =1, 2, . . . , m

´ CAPITULO 2. VALORES PROPIOS Y VECTORES PROPIOS

120

donde m es la cantidad deseada de iteraciones. El u´ ltimo cociente r (~wm ) es una aproximaci´on del valor propio dominante λ de A y, si se hace r (~wk ) = λ + ε, de modo que ε es el error de r (~wk ), entonces, s ~ytk ~yk |ε| ≤ − r2 (~wk ), ~wtk ~wk

(2.40)

donde ~yk = A~wk . Demostraci´on Si se reescribe el cociente de Rayleigh, se obtiene que ~wtk A~wk =r (~wk )~wtk ~wk

k =1, 2, . . . , m

y dado que ~yk = A~wk , se tiene que ~wtk~yk = r (~wk )~wtk ~wk . Por lo tanto [~yk − r (~wk )~wk ]t [~yk − r (~wk )~wk ] =~ytk~yk − 2r (~wk )~wtk~yk + r2 (~wk )~wtk ~wk =~ytk~yk − r2 (~wk )~wtk ~wk ¶ µ t ~yk~yk 2 − r (~wk ) ~wtk ~wk = δ2~wtk ~wk . = ~wtk ~wk

(2.41)

Como A es una matriz diagonalizable, por el Teorema 2.16, tiene n vectores propios linealmente independientes {~u1 ,~u2 , . . . ,~un } correspondientes a los valores propios {λ1 , λ2 , . . . , λn }, respectivamente y mediante el proceso de Gram-Schmidt se ortonormalizan estos vectores para obtener {~v1 ,~v2 , . . . ,~vn } una base ortonormal de Rn . Entonces, ~wk tiene una representaci´on de la forma n

~wk = ∑ ai~vi

con ai ∈ R.

i=1

y como los ~vi son vectores unitarios ortogonales, entonces n

~wtk ~wk = ∑ a2i .

(2.42)

i=1

Ahora bien, Ã ~yk = A~wk =A

n

∑ ai~vi

i=1

!

n

= ∑ ai λi . i=1

´ 2.6. METODOS ITERATIVOS

121

Luego, n

~yk − r (~wk )~wk = ∑ ai (λi − r (~wk ))~vi . i=1

Si se reemplaza en (2.41), se obtiene que n

δ2~wtk ~wk = ∑ a2i (λi − r (~wk ))2 . i=1

Si se sustituye cada (λi − r (~wk ))2 por el menor de estos t´erminos y se aplica (2.42), se tiene que n

δ2~wtk ~wk ≥ (λc − r (~wk ))2 ∑ a2i = (λc − r (~wk ))2 ~wtk ~wk , i=1

donde λc es un valor propio al cual r (~wk ) est´a pr´oximo. De esto se llega a (2.40) y queda demostrado el teorema. M´etodo de los cocientes de Rayleigh Sea A una matriz diagonalizable de tama˜no n × n, con un valor propio dominante. Sea m la cantidad deseada de iteraciones. i) Seleccione un vector arbitrario diferente de cero ~w0 . ii) Para k = 0, 1, . . . , m − 1 ~wk . k~wk k b) Sea ~wk+1 = A~zk . c) Eval´ue r (~zk ) =~ztk ~wk+1 a) Calcule~zk =

iii) Los cocientes de Rayleigh {r (~zk )} se aproximan al valor propio dominante y la sucesi´on {~zk } se aproxima al correspondiente vector propio unitario. Para matrices sim´etricas, este m´etodo es muy eficiente y requiere menos iteraciones para lograr la misma exactitud. Ejemplo 2.25. Ilustrar el m´etodo de los cocientes de Rayleigh para la matriz dada en el Ejemplo 2.24

´ CAPITULO 2. VALORES PROPIOS Y VECTORES PROPIOS

122

Soluci´on Aplicando el m´etodo de los cocientes de Rayleigh se obtiene la tabla siguiente k

0 "

~zk

"

√1 2 √1 2

A~zk

√3 2 √7 2

r (~wk )



1 #

"

#

"

√3 58 √7 58

√17 58 √33 58

141 29

2 #

"

#

"

√ 17 1378 √ 33 1378

√ 83 1378 √167 1378

3461 689

3 #

"

#

"

√ 83 34778 √ 167 34778

√ 417 34778 √ 833 34778

4

5

6

#

¸ · 0,448 0,894

¸ · 0,447 0,894

¸ · 0,447 0,894

#

· ¸ 2,236 4,473

· ¸ 2,236 4,472

· ¸ 2,236 4,472

2169861 433889

4.9998

5

86861 17389

As´ı, el valor propio dominante · ¸es aproximadamente λ = 5 y el correspondiente 0,447 vector propio unitario es . 0,894

Ejercicios 2.6. Determine los vectores propios dominantes con los m´etodos descritos en esta secci´on para las siguientes matrices     1 1 1 3  b.  a.  . . 3 −1 1 3      1 3 −2  3 −1 4        d.  e.   3 1 2 . −1 1 −5 .     −2 2 1 4 −5 2



  1 −1 c.  . −1 1

Cap´ıtulo 3

Descomposici´on de matrices Una factorizaci´on de una matriz A es una ecuaci´on que expresa a A como un producto de dos o m´as matrices. Por ejemplo, los teoremas de diagonalizaci´on dados en 2.16 y 2.22 son algunos casos de descomposici´on de una matriz. Estas descomposiciones son de inter´es especial cuando algunos de los factores son matrices ortogonales; la raz´on es que las transformaciones ortogonales preservan normas y a´ ngulos. Desafortunadamente, como sabemos, no todas las matrices pueden ser factorizadas como A = PDP−1 con D diagonal. Sin embargo, para cualquier matriz A es posible obtener una de las factorizaciones que se presentan en este cap´ıtulo; las cuales son importantes desde el punto de vista te´orico, pr´actico y num´erico.

3.1.

Triangularizaci´on de una matriz

En esta secci´on nos centraremos en el estudio de diversas factorizaciones de una matriz A como producto de matrices triangulares. Teorema 3.1. Sea A una matriz real de tama˜no m × n, entonces existe una matriz L triangular inferior no singular de tama˜no m × m, tal que A = LS,

(3.1)

donde S es la matriz escalonada de A de tama˜no m × n, obtenida sin intercambio de filas. 123

124

´ DE MATRICES ´ CAPITULO 3. DESCOMPOSICION

Demostraci´on Sea A = [akl ], empecemos con la primera fila no nula de A. Asumamos, sin p´erdida de generalidad que la primera fila de A es no nula. Sea a1 j el primer elemento no nulo en la primera fila. Tomemos cualquier ai j con 2 ≤ i ≤ m; si ai j = 0, no se hace nada; si ai j 6= 0, se multiplica la primer fila por −ai j /a1 j y se suma a la i-´esima fila. Esta operaci´on hace los elementos (i, j) cero. Dicha operaci´on es equivalente a premultiplicar a A por la matriz elemental Ei1 (−ai j /a1 j ) la cual es una matriz triangular inferior. As´ı hemos usado el elemento (1, j), es decir a1 j , como un pivote para eliminar todos los otros elementos de la j-´esima columna. La matriz resultante o matriz reducida es obtenida matem´aticamente premultiplicando a A sucesivamente por un n´umero finito de matrices triangulares inferiores cuyo producto es tambi´en una matriz triangular inferior. Ahora continuemos con la matriz reducida, tomemos la segunda fila. Si todos sus elementos son iguales a cero, se pasa a la tercera fila. Si no se encuentra cualquier vector fila no nulo entre la segunda, tercera, . . . , m-´esima fila, el proceso termina. La matriz reducida es claramente una forma escalonada. En otro caso, localice el primer vector no nulo entre las m − 1 filas de la matriz reducida empezando desde la segunda. Repita el proceso de eliminar todas las entradas debajo del primer elemento no nulo (pivote) del vector escogido no nulo. Repita este proceso hasta que no pueda encontrar ning´un otro vector no nulo en la matriz reducida. La matriz reducida es claramente una forma escalonada. La matriz S es simplemente el producto de todas las matrices triangulares inferiores empleadas durante el proceso. Claramente, S es una matriz triangular inferior no singular. Esto completa la prueba. Definici´on 3.1. Descomposici´on LS Una factorizaci´on como la indicada en (3.1), es decir, como el producto de una matriz no singular triangular inferior L y una forma escalonada S, si existe, se llama descomposici´on LS de la matriz A. Ejemplo 3.1. Hallar una factorizaci´on LS de la matriz   2 4 −2 0    A= 1 1 −3 1 .   2 3 −4 4

´ DE UNA MATRIZ 3.1. TRIANGULARIZACION

125

Soluci´on Se procede en dos columnas como sigue: Reducci´on de A a S   2 4 −2 0 A = 1 1 −3 1 2 3 −4 4

Creaci´on de L a partir de I   1 0 0 I = 0 1 0 0 0 1 Dividir la fila 1 por 2

  1 2 −1 0 ∼ 1 1 −3 1 2 3 −4 4   1 2 −1 0 ∼ 0 −1 −2 1 2 3 −4 4   1 2 −1 0 ∼ 0 −1 −2 1 0 −1 −2 4

  2 0 0 ∼ 0 1 0 0 0 1 Sumar la fila 1 multiplicada por −1 a la fila 2

Sumar la fila 1 multiplicada por −2 a la fila 3

  2 0 0 ∼ 1 1 0 0 0 1   2 0 0 ∼ 1 1 0 2 0 1

Multiplicar la fila 2 por −1

  1 2 −1 0 2 −1 ∼ 0 1 0 −1 −2 4   1 2 −1 0 ∼ 0 1 2 −1 0 0 0 3

  2 0 0 ∼ 1 −1 0 2 0 1 Sumar una vez la fila 2 a la fila 3

  2 0 0 ∼ 1 −1 0 2 −1 1

Dividir la fila 3 por 3

  1 2 −1 0 ∼ 0 1 2 −1 = S 0 0 0 1 El lector puede verificar que A = LS.

  2 0 0 ∼ 1 −1 0 = L 2 −1 3

´ DE MATRICES ´ CAPITULO 3. DESCOMPOSICION

126

Teorema 3.2. Sea A una matriz real de tama˜no m × n cuya forma escalonada puede hallarse sin intercambio de filas. Entonces, A tiene una u´ nica factorizaci´on LS si y s´olo si ρ(A) = m. Demostraci´on Supongamos que ρ(A) = m y que A = LS y A = MV , siendo L y M matrices triangulares inferiores, S y V en forma escalonada. Multiplicando por la izquierda, la igualdad LS = MV por M −1 , se obtiene que M −1 LS = V.

(3.2)

Sea N = M −1 L. Si se logra probar que N = I, se tendr´a que L = M y sustituyendo en (3.2) se obtendr´a S = V . Se procede por inducci´on sobre m. Si m = 1, entonces £ ¤ A = 0 . . . a1,r+1 . . . a1,n y la u´ nica factorizaci´on posible es

h A = [a1,r+1 ] 0 . . . 1 . . .

a1,n a1,r+1

i .

Supongamos que el resultado es cierto para matrices con m − 1 filas. Si la primera columna ~s1 , de S fuera nula, la primera columna ~v1 de V tambi´en lo ser´ıa ya que ~v1 = N~s1 = N~0 = ~0 y rec´ıprocamente, por ser N no singular. Se puede por lo tanto suponer, sin p´erdida de generalidad, que las primeras columnas de S y V son no nulas. Entonces la primera columna tiene un uno principal en la primera fila. N´otese que N es triangular inferior por ser producto de matrices triangulares inferiores. Si se reescribe el producto NS = V particionando N en submatrices [1 + (m − 1)] × [1 + (m − 1)] y las matrices S y V en submatrices [1 + (m − 1)] × [1 + (n − 1)], se tiene que · ¸· ¸ · ¸ a O 1 S12 1 V12 NS = = , N21 N22 O S22 O V22 de donde a =1,

aS12 = V12 ,

N21 =O,

N22 S22 = V22 .

´ DE UNA MATRIZ 3.1. TRIANGULARIZACION

127

Ahora bien N22 es una submatriz real de tama˜no (m − 1) × (m − 1), que es triangular inferior y no singular, S22 y V22 son submatrices en forma escalonada. Por la hip´otesis de inducci´on N22 = Im−1 y por lo tanto

¸ 1 O N= = Im . O Im−1 ·

Si se supone que r = ρ(A) < m aplicando el algoritmo se obtiene la factorizaci´on ¸· ¸ · L11 O S11 . A= O L21 Im−r Pero es obvio que si L22 es una submatriz triangular inferior no singular de tama˜no (m − r) × (m − r) cualquiera, tambi´en se puede escribir · ¸· ¸ L11 O S11 A= L21 L22 O y la factorizaci´on no es u´ nica. Corolario 3.2.1. Sea A una matriz no singular de tama˜no n × n cuya forma escalonada puede hallarse sin intercambio de filas. Entonces A tiene una u´ nica factorizaci´on LS. Demostraci´on Supongamos que A = L1 S1 y A = L2 S2 son dos de dichas factorizaciones. N´otese que tanto L1−1 como L2−1 tambi´en son triangulares inferiores y S1−1 y S2−1 son triangulares superiores, que adem´as tienen unos en la diagonal principal por ser A no singular. Ahora bien, de L1 S1 = L2 S2 se obtiene que L2−1 L1 = S2 S1−1 . Vemos f´acilmente que L2−1 L1 es triangular inferior, por ser producto de triangulares inferiores y S2 S1−1 es triangular superior, por ser producto de triangulares superiores. Como son iguales se concluye que el producto debe ser diagonal. Adem´as S2 y S1−1 tienen unos en la diagonal principal y por lo tanto, S2 S1−1 tambi´en tiene unos en la diagonal principal. En definitiva L2−1 L1 = S2 S1−1 = In de donde se deduce la unicidad.

´ DE MATRICES ´ CAPITULO 3. DESCOMPOSICION

128

Teorema 3.3. Si no ocurren intercambios de filas durante la reducci´on de una matriz A de tama˜no m × n a una matriz escalonada S, entonces A puede ser factorizada como A = LDU,

(3.3)

en donde L es triangular inferior de tama˜no m × m, D es la matriz de pivotes de tama˜no m × m y U es una matriz escalonada. Demostraci´on Sea S = Ek Ek−1 . . . E2 E1 A la forma escalonada de A, donde Ei , i = 1, 2, . . . , k son matrices elementales de tipo R1 y R2 , puesto que no se han realizado intercambio de filas. Entonces resulta que −1 −1 A = E1−1 E2−1 . . . Ek−1 Ek S = LS.

Despu´es de que se determina A = LS, se contin´ua factorizando S como S = DD−1 S = DU, en donde D es la matriz diagonal de pivotes cuyo elemento diagonal en la p-´esima fila es 1 si la p-´esima fila de S es 0 y es a si a es el primer elemento no nulo de la p-´esima fila de S. La matriz escalonada U = D−1 S. Entonces se puede reescribir el producto A = LS como A = LDU = MU, en donde M = LD. Esto prueba el teorema. Ejemplo 3.2. Hallar la factorizaci´on LDU de la matriz dada en el Ejemplo 3.1 Soluci´on Del Ejemplo 3.1, se tiene que    2 0 0 1 2 −1 0 A = 1 −1 0 0 1 2 −1 . 1 2 −1 3 0 0 0

´ DE UNA MATRIZ 3.1. TRIANGULARIZACION

129

Los pivotes eran 2, −1 y 3. Luego su factorizaci´on LDU es     1 0 0 2 0 0 1 2 −1 0  1 1 0 0 −1 0 0 1 2 −1 . 2 1 1 1 1 0 0 3 0 0 0 ´ Teorema 3.4. Factorizaci´on unica Sea A una matriz no singular de tama˜no n × n. Una factorizaci´on de la forma (3.3) est´a determinada de manera u´ nica, si 1. L es triangular inferior con los elementos en la diagonal iguales a 1, 2. U es triangular superior con los elementos en la diagonal iguales a 1, 3. D es diagonal sin ceros en su diagonal principal. Demostraci´on Supongamos que A = L1 D1U1 y A = L2 D2U2 son dos factorizaciones de A distintas. N´otese que tanto L1−1 como L2−1 tambi´en son triangulares inferiores y U1−1 y U2−1 son triangulares superiores, que adem´as tienen unos en la diagonal principal por ser A no singular. Ahora bien, de L1 D1U1 = L2 D2U2 se obtiene que −1 U1U2−1 = D−1 1 L1 L2 D2 .

El lado izquierdo es un producto de dos matrices triangulares superiores con elementos en la diagonal principal iguales a uno. Dicho producto debe ser otra matriz del mismo tipo. Por otra parte, el lado derecho es una matriz triangular inferior. Esto obliga a que ambos lados sean precisamente la matriz identidad: la u´ nica matriz que al mismo tiempo es triangular superior con diagonal unitaria y tambi´en triangular superior. As´ı, U1U2−1 = In , y despu´es de multiplicar por U2 se tiene que U1 = U2 . An´alogamente L1 = L2 y, finalmente, D1 = D2 . Teorema 3.5. Si A es una matriz sim´etrica y si puede factorizarse como A = LDU sin intercambios de filas que destruyan la simetr´ıa, entonces la triangular superior U es la transpuesta de la triangular inferior L. En otras palabras, toda matriz sim´etrica tiene una factorizaci´on sim´etrica A = LDLt .

´ DE MATRICES ´ CAPITULO 3. DESCOMPOSICION

130

Demostraci´on Supongamos que A puede factorizarse como A = LDU, tomando la transpuesta, se tiene que At = (LDU)t = U t Dt Lt = U t DLt . Como A es sim´etrica, es igual a At , as´ı resulta que tenemos dos factorizaciones de A en triangular inferior por diagonal por triangular superior. (Lt es triangular superior con unos en la diagonal, exactamente como U). De acuerdo con el Teorema 3.4, esta factorizaci´on es u´ nica; por lo tanto, Lt debe ser id´entica a U, lo cual completa la prueba. Ejemplo 3.3. Hallar una factorizaci´on LDU para la matriz   1 3 5      A = 3 12 18 .   5 18 30 Soluci´on Se procede en dos columnas como en el Ejemplo 3.1 Reducci´on de A a S   1 3 5 A = 3 12 18 5 18 30   1 3 5 ∼ 0 3 3  5 18 30   1 3 5 ∼ 0 3 3 0 3 5

Creaci´on de L a partir de I   1 0 0 I = 0 1 0 0 0 1 Sumar la fila 1 multiplicada por −3 a la fila 2

Sumar la fila 1 multiplicada por −5 a la fila 3

Sumar la fila 2 multiplicada por −1 a la fila 3

  1 0 0 ∼ 3 1 0 0 0 1   1 0 0 ∼ 3 1 0 5 0 1

´ DE UNA MATRIZ 3.1. TRIANGULARIZACION   1 3 5 ∼ 0 3 3 = S 0 0 2

131   1 0 0 ∼ 3 1 0 = L 5 1 1

Por lo tanto, se tiene que A = LS, factorizando a S se llega a      1 3 5 1 0 0 1 3 5 S = 0 3 3 = 0 3 0 0 1 1 . 0 0 2 0 0 2 0 0 1 N´otese que Lt = U. Teorema 3.6. Descomposici´on Triangular LU Sea A una matriz real de tama˜no n × n tal que todos sus menores principales son no nulos. Entonces A puede ser factorizada como A = LU,

(3.4)

donde L es una matriz triangular inferior y U es una matriz no singular triangular superior, cada una de tama˜no n × n. Demostraci´on Queda como ejercicio para el lector. Teorema 3.7. Descomposici´on de Schur Si A es una matriz de componentes reales de tama˜no n × n con valores propios reales λ1 , λ2 , . . . , λn , entonces existe una matriz ortogonal Q tal que · ¸ t

Q AQ = T = ti j ,

(3.5)

donde T es una matriz triangular superior con entradas diagonales tii = λi , i = 1, 2, . . . , n. (Es decir: toda matriz cuadrada real que s´olo tiene valores propios reales, es ortogonalmente semejante a una matriz triangular superior).

´ DE MATRICES ´ CAPITULO 3. DESCOMPOSICION

132

Demostraci´on La demostraci´on es por inducci´on sobre n. Si n = 1, A es una matriz real de tama˜no 1 × 1 que es triangular. La matriz ortogonal es Q = [1]. Supongamos que toda matriz real de tama˜no (n − 1) × (n − 1) es triangularizable por una matriz ortogonal. Sea A una matriz real de tama˜no n × n que s´olo tiene valores propios reales. Sea~v1 ∈ Rn un vector propio unitario asociado al valor propio λ1 . Denotemos por W el complemento ortogonal a ~v1 de dimensi´on n − 1. Sea {~v2 ,~v3 , . . . ,~vn } una base ortonormal de W . Luego, cada vector ~X de W tiene la forma ~X = a2 ~v2 + a3 ~v3 + . . . + an ~vn . La matriz de cambio de base de la base can´onica de Rn a la base {~v1 ,~v2 , . . . ,~vn } es la matriz S cuyas columnas son los elementos de los vectores ~vi . Luego, £ ¤ AS = A~v1 A~v2 . . . A~vn £ ¤ = λ1~v1 A~v2 . . . A~vn . Por lo tanto,

£ ¤ S−1 AS = S−1 λ1~v1 A~v2 . . . A~vn .

Pero como S es ortogonal se tiene que S−1 = St , por consiguiente   λ1 xt1 . . . xtn−1    0    t S AS =  .  ,   A1  ..  0 donde A1 es una matriz real de tama˜no (n − 1) × (n − 1). La prueba es ahora completada por inducci´on, si R1 es una matriz ortogonal de tama˜no (n − 1) × (n − 1) tal que (R1 )t A1 R1 = T1 , con T1 triangular superior, por la hip´otesis de inducci´on. Entonces, la matriz   1 0 ... 0    0    R= .  ,   R1  ..  0 es una matriz ortogonal y ¸ ¸· ¸· · ¡ t ¢ 1 ~0t λ1 ~xt 1 ~0t (SR) A(SR) = R S AS R = ~ 0 Rt1 ~0 At1 ~0 R1 · ¸ λ1 ~xt R1 = ~ , 0 T1 t

t

´ DE UNA MATRIZ 3.1. TRIANGULARIZACION

133

donde ~xt = (x1t , x2t , . . . , xtn−1 ). La matriz SR = Q es el producto de dos matrices ortogonales; por lo tanto, es tambi´en una matriz ortogonal. As´ı, Qt AQ es una matriz triangular superior y nuestra prueba queda completa. Ejemplo 3.4. Dada la matriz 

 0 1 0      A= −4 4 0 .   −2 1 2 Encuentre la triangularizaci´on de A. Soluci´on El polinomio caracter´ıstico de A es pA (λ) = (2 − λ)3 . Entonces el u´ nico valor propio es λ = 2 (de multiplicidad algebraica 3). Los vec    1 0 tores propios correspondientes a λ = 2 son ~u1 = 2 y ~u2 = 0 . La idea b´asica 0 1 del Teorema de Schur consiste en construir una base de R3 con el mayor n´umero posible de vectores propios.   2 Si tomamos por ejemplo, ~u3 =~u1 ×~u2 = −1, el conjunto {~u1 ,~u2 ,~u3 } es una 0 base de R3 . Mediante el algoritmo de Gram-Schmidt obtenemos la base ortonormal {~v1 ,~v2 ,~v3 }, donde   1 1   ~v1 = √ 2 , 5 0

  0  ~v2 = 0 1



y

La matriz ortogonal Q es √  1√ 2 5 √5 0 5 √5 Q =  25 5 0 − 15 5 . 0 1 0

 2 1 ~v3 = √ −1 . 5 0

134

´ DE MATRICES ´ CAPITULO 3. DESCOMPOSICION

La matriz triangular es √ √  1√  1√ 2 2 0 0 1 0 5 5 5 5 5 √5 0 5 √5 0 0√ 1 −4 4 0  52 5 0 − 15 5 T = Qt AQ =  √ 2 1 −2 1 2 0 1 0 5 5 −5 5 0   2 0 −5 √ T = 0 2 − 5 . 0 0 2 Obs´ervese que los elementos de la diagonal principal de la matriz T son los valores propios de la matriz A.

3.2. Factorizaci´on QR Esta factorizaci´on se usa ampliamente en los programas de computadora para resolver sistemas lineales, para determinar aproximaciones por m´ınimos cuadrados y para determinar los valores propios de una matriz. Teorema 3.8. Factorizaci´on QR Sea A una matriz real de tama˜no m × n con ρ(A) = n. Entonces existen una matriz Q de tama˜no m × n cuyas columnas son ortonormales y una matriz no singular R de tama˜no n × n triangular superior tales que A = QR.

(3.6)

Demostraci´on Como ρ(A) = n, entonces sus columnas son linealmente independientes; sean {~x1 ,~x2 , . . . ,~xn } las columnas de A, las cuales constituyen una base para el espacio generado por las columnas de A y mediante el proceso de Gram-Schmidt se ortonormalizan estos vectores para obtener {~v1 ,~v2 , . . . ,~vn } una base ortonormal para el espacio generado por las columnas de A. Sea £ ¤ Q = ~v1 ~v2 . . . ~vn . Al expresar cada ~xi como una combinaci´on lineal de {~v1 ,~v2 , . . . ,~vn }, se tiene ~xi =r1i~v1 + r2i~v2 + . . . + rni~vn ,

i =1, 2, . . . , n.

´ QR 3.2. FACTORIZACION

135

Este sistema de ecuaciones escrito en forma matricial queda  r11 r12 £ ¤ £ ¤ r21 r22 ~x1 ~x2 . . . ~xn = ~v1 ~v2 . . . ~vn  . .. | {z } | {z }  .. . =

A donde

Q

 . . . r1n . . . r2n   ..  , .. . .  rn1 rn2 . . . rnn ¤ £ ~r1 ~r2 . . . ~rn

  r1k r2k    ~rk =  .  ,  .. 

k =1, 2, . . . , n.

rnk Por otra parte, como ~v j es ortogonal a gen{~v1 ,~v2 , . . . ,~vk } para j > k, es ortogonal a ~xk . Por lo tanto, r jk = 0 para j > k, ya que r jk =~vtj~xk =~v j ·~xk . £ ¤ Sea R = ~r1 ~r2 . . . ~rn , entonces  r11 r12 r13  0 r22 r23   0 r33 A =QR = Q  0  .. .. ..  . . . 0 0 0

 . . . r1n . . . r2n   . . . r3n  . ..  .. . .  . . . rnn

Ahora, mostremos que R es no singular. Consideremos el sistema lineal R~b = ~0 y multipliquemos por Q a la izquierda, es decir, QR ~b = Q~0 |{z} |{z} A ~b = ~0. Pero como las columnas de A son linealmente independientes, el sistema homog´eneo A~b = ~0 s´olo tiene la soluci´on trivial. Por lo tanto, R es no singular. Nota Para el caso en que A sea una matriz real de tama˜no m × n con ρ(A) = m, entonces se puede encontrar una factorizaci´on de manera an´aloga a (3.6) de la forma A = LQ, (3.7)

´ DE MATRICES ´ CAPITULO 3. DESCOMPOSICION

136

donde L es una matriz real de tama˜no m × m triangular inferior y no singular, Q es una matriz real de tama˜no m × n cuyas filas son ortonormales. Ejemplo 3.5. Encuentre una factorizaci´on QR de   4 25     A= 0  0 .   3 −25 Soluci´on Denotemos las columnas de A por   4  ~x1 = 0 3



 25 ~x2 =  0  . −25

y

Si se aplica el algoritmo de Gram-Schmidt al conjunto {~x1 ,~x2 }, base para el  espacio  4/5 generado por las columnas de A. Como k~x1 k = 5, se hace ~v1 = k~~xx11 k =  0 . 3/5 Despu´es, 

   25 4/5 0 ~v2 =~x2 − (~x2 ·~v1 )~v1 =  0  − 5  0  −25 3/5       25 4 21      0 . = 0 − 0 = −25 3 −28   3/5 ° ° 0 ° ° Entonces °~v2 ° = 35 y ~v2 =  0 . Se puede verificar que {~v1 ,~v2 } es una nueva −4/5 base ortonormal para el espacio generado por las columnas de A, observando que ~v1 ·~v2 = 0. Entonces formamos la matriz   £ ¤ 1 4 3 Q = ~v1 ~v2 = 0 0  . 5 3 −4

´ QR 3.2. FACTORIZACION

137

Para encontrar R, se despeja esta matriz de A = QR, de la siguiente manera Qt A = Qt (QR) = IR = R. De esta manera, la matriz R es

  · ¸ 4 25 · ¸ 1 4 0 3  5 5  0 0 R= = . 0 35 5 3 0 −4 3 −25

El lector puede verificar que A = QR. Si la matriz A es cuadrada, entonces se puede enunciar el Teorema 3.8 de la siguiente manera Teorema 3.9. Toda matriz cuadrada real A puede expresarse en la forma A = QR

(3.8)

donde Q es una matriz ortogonal propia y R es triangular superior, con rii > 0, i = 1, 2, . . . , n − 1. Demostraci´on Queda como ejercicio para el lector. Corolario 3.9.1. Si A es ortogonal y el det A = 1, entonces en (3.8), R = In . Si det A = −1, entonces los elementos de R = [ri j ], cumplen que    1 si i = j, ri j =   0 si i 6= j, excepto rnn = −1. Demostraci´on Si A = QR, entonces det A = det (QR) = det R, Ã !

ya que det Q = 1

n−1

=rnn

∏ rii i=1

por lo tanto, se tiene que rnn = ±1 ya que det A = ±1 y la prueba del corolario se completa.

´ DE MATRICES ´ CAPITULO 3. DESCOMPOSICION

138

Corolario 3.9.2. Si A es no singular entonces la representaci´on dada en (3.8) es u´ nica. Demostraci´on Supongamos que A es no singular y consideremos dos factorizaciones distintas A =QR

0

0

0

A =Q R ,

y 0

con Q, Q ambas ortogonales propias y R, R triangulares superiores. Entonces ³ ´³ 0 ´ 0 0 0 I =Qt Q R R−1 = Qt Q R R−1 eR. e =Q Aqu´ı, la matriz ortogonal I est´a representada como el producto de una matriz ortoe y una triangular superior R. e Por lo tanto, de acuerdo con el Corogonal propia Q 0 0 e e lario 3.9.1, R = I y, Q = I. Luego, R = R y Q = Q, de este modo el corolario est´a probado.

Ejercicios 3.1. Para cada una de las siguientes matrices determine (en caso de ser posible) las factorizaciones LU y QR y la descomposici´on de Schur 

  1 1 1.  . −1 3   2 2 1    5.  1 3 1 .   1 2 2



  1 1  2.  . 3 −1

  1 −1 3.  . −1 3



  3 1 −1    7.  2 2 −1 .   2 2 0

 3 −1 4     6.  −4 1 −5 .   5 3 2



  1 2 4.  . 4 3 

  1 3 −2    8.   3 1 2 .   −1 1 1

´ 3.3. RAICES CUADRADAS

3.3.

139

Ra´ıces cuadradas

Si se considera un n´umero a ∈ R, como (−a)2 = a2 , es evidente que para cualquier a > 0 tiene dos ra´ıces cuadradas, una positiva y otra negativa; mientras que cuando a < 0 sus ra´ıces cuadradas son dos imaginarios puros, una ra´ız es la conjugada de la otra. En general, si a ∈ C, tambi´en a tiene dos ra´ıces cuadradas distintas. En esta secci´on se extiende el concepto de ra´ız cuadrada, para estudiar la ra´ız cuadrada de una matriz de tama˜no n × n, tema poco trabajado en la mayor´ıa de ´ textos de Algebra Lineal. Definici´on 3.2. Sea A una matriz real de tama˜no n × n, una matriz X de tama˜no n × n se llama ra´ız cuadrada de A si cumple que X 2 = A.

(3.9)

La matriz X puede tener algunos elementos complejos. Teorema 3.10. Sea D = [dii ] una matriz real diagonal de tama˜no n × n, entonces una ra´ız cuadrada de D es  √ d11 0 ... 0     √   d . . . 0 0 22 1   D2 =  . . .. ..  ..   . . . .   .   √ 0 0 ... dnn

(3.10)

Demostraci´on Queda como ejercicio para el lector. Observaci´on √ √ Como cada elemento dii , tiene dos ra´ıces cuadradas dii y − dii , entonces en la matriz 3.10, se puede reemplazar por la otra ra´ız del elemento dii y se obtiene una nueva ra´ız cuadrada para D. Teorema 3.11. Sea A una matriz real de tama˜no n × n, diagonalizable y sea P una matriz no singular tal que la matriz D = P−1 AP es diagonal. Entonces una ra´ız

´ DE MATRICES ´ CAPITULO 3. DESCOMPOSICION

140 cuadrada de A es

1

1

A 2 = PD 2 P−1

(3.11)

1

donde D 2 es definida como en 3.10. Demostraci´on La demostraci´on consiste en un c´alculo directo, ³ 1 ´2 ³ 1 ´³ 1 ´ ³ 1 ´2 A 2 = PD 2 P−1 PD 2 P−1 = P D 2 P−1 = PDP−1 = A. As´ı, queda el teorema probado. Cuando son iguales la multiplicidad algebraica y la multiplicidad geom´etrica de los valores propios de una matriz A, se tiene que A es semejante a una matriz diagonal de D cuyos elementos son los valores propios de A. Por lo tanto, si A es diagonalizable, dado que cada valor propio tiene dos ra´ıces cuadradas, entonces el n´umero de ra´ıces cuadradas de la matriz A es igual a 2n . Si todos los valores propios de A son nulos, entonces A no tiene ra´ız cuadrada. Ejemplo 3.6. Determine las ra´ıces cuadradas de la siguiente matriz   12 1 −2 −11      7 11 −5 12    A= .   −10 −3 16 −1    −3 4 7 15 Soluci´on Para la matriz A se tiene que el polinomio caracter´ıstico es pA (λ) = λ4 − 54λ3 + 969λ2 − 6676λ + 14400 Entonces, sus valores propios son λ1 = 4,

λ2 =9,

La matriz A se puede expresar como  2  115 − 23 − 115 4 3 4 144 252 −1 23 − 115  0 0 4 48  A= 115 115    1 − 23 0 3 4 72 252 1 115 115 0 0 − 3 144 252

λ3 =16,  0 0 0 0 − 4 9 0 0   23 48 0 16 0  − 115 84 0 0 25 − 115

λ4 =25.

−1 4 − 23 48 − 115 0

−1 4 − 23 0 84 115

 1 0  . − 48  115 84 115

´ 3.3. RAICES CUADRADAS

141

Como A tiene 4 valores propios distintos no nulos, entonces posee 24 = 16 ra´ıces cuadradas, al tomar todas las ra´ıces positivas de los valores propios    2  115 − 23 − 115 0 −1 −1 1 2 0 0 0 3 4 144 252 4 4 0 3 0 0  − 4 −1 23 − 115 1 − 23 − 23 0  0  23 4 48      A2 = 48 48 48  115 115    1 − 23   0 0 4 0 − − 0 − 115 115 115 3 4 72 252 84 84 84 115 1 0 0 0 5 − 115 0 0 − 115 115 115 3 144 252   10 1 0 −5 1 3 9 −3 6  . =  3 −4 −1 12 −1 −1 2 3 11 Para obtener las otras ra´ıces cuadradas de la matriz A, se modifican los elementos 1 de D 2 por las ra´ıces negativas de los valores propios, como se muestra a continuaci´on     10 9 8 −13 −2 0 0 0  0 3 0 0 1 1 1  3 −3 −15 18    A2 =  cuando D2 =   0 0 4 0 ,  16 −5 3 −4 3 −1 6 7 7 0 0 0 5     −8 −17 −18 −5 2 0 0 0 0 −3 0 0 1 1 1  21 27 15 6   A2 =  tomando D2 =  0 0 4 0 ,  3 −22 −19 −6 −1 −1 2 3 11 0 0 0 5     6 3 0 1 2 0 0 0 −7 −5 −1 −6 0 3 0 0 1 1   asumiendo D 2 =  A2 = 4 0 0 −4 0 ,  5 4 5 −3 −2 1 1 0 0 0 5     0 1 10 5 2 0 0 0 0 3 0 0  1 1 1 3 9 −3 6    A2 =  con D2 = 0 0 4 0  .   3 6 −1 2 −11 9 2 −7 1 0 0 0 −5 1

N´otese que en la matriz D 2 se ha modificado s´olo un valor propio, ahora sideran las ra´ıces cuadradas de A cuando se cambian dos valores propios.    −8 −9 −10 −13 −2 0 0   0 −3 0 1 1 1 21 15 3 18  cuando D 2 =  A2 =  0 0 4 3 −22 −15 −2 −5  −1 6 7 7 0 0 0

se con 0 0 , 0 5

´ DE MATRICES ´ CAPITULO 3. DESCOMPOSICION

142 

18  1 1 −21 A2 =  3  12 −9  0 3 1 −1 1 A2 = 2 1 3 2

 17 8 −5 −27 −15 −6  19 16 11  −2 7 −1  6 −1 −5 6   2 −5 −1 −1

tomando

asumiendo

 −2  1 0 D2 = 0 0  −2 0 1 D2 = 0 0

 0 0 0 3 0 0 , 0 −4 0 0 0 5  0 0 0 3 0 0 . 0 4 0 0 0 −5

Se puede verificar que estas 8 matrices y sus respectivas matrices negativas son las 16 ra´ıces cuadradas de A. Hasta este momento hemos considerado las ra´ıces cuadradas de matrices diagonalizables, pero como todas las matrices no son diagonalizables a continuaci´on se muestran algunos m´etodos para obtener las ra´ıces cuadradas de una matriz. Teorema 3.12. Si A es una matriz real de tama˜no 2 × 2 con al menos un valor propio no nulo, entonces su ra´ız cuadrada es h ³p p ´ i 1 1 √ A+ λ1 λ2 I , A2 = √ λ1 + λ2 ³ ´ p donde λi = 12 tr(A) ± tr2 (A) − 4 det(A) .

(3.12)

Demostraci´o·n ¸ a b Sea A = , luego, si la matriz dada en (3.12), es la ra´ız cuadrada de A, c d ³ 1 ´³ 1 ´ entonces A = A 2 A 2 p ¶2 · ¸2 ³ 1 ´2 µ 1 a + det(A) b p √ A2 = √ c d + det(A) λ1 + λ2 p p · 2 ¸ 1 a + ad + 2ap det(A) ba + bd + 2bpdet(A) √ = da + d 2 + 2d det(A) λ1 + λ2 + 2 λ1 λ2 ca + cd + 2c det(A) De este modo, ³ 1 ´2 (a + d) + 2pdet(A) ·a b¸ √ A2 = . λ1 + λ2 + 2 λ1 λ2 c d

´ 3.3. RAICES CUADRADAS

143

Pero por el Teorema 2.17, se tiene que tr(A) =λ1 + λ2 Por lo tanto,

y

det(A) =λ1 λ2 .

³ 1 ´2 A 2 = A.

Ejemplo 3.7. Determine para cada una de las siguientes matrices una ra´ız cuadrada      4 2 2 1 y B = A =  . 0 2 −2 4 Soluci´on Para la matriz A se tiene que λ1 =λ2 = 2, como A tiene un u´ nico valor propio no nulo, entonces posee 21 = 2 ra´ıces cuadradas. Una ra´ız cuadrada, es √ ¸ · ¸ · √ 1 1 1 2 + 2 1 2 4 √2 A2 = √ = 0 2+2 0 2 2 2 y multiplicando por −1 se obtiene la otra ra´ız. El lector puede verificar que ³ 1 ´2 ±A 2 = A. Para la matriz B se tiene que λ1 =4 + 2i,

λ2 =4 − 2i.

Como los valores propios de A son complejos, entonces sus ra´ıces son ·q ¸ q p √ √ √ k λ1 = 4 + 2i = (−1) 2+ 5+ 2− 5 , k =0, 1 ·q ¸ q p √ √ √ λ2 = 4 − 2i = (−1)k 2+ 5− 2− 5 , k =0, 1 Si se considera el caso k = 0 en ambas ra´ıces, se tiene que q √ √ √ √ √ √ 4 + 2i + 4 − 2i =2 2 + 5, 4 + 2i 4 − 2i =2 5.

´ DE MATRICES ´ CAPITULO 3. DESCOMPOSICION

144

Luego, la matriz B posee 22 = 4 ra´ıces cuadradas. Una ra´ız cuadrada de B es # p√ √ · ¸ " p√ 1 1 + + − 4 2 5 2 5 2 5 2 √ = p√ p√ B2 = p . √ −2 4+2 5 − 5−2 5+2 2 2+ 5 1

N´otese que −B 2 tambi´en es ra´ız, lo cual se puede verificar ya que " p√ # " p√ # p√ p√ ³ 1 ´2 5 + 2 5 − 2 5 + 2 5 − 2 2 p√ p√ p√ p√ ±B 2 = (±1) − 5−2 5+2 − 5−2 5+2 · ¸ 4 2 = . −2 4 Ahora se considera k = 1 en la ra´ız cuadrada de uno de los valores propios, en este caso, se tiene que q ³ √ ´ √ √ √ √ √ 4 + 2i − 4 − 2i =2 2 − 5, 4 + 2i − 4 − 2i = − 2 5. Por lo tanto, otra ra´ız cuadrada de B es "p√ # p√ √ ¸ · 4−2 5 2√ 5 − 2 − 5 + 2 p√ = i p√ B = p . √ −2 4−2 5 5+2 5−2 2 2− 5 1

1 2

1

En este caso, −B 2 tambi´en es ra´ız, el lector puede veficarlo. Teorema 3.13. Si A es una matriz de componentes reales de tama˜no 3 × 3 con al menos un valor propio no nulo, entonces sus ra´ıces cuadradas son h ³p p p ´ i 1 λ1 λ2 λ3 I , A 2 = [A + αI]−1 βA + 2

3

donde α = ∑ ∑

i=1 j=i+1

(3.13)

3 √ ¡√ p ¢ λi λ j y β = ∑ λk k=1

Demostraci´on Supongamos que A es una matriz cuadrada con valores propios reales. Por el Teorema 3.7 es semejante a una matriz triangular superior T , luego, puede expresarse como A = QT Qt ,

(3.14)

´ 3.3. RAICES CUADRADAS

145

donde Q es una matriz ortogonal y

  λ1 a b T =  0 λ2 c  . 0 0 λ3

(3.15)

Con λ1 , λ2 , λ3 los valores propios de A. Al reemplazar (3.14) en (3.13), se tiene que h i £ i √ ¤−1 h ¡ ¢ p [A + αI]−1 βA + det AI = QT Qt + αI β QT Qt + det (QT Qt )I ´ i √ £ ¤−1 h ³ = Q (T + αI) Qt Q βT + det T I Qt h i √ −1 t =Q [T + αI] Q Q βT + det T I Qt h i √ =Q [T + αI]−1 βT + det T I Qt . Es decir, al utilizar la descomposici´on de Schur, se llega a que 1

1

A 2 = QT 2 Qt . h i √ 1 Luego, se debe demostrar que T 2 = [T + αI]−1 βT + det T I . Para ello, se calcula α y β, como sigue p p p p p p p p p α = λ1 λ2 + λ1 λ3 + λ2 λ3 y β = λ1 + λ2 + λ3 . Por lo tanto,

   1 ³p p ´ λ1 a b p p √ βT + det T I = λ1 + λ3 + λ2  0 λ2 c  + λ1 λ2 λ3 0 0 0 λ3 0   √ √ √ √ √ √ √ λ1 a( λ1 + λ3 + λ2 ) b( λ1 + λ3 + λ2 ) √  √ ξ ξ   λ2 + λ3 √ √ √ √ , c λ + λ + λ ( ) =ξ  1 3 2 λ 2   √ √ 0 ξ   λ1 + λ3 √ 3 √ λ√ 0 0 λ1 + λ2 ¡√ √ ¢ ¡√ √ ¢ ¡√ √ ¢ donde ξ = λ1 + λ2 λ1 + λ3 λ2 + λ3 . Por otra parte,     λ1 a b ³p ´ 1 0 p p (T + αI)−1 =  0 λ2 c  + λ1 λ2 + λ1 λ3 + λ2 λ3 0 1  0 0 λ3 0 0 ´ ³ ´ ³p p p p  

λ1 +

λ3

λ1 +

λ2

0

a ³p p ´ p ´ ³p λ2 + λ3 λ1 + λ2

0

0

b ³p

 0 0 1 0 0 1

(3.16)

−1 0  0 =  1 −1 

c  p ´ ³p p ´ λ2 + λ3 λ1 + λ3

,

´ DE MATRICES ´ CAPITULO 3. DESCOMPOSICION

146

la cual en t´erminos de ξ, se puede expresar como   −1 1 a b   √   √  ξ    λ2 + λ3  ξ       1   −1 c √ √ 0 (T + αI) = ξ  =  ξ    λ1 + λ3        1     √ √ 0 0 λ1 + λ2   ¡√ √ ¢ √ √ ac λ1 + λ3 − bξ a ¡√ √ √ ¢  λ2 + λ3 − √ 1 λ + λ ξ λ + λ3   1 2 1 √ √ .  c√ √ 0 λ1 + λ3 − λ+ λ ξ  2 3 √ √ 0 0 λ1 + λ2

(3.17)

Al multiplicar por la derecha la matriz dada en (3.17) por (3.16), se obtiene √ √ √ √ √  b( λ1 + λ2 )( λ2 + λ3 )−ac a√ √ λ ³ ´ 1 √ ξ λ√ 1 + λ2   (T + αI)−1 βT + det T I =  0 √ c√ . λ2 λ√ 2 + λ3 0 0 λ3 El lector puede verificar que esta u´ ltima matriz es una ra´ız cuadrada de la matriz dada en (3.15) y de esta manera concluir la prueba. Ejemplo 3.8. Determine las ra´ıces cuadradas para la matriz dada a continuaci´on   3 −1 2      A = −1 2 −1 .   −1 1 0 Soluci´on El polinomio caracter´ıstico de la matriz A es pA (λ) = −λ3 + 5λ2 − 8λ + 4. De esta suma, se tiene que λ1 = 1,

λ2 = 2,

λ3 = 2.

Como A tiene 2 valores propios distintos no nulos, entonces posee 22 = 4 ra´ıces cuadradas. Si se consideran las ra´ıces positivas de los valores propios se tiene que √ √ α =2 + 2 2 y β =1 + 2 2.

´ 3.3. RAICES CUADRADAS

147

Por lo tanto, una ra´ız cuadrada de A es h ³ √ ´ i−1 h³ √ ´ √ i 1 A2 = A+ 2+2 2 I 1 + 2 2 A + 4I √ √ √  √  −1  5+2 2 −1√ 2 5 + 6 √2 −1 − 2√ 2 2 + 4 √2 =  −1 4+2 2 −1√  −1 − 2√2 4 + 4√2 −1 − 2 2 −1 1 2+2 2 −1 − 2 2 1 + 2 2 2 √ √ √ √  √   5 + 6 2 16 2 − 23 2 −1 − 2 2 2 + 4 1 √ 20 − 14 √ √ √ √ √2 1 = 3 − 2√2 4√ −2 2 3−2 √ 2  −1 − 2√2 4 + 4√2 −1 − 2 2 8 3 − 2 2 14 2 − 20 27 − 18 2 −1 − 2 2 1 + 2 2 2 √ √   √ 5 2 4 −√ 4 2 −4 +√5 2 1 √ = −√2 4 2√ − √2  4 − 2 −4 + 4 2 4− 2 1

N´otese que −A 2 tambi´en es ra´ız, verifiquemos que en efecto son ra´ıces cuadradas √  5√ √  √ √  5√ 5 5 2 1− 2 −1 +√ 2 1− 2 −1 +√ ³ 1 ´2 4 √ 4 2 4 √ 4 2 √ √ ±A 2 = − 41 √2 √ 2 − 14 √2  − 14 √2 √ 2 − 41 √2  1 1 1 −4 2 −4 2 2−1 1− 4 2 2 − 1 1 − 41 2   3 −1 2 = −1 2 −1 . −1 1 0 Si se considera la ra´ız negativa del valor propio distinto se tiene que √ √ α =2 − 2 2 y β = − 1 + 2 2. Por lo tanto, otra ra´ız cuadrada de A es h ³ √ ´ i−1 h³ √ ´ √ i 1 A2 = A+ 2−2 2 I −1 + 2 2 A − 4I √ √ √ √   −1  5−2 2 −1√ 2 −5 + 6√ 2 1 − 2 √2 −2 + 4√ 2 =  −1 4+2 2 −1√   1 − 2√2 −4 + 4√2 1 − 2 2  −1 1 2−2 2 1 − 2 2 −1 + 2 2 −2 √ √  √ √ √   1√ 20 + 14 2 −23 − 16 2 −5 + 6√ 2 1 − 2 √2 −2 + 4√ 2 √ √ 1 = 3 + 2√2 4 + 2 2√ 3+2 √ 2   1 − 2√2 −4 + 4√2 1 − 2 2  8 −2 3 + 2 2 −20 − 14 2 27 + 18 2 1 − 2 2 −1 + 2 2 √ √   √ 5 √2 −4 − 5 2 √4 2 4 +√ 1 = −√2 4 √ 2 − √ 2 . 4 − 2 4 + 4 2 −4 − 2

´ DE MATRICES ´ CAPITULO 3. DESCOMPOSICION

148

El lector, puede verificar que esta matriz y su respectiva matriz negativa tambi´en son ra´ıces cuadradas de A. Teorema 3.14. Si A es una matriz de componentes reales de tama˜no 4 × 4 con al menos un valor propio no nulo, entonces sus ra´ıces cuadradas son h ³p p p p ´ i 1 A 2 = [αA + βI]−1 A2 + γA + λ1 λ2 λ3 λ4 I 4

donde α = ∑

k=1

(3.18)

√ p √ √ p √ λk , β = ∑ λi λ j λk y γ = ∑ λi λ j k> j>i

j>i

Demostraci´on Queda como ejercicio para el lector. Ejemplo 3.9. Determine mediante el m´etodo descrito en el Teorema anterior una ra´ız cuadrada para la matriz dada en el Ejemplo 3.6. Soluci´on Como en el Ejemplo 3.6, se obtuvieron los valores propios de A, se tiene que √ √ √ √ α = 4 + 9 + 16 + 25 = 14, √ √ √ √ √ √ √ √ √ √ √ √ β = 4 9 16 + 4 9 25 + 4 16 25 + 9 16 25 = 154, √ √ √ √ √ √ √ √ √ √ √ √ γ = 4 9 + 4 16 + 4 25 + 9 16 + 9 25 + 16 25 = 71. Por lo tanto, la matriz αA + βI, es 

 322 14 −28 −154  98 308 −70 168    −140 −42 378 −14  . −42 56 98 364 √ Por otra parte, la matriz A2 + γA + det AI, es  1176 56 −280 −1064  672 1092 −420 1092  .  −1008 −308 1540 −28  −336 364 700 1484 

´ 3.3. RAICES CUADRADAS

149

Luego, la ra´ız cuadrada de A es    76 −11 −6 37 1176 56 −280 −1064  1 1  27 −48 1092 −420 1092    672  −21 87 A2 =    5 60 11 −1008 −308 1540 −28  22680 26 5 −16 −21 71 −336 364 700 1484   10 1 0 −5 1 3 9 −3 6 , =  3 −4 −1 12 −1 −1 2 3 11 la cual coincide con una de las obtenidas en el Ejemplo 3.6. Teorema 3.15. Si A es una matriz real de tama˜no n × n (n ≥ 5), con una descomposici´on de la forma A = PBP−1 , entonces sus ra´ıces cuadradas se calculan de la siguiente manera   12 B 0 ... 0  1     0 B2 . . . 0  1 1   −1 A 2 = PB 2 P−1 = P  .  P , . . . . .. . . ..  .    0 0 . . . Bk

(3.19)

en donde cada submatriz Bt es de tama˜no 1 × 1, 2 × 2, 3 × 3 o´ 4 × 4, de tal manera que se le pueda calcular a cada bloque una ra´ız cuadrada como las dadas en (3.12), (3.13) o´ (3.18) respectivamente. Demostraci´on Queda como ejercicio para el lector. Ejemplo 3.10. Determine una ra´ız cuadrada para la siguiente matriz   4 −2  8    A = −7 −1 3  .   1 3 1

´ DE MATRICES ´ CAPITULO 3. DESCOMPOSICION

150

Soluci´on Para la matriz A se tiene que el polinomio caracter´ıstico es pA (λ) = −λ3 + 8λ2 − 20λ, luego, se tiene que λ1 = 0,

λ2 =4 + 2i,

λ3 = 4 − 2i,

como A tiene valores propios complejos, usando el m´etodo de factorizaci´on dado en (2.16), se tiene      −1 8 4 −2 0 −1 −1 4 2 0 0 −1 −1 −7 −1 3  = 1 1 1  −2 4 0 1 1 1 . 1 3 1 1 0 −2 0 0 0 1 0 −2 Luego, la ra´ız cuadrada de A es    1  0 −1 −1 2 0 4 2 0 2 2 1 1 1  −2 4 0 −3 −1 1  A2 = 1 1 2 1 0 −2 1 1 −1 0 0 0    ·  ¸ 12 0 −1 −1 2 2 0 4 2 0 1   1   −2 4 = 1 1 0  −3 −1 1  . 2 1 0 −2 1 1 −1 0 0 0 Si se usa una de las ra´ıces cuadradas encontradas en el Ejemplo 3.7, se tiene que √ ¸   ·   2√ 0 4+2 5 0 −1 −1 2 2 0 1 1 1  A2 = p −2 4 + 2 5 0  −3 −1 1  √ 1 1 4 2 + 5 1 0 −2 1 1 −1 0 0 0 √   √  0 −1 −1 2 5 +√1 2 5 + √3 √ 1 1 1  −8 − 3 5 −4 − 5 = p 5 + 2 √ 1 1 2 2 + 5 1 0 −2 0 0 0 √ √ √   8 + 3 √5 4√+ 5 −2 −√ 5 1  = p −7 − 5 5−1 3+ 5  √ 2 2 + 5 1 + 2√5 3 + 2√5 1 ³ 1 ´2 Se puede f´acilmente verificar que A 2 = A ³ 1 ´2 A2 =

Ã

!2  8 + 3√5 4 + √5 −2 − √52 √ √ √ 1 −7 − 5 p 5 −√1 3+ 5  √ √ 2 2+ 5 1+2 5 3+2 5 1

´ 3.3. RAICES CUADRADAS

151

√ √ √   64 + 32 √5 32 + 16√ 5 −16 − 8√ 5 ³ 1 ´2 1  A2 = ³ √ ´ −56 − 28 √ 5 −8 − 4 √5 24 + 12 √ 5 4 2+ 5 8+4 5 24 + 12 5 8+4 5   8 4 −2 = −7 −1 3  1 3 1

3.3.1.

Ra´ıces cuadradas de matrices sim´etricas

De manera an´aloga a la secci´on 2.4, en la cual se desarrollo el tema de diagonalizaci´on para matrices sim´etricas, en este apartado se presenta por separado la parte concerniente a ra´ıces cuadradas para matrices sim´etricas. Teorema 3.16. Toda matriz sim´etrica A de tama˜no n × n tiene valores propios positivos si y s´olo si existe una matriz sim´etrica B de tama˜no n × n, tal que A = B2

(3.20)

La matriz B se denomina una ra´ız cuadrada de A. Demostraci´on Si los valores propios de A son positivos entonces det(A) > 0 y por ser sim´etrica se puede factorizar de la forma ³ 1 ´2 A =QDQt = Q D 2 Qt ³ ´³ ´ 1 1 = QD 2 Qt QD 2 Qt =Bt B n´otese que B es una matriz sim´etrica y de rango n (como A), por lo tanto, Bt B = B2 . ©√ ª 1 La matriz D 2 = diag λi semejante a B est´a definida como en (3.10). Ejemplo 3.11. Determine una ra´ız cuadrada para la matriz dada en 2.15 Soluci´on Haciendo referencia al Ejemplo 2.15, se tiene que √ √  √  −1/ 2 1/ √3 1/√6 Q =  0√ y −1/√ 3 2/√6 1/ 2 1/ 3 1/ 6

  1 0 0 D = 0 1 0 . 0 0 7

´ DE MATRICES ´ CAPITULO 3. DESCOMPOSICION

152 Por lo tanto, √ √  −1/ 2 1/ √3 B =  0√ −1/√ 3 1/ 2 1/ 3 √ √  −1/ 2 1/ √3 =  0√ −1/√ 3 1/ 2 1/ 3 Es decir,

√  √ √   1/√6 1 0 0 −1/√ 2 0√ 1/√2 2/√6 0 1 √0   1/√3 −1/√ 3 1/√3 7 1/ 6 2/ 6 1/ 6 1/ 6 0 0 √  √  √ 1/√6 −1/√ 2 0√ 1/√2  −1/ 2/√6 √1/ √3 √ √3 √1/ √3 . 7/ 6 2 7/ 6 7/ 6 1/ 6

√ √ √  7 −2 + 2√ 7 −1 + √7 5+ √ 1 B = −2 + 2√ 7 2 + 4 √7 −2 +√ 2 7 . 6 −1 + 7 −2 + 2 7 5+ 7 

El lector puede verificar que A = B2 . De acuerdo con la definici´on 2.6, las matrices reales cuadradas A y B se dicen que son congruentes, si existe una matriz P no singular, tal que A = Pt BP. En ocasiones, adem´as de establecer el hecho en s´ı de la congruencia, se requiere encontrar la matriz P de la transformaci´on, misma que ha de satisfacer A = Pt BP. En estos momentos, se puede construir la matriz P para matrices sim´etricas no singulares A y B utilizando la descomposici´on LDU de cada una y una de las ra´ıces cuadradas de las D; como sigue 1

−1

Pt = L1 D12 D2 2 L2−1

(3.21)

donde las descomposiciones LDU para las matrices A y B son L1 D1 Lt1 y L2 D2 Lt2 , respectivamente. Ejemplo 3.12. Determine si las matrices dadas en los ejemplos 2.15 y 3.3 son congruentes. Soluci´on La factorizaci´on LDLt de la matriz dada en el Ejemplo 2.15, es       1 0 0 2 0 0 1 1 21 2 2 1 2 5 2 =  1 1 0 0 3 0  0 1 1  = L1 D1 Lt1 . 3 1 1 7 1 2 2 1 0 0 0 0 1 2 3 6

´ 3.3. RAICES CUADRADAS

153

En el Ejemplo 3.3, se obtuvo que       1 0 0 1 0 0 1 3 5 1 3 5 3 12 18 = 3 1 0 0 3 0 0 1 1 = L2 D2 Lt2 . 5 18 30 5 3 1 0 0 2 0 0 1 Por lo tanto,   1 0  √2 0  0  0 q 1 0 0 1 0 0 √   1  3 q0  0 0  −3 1 0 Pt =  1 1 0  0  3 q   1 1 7 1 −2 −1 1 0 0 2 3 1 0 0 6 2 √   0 0 √ 2 . = √ 2− 1√ √3 √0 1 1 1 1 1 2 2 − 3 21 − 1 3 − 6 21 6 21 

El lector puede verificar que A = Pt BP. Teorema 3.17. Una matriz sim´etrica A de tama˜no n × n tiene todos sus valores propios positivos (λi > 0) si y s´olo si A = Pt P,

(3.22)

donde P es no singular. Demostraci´on Si A es sim´etrica y todos sus valores propios son positivos, entonces puede escribirse en la forma ³ ´³ 1 ´ 1 A =QDQt = QD 2 D 2 Qt = Pt P 1

1

con P = D 2 Qt y D 2 = diag

3.3.2.

©√ ª λi definida como en (3.10).

Descomposici´on de Cholesky

Entre los tipos de factorizaciones para la matriz A, existe una descomposici´on especial para aquellas matrices cuadradas cuyos valores propios son todos positivos conocida como Descomposici´on de Cholesky, la cual es considerada en este apartado.

´ DE MATRICES ´ CAPITULO 3. DESCOMPOSICION

154

Teorema 3.18. Descomposici´on de Cholesky Si A es una matriz sim´etrica de tama˜no n × n con todos sus valores propios positivos, entonces existe una matriz L triangular inferior tal que A = LLt ,

(3.23)

donde todos los elementos en la diagonal principal de L son positivos. Demostraci´on Por el Teorema 3.5 la matriz A se puede expresar como ³ 1 ´³ 1 ´ A =LDLt = LD 2 D 2 Lt ³ 1 ´ ³ 1 ´t = LD 2 LD 2 , 1

donde D 2 est´a definida como en (3.10) y la prueba queda completa. 1

Procedimiento para encontrar los elementos de R = D 2 Lt Para i = 1, se tiene

(√ a11 r1 j = −1 r11 a1 j

j = 1, j > 1.

Cuando i > 1, se obtiene  0 i > j,   s    i−1  2 aii − ∑ rki i = j, ri j = k=1  µ ¶   i−1   rii−1 ai j − ∑ rki rk j i < j. k=1

El procedimiento exige que estos elementos se calculen por filas, de izquierda a derecha y de arriba a abajo. Si no se puede obtener la descomposici´on de Cholesky de una matriz (por ejemplo, cuando al realizar el procedimiento presentado arriba surge una ra´ız cuadrada de un n´umero negativo) esto es indicio de que la matriz sim´etrica no tiene todos sus valores propios positivos.

´ 3.3. RAICES CUADRADAS

155

Ejemplo 3.13. Encuentre la descomposici´on de Cholesky para la matriz sim´etrica dada en el Ejemplo 3.3. Soluci´on Usando el procedimiento descrito anteriormente, se tiene que √ r11 = a11 = 1, −1 r13 =r11 a13 = a13 = 5, −1 r23 =r22 (a23 − r12 r13 ) =

Luego,

√ 3,

−1 r12 =r11 a12 = a12 = 3, q √ 2 = 3, r22 = a22 − r12 q √ 2 − r 2 = 2. r33 = a33 − r13 23

  1 √3 √5 3 √3 . R = 0 0 0 2

El lector puede verificar que A = Rt R.

Ejercicios 3.2. 1. Para cada una de las siguientes matrices determine (en caso de ser posible) una ra´ız cuadrada    1 1 a.  . −1 3   1 2 d.  . 4 3   3 1 −1    g.  2 2 −1 .   2 2 0

 1 b.  3  2  e.  1  1  1  h.  3  −1

 1 . −1  2 1  3 1 .  2 2  3 −2  1 2 .  1 1



  1 −1 c.  . −1 3    3 −1 4     f. −4 1 −5 .   5 3 2

156

´ DE MATRICES ´ CAPITULO 3. DESCOMPOSICION

2. Determine la descomposici´on de Cholesky para las siguientes matrices       1 3   1 −1 1 1 a.  b.  c.  . . . 1 3 3 −1 −1 1      3 −1 4   1 3 −2       e.  d.  −1 1 −5 .  3 1 2 .     4 −5 2 −2 2 1

3.4. Polinomio m´ınimo El polinomio caracter´ıstico de una matriz es un instrumento para calcular sus valores propios. En esta secci´on se estudia el polinomio m´ınimo de matrices, el cual resulta muy u´ til para establecer criterios sobre la posibilidad de reducir matrices a formas can´onicas simples. Definici´on 3.3. Polinomios de matrices Si A es una matriz real de tama˜no n × n, el polinomio pn (A) denota la matriz que se genera si se reemplaza cada aparici´on de x en pn (x) por la matriz A: pn (A) = an An + an−1 An−1 + . . . + a1 A + a0 A0 , donde ai ∈ R (i = 0, 1, . . . , n) y A0 = In . En consecuencia, se dice que A satisface el polinomio pn (x) si pn (A) = O. Ejemplo 3.14. El polinomio p2 (x) = x2 − 3x − 28 es satisfecho por la matriz 

  1 −5 A= . −6 2

´ 3.4. POLINOMIO MINIMO

157

Soluci´on Si la matriz A satisface dicho polinomio se debe verificar que P2 (A) = A2 − 3A − 28I = O. Como

· A2 =

¸ 31 −15 , −18 34

luego ·

¸ · ¸ · ¸ · ¸ 31 −15 1 −5 1 0 0 0 A − 3A − 28I = −3 − 28 = . −18 34 −6 2 0 1 0 0 2

Teorema 3.19. Teorema de Cayley-Hamilton Sean A una matriz de tama˜no n × n y pA (λ) = det(A − λIn ) = λn + cn−1 λn−1 + . . . + c1 λ + c0 = 0 su polinomio caracter´ıstico. Entonces pA (A) = O. Es decir, A satisface la ecuaci´on An + cn−1 An−1 + . . . + c1 A + c0 A0 = O. El teorema es verdadero para cualquier matriz, sin embargo la prueba que se presenta en estas notas es u´ nicamente para matrices diagonalizables. La demostraci´on para el caso general puede verse en Apostol (1985), p´ag. 249. Demostraci´on Supongamos que A es diagonalizable. Como pA (λ) es una ecuaci´on escalar, al multiplicarlo por cualquier vector ~v ∈ Rn , se tiene ¡ ¢ pA (λ)~v = λn + cn−1 λn−1 + . . . + c1 λ + c0 ~v = ~0 =λn~v + cn−1 λn−1~v + . . . + c1 λ~v + c0~v = ~0. Si ~v es un vector propio correspondiente al valor propio λ, se cumple pA (λ)~v =An~v + cn−1 An−1~v + . . . + c1 A~v + c0 In~v = ~0.

(3.24)

Esto se cumple para todos los vectores propios de A. Pero como A es diagonalizable tiene n-vectores propios linealmente independientes, luego, cualquier otro vector

´ DE MATRICES ´ CAPITULO 3. DESCOMPOSICION

158

de Rn puede ser expresado como combinaci´on lineal de estos. Por lo tanto (3.24) se cumple para todo vector de Rn . De aqu´ı, An + cn−1 An−1 + . . . + c1 A + c0 In = O, es decir, A satisface su propia ecuaci´on caracter´ıstica. Sea A una matriz real de tama˜no n × n y definamos S ={pn (x)|pn (A) = 0},

n ≥ 1.

Entonces, en S se puede escoger un polinomio no nulo q(x) que tenga grado m´ınimo, adem´as se puede suponer que el coeficiente de q(x) correspondiente al t´ermino de mayor grado es 1, es decir, que q(x) es m´onico. Con estas condiciones para q(x) se puede demostrar que cualquier otro polinomio p(x) de S es m´ultiplo de q(x). Esto implica que si en S existiera otro polinomio r(x) m´onico del mismo grado de q(x), es decir de grado m´ınimo, entonces r(x) = q(x). Definici´on 3.4. El polinomio m´ınimo de una matriz A es el polinomio no nulo de menor grado que es satisfecho por A. Se denotar´a por mA (x). Como la multiplicidad algebraica de los valores propios de una matriz es a veces distinta de uno, el polinomio caracter´ıstico pA (x) no es necesariamente el polinomio de grado m´ınimo satisfecho por A. Teorema 3.20. El polinomio m´ınimo de una matriz cuadrada A es u´ nico, cuando se impone el coeficiente del t´ermino de mayor exponente en la indeterminada que sea igual a la unidad. Demostraci´on 0 La prueba se realiza por contradicci´on, supongamos que mA (x) y mA (x) son polinomios m´ınimos de A. Por la definici´on 3.4, ambos tienen el mismo grado. Al considerar los coeficientes dominantes respectivos iguales a la unidad, el polinomio 0 d(x) = mA (x) − mA (x) tiene grado menor que los polinomios m´ınimos y se anula 0 tambi´en para A, necesariamente d(x) = 0. Luego, mA (x) = mA (x). Teorema 3.21. Si A satisface un polinomio pn (x), entonces pn (x) es divisible por mA (x), polinomio m´ınimo de A.

´ 3.4. POLINOMIO MINIMO

159

Demostraci´on Sea mA (x) el polinomio m´ınimo de A, el grado de pn (x) es mayor que el de mA (x). Por el algoritmo de la divisi´on, sabemos que se pueden encontrar polinomios q(x) y r(x), tales que pn (x) = mA (x)q(x) + r(x), con grad [r(x)] < grad [mA (x)]. Entonces, r(x) = pn (x)−mA (x)q(x) y, como pn (A) = O, mA (A) = O. Se tiene que r(A) = O. Luego r(x) es el polinomio m´ınimo de A, lo cual contradice la hip´otesis. Como grad [r(x)] < grad [mA (x)], se debe tener que r(x) = 0. Por lo tanto, mA (x) es un factor de pn (x). Teorema 3.22. Matrices semejantes tienen el mismo polinomio m´ınimo. Demostraci´on Sean A y B matrices semejantes, luego existe una matriz P tal que A = PBP−1 . Sea mA (x) el polinomio m´ınimo de A. Entonces mA (A) =cm Am + cm−1 Am−1 + . . . + ck Ak + . . . + c1 A + c0 I = O ¡ ¢m−1 ¡ ¢k ¡ ¢m + . . . + ck PBP−1 + . . . + =cm PBP−1 + cm−1 PBP−1 ¡ ¢ c1 PBP−1 + c0 I = O ³ ´ ¡ ¢ ¡ ¢ =cm PBm P−1 + cm−1 PBm−1 P−1 + . . . + ck PBk P−1 + . . . + ¡ ¢ ¡ ¢ c1 PBP−1 + c0 PP−1 = O ³ ´ =P cm Bm + cm−1 Bm−1 + . . . + ck Bk + . . . + c1 B + c0 I P−1 = O =P (mA (B)) P−1 = O. Esto implica que mA (B) = O, es decir, mA (x) es tambi´en el polinomio m´ınimo de B, pues por el Teorema 3.21 si hubiese un divisor que se anulase para B, tambi´en se anular´ıa para A, lo que contradice la hip´otesis de que mA (x) es el polinomio m´ınimo de A. Luego los polinomios m´ınimos de A y B son iguales. El siguiente teorema establece una importante relaci´on entre el polinomio caracter´ıstico y el polinomio m´ınimo. Teorema 3.23. Si A satisface un polinomio pn (x), entonces todo valor propio de A es tambi´en ra´ız de pn (x). Por consiguiente, todo valor propio de A es una ra´ız del polinomio m´ınimo de A.

´ DE MATRICES ´ CAPITULO 3. DESCOMPOSICION

160

Demostraci´on Sup´ongase que A satisface pn (x) = an xn + an−1 xn−1 + . . . + a1 x + a0 x0 . Si λ es un valor propio de A, entonces se puede encontrar un vector propio ~v tal que A~v = λ~v. As´ı, A2~v = A (A~v) = A (λ~v) = λ (A~v) = λ (λ~v) = λ2~v. Si se continua de esta manera, se origina Ak~v =λk~v,

para todo k > 0.

Pero dado que pn (A) = 0, se tiene ¡ ¢ ~0 =pn (A)~v = an An + an−1 An−1 + . . . + a1 A + a0 I ~v ¡ ¢ = (an An )~v + an−1 An−1 ~v + . . . + (a1 A)~v + (a0 I)~v =an λn~v + an−1 λn−1~v + . . . + a1 λ~v + a0~v ¡ ¢ = an λn + an−1 λn−1 + . . . + a1 λ + a0 λ0 ~v = pn (λ)~v como pn (λ) es un escalar y pn (λ)~v = ~0 con ~v 6= ~0, se concluye que pn (λ) = 0. Por ello, λ es una ra´ız de pn (x). Puesto que A satisface su polinomio m´ınimo, todo valor propio de A es ra´ız de dicho polinomio m´ınimo. Ejemplo 3.15. Encuentre el polinomio minimal que satisface la matriz dada en el Ejemplo 2.9. Soluci´on En el Ejemplo 2.9, se obtuvo que los valores propios de A eran λ1 = 0, λ2 = 2 (de multiplicidad algebraica 2). Como la multiplicidad algebraica del valor propio λ2 resulto ser igual a su multiplicidad geom´etrica, el polinomio p(x) = (x − 0) (x − 2) = x2 − 2x es satisfecho por la matriz A. Veamos que p (A) = A2 − 2A = O. Luego 

3 A2 − 2A = −3 −1  6 = −6 −2

2   2 −3 3 2 −3 −4 9  − 2 −3 −4 9  −2 5 −1 −2 5      0 0 0 6 4 −6 4 −6 −8 18  − −6 −8 18  = 0 0 0 . 0 0 0 −2 −4 10 −4 10

´ 3.5. FORMA CANONICA DE JORDAN

161

Ejemplo 3.16. Encuentre el polinomio minimal que satisface la matriz dada en el Ejemplo 2.15. Soluci´on En el Ejemplo 2.15, se obtuvo que los valores propios de A eran λ1 = 1 (de multiplicidad algebraica 2) y λ2 = 7. Como la multiplicidad algebraica del valor propio λ2 resulto ser igual a su multiplicidad geom´etrica, el polinomio minimal es mA (x) = (x − 1) (x − 7) = x2 − 8x + 7. El lector puede verificar que la matriz A satisface este polinomio.

3.5.

Forma can´onica de Jordan

Ahora se considera una versi´on completa del teorema de Hamilton− Cayley, el cual ya se hab´ıa estudiado antes. Esta nueva versi´on ser´a usada para la forma can´onica de Jordan que estudiaremos ahora. La forma de Jordan utiliza todo el material estudiado en los cap´ıtulos precedentes.

Definici´on 3.5. Bloque de Jordan Una matriz triangular superior de tama˜no r × r, Jr (λ), es un bloque elemental de Jordan si se verifica que

i) Todos sus elementos en la diagonal principal son iguales a λ.

ii) Todos sus elementos en la primera sobrediagonal son iguales a 1.

iii) Todos los dem´as elementos son iguales a 0.

´ DE MATRICES ´ CAPITULO 3. DESCOMPOSICION

162

De este modo, Jr (λ) es de la forma   λ 1 · · · 0 0   0 λ · · · 0 0      .. .. . . .. ..  Jr (λ) =  . . . . .  = λIr + Nr     0 0 . . . λ 1     0 0 ... 0 λ

con

  0 1 ... 0     . . 0 0 . 0   Nr =  . . , . . . ..  1 . .   0 0 ... 0

en donde la matriz Nr es nilpotente, es decir, Nrm = 0 para alg´un m ≥ 1. Como una matriz de Jordan est´a constituida por bloques elementales, su definici´on es la siguiente Definici´on 3.6. Matriz de Jordan Una matriz J de tama˜no n × n, de la forma   Jr1 · · · 0   . .  . . . ...  , J =  .    0 . . . Jrt en donde, Jr1 , Jr2 , . . . , Jrt son bloques elementales de Jordan de o´ rdenes r1 ≥ r2 ≥ · · · ≥ rt con t ≥ 1 se denomina matriz de Jordan. Teorema 3.24. Sea A una matriz real de tama˜no n × n. Entonces existe una matriz P no singular tal que  Jr1  . . P−1 AP =   .  0

 ··· .. .

0 ..  .   = J, 

(3.25)

. . . Jrµ

en donde cada Jrk es un bloque de Jordan de tama˜no rk × rk y el sub´ındice µ = µ1 + µ2 + . . . + µs es igual a la suma de las multiplicidades geom´etricas de los

´ 3.5. FORMA CANONICA DE JORDAN

163

valores propios distintos de A. Un mismo valor propio λk puede estar en distintos bloques de Jordan Jrk , pero el n´umero total de bloques con ese valor propio es igual a su multiplicidad geom´etrica µk , mientras que el n´umero total de elementos en la diagonal principal con ese valor propio es igual a su multiplicidad algebraica mk . Los n´umeros rk y el n´umero total de bloques quedan determinados de manera u´ nica por la matriz A. Demostraci´on Para identificar los pasos a seguir en la demostraci´on, supongamos que A es una matriz real de tama˜no 2 × 2 que tiene un u´ nico valor propio λ. Sea ~u1 el u´ nico vector propio correspondiente a λ. Entonces A no es diagonalizable. Veamos que P−1 AP =

· ¸ λ 1 . 0 λ

Como la multiplicidad algebraica es diferente a la multiplicidad geom´etrica se encuentra un vector propio generalizado ~u2 . Por 2.30 los vectores ~u1 y ~u2 £ el Teorema ¤ son linealmente independientes, luego P = ~u1 ~u2 es no singular. Por lo tanto, £ ¤ £ ¤ £ ¤ AP =A ~u1 ~u2 = A~u1 A~u2 = λ~u1 A~u2 . Pero de la ecuaci´on (2.29), se tiene que A~u2 = λ~u2 +~u1 de manera que £ ¤ AP = λ~u1 λ~u2 +~u1 . Por otra parte, · ¸ £ ¤ λ 1 PJ = ~u1 ~u2 0 λ £ ¤ = λ~u1 ~u1 + λ~u2 . Por lo tanto, AP = PJ , lo que significa que P−1 AP = J . Luego el teorema es v´alido para matrices de tama˜no 2 × 2. Para probar el teorema para el caso general, se escribe P en t´erminos de sus columnas como £ ¤ P = ~u1 ~u2 . . . ~un ,

´ DE MATRICES ´ CAPITULO 3. DESCOMPOSICION

164

donde algunos ~u j son vectores propios generalizados. Consideremos ~ui como elemento de una hilera de vectores encabezados por alg´un vector propio ~ui−1 y descritos por A~ui−1 =λi−1~ui−1

A~ui =λi−1~ui + αi~ui−1 .

y

(3.26)

En otras palabras, ¸ · ¤ λi−1 αi ¤ £ £ , A ~ui−1 ~ui = ~ui−1 ~ui 0 λi−1 donde λi−1 es el valor propio en el bloque de Jordan que afecta a ~ui y αi es igual a 0 o a 1. Luego, la clave para encontrar la forma de Jordan de A se convierte en la b´usqueda de las hileras de vectores definidas en (3.26). Adem´as, n´otese que cada hilera produce un solo bloque en la matriz J . Esencialmente, se tiene que mostrar de qu´e manera se pueden construir estas hileras para cada matriz A ∈ Mnn . Para ello, se procede por inducci´on matem´atica, partiendo del hecho de que cada matriz de tama˜no 1 × 1 est´a ya en su forma de Jordan. La prueba consiste en suponer que se logra la construcci´on para todas las matrices de orden menor que n (´esta es la “hip´otesis de inducci´on”) y despu´es se aplican tres pasos para obtener la forma de Jordan de una matriz de tama˜no n × n. Los pasos que se aplican son i) Se supone que A es singular, entonces su espacio columna tiene dimensi´on r < n. En lo que respecta solamente a este espacio peque˜no, la hip´otesis de inducci´on garantiza que una forma de Jordan es posible, luego, deben haber r vectores linealmente independientes ~vi en el espacio columna tales que A~vi =λi~vi

A~vi =λi~vi +~vi−1 .

o

(3.27)

ii) Se asume que el espacio nulo y el espacio columna de A tienen una intersecci´on de dimensi´on p. Luego, cada vector del espacio nulo es tambi´en un vector propio correspondiente al valor propio λ = 0. Por lo tanto, se tienen p hileras en el paso i) que comienzan a partir de este valor propio y nos interesan los vectores ~vi que est´an al final de dichas hileras. Puesto que cada uno de estos p vectores est´a en el espacio columna, e´ stos se pueden expresar como una combinaci´on de las columnas de A, es decir ~vi =A~wi ,

para alg´un

~wi .

iii) Se considera que el espacio nulo tiene dimensi´on n − r. Entonces, independientemente de su intersecci´on p−dimensional con el espacio columna, debe contener n − r − p vectores b´asicos adicionales ~yi fuera de esa intersecci´on.

´ 3.5. FORMA CANONICA DE JORDAN

165

Juntemos estos pasos para obtener el teorema de Jordan. Los r vectores~vi , los p vectores ~wi y los n − r − p vectores~yi forman las hileras de Jordan para la matriz A y estos vectores son linealmente independientes. Si estos vectores conforman las columnas de la matriz P, entonces P es no singular y P−1 AP = J est´a en la forma de Jordan. Si se quiere renumerar estos vectores como ~u1 ,~u2 , . . . ,~un y hacerlos corresponder con las condiciones de la ecuaci´on (3.26), entonces cada ~wi deber´ıa insertarse inmediatamente despu´es del ~vi del cual proviene; esto completa una hilera en la cual λi = 0. Los ~yi vienen al final, cada uno solo en su propia hilera; nuevamente el valor propio es cero, ya que los ~yi est´an en el espacio nulo. Los bloques que tienen valores propios diferentes de cero se terminaron en el paso i), los bloques con valores propios iguales a cero crecen en una fila y una columna en el paso ii), y el paso iii) contribuye con cualquiera de los bloques de tama˜no 1 × 1 Ji = [0] . En esta construcci´on, el u´ nico punto t´ecnico es verificar la independencia de toda la colecci´on ~vi , ~wi y ~yi . Suponemos, por lo tanto, que alguna combinaci´on es cero r

p

n−r−p

i=1

i=1

i=1

∑ αi~vi + ∑ βi~wi + ∑

γi~yi = ~0.

Si se premultiplica por A y se usan las relaciones dadas en (3.27) para ~vi   λi~vi p r ∑ αi  o  + ∑ βi A~wi = ~0, i=1 i=1 λi~vi +~vi−1

(3.28)

(3.29)

dado que los A~wi son los ~vi especiales al final de las hileras correspondientes a λi = 0, no pueden aparecer en la primera suma. Adem´as (3.29) es un tipo de combinaci´on de los ~vi , que son independientes por la hip´otesis de inducci´on (proporcionan la forma de Jordan en el espacio columna). Se concluye que cada βi debe ser cero. Si se reemplaza en (3.28), se llega a r

n−r−p

i=1

i=1

∑ αi~vi = − ∑

γi~yi .

Como el lado izquierdo est´a en el espacio columna y los ~yi son independientes de ese espacio, cada γi debe ser cero. Por lo tanto, r

∑ αi~vi = ~0

i=1

y de la independencia de los ~vi se tiene que αi = 0.

´ DE MATRICES ´ CAPITULO 3. DESCOMPOSICION

166

Si la matriz A inicial no es singular, entonces se pueden aplicar los tres pasos a e = A − cIn . (Si se elige la constante c de manera que A e sea singular y que pueda A e en su forma de ser cualquiera de los valores propios de A). El algoritmo pone A −1 e e Jordan P AP = J , al producir las hileras ~ui de las ~vi , ~wi y ~yi . Entonces la forma de Jordan de A utiliza las mismas hileras y la misma P ´ ³ e + cIn P = Je + P−1 cP = Je + cIn = J . P−1 AP = P−1 A Esto completa la demostraci´on de que cada A es similar a alguna matriz de Jordan J . Excepto por el reordenamiento de los bloques, es similar a solo una J . En este sentido A tiene una forma de Jordan u´ nica. Definici´on 3.7. Forma Can´onica de Jordan La matriz J dada en el Teorema 3.24 se denomina forma can´onica de Jordan de A.

Ejemplo 3.17. Encuentre una matriz no singular P tal que la matriz A dada a continuaci´on sea semejante a una matriz de Jordan. 



 1 1 1    A=  2 1 −1 .   −3 2 4 Soluci´on En el Ejemplo 2.19 se obtuvieron los siguientes vectores propios generalizados para la matriz A       2 1 0      y ~v3 = 3 . ~v2 = 1 ~v1 = 1 , 0 0 −1 Por lo tanto,

 0 1 2 P =  1 1 3 −1 0 0





y

 0 0 −1 P−1 =  3 −2 −2 . −1 1 1

´ 3.5. FORMA CANONICA DE JORDAN

167

Al realizar el producto P−1 AP se obtiene 

     0 0 −1 1 1 1 0 1 2 2 1 0  3 −2 −2  2 1 −1  1 1 3 = 0 2 1 . −1 1 1 −3 2 4 −1 0 0 0 0 2 Adem´as en la diagonal de la matriz de Jordan aparecen los valores propios de A. Ejemplo 3.18. Encuentre una matriz P no singular tal que P−1 AP sea una matriz de Jordan, para





 5 −3 −2   . A= 8 −5 −4     −4 3 3 Soluci´on La ecuaci´on caracter´ıstica de A es −λ3 + 3λ2 − 3λ + 1 = 0, como λ = 1 es el u´ nico vector propio, se tiene que su multiplicidad algebraica es tres. Entonces,      4 −3 −2 x 0 (A − λI)~v = (A − I)~v =  8 −6 −4 y = 0 . −4 3 2 z 0 Esto conduce a 4x − 3y = 2z. Estableciendo 2, seobtienen los vectores pro  y = 1 0    pios linealmente independientes: ~v1 = 0 ,~v2 = 2 . Para encontrar un vector 2 −3 propio generalizado ~v3 se calcula (A − I)~v3 =c1~v1 + c2~v2       0 1 4 −3 −2 x  8 −6 −4 y =c1 0 + c2  2  . −3 2 z −4 3 2 

´ DE MATRICES ´ CAPITULO 3. DESCOMPOSICION

168

Al realizar las operaciones por filas se obtiene     4 −3 −2 | c1 4 −3 −2 | c1  8 −6 −4 | 0 | 2c2 − 2c1  . 2c2  ∼ 0 0 F2 −2F1 −4 3 2 | 2c1 − 3c2 F3 +F2 0 0 0 | 3c1 − 3c2 Para poder tener infinitas soluciones c1 = c2 ; es decir, 4x − 3y − 2z = c1 . Por lo tanto, z = 2x − 23 y − 12 c1 . Si se hace x = y = 0 y c1 = 1, se obtiene el vector propio   0 generalizado: ~v3 =  0 . Por consiguiente, − 12     1 1 0 1 − 21 0 0  y P−1 = 0 12 P = 0 2 0 . 1 2 −1 − 2 4 −3 −2 Obs´ervese que la segunda columna de P es una combinaci´on lineal de los dos vectores propios que constituyen la base del espacio propio asociado al valor propio λ = 1. Si se realiza el producto P−1 AP se llega a       0 1 − 21 0 5 −3 −2 1 1 1 0 0 0 1 0  = 0 1 1 . 0   8 −5 −4 0 2 2 3 0 0 1 2 −1 − 21 4 −3 −2 −4 3 El lector puede notar que sobre la diagonal de la matriz de Jordan se encuentra el valor propio de la matriz A. Ejercicios 3.3. Calcular el polinomio m´ınimo y la descomposici´on de Jordan de las siguientes matrices:



  1 2 a.  . −1 3

  a −b d.  . b a

 1 b.  3   2  f. −3  4

 −1 . −1  2 −3  0 3 .  1 −5

  −1 3 c.  . −1 1   −5 2 4   . g.  −3 0 3     −3 1 2

´ EN VALORES SINGULARES 3.6. DESCOMPOSICION

3.6.

169

Descomposici´on en valores singulares

Una factorizaci´on especial para cualquier matriz A de tama˜no m × n es la descomposici´on en valores singulares (SV D, por sus siglas en ingl´es), la cual es una ´ de las factorizaciones de matrices m´as u´ tiles en Algebra Lineal aplicada. Definici´on 3.8. Valores singulares de matrices cuadradas Los valores singulares de una matriz real A de tama˜no n × n son las ra´ıces cuadradas de los valores propios asociados a la matriz sim´etrica At A (listados con sus multiplicidades algebraicas). Estos valores se denotan por σ1 , σ2 , . . . , σn , y se colocan en orden decreciente: σ1 ≥ σ2 ≥ . . . ≥ σn ≥ 0, donde σi =

√ λi para 1 ≤ i ≤ n.

Ejemplo 3.19. Determine los valores singulares de la matriz    1 3 −2    A=  3 1 2 .   −1 1 1 Soluci´on La matriz At A es      1 3 −1 1 3 −2 11 5 3  3 1 1   3 1 2  =  5 11 −3 . −2 2 1 −1 1 1 3 −3 9 En este caso, la ecuaci´on caracter´ıstica es: ¡ ¢ det At A − λI = −λ3 + 31λ2 − 276λ + 576 = 0. Entonces, los valores propios de At A son λ1 = 16, λ2 =√12 y λ3 = √ 3. Por lo tanto, los valores singulares de la matriz A son σ1 = 4, σ2 = 2 3 y σ3 = 3.

´ DE MATRICES ´ CAPITULO 3. DESCOMPOSICION

170

Cuando A es una matriz real de tama˜no n × n, sabemos que las matrices At A y tienen los mismos valores propios con las mismas multiplicidades algebraicas. Por lo tanto en la definici´on 3.8 se puede cambiar At A por AAt . Mientras que si A es una matriz real de tama˜no m × n, con m 6= n, las matrices At A y AAt tendr´an n y m valores propios, respectivamente. Por consiguiente, cuando la matriz no sea cuadrada los valores singulares de la misma se definen de la siguiente manera. AAt

Definici´on 3.9. Valores Singulares de Matrices Rectangulares Sea A una matriz real de tama˜no m × n (m 6= n), los valores singulares son las ra´ıces cuadradas de los valores propios comunes a las matrices sim´etricas At A y AAt . Ejemplo 3.20. Encuentre los valores singulares de la matriz    1 −1   A= 1 3 .   −2 1 Soluci´on La matriz At A es

  ¸ 1 −1 · ¸ 1 3 −2  14 0  3 1 = , −1 1 1 0 3 −2 1

·

cuyos valores propios son λ1 = 14 y λ2 = 3. La matriz AAt    ¸ 1 −1 · 2 2 1 3 −2 3 1 =  2 10 −1 1 1 −2 1 −3 −5

es  −3 −5 . 5

En este caso, los valores propios de AAt son λ1√ = 14, λ2 = 3√y λ3 = 0. Por lo tanto, los valores singulares de la matriz A son σ1 = 14 y σ2 = 3. Teorema 3.25. Sea A una matriz real de tama˜no m × n que tiene r valores singulares no nulos σ1 ≥ σ2 ≥ . . . ≥ σr > 0 con σr+1 = σr+2 = . . . = σn = 0, entonces el rango de A es r.

´ EN VALORES SINGULARES 3.6. DESCOMPOSICION

171

Demostraci´on Sea {~v1 ,~v2 , . . . ,~vn } una base ortonormal de Rn formada por los vectores propios asociados a At A, ordenados de tal forma que los valores propios correspondientes a At A satisfacen que λ1 ≥ λ2 ≥ . . . ≥ λn . Entonces, A~vi · A~v j =(A~vi )t A~v j =~vti (At A~v j ) =~vti λ j~v j ½ 0 si i 6= j, 2 =σ j (~vi ·~v j ) = σ2j si i = j.

(3.30)

Luego {A~v1 , A~v2 , . . . , A~vn } es un conjunto ortogonal. Sea r el n´umero de valores singulares no nulos de A, esto es, r es el n´umero de valores propios no nulos de At A. De la expresi´on (3.30), se tiene que A~vi 6= ~0 si y s´olo si 1 ≤ i ≤ r. Entonces {A~v1 , A~v2 , . . . , A~vr } son vectores linealmente independientes, los cuales claramente pertenecen al espacio columna de A (Col(A)). Adem´as, para cualquier ~y ∈ Col(A) - digamos, ~y = A~x - se puede escribir ~x = c1~v1 + c2~v2 + . . . + cn~vn , y ~y = A~x = c1 A~v1 + . . . + cr A~vr + cr+1 A~vr+1 + . . . + cn A~vn = c1 A~v1 + . . . + cr A~vr +~0 + . . . +~0 as´ı que ~y est´a en el espacio generado por {A~v1 , A~v2 , . . . , A~vr }, lo cual muestra que {A~v1 , A~v2 , . . . , A~vr } es una base (ortogonal) para Col(A). Por lo tanto, el ρ(A) = r.

3.6.1.

Descomposici´on en valores singulares

La descomposici´on de A involucra una matriz “diagonal” particionada como sigue    .. σ1 . . . D . O     S = con D =  ... . . . . . . · . . . , . 0 ... O .. O

S de tama˜no m × n  0 ..  , .

(3.31)

σr

donde los σi , para i = 1, 2, . . . , r son los valores singulares no nulos de A y r no excede el m´as peque˜no de m y n. (Si r es igual a m o´ n o´ a ambos, algunas o todas de las matrices nulas desaparecen). Teorema 3.26. Descomposici´on en Valores Singulares Sea A una matriz real de tama˜no m × n con rango r. Entonces existen matrices ortogonales U y V de tama˜no m × m y n × n respectivamente, tales que A = USV t ,

(3.32)

´ DE MATRICES ´ CAPITULO 3. DESCOMPOSICION

172

donde S tiene la forma dada en la ecuaci´on (3.31). Demostraci´on √ Sean λi y~vi como en la prueba del Teorema 3.25. Entonces σi = λi = kA~vi k > 0 para 1 ≤ i ≤ r, r = ρ(A) ≤ m´ın{m, n} y {A~v1 , A~v2 , . . . , A~vr } es una base ortogonal para Col(A). Si se normalizan cada uno de los vectores A~vi , se puede definir ~ui =

1 1 A~vi = A~vi , kA~vi k σi

i =1, 2, . . . , r.

Luego el conjunto de vectores {~u1 ,~u2 , . . . ,~ur } es una base ortonormal para Col(A), la cual se puede extender hasta obtenerse una base ortonormal {~u1 , . . . ,~ur ,~ur+1 , . . . ,~um } de Rm . A partir de la definici´on de los vectores ~ui , se puede escribir   σi~ui para i = 1, 2, . . . , r 0~ui para i = r + 1, r + 2, . . . , m A~vi =  ~ 0 para i = m + 1, m + 2, . . . , n. En forma matricial se expresa de la siguiente manera £ ¤ AV = A~v1 . . . A~vr A~vr+1 . . . A~vm A~vm+1 . . . A~vn ¤ £ = σ1~u1 . . . σr~ur 0~ur+1 . . . 0~um ~0 . . . ~0  σ1 . . . 0 0 ...  .. . . .. .. . .  . . . . .  £ ¤  0 . . . σr 0 . . . = ~u1 . . . ~ur ~ur+1 . . . ~um   0 ... 0 0 ...   .. . . .. .. . .  . . . . . 0 ... 0 Por lo tanto,

 0 ..  .   0  . 0   ..  . 

0 ... 0



£ AV = ~u1 . . . ~ur ~ur+1

 .. ¤ D . O   . . . ~um  . . . . . . . = US .. O . O

(3.33)

n´otese que las columnas de la matriz ortogonal V (de tama˜no n × n), son los vectores propios ortonormalizados de la matriz At A. Las columnas de la matriz ortogonal U (de tama˜no m × m), son los vectores propios ortonormalizados de la matriz AAt y la matriz S esta definida como en (3.31). Si se multiplica por el lado derecho de la ecuaci´on (3.33) por V −1 (V −1 = V t ), se tiene que A = USV t . Esto finaliza la demostraci´on del teorema.

´ EN VALORES SINGULARES 3.6. DESCOMPOSICION

173

Ejemplo 3.21. Encuentre la descomposici´on en valores singulares de la matriz dada en el Ejemplo 3.19. Soluci´on Del Ejemplo 3.19 se tiene que los valores singulares asociados a la matriz A son σ21 = 16, σ22 = 12 y σ23 = 3. Al calcular los respectivos vectores propios unitarios de At A, se obtiene:       1 1 −1 1   1   1   1 . ~v1 = √ 1 , ~v2 = √ −1 y ~v3 = √ 3 1 6 2 2 0 Por otra parte, la matriz AAt es   14 2 0 AAt =  2 14 0 0 0 3 y sus respectivos vectores propios unitarios son √  √2/2 ~u1 =  2/2 , 0

 √  −√ 2/2 ~u2 =  2/2  0

y

  0 ~u3 = 0 . 1

  4 √ 0 0 £ ¤ £ ¤ Finalmente, si U = ~u1 ~u2 ~u3 , V = ~v1 ~v2 ~v3 y S = 0 2 3 √0 . Entonces 0 0 3 √ √ 1√   1√ 1 1 4 √ 0 0 2 2 √2 2 √ 2 √2 − 2√ 2 0 1 1 1 1      A= 2 2 6 − 6√ 6 0 0 2 3 √0 6 √ 2 2 0 3 − 13 3 13 3 0 0 1 0   1 3 −2 = 3 1 2 . −1 1 1

 0 √ 1  3 √6 1 3 3

Ejemplo 3.22. Encuentre la descomposici´on en valores singulares de la matriz dada en el Ejemplo 3.20.

174

´ DE MATRICES ´ CAPITULO 3. DESCOMPOSICION

Soluci´on Haciendo referencia al Ejemplo 3.20 se tiene que los valores singulares asociados a la matriz A son σ21 = 14 y σ23 = 3. Al calcular los respectivos vectores propios unitarios de At A, se obtiene: · ¸ · ¸ 1 0 ~v1 = y ~v2 = . 0 1 Por otra parte, los respectivos vectores propios unitarios de AAt , son       1 5 −1 1 1 1 ~u1 = √  3  , ~u2 = √  1  y ~u3 = √ 1 . 3 1 14 −2 42 4 √  14 √0 £ ¤ £ ¤ Si U = ~u1 ~u2 ~u3 , V = ~v1 ~v2 y S =  0 3. Entonces 0 0  1  √   √ − √13 √542  14 0  · ¸ 1 −1 14 √ 1 0  √1 √1   0 1 . A =  √314 = 3 3 3 42  0 1 2 4 1 √ √ −2 1 0 0 − √14 3 42

3.6.2. Descomposici´on polar Una consecuencia interesante y u´ til de la descomposici´on en valores singulares para una matriz cuadrada A es la descomposici´on polar de A. Teorema 3.27. Descomposici´on Polar Sea A una matriz real de tama˜no n × n con rango r. Entonces existe una matriz sim´etrica P de tama˜no n × n con valores propios no negativos y una matriz ortogonal Q de tama˜no n × n, tales que A = PQ.

(3.34)

Demostraci´on Si A es una matriz real de tama˜no n × n, en una descomposici´on de valores singulares las matrices U, S y V son tambi´en de tama˜no n × n. En este caso se puede escribir la ecuaci´on (3.32) como A = USV t = US(U t U)V t = (USU t )UV t = PQ

´ EN VALORES SINGULARES 3.6. DESCOMPOSICION

175

donde P = USU t es una matriz sim´etrica y Q = UV t es una matriz ortogonal. Se deja como ejercicio la comprobaci´on de que P tiene valores propios no negativos. Ejemplo 3.23. Encuentre una descomposici´on polar para la matriz dada en el Ejemplo 3.19. Soluci´on En el Ejemplo 3.21 se obtuvo la descomposici´on de A en valores singulares mediante las matrices U, S y V √ √  √ √    √  4 √ 0 0 3√2 6 −2√ 3 2 −√ 2 0 √ √ 1 1 U=  2 2 0 , S = 0 2 3 √0  y V = 3 2 −√ 6 2√3  . 2 6 3 0 0 0 0 2 0 2 6 2 3 Si se definen √ √ µ ¶2 2 − √2 1 √ t P = USU = 2 2 2 0 0 √ √  2 + √3 2 − √3 = 2 − 3 2 + 3 0 0

√  √   0 0 0 4 √ 2 2 0 √ √ 0 0 2 3 √0  − 2 2 0 0 3 2 0 0 0 2  0  √0 3

y √ √  √ 1 −1 0   3 2 3 2 0 √ √ √ 2  1 1 √0   6 Q = UV t = √ −√ 6 2√6 12 0 0 2 −2 3 2 3 2 3 √ √ √   3 − √3 3 + √3 −2√ 3 1 = 3 +√ 3 3 −√ 3 2√3  . 6 −2 3 2 3 2 3 Entonces √ √ √   √ √    2 + √3 2 − √3 0 3 − √3 3 + √3 −2√ 3 1 3 −2 1 A = 2 − 3 2 + 3 √0  3 +√ 3 3 −√ 3 2√3  =  3 1 2  . 6 −1 1 1 0 0 −2 3 3 2 3 2 3

´ DE MATRICES ´ CAPITULO 3. DESCOMPOSICION

176 Ejercicios 3.4.

1. Para cada una de las matrices dadas a continuaci´on, encuentre una descomposici´on en valores singulares     1 3  1 1 −4 b.  a.  . . 3 −1 1 3 −1     1 3      1 −1 0   d.   . e.   3 1 .   −1 1 −1 −2 2

  a −b c.  , b a   3 −1      f. −1 1  .   4 −5

a, b ∈ R.

2. Si A es una matriz real de tama˜no n × n con valores singulares todos iguales a 1, muestre que A es ortogonal. 3. Si A es una matriz real de tama˜no n × n ¿Cu´al es el producto de sus valores singulares σ1 .σ2 . . . . .σn ?. 4. Si A es una matriz real de tama˜no 2 × 2 y ~u ∈ R2 es unitario, muestre que σ2 ≤ kA~uk ≤ σ1 , donde σ1 , σ2 son los valores singulares de A. 5. Si A es una matriz real de tama˜no m × n y ~v ∈ Rn , muestre que σn k~vk ≤ kA~vk ≤ σ1 k~vk, donde σ1 , σn son los valores singulares m´as grande y m´as peque˜no de la matriz A, respectivamente.

Cap´ıtulo 4

Matrices complejas En la secci´on 2.3 se consideraron matrices de componentes reales en las cuales los valores propios y vectores propios eran complejos. En este cap´ıtulo se desarrollar´a la teor´ıa correspondiente a valores propios y vectores propios pero para matrices de componentes complejas y el objetivo principal es estudiar algunas factorizaciones para este tipo de matrices, de manera an´aloga a como vimos en el cap´ıtulo 3.

4.1.

Clases especiales de matrices complejas

Los tipos especiales de matrices cuadradas complejas que se analizan a continuaci´on son las hermitianas, antihermitianas y unitarias, por tener caracter´ısticas particulares y por ser muy u´ tiles en ingenier´ıa y en especial en f´ısica at´omica. Estas matrices generalizan las tres clases de matrices reales especiales sim´etricas, antisim´etricas y ortogonales, respectivamente.

4.1.1.

Matrices hermitianas

Recordemos que una matriz sim´etrica A = [ai j ] con componentes reales es una matriz que tiene la propiedad de que A = At . Las matrices hermitianas (o herm´ıticas) son las an´alogas para el caso en el cual las componentes de la matriz son n´umeros complejos.

177

´ CAPITULO 4. MATRICES COMPLEJAS

178 Definici´on 4.1. Matriz Hermitiana

Se dice que una matriz A de tama˜no n × n es hermitiana si A = AH .

(4.1)

Ejemplo 4.1. Sea A la matriz de componentes complejas   3 4 − 5i 3 + 2i     A= 1 7 + 6i 4 + 5i    3 − 2i 7 − 6i 2 comprobar que A es una matriz hermitiana. Soluci´on

   3 4 − 5i 3 + 2i 3 4 + 5i 3 − 2i 1 7 − 6i . A = 4 + 5i 1 7 + 6i = 4 − 5i 3 + 2i 7 + 6i 2 3 − 2i 7 − 6i 2   3 4 − 5i 3 + 2i t 1 7 + 6i = A. AH =A = 4 + 5i 3 − 2i 7 − 6i 2 

N´otese que los elementos de la diagonal principal de una matriz hermitiana son n´umeros reales, ya que tienen que coincidir con sus conjugados. Teorema 4.1. Sea A una matriz hermitiana, entonces para todos los vectores ~x ∈ Cn , ~xH A~x es real. Demostraci´on La demostraci´on consiste en un c´alculo directo (~xH A~x)H =~xH AH (~xH )H =~xH A~x pero como ~xH A~x es una matriz hermitiana de tama˜no 1 × 1 se concluye que es un n´umero real. Teorema 4.2. Si A es una matriz hermitiana, entonces sus valores propios son reales.

4.1. CLASES ESPECIALES DE MATRICES COMPLEJAS

179

Demostraci´on Supongamos que λ es un valor propio y que ~x es un vector propio correspondiente. Es decir, A~x = λ~x. Si se premultiplica por ~xH , se obtiene ~xH A~x = λ~xH~x. Pero por el Teorema 4.1, el lado izquierdo es real y la expresi´on del lado derecho ~xH~x = |~x|2 6= 0. Se concluye que, λ debe ser real. Teorema 4.3. Sea A una matriz hermitiana de tama˜no n × n. Entonces los vectores propios correspondientes a valores propios distintos de A son ortogonales. Demostraci´on Sean ~v1 y ~v2 vectores propios asociados a valores propios distintos, digamos, λ1 y λ2 . Es decir, A~v1 H ~v2 A~v1

=λ1~v1

y

=λ1~vH v1 2~

y

A~v2 H ~v1 A~v2

=λ2~v2 =λ2~vH v2 . 1~

Al tomar la transpuesta conjugada de la primera expresi´on, se tiene (~vH v1 )H =(λ1~vH v1 )H 2 A~ 2~ ~vH v2 =λ1~vH v2 . 1 A~ 1~ En la u´ ltima expresi´on se usaron los hechos de que AH = A y λ1 es real. Luego se tiene que λ2~vH v2 = λ1~vH v2 1~ 1~ Por lo tanto (λ1 − λ2 )~vH v2 = 0. Pero λ1 − λ2 6= 0, as´ı que~vH v2 = 0. Esto es,~v1 y~v2 1~ 1~ son ortogonales. Teorema 4.4. Sea A = [ai j ] una matriz con componentes complejas de tama˜no n × n, entonces ¡ ¢ tr AAH =0 ¡ ¢ En realidad, tr AAH > 0 si A 6= O.

si y s´olo si

A =O.

(4.2)

´ CAPITULO 4. MATRICES COMPLEJAS

180

Demostraci´on Si A = [ai j ], entonces AH = [bi j ], en donde bi j = a ji . Si se define C = AAH , se tiene cik =ai1 b1k + ai2 b2k + . . . + ain bnk n

= ∑ ai j b jk = j=1

n

∑ ai j ak j .

j=1

En particular, las componentes de la diagonal de C est´an dadas por cii =

¯

n

n

j=1

j=1

¯2

∑ ai j ai j = ∑ ¯ai j ¯

.

Por lo tanto, n

n

i=1

i=1

Ã

tr (C) = ∑ cii = ∑

! ¯ ¯2 ∑ ¯ai j ¯ . n

j=1

¯ ¯2 Como ¯ai j ¯ ≥ 0, la u´ nica forma en que esta suma puede ser cero es si cada ai j = 0 para todo i y j. Esto significa que A = O.

4.1.2. Matrices anti-hermitianas Como se ha visto, una matriz antisim´etrica A es una matriz real que tiene la propiedad de que At = −A. Las matrices anti-hermitianas constituyen el an´alogo para el caso complejo. Definici´on 4.2. Matriz anti-hermitiana Se dice que una matriz A de tama˜no n × n es anti-hermitiana si AH = −A.

(4.3)

Teorema 4.5. Si A es anti-hermitiana, entonces para todos los vectores complejos ~z,~zH A~z es cero o imaginario puro1 . 1 Un

imaginario puro es un n´umero complejo de la forma αi con α real

4.1. CLASES ESPECIALES DE MATRICES COMPLEJAS

181

Demostraci´on La demostraci´on consiste en un c´alculo directo (~zH A~z)H =~zH AH (~zH )H = −~zH A~z. Si se expresa~zH A~z = α + iβ; entonces la ecuaci´on anterior se puede escribir como α − iβ = −(α + iβ), luego se debe tener que α = −α, as´ı que α = 0. Por lo tanto, se concluye que~zH A~z es un imaginario puro. Teorema 4.6. Los valores propios de una matriz anti-hermitiana deben ser cero o imaginarios puros. Demostraci´on Supongamos que λ es un valor propio y que ~z es el vector propio correspondiente. Es decir, A~z = λ~z. Si se premultiplica por~zH , se obtiene ~zH A~z = λ~zH~z. Pero por el Teorema 4.5, el lado izquierdo es cero o imaginario puro y el lado derecho~zH~z = |~z|2 es real y distinto de cero. Por lo tanto, λ=

~zH A~z ~zH~z

de donde λ debe ser cero o imaginario puro. Teorema 4.7. Sea A una matriz anti-hermitiana de tama˜no n × n. Entonces los vectores propios asociados con valores propios distintos de A son ortogonales. Demostraci´on Sean~v1 y~v2 vectores propios de A que corresponden a valores propios distintos, digamos, λ1 y λ2 . Para demostrar que ~v1 ·~v2 = 0, se calcula λ1~v1 ·~v2 =(λ1~v1 )H~v2 = (A~v1 )H~v2

puesto que ~v1 es un vector propio

H =(~vH v2 = −~vH v2 ) 1 A )~ 1 (A~

puesto que Aes anti-hermitiana

= −~vH v2 ) 1 (λ2~ = − λ2~vH v2 = 1~

puesto que ~v2 es un vector propio −λ2~v1 ·~v2 .

´ CAPITULO 4. MATRICES COMPLEJAS

182

Por lo tanto, se tiene que (λ1 + λ2 )~v1 ·~v2 = 0. Pero como λ1 = −λ1 por ser imaginario puro, entonces λ1 + λ2 6= 0, as´ı que ~v1 ·~v2 = 0. Teorema 4.8. Si B es una matriz anti-hermitiana, entonces la matriz A = iB es hermitiana. An´alogamente, si A es hermitiana, entonces B = iA es anti-hermitiana. Demostraci´on Sea BH = −B y definamos A = iB, entonces AH = (iB)H = (i)H BH = (−i)(−B) = A. Esto prueba que A es hermitiana, de la misma manera se puede probar que B = iA es anti-hermitiana cuando A es hermitiana.

4.1.3. Matrices unitarias Recordemos que una matriz ortogonal A es una matriz real que tiene la propiedad de que At = A−1 . Las matrices unitarias es el an´alogo para el caso complejo. Definici´on 4.3. Matriz unitaria Una matriz cuadrada U de componentes complejas se dice que es una matriz unitaria si U H U = I. En consecuencia, U es no singular y se tiene U −1 = U H . Teorema 4.9. Si U es una matriz unitaria, entonces sus valores propios son de m´odulo igual a 1. Demostraci´on Sea λ un valor propio de U con vector propio asociado ~v, es decir U~v = λ~v.

(4.4)

Luego, tomando la transpuesta conjugada se tiene t

(U ~v)t =λ ~v t

t

~v U =λ ~vH ~vH U H =λ ~vH .

4.1. CLASES ESPECIALES DE MATRICES COMPLEJAS

183

Pero como U es unitaria se tiene que ~vH U −1 = λ ~vH .

(4.5)

Si se multiplica por la derecha ambos lados de (4.5) por U~v se obtiene ~vH U −1 (U~v) =λ ~vH (U~v) ~vH (U −1U)~v =λ ~vH (λ~v)

por (4.4)

~vH~v =λ λ ~vH~v pero como ~vH~v 6= 0; se concluye que λ λ = 1. O sea, |λ|2 = 1, as´ı que |λ| = 1. Teorema 4.10. Sea U una matriz unitaria de tama˜no n × n. Entonces los vectores propios asociados con valores propios distintos de U son ortogonales. Demostraci´on Sean ~v1 y ~v2 vectores propios de U que corresponden a valores propios distintos, digamos, λ1 y λ2 . Para demostrar que ~v1 ·~v2 = 0, se calcula (U ~v1 )H (U ~v2 ) =(λ1 ~v1 )H (λ2 ~v2 ) (~vH 1

U

H

v2 )(U~v2 ) =λ1 ~vH 1 λ2 ~ H H ~v1 ~v2 =λ1 λ2 ~v1 ~v2 .

puesto que λ1 , λ2 son valores propios puesto que U es unitaria

³ ´ Por lo tanto 1 − λ1 λ2 ~v1 ·~v2 = 0. Pero como λ1 es distinto a λ2 , entonces λ1 λ2 6= 1, as´ı que ~v1 ·~v2 = 0.

4.1.4.

Matrices normales

Definici´on 4.4. Matriz normal Se dice que la matriz de componentes complejas N de tama˜no n × n es normal si conmuta con N H , es decir NN H = N H N. Ejemplo 4.2. Comprobar que las matrices complejas diagonales son normales.

´ CAPITULO 4. MATRICES COMPLEJAS

184

Soluci´on Sea D la siguiente matriz diagonal de tama˜no n × n D = diag{λ1 , λ2 , . . . , λn }, entonces DDH =diag{λ1 , λ2 , . . . , λn }diag{λ1 , λ2 , . . . , λn } =diag{|λ1 |2 , |λ2 |2 , . . . , |λn |2 } =diag{λ1 , λ2 , . . . , λn }diag{λ1 , λ2 , . . . , λn } =DH D por lo tanto, D es una matriz normal. Teorema 4.11. Las matrices hermitianas, las anti-hermitianas y las unitarias son matrices normales. Demostraci´on Supongamos que A es hermitiana, entonces AH A =AA = A2

y

AAH =AA = A2

luego AAH = AH A. Las dem´as quedan como ejercicio para el lector.

4.2. Factorizaciones En esta secci´on se explica como se puede expresar una matriz A de componentes complejas como el producto de dos o m´as matrices. Definici´on 4.5. Matrices complejas semejantes Una matriz de componentes complejas A de tama˜no n × n es semejante a una matriz de componentes complejas B de tama˜no n × n si existe una matriz de componentes complejas no singular P de tama˜no n × n tal que B = P−1 AP.

(4.6)

4.2. FACTORIZACIONES

185

De manera an´aloga se dice que A y B son semejantes si y s´olo si existe una matriz de componentes complejas no singular P tal que PB = AP.

(4.7)

Teorema 4.12. Las matrices complejas semejantes tienen el mismo polinomio caracter´ıstico y por tanto, los mismos valores propios. Demostraci´on Como A y B son matrices complejas semejantes de tama˜no n × n, B = P−1 AP. Entonces B − λI = P−1 AP − λP−1 P = P−1 [AP − λP] = P−1 [A − λI]P. Por consiguiente, det(B − λI) = det[P−1 (A − λI)P] = det(P−1 ) det(A − λI) det(P) = det(P−1 ) det(P) det(A − λI) = det(A − λI). Esto significa que A y B tienen la misma ecuaci´on caracter´ıstica y como los valores propios son ra´ıces de la ecuaci´on caracter´ıstica, entonces tienen los mismos valores propios. Definici´on 4.6. Matrices congruentes hermitianas Dos matrices hermitianas A y B de tama˜no n × n son congruentes hermitianas, si existe una matriz P no singular de componentes complejas de tama˜no n × n tal que A = PH BP.

(4.8)

Teorema 4.13. Teorema de Schur Sea A una matriz compleja de tama˜no n × n. Entonces A es semejante a una matriz triangular superior T , mediante una matriz unitaria U, es decir T = U H AU. En este caso se dice que A es triangularizable por una matriz unitaria U.

´ CAPITULO 4. MATRICES COMPLEJAS

186

Demostraci´on La demostraci´on es por inducci´on sobre n. Si n = 1, A es una matriz de tama˜no 1 × 1 que es triangular. La matriz unitaria es U = [1]. Supongamos que toda matriz de componentes complejas de tama˜no (n − 1) × (n − 1) es triangularizable por una matriz unitaria. Sea A una matriz de tama˜no n × n. Sabemos que su polinomio caracter´ıstico tiene al menos una ra´ız compleja λ1 . Sea ~v1 ∈ Cn un vector propio normalizado asociado al valor propio λ1 . Denotemos por W el complemento ortogonal a ~v1 de dimensi´on n − 1. Sea {~v2 ,~v3 , . . . ,~vn } una base ortonormal de W . Luego, cada vector ~X de W tiene la forma ~X = a2 ~v2 + a3 ~v3 + . . . + an ~vn . La matriz de cambio de base, de la base can´onica de Cn a la base {~v1 ,~v2 , . . . ,~vn } es la matriz S cuyas columnas son los elementos de los vectores ~vi . Luego, £ ¤ AS = A~v1 A~v2 . . . A~vn £ ¤ = λ1~v1 A~v2 . . . A~vn . Por lo tanto,

£ ¤ S−1 AS = S−1 λ1~v1 A~v2 . . . A~vn .

Pero como S es unitaria se tiene que S−1 = SH , por consiguiente 

λ1  0  SH AS =  .  ..

 z1 . . . zn−1    ,  A1  

0 donde A1 es una matriz de tama˜no (n − 1) × (n − 1). La prueba ahora se completa por inducci´on, si R1 es una matriz unitaria de tama˜no (n − 1) × (n − 1) tal que (R1 )H A1 R1 = T1 , con T1 triangular superior, por la hip´otesis de inducci´on. Entonces, la matriz    R= 

1 0 .. . 0

 0 ... 0    ,  R1  

4.2. FACTORIZACIONES

187

es una matriz unitaria y ¡ ¢ (SR)H A(SR) =RH SH AS R · ¸· ¸· ¸ 1 ~0t λ1 ~xH 1 ~0t = ~ ~0 AH ~0 R1 0 RH 1 1 ¸ · H λ1 ~x R1 , = ~ 0 T1 donde ~xH = (z1 , z2 , . . . , zn−1 ). La matriz SR = U es el producto de dos matrices unitarias; por lo tanto, es tambi´en una matriz unitaria. As´ı, U H AU es una matriz triangular superior y nuestra prueba queda completa. El siguiente resultado es una consecuencia directa del teorema anterior. Teorema 4.14. Sea A una matriz de componentes complejas de tama˜no n × n. Los valores propios de A son los elementos de la diagonal de la matriz triangular superior T semejante a A por una matriz unitaria. Demostraci´on Como A y T son semejantes por el Teorema 4.12, tienen el mismo polinomio caracter´ıstico. Por otra parte, como T es triangular se tiene pA (λ) = pT (λ) = (t11 − λ)(t22 − λ) . . . (tnn − λ), donde t11 ,t22 , . . . ,tnn son los elementos de la diagonal de T . As´ı pues los valores propios de A son los elementos de la diagonal de T . Ejemplo 4.3. Dada la matriz de componentes complejas   1 − i 0 0      A= i 1 2 + i ,   2i 0 i encuentre una matriz T que sea la triangularizaci´on de A. Soluci´on El polinomio caracter´ıstico de A es pA (λ) = (1 − λ)(i − λ)((1 − i) − λ).

´ CAPITULO 4. MATRICES COMPLEJAS

188

Luego los vectores propios son  λ1 =  1, λ2 = i y λ3 = 1 − i.El vectorpropio corres0 0 pondiente a λ1 = 1 es ~v1 = 3 + 4i; para λ2 = i es ~v2 = −1 − 3i y por u´ ltimo, 0 2   1 − 2i para λ3 = 1 − i es ~v3 =  −5 . 2i Para determinar U, se aplica el proceso de Gram-Schmidt a {~v1 ,~v2 ,~v3 }, para  0 encontrar una base ortonormal para C3 . Como |~v1 | = 5, se hace~u1 = |~~vv11 | = 51 3 + 4i. 0 As´ı pues,     0 0 0 (−3 − i) 3 + 4i ~v2 =~v2 − (~vH u1 )~u1 = −1 − 3i − 2~ 5 0 2       0 0 0 = −1 − 3i + 1 + 3i = 0 . 2 0 2   0 0 Entonces |~v2 | = 2 y ~u2 = 0. Se puede verificar que ~uH u2 = 0. Ahora, 1~ 1 0

u1 )~u1 − (~vH u2 )~u2 ~v3 =~v3 − (~vH 3~ 3~       1 − 2i 0 0 (−15 + 20i) 3 + 4i − 2i 0 =  −5  − 25 2i 0 1       1 − 2i 0 1 − 2i =  −5  +  5  =  0  . 2i −2i 0 √   (1 − 2i)/ 5 √ . Tambi´en se verifica que la base Por u´ ltimo, |~v3 | = 5 luego ~u3 =  0 0 obtenida para C3 es ortonormal observando que ~uH u3 = 0 y ~uH u3 = 0. Por lo tanto, 1~ 2~ la matriz unitaria U es √   0 0 (1 − 2i)/ 5  U = (3 + 4i)/5 0 0 0 1 0

4.2. FACTORIZACIONES

189

y la matriz triangular es    3 − 4i   0 1−i 0 0 0  0   5   0  H 0 1  i 1 2 + i  3 + 4i T = U AU =    1 + 2i  2i 0 i 5 √ 0 0 0 5 ¡2 1 ¢√   1 2 − i ¡ 5 − 5 i¢ √5 2 4 = 0 i 5 . 5 + 5i 0 0 1−i

0

 1 − 2i √ 5    0 

1

0

0

N´otese que los elementos de la diagonal principal de la matriz T son los valores propios de la matriz A. Teorema 4.15. Sea A una matriz herm´ıtica de tama˜no n × n, entonces existe una matriz unitaria U tal que U −1 AU es una matriz diagonal. Demostraci´on Como A es una matriz compleja, por el teorema de Schur, A se puede triangularizar mediante una matriz unitaria U, es decir T = U H AU, donde T es una matriz triangular superior. Al tomar la transpuesta conjugada y usando que AH = A se tiene que T H = (U H AU)H = U H AH (U H )H = U H AU = T, como T H es una matriz triangular inferior, luego T es una matriz diagonal. En consecuencia A es semejante, mediante una matriz unitaria U, a una matriz diagonal T. Ejemplo 4.4. Considere la matriz de componentes complejas   1 −i −1      i 0 −2i  .   −1 2i 0 Comprobar que es diagonalizable mediante una matriz unitaria.

´ CAPITULO 4. MATRICES COMPLEJAS

190 Soluci´on El polinomio caracter´ıstico de A es

pA (λ) = λ(3 − λ)(2 + λ) En este caso, los valores propios de  A son  λ1 = 0,λ2 =  3 y λ3 =−2.Los vectores 2 1 0      i y ~v3 = 1 , respectivapropios correspondientes son ~v1 = −i , ~v2 = 1 −1 −i mente. Para encontrar la matriz unitaria U, se√ortonormaliza el conjunto {~v1 ,~v2 ,~v3 }.   2/ √6 √ Como |~v1 | = 6, se hace ~u1 = |~~vv11 | = −i/√ 6. Por otra parte, se tiene que |~v2 | = 1/ 6 √     0 1/ 3 √ √ √ √ 3, entonces~u2 =  i/ √3 . Por u´ ltimo, |~v3 | = 2 de manera que~u3 =  1/ √2 . −i/ 2 −1/ 3 3 Se puede verificar que la base obtenida para C es ortonormal observando que ~uH u2 = 0, ~uH u3 = 0 y ~uH u3 = 0. Por lo tanto, 1~ 1~ 2~ √   √ 1/√ 3 0√ 2/ √6 U = −i/√ 6 i/ √3 1/ √2  . 1/ 6 −1/ 3 −i/ 2 Como el det(U) = 1, se tiene que   0 0 0 D = U H AU = 0 3 0  . 0 0 −2 Luego la matriz A es diagonalizable por una matriz unitaria. Teorema 4.16. Descomposici´on Espectral para Hermitianas Sea A una matriz hermitiana de tama˜no n × n con valores propios λ1 , λ2 , . . . , λn , entonces A se puede escribir como A = λ1~v1~vH v2~vH vn~vH 1 + λ2~ 2 + . . . + λn~ n, donde ~v1 ,~v2 , . . . ,~vn son los vectores propios normalizados de A.

(4.9)

4.2. FACTORIZACIONES

191

Demostraci´on Por el Teorema 4.15, existe una matriz U tal que U −1 AU = T , donde T es una matriz diagonal. Entonces, A =UTU −1 = UTU H £ = ~u1 ~u2

£ = ~u1 ~u2

 H  ~u1 λ1 0 . . . 0 H    0 λ . . . 0 ¤ 2  ~u2  . . . ~un  . .. . . .  .   .. . ..   ..  . 0 0 . . . λn ~uH n  H λ1~u1   ¤ λ2~uH 2 . . . ~un  .   ..  λn~uH n

=λ1~v1~vH v2~vH vn~vH 1 + λ2~ 2 + . . . + λn~ n. Esto prueba el teorema. Ejemplo 4.5. Ilustrar el Teorema de Descomposici´on Espectral para la matriz dada en el Ejemplo 4.4. Soluci´on Del Ejemplo 4.4 se tiene que los valores propios asociados a la matriz A son λ1 = 0, λ2 = 3 y λ3 = −2. Los respectivos vectores propios normalizados de A eran       0 2 1 1   1   1   1 . i ~v1 = √ −i , ~v2 = √ y ~v3 = √ 3 −1 6 1 2 −i Entonces 

 1 £ 3 ∑ λi~vi~vHi = 3  i  1 i=1 −1  1 −i  1 = i −1 i 3

  ¤ −2 0 £ ¤  1 0 1 i −i −1 + 2 −i      1 −i −1 0 0 0 −1 0 −2i , −i  − 0 1 i  =  i −1 2i 0 0 −i 1 1

la cual coincide con la matriz A dada en el Ejemplo 4.4.

´ CAPITULO 4. MATRICES COMPLEJAS

192

Teorema 4.17. Sea A una matriz hermitiana y no singular, si A puede ser factorizada como A = LDU, en donde L es unitaria triangular inferior, D es diagonal y U es unitaria triangular superior. Entonces, L = U H . Demostraci´on Puesto que A puede factorizarse como A = LDU, tomando la transpuesta conjugada, se tiene que AH = (LDU)t = U H DH LH = U H DLH . Como A es herm´ıtica, es igual a AH , por lo tanto LDU =U H DLH ¡ ¢ D =L−1 U H DLH U −1 D = (UL)H D (UL)H , luego, L = U −1 = U H , lo cual completa la prueba. Teorema 4.18. Si N es una matriz normal, entonces la matriz T = U H NU (U unitaria) es tambi´en normal. Demostraci´on Sea N una matriz normal y definamos T = U H NU multiplicando por T H , se obtiene que T T H =(U H NU)(U H NU)H =U H N(UU H )N H U = U H NN H U =U H N H NU

puesto queN es normal

=(U H N H U)(U H NU) = T H T, como T T H = T H T se ha demostrado que T es normal. Teorema 4.19. Sea A una matriz de componentes complejas de tama˜no n × n. La matriz A es normal si y s´olo si es diagonalizable mediante una matriz unitaria.

4.2. FACTORIZACIONES

193

Demostraci´on Supongamos que A es normal. Por el Teorema de Schur, A es semejante a una matriz triangular superior T , mediante una matriz unitaria U. Es decir T = U H AU. Pero como T T H =(U H AU)(U H AU)H =U H AAH U = U H AH AU =(U H AH U)(U H AU) =T H T, la matriz T resulta ser normal. El lector puede verificar que la matriz T es diagonal. Rec´ıprocamente, sup´ongase que A es diagonalizable por una matriz unitaria U, es decir U H AU = D, donde D es una matriz diagonal. Como D es normal (Ejemplo 4.2), se verifica que AAH =(UDU H )(UDU H )H =UDDH U H = UDH DU H =(UDU H )(UDU H ) =AH A. Por lo tanto, la matriz A es normal.

4.2.1.

Forma can´onica de Jordan

Si A es una matriz real de tama˜no n × n, en la secci´on 3.5 se vio que se pod´ıa encontrar una matriz no singular P de tama˜no n × n, tal que

J = P−1 AP. En esta secci´on se explica para matrices de componentes complejas la forma can´onica de Jordan. Teorema 4.20. Sea A una matriz compleja de tama˜no n × n. Entonces existe una matriz P no singular tal que 



0  Jn1 (λ1 ) · · ·  . ..  .. . P−1 AP =  . .   .  = J,   0 . . . Jnk (λk )

(4.10)

´ CAPITULO 4. MATRICES COMPLEJAS

194

en donde cada Jni (λi ) es un bloque de Jordan de tama˜no ni ×ni y n1 +n2 +. . .+nk = n. Los valores propios λi , i = 1, 2, . . . , k no son necesariamente distintos. El n´umero total de bloques quedan determinados un´ıvocamente por la matriz A. Demostraci´on Queda como ejercicio para el lector. Ejemplo 4.6. Encuentre una matriz no singular P tal que P−1 AP sea una matriz de Jordan, para la siguiente matriz

  0  2 + i 1    −2 i 1      1 1 1+i

Soluci´on La ecuaci´on caracter´ıstica de A es −λ3 + (3 + 3i) λ2 − 6iλ − (2 − 2i) = 0. Luego λ = 1+i es el u´ nico valor propio (de multiplicidad algebraica tres). Entonces 

    1 1 0 x 0      (A − λI)~v = [A − (1 + i)I]~v = −2 −1 1 y = 0 . 1 1 0 z 0 Esto conduce   a x + y = 0 y −x + z = 0. Tomando x ∈ R, se obtiene el vector propio: 1 ~v1 = −1. Para encontrar un vector propio generalizado ~v2 se calcula 1 [A − (1 + i)I]~v2 =~v1     1 1 1 0 x −2 −1 1 y = −1 . 1 1 1 0 z 

4.2. FACTORIZACIONES

195

Si se ~v2 =   realizan operaciones por filas se obtiene el vector propio  generalizado:  0 0 1 y de manera an´aloga el vector propio generalizado:~v3 = 0. Por consiguien0 1 te,     1 0 0 1 0 0 P = −1 1 0 y P−1 =  1 1 0 . 1 0 1 −1 0 1 Al efectuar el producto P−1 AP se llega a       1 0 0 2+i 1 0 1 0 0 1+i 1 0  1 1 0  −2 i 1  −1 1 0 =  0 1+i 1 . −1 0 1 1 1 1+i 1 0 1 0 0 1+i El lector puede notar que sobre la diagonal de la matriz de Jordan se encuentra el valor propio de la matriz A.

4.2.2.

Descomposici´on en valores singulares

Si A es una matriz real de tama˜no m × n, hemos visto en la Secci´on 3.6 que se pueden encontrar dos matrices ortogonales U y V de tama˜nos m × m y n × n, respectivamente, tales que A = USV t . En esta secci´on se describe la descomposici´on en valores singulares y la descomposici´on polar para matrices de componentes complejas. Teorema 4.21. Descomposici´on en Valores Singulares Sea A una matriz compleja de tama˜no m × n con rango r. Entonces existen matrices unitarias U y V de tama˜no m × m y n × n, respectivamente, tales que A = USV H , donde S es la matriz particionada de tama˜no m × n, dada por     .. Dr . O  σ1 . . . 0    . .   . . . ...  , S = donde Dr =  . . . . . . . , .      .. O . O 0 . . . σr

(4.11)

(4.12)

´ CAPITULO 4. MATRICES COMPLEJAS

196

siendo σi , para i = 1, 2, . . . , r, los valores singulares no nulos de A. Demostraci´on Queda como ejercicio para el lector.

4.2.3. Descomposici´on polar Ahora se estudiara la descomposici´on polar para matrices de componentes complejas. El nombre de descomposici´on polar se debe a la representaci´on polar de un n´umero complejo z = ρeiθ . La analog´ıa entre esta representaci´on de los n´umeros complejos y la descomposici´on (3.34) de una matriz es debida a que los valores propios de la matriz P son n´umeros reales no negativos y los de la matriz Q son n´umeros complejos unitarios. Teorema 4.22. Descomposici´on Polar Sea A una matriz compleja de tama˜no n × n con rango r. Entonces, existe una matriz hermitiana P de tama˜no n × n con valores propios no negativos y una matriz unitaria Q de tama˜no n × n, tales que A = PQ.

(4.13)

Demostraci´on Si A es una matriz de tama˜no n × n, en una descomposici´on de valores singulares las matrices U, S y V son tambi´en de tama˜no n × n. En este caso se puede escribir la ecuaci´on (4.11) como A = USV H = US(U H U)V H = (USU H )UV H = PQ, donde P = USU H es una matriz herm´ıtica. Como PH =(USU H )H = USH U H =USU H = P

(por ser S sim´etrica)

y la matriz Q = UV H es unitaria, puesto que Q−1 =(UV H )−1 = (V H )−1U −1 = VU H = Qt . En la u´ ltima ecuaci´on se usaron los hechos de que U y V eran matrices unitarias. Se deja como ejercicio la comprobaci´on de que P tiene valores propios no negativos.

4.2. FACTORIZACIONES

197

Ejemplo 4.7. Encuentre para la siguiente matriz de componentes complejas   1 + i −i  A=  0 1−i su descomposici´on en valores singulares y su descomposici´on polar. Soluci´on La matriz AH A es · ¸· ¸ · ¸ 1−i 0 1 + i −i 2 −1 − i = . i 1+i 0 1−i −1 + i 3 En este caso, los valores propios de AH A son λ1 = 4 y λ2 = 1. Por lo tanto, los valores singulares asociados a la matriz A son σ21 = 4 y σ22 = 1. Al calcular los respectivos vectores propios normalizados se obtiene: · ¸ · ¸ 1 1+i 1 2 ~v1 = √ y ~v2 = √ . 6 −2 6 1−i Por otra parte, la matriz AAH es · ¸· ¸ · ¸ 1 + i −i 1−i 0 3 1−i = 0 1−i i 1+i 1+i 2 y sus respectivos vectores propios normalizados son · · ¸ ¸ 1 −1 + i 1 2 √ √ ~u1 = y ~u2 = . 2 6 6 1+i · ¸ £ ¤ £ ¤ 2 0 Finalmente, si U = ~u1 ~u2 , V = ~v1 ~v2 y S = , entonces la SVD de A es 0 1 µ

1 A= √ 6

¶2 · ¸· ¸· ¸ · ¸ 1+i 2 2 0 2 −1 + i 1 + i −i = . −2 1 − i 0 1 1 + i 2 0 1−i

El lector puede obtener la descomposici´on polar de A. Las propiedades de las matrices complejas descritas en este cap´ıtulo son comparables a las propiedades de las matrices reales analizadas anteriormente. En el siguiente resumen se indica la correspondencia entre las matrices complejas unitarias y hermitianas con las matrices reales ortogonales y sim´etricas.

´ CAPITULO 4. MATRICES COMPLEJAS

198

Comparaci´on entre Matrices Reales y Matrices Complejas Sea A = [ai j ], con ai j ∈ R. Sea A = [ai j ], con ai j ∈ C. 1. Toda matriz sim´etrica tiene valores 1. Toda matriz hermitiana tiene valores propios reales propios reales 2. Si A es una matriz sim´etrica, los vec- 2. Si A es una matriz hermitiana, los tores propios correspondientes a valo- vectores propios correspondientes a vares propios distintos son ortogonales. lores propios distintos son ortogonales. 3. Descomposici´on de Schur 3. Descomposici´on de Schur Si A es una matriz de tama˜no n × n con Si A es una matriz de tama˜no n × n, valores propios reales, existe una ma- existe una matriz unitaria U tal que triz ortogonal Q tal que U H AU t Q AQ es una matriz triangular superior. es una matriz triangular superior. 4. Teorema Espectral 4. Teorema Espectral Si A es una matriz sim´etrica, existe una Si A es una matriz hermitiana, existe matriz ortogonal Q tal que una matriz unitaria U tal que Qt AQ

U H AU

es diagonal. 5. Descomposici´on en valores singulares Existen matrices ortogonales U y V de tama˜nos m × m y n × n, respectivamente, tales que

es diagonal. 5. Descomposici´on en valores singulares Existen matrices unitarias U y V de tama˜nos m × m y n × n, respectivamente, tales que

A = USV t

A = USV H

donde S esta dada por (3.31). 6. Descomposici´on Polar Existe una matriz sim´etrica P de tama˜no n × n con valores propios no negativos y una matriz ortogonal Q de tama˜no n × n, tal que

donde S esta dada por (4.12). 6. Descomposici´on Polar Existe una matriz hermitiana P de tama˜no n × n con valores propios no negativos y una matriz unitaria Q de tama˜no n × n, tal que

A = PQ

A = PQ

donde P = USU t y Q = UV t .

donde P = USU H y Q = UV H .

4.2. FACTORIZACIONES

199

Ejercicios 4.1. 1. Determine para cada una de las siguientes matrices una matriz unitaria U tal que U H AU sea diagonal       2 + 3i 1 + 2i  1  2  1 i b.  c.  a.  . . . 2 − 3i −1 1 − 2i −2 −i 2     1+i 2i  i 2 + i  1  1      d.  2 1 − i 4 2 − 3i  . e. 1 − i .  −i     −2i 2 + 3i 7 2−i 1+i 2 © ª 2. Sea V = A ∈ M22 : ai j ∈ C ; determine si cada uno de los siguientes subconjuntos H son o no subespacios de V. a) H = {A ∈ V : aii = 0}. b) H = {A ∈ V : aii son imaginarios puros}. c) H = {A ∈ V : A = At }.         w −z 3. Sea H = A ∈ M22 : A =   ; w, z ∈ C .     z w a) Demuestre que H es cerrado para la suma y la multiplicaci´on. b) ¿Cu´ales matrices en H son no singulares? c) Si una matriz en H es no singular, entonces la inversa est´a en H. d) Encuentre dos matrices A y B en H tal que AB 6= BA. 4. Sea A una matriz de tama˜no n × n con componentes complejas y sea ~x ∈ Cn un vector propio correspondiente al valor propio λ ∈ C. Muestre que para cada escalar complejo no nulo α, el vector α~x es un vector propio de A.

´ CAPITULO 4. MATRICES COMPLEJAS

200

5. Si A es una matriz normal, pruebe que A y AH son diagonalizables por la misma matriz unitaria. 6. Si A es una matriz normal, pruebe que λ es un valor propio de A si y s´olo si λ es un valor propio de AH .

Cap´ıtulo 5

Formas bilineales En este cap´ıtulo estudiaremos las formas bilineales sobre espacios de dimensi´on finita. Se introduce la representaci´on matricial de una forma bilineal y se establece el isomorfismo entre el espacio de las formas y el espacio de las matrices de tama˜no n × n.

5.1.

Formas bilineales

Definici´on 5.1. Sean U, V, W espacios vectoriales reales. Una aplicaci´on g : U × V → W se llama bilineal si satisface las siguientes propiedades:

BI 1. Para todo ~u1 ,~u2 ∈ U y ~v ∈ V se tiene que g(~u1 +~u2 ,~v) = g(~u1 ,~v) + g(~u2 ,~v) y para todo ~u ∈ U y ~v1 ,~v2 ∈V se tiene que g(~u,~v1 +~v2 ) = g(~u,~v1 ) + g(~u,~v2 ). BI 2. Para todo α ∈ R,~u ∈ U y ~v ∈V se tiene que g(α~u,~v) = αg(~u,~v) =g(~u, α~v). 201

´ CAPITULO 5. FORMAS BILINEALES

202

Ejemplo 5.1. Sea g : Rm × Rn → R definida por g(~X,~Y ) = ~X t A~Y , donde ~X ∈ Rm , ~Y ∈ Rn y A es una matriz real de tama˜no m × n. Verifique si la aplicaci´on g es bilineal. Soluci´on Para todo ~X1 , ~X2 ∈ Rm y ~Y ∈ Rn se tiene que g(~X1 + ~X2 ,~Y ) =(~X1 + ~X2 )t A~Y = (~X1t + ~X2t )A~Y =~X1t A~Y + ~X2t A~Y = g(~X1 ,~Y ) + g(~X2 ,~Y ). Para todo α ∈ R, ~X ∈ Rm y ~Y ∈ Rn se tiene que g(α~X,~Y ) =(α~X)t A~Y = (αt ~X t )A~Y =α~X t A~Y = αg(~X,~Y ). As´ı, la aplicaci´on g es lineal cuando ~Y ∈ Rn , permanece fijo. De manera an´aloga, se puede demostrar que g es una transformaci´on lineal cuando la componente ~X ∈ Rm , se mantiene fija. Por lo tanto, g es una aplicaci´on bilineal. Teorema 5.1. Sea g : Rm × Rn → R una aplicaci´on bilineal. Entonces existe una matriz u´ nica de tama˜no m × n, A tal que g(~X,~Y ) = gA (~X,~Y ) = ~X t A~Y .

(5.1)

El conjunto de aplicaciones bilineales de Rm × Rn en R es un espacio vectorial denotado por Bil(Rm × Rn , R) y la asociaci´on A 7→ gA es un isomorfismo entre Bil(Rm × Rn , R) y el espacio de las matrices reales de tama˜no m × n.

5.1. FORMAS BILINEALES

203

Demostraci´on Sean ~e1 ,~e2 , . . . ,~em los vectores unitarios est´andar para Rm y sean ~u1 ,~u2 , . . . ,~un los vectores unitarios est´andar para Rn . Luego se puede expresar cualquier ~X ∈ Rm y cualquier ~Y ∈ Rn de la siguiente manera: m

n

~X = ∑ xi~ei

~Y = ∑ y j~u j .

y

i=1

j=1

Entonces, se tiene que Ã

m

n

i=1

j=1

!

∑ xi~ei , ∑ y j~u j

g(~X,~Y ) = g

.

Como g es una transformaci´on lineal en la primer componente se llega a " Ã !# m

n

i=1

j=1

g(~X,~Y ) = ∑ xi g ~ei , ∑ y j~u j usando el hecho de que g es lineal en la segunda componente se halla que m

n

g(~X,~Y ) = ∑ ∑ xi y j g(~ei ,~u j ). i=1 j=1

Sea ai j = g(~ei ,~u j ) as´ı,

m

n

g(~X,~Y ) = ∑ ∑ ai j xi y j , i=1 j=1

que es precisamente la expresi´on del producto ~X t A~Y

con

A =[ai j ].

Esto prueba que g = gA para las ai j escogidas anteriormente. Ahora se puede demostrar que A es u´ nica. Suponga que g(~X,~Y ) = ~X t A~Y y que g(~X,~Y ) = ~X t B~Y para todo ~X ∈ Rm y ~Y ∈ Rn . Entonces ~X t A~Y = ~X t B~Y o estableciendo C = A − B se tiene que ~X t C~Y = 0,

para todo ~X ∈ Rm y ~Y ∈ Rn .

´ CAPITULO 5. FORMAS BILINEALES

204

En particular, si ~X =~ei e ~Y = ~u j , se tiene que 0 =~etiC~u j = ci j . As´ı que ci j = 0 para todo i, j, y por lo tanto, C = 0, la matriz cero de tama˜no m × n. Esto muestra que A = B. Queda como ejercicio para el lector demostrar la parte referente al isomorfismo entre el espacio de las matrices y las aplicaciones bilineales. Definici´on 5.2. La matriz A en el Teorema 5.1 se llama representaci´on matricial de la aplicaci´on bilineal gA . Definici´on 5.3. Forma Bilineal Si en la definici´on 5.1, los espacios U y V son iguales al mismo espacio V y el espacio W = R, de tal manera que g aplique a V × V en R, entonces se dice que g es una forma bilineal sobre V. Teorema 5.2. Sean g1 , g2 : V × V → R dos formas bilineales distintas sobre V. Entonces a) g1 + g2 , es una forma bilineal. b) αg1 es tambi´en una forma bilineal; donde α ∈ R Demostraci´on Queda como ejercicio para el lector. Definici´on 5.4. Rango de una Forma Bilineal El rango de una forma bilineal g sobre V, escrito ρ(g), se define como el rango de la matriz que representa a g. Se dice que g es degenerada o no degenerada seg´un si ρ(g) < dim(V ) o ρ(g) = dim(V ). Definici´on 5.5. Sea g : V × V → R una forma bilineal sobre V; entonces g es sim´etrica, si para todo ~v, ~w ∈ V , se cumple que g(~v,~w) = g(~w,~v).

(5.2)

5.1. FORMAS BILINEALES

205

Teorema 5.3. Una matriz real A de tama˜no n × n representa una forma bilineal sim´etrica si y s´olo si es una matriz sim´etrica. Demostraci´on Sup´ongase que A es sim´etrica. Como para todo ~X, ~Y ∈ Rn , la matriz ~X t A~Y es una matriz de 1 × 1, es decir, un elemento de R, entonces es igual a su propia traspuesta. Por lo tanto, ~X t A~Y = (~X t A~Y )t = ~Y t At (~X t )t = ~Y t A~X. As´ı que A representa una forma bilineal sim´etrica. Rec´ıprocamente, sup´ongase que A representa una forma bilineal sim´etrica; es decir, gA (~X,~Y ) = gA (~Y , ~X). (5.3) Para todo ~X, ~Y ∈ Rn . Como gA (~Y , ~X) = ~Y t A~X = (~Y t A~X)t = ~X t At (~Y t )t = ~X t At~Y .

(5.4)

Si se comparan las expresiones (5.3) y (5.4), se tiene que gA (~X,~Y ) = ~X t A~Y = ~X t At~Y ,

(5.5)

como (5.5) se cumple para todo ~X, ~Y ∈ Rn , se concluye que A = At . Es decir, A es sim´etrica. Definici´on 5.6. Inercia Sea A una matriz sim´etrica de tama˜no n×n. La inercia de A es la terna ordenada de n´umeros In(A) = (pos, neg, nul)

(5.6)

donde pos, neg y nul son los n´umeros de valores propios de A positivos, negativos y nulos, respectivamente (contando todas las multiplicidades algebraicas). N´otese que ρ(A) = pos + neg.

´ CAPITULO 5. FORMAS BILINEALES

206 Definici´on 5.7. Signatura

La diferencia entre el n´umero de valores propios positivos y el n´umero de valores propios negativos se le denomina signatura de la matriz A. En otras palabras, si In(A) = (i, j, k) se llama signatura de la matriz A a la cantidad sig(A) = i − j. Ejemplo 5.2. Determinar la inercia y signatura de la matriz dada en el Ejemplo 2.15. Soluci´on De los resultados del Ejemplo 2.15 se tiene que los valores propios de la matriz A eran λ1 = 1 de multiplicidad algebraica 2 y λ2 = 7. Luego, In(A) =(3, 0, 0)

y

Sig(A) =3.

Ejercicios 5.1. 1. Determine cu´ales de las siguientes funciones F : R2 × R2 → R son aplicaciones bilineales a. F(~X,~Y ) = 4x12 + 4x2 y1 + y21 .

b. F(~X,~Y ) = 9x12 − 24x1 y2 + 16y22 .

c. F(~X,~Y ) = x12 + 8x1 y2 + 16y22 .

d. F(~X,~Y ) = x12 + 2x1 y1 + y21 .

e. F(~X,~Y ) = x1 y2 − x2 y1 .

f . F(~X,~Y ) = x12 + 2x2 y1 + y22 .

2. Escriba cada una de las siguientes formas bilineales F : R3 → R en forma matricial a. F(x, y, z) = 6x2 + 3y2 − 2z2 + 12xy − 18yz. b. F(x, y, z) = 7x2 + 7y2 + 10z2 − 2xy − 4xz + 4yz. c. F(x, y, z) = 2x2 + 2y2 + 5z2 − 4xy + 2xz − 2yz.

´ 5.2. FORMAS CUADRATICAS

207

3. Sea V = M23 . Para A, B ∈ V, defina g : V × V → R como g(A, B) = tr(At B) demuestre que es una aplicaci´on bilineal en V × V. 4. Sea V = Mnn , demuestre que la funci´on g : V × V → R dada por g(A, B) = ntr(AB) − tr(A)tr(B) es una aplicaci´on bilineal en V × V. 5. Sea A una matriz sim´etrica de tama˜no n × n asociada a la aplicaci´on bilineal ³ ´ ³ ´ g ~X,~Y = ~X H A~Y con ~X,~Y ∈ C. Demuestre que g ~X,~Y es real. 6. Si µx =

1 n

n

∑ xi y µy =

i=1

1 n

n

∑ yi , repres´entese la forma bilineal

i=1

´ ³ COV ~X,~Y =

1 n ∑ (xi − µx ) (yi − µy ) n − 1 i=1

en la forma ~X t A~Y , con A sim´etrica. ¿Cu´al es el rango de A?.

5.2.

Formas cuadr´aticas

Cuando se considera el cuadrado de la norma de un vector ~X ∈ Rn , se obtiene la expresi´on k~Xk2 = ~X t ~X; tales sumas y expresiones en forma general se denominan Formas Cuadr´aticas. Ellas surgen frecuentemente en una gran variedad de aplicaciones. Por ejemplo, se pueden usar formas cuadr´aticas en Ingenier´ıa (para optimizaci´on), en Econom´ıa (en el an´alisis de funciones de costo y utilidad), en F´ısica (para el estudio de energ´ıas cin´eticas y potenciales) y en Estad´ıstica (en el an´alisis de varianza). En esta secci´on se estudiaran algunos temas relacionados con estas formas, utilizando la teor´ıa de las matrices sim´etricas analizada anteriormente.

´ CAPITULO 5. FORMAS BILINEALES

208

Definici´on 5.8. Sea V un espacio vectorial real de dimensi´on finita. Sea g : V × V → R una forma bilineal sim´etrica sobre V. Entonces una forma cuadr´atica determinada por g es una funci´on F : V → R, tal que F(~v) = gA (~v,~v) =~vt A~v.

(5.7)

La matriz A es llamada la matriz de la forma cuadr´atica Ejemplo 5.3. Sea V = Rn , y F(~v) = v21 +v22 +. . .+v2n . Escriba esta forma cuadr´atica como ~vt A~v. Soluci´on Vamos a determinar la matriz A = (ai j ) de la forma bilineal sim´etrica g, de tal forma que n

n

F(~v) =~vt A~v = ∑ ∑ ai j vi v j .

(5.8)

i=1 j=1

Es decir, queremos encontrar los valores de ai j , de manera que n

n

n

∑ ∑ ai j vi v j = ∑ v2i .

i=1 j=1

i=1

Como la matriz A es sim´etrica, ai j = a ji , por lo tanto, la forma cuadr´atica dada en (5.8) se puede expresar como n

n

n

n−1

∑ ∑ ai j vi v j = ∑ aii v2i + 2 ∑

i=1 j=1

i=1

n



ai j vi v j .

(5.9)

i=1 j=i+1

Si se comparan t´erminos se establecen las siguientes relaciones n

n

∑ aii v2i = ∑ v2i

i=1

i=1

n−1

y

2∑

n



ai j vi v j =0.

i=1 j=i+1

Pero como en la funci´on F(~v) no aparecen t´erminos de la forma vi v j , entonces ½ 1 si i = j ai j = 0 si i 6= j. Luego, A = In ; y por lo tanto, F(~v) se puede expresar como ~vt In~v.

´ 5.2. FORMAS CUADRATICAS

209

Ejemplo 5.4. Sea V = R3 , y F(~X) = 2x12 + 5x22 + 2x32 + 4x1 x2 + 2x1 x3 + 4x2 x3 . Exprese esta forma cuadr´atica como ~X t A~X. Soluci´on Utilizando el resultado obtenido en (5.9) para n = 3, se tiene que 3

2

~X t A~X = ∑ aii xi2 + 2 ∑ i=1

3



ai j xi x j .

i=1 j=i+1

Si se desarrolla esta suma y se comparan los ai j con los coeficientes de la funci´on F(~X), se obtiene la matriz   2 2 1 A = 2 5 2 , 1 2 2 la cual permite expresar a F(~X) de la forma ~X t A~X. Ejemplo 5.5. Si µx =

1 n

n

∑ xi , repres´entese la forma cuadr´atica

i=1

n

(n − 1) s2x = ∑ (xi − µx )2 i=1

en la forma ~X t A~X, con A sim´etrica, ¿cu´al es el rango de A?. Soluci´on Sea ~X t = (x1 , x2 , . . . , xn )t el vector que representa las n−observaciones. Si en el Ejemplo 5.3 se reemplaza cada vi por xi − µx , se tiene que n

F (~v) = ∑ (xi − µx )2 =~vt In~v

(5.10)

i=1

pero ~v se puede reescribir como       1 x1 x1 − µx 1 x2 − µx  x2         ..   ..   ..  .  .  .  ~     =   − µx  ~v =  1 = X −11µx ,  x x − µ j j x        ..   ..   ..  .  .  . 1 xn xn − µx

(5.11)

´ CAPITULO 5. FORMAS BILINEALES

210

donde 1 es un vector columna de unos de tama˜no n × 1. Luego µx se puede expresar como sigue 1 n 1 (5.12) µx = ∑ xi = 1t ~X. n i=1 n Si se reemplaza (5.12) en (5.11) se obtiene µ ¶ 1 t~ 1 t ~ ~ ~v = X − 11 X = In − 11 X. n n

(5.13)

Al sustituir en (5.10) se tiene que ·µ ¶ ¸ ·µ ¶ ¸t ·µ ¶ ¸ 1 1 1 F In − 11t ~X = In − 11t ~X In In − 11t ~X n n n ¶µ ¶ µ 1 1 In − 11t ~X =~X t In − 11t n n µ ¶ 1 1 1 =~X t In − 11t − 11t + 2 1 |{z} 1t 1 1t ~X n n n ¶ µ 1 =~X t In − 11t ~X. n Aqu´ı se uso que 1t 1 = n, denotando Jn = 11t , se llega finalmente a que µ ¶ ¢ ¡ 1 (n − 1) s2x = ~X t In − Jn ~X = ~X t In − J n ~X. n

(5.14)

Luego, la matriz asociada a la forma es A =In − J n

y

ρ(A) =n − 1.

Cabe notar, que en estas notas la matriz Jn siempre ser´a la matriz con todos sus elementos iguales a uno de tama˜no n × n, definida anteriormente. Definici´on 5.9. Dos formas cuadr´aticas ~X t A~X y ~Y t B~Y se dice que son equivalentes si existe una matriz no singular P tal que B = Pt AP. A´un m´as, las formas son equivalentes ortogonalmente si P se puede escoger ortogonal, equivalente-real si P se puede escoger con elementos reales y equivalente-compleja, o simplemente equivalente, si P tiene elementos complejos.

´ 5.2. FORMAS CUADRATICAS

211

Teorema 5.4. Dos formas cuadr´aticas ~X t A~X y ~Y t B~Y son equivalentes si y s´olo si las matrices sim´etricas A y B son congruentes. Demostraci´on Si en la forma cuadr´atica ~X t A~X se hace el cambio de variable ~X = P~Y , donde P es una matriz no singular, se obtiene la forma ~X t A~X = ~Y t Pt AP~Y = ~Y t B~Y . Rec´ıprocamente, sea [ai j ] = A y [bi j ] = Pt AP, donde P es una matriz real no singular, las dos matrices sim´etricas asociadas con las formas cuadr´aticas n

n−1

n

∑ aii xi2 +2 ∑ ∑

i=1

n

ai j xi x j

y

i=1 j=i+1

n−1

n

∑ bii y2i +2 ∑ ∑

i=1

bi j yi y j .

i=1 j=i+1

El cambio de variable ~X = P~Y , cambia la primera forma cuadr´atica a la segunda. Ejemplo 5.6. Muestre que las formas cuadr´aticas F1 (~X) =x12 + x22 + 8x1 x2

y

F2 (~Y ) =y21 − 14y22 + 2y1 y2

son equivalentes. Soluci´on Utilizando el resultado obtenido en (5.9), para n = 2, se tiene que ~X t A~X = a11 x12 + a22 x22 + 2a12 x1 x2 . Si se comparan los ai j con los coeficientes de la funci´on F1 (~X), se obtiene la matriz · ¸ 1 4 A= , 4 1 la cual permite expresar a F1 (~X) de la forma ~X t A~X. Para la forma cuadr´atica F2 (~Y ), se tiene la matriz · ¸ 1 1 B= . 1 −14 En el Ejemplo 2.5 se mostr´o que A y B eran congruentes. Por lo tanto, F1 (~X) es equivalente a la forma cuadr´atica F2 (~Y ).

´ CAPITULO 5. FORMAS BILINEALES

212

Teorema 5.5. Dos formas cuadr´aticas ~X t A~X y ~Y t B~Y son equivalentes ortogonalmente si y s´olo si A y B tienen los mismos valores propios y estos ocurren con la misma multiplicidad. Demostraci´on Si A y B tiene valores propios λ1 , λ2 , . . . , λn y D es una matriz diagonal con λ1 , λ2 , . . . , λn como elementos de su diagonal, entonces existen matrices ortogonales P y Q tal que Qt AQ = Pt BP = D. Por consiguiente, B = (Pt )−1 [Qt AQ]P−1 = (QP−1 )t A(QP−1 ) y como QP−1 es ortogonal, ~Y t B~Y es ortogonalmente equivalente a ~X t A~X. Rec´ıprocamente, si las dos formas son ortogonalmente equivalentes, B es similar a A (por que P−1 = Pt ) y A y B tienen los mismos valores propios con las mismas multiplicidades. Ejercicios 5.2. 1. Exprese las siguientes formas cuadr´aticas como ~X t A~X a. F(x, y, z) = 6x2 + 3y2 − 2z2 + 12xy − 18yz. b. F(x, y, z) = 7x2 + 7y2 + 10z2 − 2xy − 4xz + 4yz. c. F(x, y, z) = 2x2 + 2y2 + 5z2 − 4xy + 2xz − 2yz. 2. Determine si las siguientes formas cuadr´aticas son equivalentes a. F1 (~X) = 4x2 + 4xy + y2

y

F2 (~Y ) = 16u2 − 24uv + 9v2 .

c. F1 (~X) = x2 + 8xy + 16y2

y

F2 (~Y ) = u2 + 2uv + v2 .

3. Demuestre que la forma cuadr´atica F : R2 → R dada por F(x, y) = ax2 + 2bxy + cy2 tiene rango 2 si y s´olo si ac − b2 6= 0.

´ DE UNA FORMA CUADRATICA ´ 5.3. DIAGONALIZACION

213

4. Determine los valores de α para los cuales la matriz asociada a la forma F : R3 → R dada por F(x, y, z) = 5x2 + y2 + αz2 + 4xy − 2xz − 2yz tiene valores propios positivos. 5. Sea A una matriz sim´etrica de tama˜no n × n asociada a la forma cuadr´atica F(~X) = ~X H A~X con ~X ∈ C. Demuestre que F(~X) es real.

5.3.

Diagonalizaci´on de una forma cuadr´atica

Sea F(~X) = ~X t A~X cualquier forma cuadr´atica con n variables. Para simplificarla, se pasa de las variables x1 , x2 , . . . , xn a las variables y1 , y2 , . . . , yn y se supone que las variables anteriores est´an relacionadas con las nuevas mediante la f´ormula ~X = P~Y , donde P es una matriz no singular. Entonces ~X t A~X =(P~Y )t A(P~Y ) =(~Y t Pt )A(P~Y ) =~Y t (Pt AP)~Y = ~Y t B~Y

puesto que ~X = P~Y donde B es congruente a A.

As´ı, F(~X) es equivalente a una forma cuadr´atica F(~Y ), cuya matriz es B. En las nuevas variables no hay t´erminos mixtos, cuando la matriz B sea triangular. A este proceso se le llama diagonalizaci´on de una forma cuadr´atica.

5.3.1.

Diagonalizaci´on por completaci´on de cuadrados

Un procedimiento para diagonalizar una forma cuadr´atica es la generalizaci´on de la t´ecnica familiar de completar cuadrados, aprendido en el a´ lgebra elemental. El m´etodo que se va a estudiar a continuaci´on consiste en obtener una expresi´on can´onica para F(~X) = ~X t A~X en t´erminos de los menores de la matriz asociada. Para facilitar la comprensi´on se comenzar´a aplicando este m´etodo a las formas cuadr´aticas de dos y tres variables

´ CAPITULO 5. FORMAS BILINEALES

214

Caso I Si se considera una forma cuadr´atica en dos variables F(~X) = a11 x12 + 2a12 x1 x2 + a22 x22 ,

(5.15)

entonces F(~X) se puede expresar como ¸· ¸ · ~X t A~X = [x1 , x2 ] a11 a12 x1 . a12 a22 x2 Si cualquiera a11 o a22 es no nulo, sin p´erdida de generalidad se puede asumir que a11 es distinto de cero. Entonces (5.15) se puede escribir como " # µ ¶2 µ ¶2 a a a a 12 12 12 22 F(~X) =a11 x12 + 2 x1 x2 + x22 − x22 + x2 a11 a11 a11 a11 2 (µ ¶2 " µ ¶2 # ) a12 a22 a12 x2 + − x22 =a11 x1 + a11 a11 a11 (µ ) ¶2 ¤ 2 a12 1 £ 2 x1 + =a11 x2 + 2 a11 a22 − a12 x2 . (5.16) a11 a11 Si se definen y1 =x1 +

a12 x2 a11

y2 =x2

y

se tiene que · ¸ · ~Y = y1 = P~X = 1 y2 0

a12 ¸ · ¸ x1 a11 . x2 1

Entonces (5.16), en t´erminos de las nuevas variables queda det A 2 F(~Y ) = a11 y21 + y a11 2

(5.17)

y la forma (5.15) ha sido diagonalizada. La transformaci´on de variables es no singular (det P = 1), pero no es ortogonal. Adem´as, los coeficientes de y21 , y22 en (5.17) no son, en general, los valores propios de la matriz asociada a la forma cuadr´atica A. El lector puede verificar que cuando a22 6= 0. Entonces (5.15) se puede escribir como (µ ) ¶2 £ ¤ 2 a 1 12 2 F(~X) =a22 x2 + x1 + 2 a11 a22 − a12 x1 . (5.18) a22 a22

´ DE UNA FORMA CUADRATICA ´ 5.3. DIAGONALIZACION

215

Si se define y1 =x2 +

a12 x1 a22

y2 =x1

y

dicha transformaci´on de variables, se puede expresar como ¸· ¸ · ¸ · a12 ~Y = y1 = P~X = a11 1 x1 . y2 1 0 x2 Esta transformaci´on de variables es no singular (det P = −1), pero no es ortogonal. Al reemplazar en (5.18), se obtiene det A 2 F(~Y ) = a22 y21 + y . a22 2

(5.19)

En el caso de que a11 , a22 ambas desaparezcan, el procedimiento anterior no se puede trabajar. Cuando a11 = a22 = 0, la expresi´on (5.15) se vuelve F(~X) = 2a12 x1 x2 .

(5.20)

Ahora se hace la transformaci´on x1 =y1 + y2

x2 =y1 − y2 .

y

La cual se puede expresar matricialmente como · ¸ · ¸· ¸ y1 ~X = x1 = P~Y = 1 1 . x2 1 −1 y2 Esta es una transformaci´on no singular la cual reduce (5.20) a ¢ ¡ F(~Y ) = 2a12 y21 − y22 .

(5.21)

En este caso tambi´en la forma ha sido diagonalizada. Caso II Si se considera una forma cuadr´atica en tres variables 3

2

F(~X) = ∑ aii xi2 + 2 ∑ i=1

3



ai j xi x j .

i=1 j=i+1

F(~X) se puede expresar como    a11 a12 a13 x1 ~X t A~X = [x1 , x2 , x3 ] a12 a22 a23  x2  . a13 a23 a33 x3

(5.22)

´ CAPITULO 5. FORMAS BILINEALES

216

Si cualquiera a11 , a22 o a33 es no nulo, sin p´erdida de generalidad se puede suponer que a11 6= 0. Entonces (5.22) se puede escribir como 

à !2 à !2 3 3 a a a 1k 1k 1k xk + ∑ xk − ∑ xk + F(~X) = a11 x12 + 2x1 ∑ k=2 a11 k=2 a11 k=2 a11 # 3 akk 2 a23 ∑ xk + 2 a11 x2 x3 k=2 a11 à !2 " à µ ¶2 ! #  3 3 a1k akk a1k = a11 x1 + ∑ xk + ∑ − xk2 +  a a a 11 11 11 k=2 k=2 ¾ µ ¶ a23 a12 a13 2 − 2 x2 x3 . a11 a11 3

Ahora, se asume que M33 (A) 6= 0 Ã !2 Ã µ ¶2 !  3 a a13 a 33 1k x32 x1 + ∑ xk + − F(~X) = a11  a a a 11 11 k=2 11 Ã µ µ ¶2 ! · ¶ ¸2 a22 a11 a23 − a12 a13 a12 + x2 + − x3 a11 a11 a11 a22 − a212 Ã µ ¶2 ! µ ¶ ) a11 a23 − a12 a13 2 2 a22 a12 − − x3 a11 a11 a11 a22 − a212 (µ ¶2 a12 a13 x1 + = a11 x2 + x3 + a11 a11 Ã µ ¶2 ! · µ ¶ ¸2 a22 a12 a11 a23 − a12 a13 − x2 + x3 + a11 a11 a11 a22 − a212 " # ) 2 ¢ (a a − a a ) 1 ¡ 11 23 12 13 a33 a11 − a213 − x32 a211 a11 a22 − a212 (µ ¶2 · ¸ a12 a13 1 a11 det A 2 = a11 x1 + x2 + x3 + 2 x + a11 a11 a11 M33 (A) 3 · µ ¶ ¸2 ) 1 a11 a23 − a12 a13 M33 (A) x2 + x3 . (5.23) a211 a11 a22 − a212

´ DE UNA FORMA CUADRATICA ´ 5.3. DIAGONALIZACION

217

Con la sustituci´on a12 a13 x2 + x3 , a11 a11 a11 a23 − a12 a13 y2 =x2 + x3 , a11 a22 − a212 y1 =x1 +

y3 =x3 , se tiene que    1 y1 ~Y = y2  = P~X =  0 y3 0

a12 a11

1 0



  a13 x1 a11 a11 a23 −a12 a13    a11 a22 −a212  x2 . x3 1

Entonces (5.23), en t´erminos de las nuevas variables queda M33 (A) 2 det A 2 F(~Y ) = a11 y21 + y2 + y a11 M33 (A) 3

(5.24)

y la forma (5.22) ha sido diagonalizada. La transformaci´on de variables es no singular (det P = 1), pero no es ortogonal. Los coeficientes de y21 , y22 , y23 en (5.24) no son, en general, los valores propios de A. El lector puede verificar que cuando M22 (A) 6= 0. Entonces (5.22) se puede escribir como (µ ¶2 · ¸ a12 a13 1 det A ~ x1 + x2 + x3 + x2 + F(X) = a11 a11 a11 a11 M22 (A) 2 · µ ¶ ¸2 ) 1 a11 a23 − a12 a13 . (5.25) M22 (A) x3 + x2 a211 a11 a33 − a213 Si se definen a13 a12 x2 + x3 , a11 a11 a11 a23 − a12 a13 y2 =x3 + x2 , a11 a33 − a213 y1 =x1 +

y3 =x2 , dicha transformaci´on de variables, se puede expresar como     a13   a12 1 y1 x1 a11 a11   a11 a23 −a12 a13 ~Y = y2  = P~X =  0 1   x2 . a11 a22 −a212 y3 x3 0 1 0

´ CAPITULO 5. FORMAS BILINEALES

218

Esta transformaci´on de variables es no singular (det P = −1), pero no es ortogonal. Al reemplazar en (5.25), se obtiene M22 (A) 2 det A 2 F(~Y ) = a11 y21 + y2 + y . a11 M22 (A) 3

(5.26)

El procedimiento descrito puede generalizarse para diagonalizar cualquier forma cuadr´atica con n variables de la siguiente manera: Teorema 5.6. M´etodo de Reducci´on de Lagrange Sea F(~X) una forma cuadr´atica en Rn con matriz asociada A = [ai j ]: n

n−1

F(~X) = ~X t A~X = ∑ aii xi2 + 2 ∑ i=1

n



ai j xi x j .

i=1 j=i+1

Entonces, existe una matriz triangular superior T con elementos en la diagonal iguales a 1, tal que el cambio de coordenadas ~X = T~Y transforma a ~X t A~X en ∆2 2 ∆3 2 ∆n 2 F(~X) = ~Y t T t AT~Y = ∆1 y21 + y + y +...+ y , ∆1 2 ∆2 3 ∆n−1 n

(5.27)

donde ∆i 6= 0, i = 1, 2, . . . , n − 1, son los determinantes de las submatrices angulares1 A[i] de A. (∆n = det A). Demostraci´on El resultado se prueba por inducci´on. Es claro que para n = 1, se cumple trivialmente. Sup´ongase que es cierto para n − 1, es decir, existe una matriz de tama˜no (n − 1) × (n − 1),   1 t12 t13 . . . t1n−1 0 1 t23 . . . t2n−1      Tn−1 = 0 0 1 . . . t3n−1   .. .. .. . . ..  . . . . .  0

0

0

...

1

tal que si ~Xn−1 = (x1 , x2 , . . . , xn−1 ) ∈ Rn−1 y A[n−1] es la submatriz angular de A de orden n − 1, se tiene que ∆2 2 ∆3 2 ∆n−1 2 t ~Xn−1 A[n−1]~Xn−1 = ∆1 y21 + y2 + y3 + . . . + y . ∆1 ∆2 ∆n−2 n−1 1 V´ease

definici´on 1.28

(5.28)

´ DE UNA FORMA CUADRATICA ´ 5.3. DIAGONALIZACION Ahora bien, dado



a1n a2n .. .

219



   ~ = U     an−1n la matriz A se puede escribir como   A[n−1] A=  ... ~t U

.. . . .. .

 ~ U  ...  . ann

Si para cualquier ~c ∈ Rn−1 se considera la matriz triangular   ..  Tn−1 . ~c   T =  ... . ... , .. ~0t . 1 

entonces

 B11 F(~X) = ~X t A~X = ~Y t T t AT~Y = ~Y t   ... Bt12

 .. . B12  ~ . ...  Y , .. . B22

(5.29)

donde: t B11 =Tn−1 A[n−1] Tn−1

es una matriz de tama˜no (n − 1) × (n − 1)

t t ~ B12 =Tn−1 A[n−1]~c + Tn−1 U t t~ B22 =~c A[n−1]~c + 2~c U + ann

es una matriz de tama˜no (n − 1) × 1 es un escalar.

Si se tiene en cuenta (5.28) resulta    ∆1 y1  y2  0    [y1 , y2 , . . . , yn−1 ] B11  .  = [y1 , y2 , . . . , yn−1 ]  .. .  .  . yn−1 0

0

∆2 ∆1

.. . 0

... ... .. . ...

0 0 .. .



y1 y2 .. .



        ∆n−1 yn−1 ∆ n−2

y como B22 es un escalar, para completar la prueba y obtener (5.27), bastar´a encontrar un ~c ∈ Rn para el vector columna B12 sea nulo. Para ello, dado que ³ ´ t ~ B12 =Tn−1 A[n−1]~c + U y Tn−1 es no singular

´ CAPITULO 5. FORMAS BILINEALES

220 ~c debe ser tal que

~ = ~0. A[n−1]~c + U

¡ ¢ ~ Como det A[n−1] 6= 0, existe un u´ nico ~c = −A−1 [n−1]U para el cual B12 es un vector columna nulo. Si se reemplaza en B22 se tiene que ~ t A−1 U ~ B22 = ann − U [n−1] ´ ¡ ¢³ ~ t A−1 U ~ 2 se obtiene y usando el hecho de que det (A) = det A[n−1] ann − U [n−1] B22 =

det (A) ∆ ¡ ¢= n . ∆n−1 det A[n−1]

De la expresi´on (5.29) resulta ∆n 2 ∆2 2 ∆3 2 y + y +...+ y . F(~X) = ~Y t T t AT~Y = ∆1 y21 + ∆1 2 ∆2 3 ∆n−1 n Esto completa la prueba. Ejemplo 5.7. Sea F(~X) = 3x12 + 3x22 + 2x1 x2 . Encuentre una diagonalizaci´on por el m´etodo descrito. Soluci´on Utilizando el resultado obtenido en (5.9); para n = 2, se tiene que ~X t A~X = a11 x12 + a22 x22 + 2a12 x1 x2 . Al comparar los ai j con los coeficientes de la funci´on F(~X), se obtiene la matriz · ¸ 3 1 A= 1 3 luego, la F(~X), se puede expresar como · ¸· ¸ ~X t A~X = [x1 , x2 ] 3 1 x1 . 1 3 x2

(5.30)

En este caso, ya que ∆1 = a11 = 3 6= 0 y ∆2 = det A = 8, la forma (5.30) se puede diagonalizar de la siguiente manera 8 F(~Y ) = 3y21 + y22 3 2 V´ease

Teorema 1.19

´ DE UNA FORMA CUADRATICA ´ 5.3. DIAGONALIZACION

221

donde 1 y1 =x1 + x2 3

y2 =x2 .

e

En forma matricial, se obtiene ¸ · 1 ~Y = 1 3 ~X 0 1

o

· ¸ 1 ~X = 1 − 3 ~Y . 0 1

Aqu´ı, se us´o el hecho de que la transformaci´on ten´ıa determinante 1 y por lo tanto, era no singular. De este modo ¸· ¸· ¸ · ¸ · 1 1 t 3 1 3 1 1 − 1 − t t 3 3 ~Y ~X = ~Y F(~X) =~X 1 3 1 3 0 1 0 1 · ¸· ¸ · ¸ 1 0 3 0 ~ ~t 3 0 ~ t ~ =Y Y =Y Y. 0 38 − 13 1 1 83 Ejemplo 5.8. Considere la forma cuadr´atica dada en el Ejemplo 5.4 y determine una forma diagonal equivalente. Soluci´on Haciendo referencia al Ejemplo 5.4, la F(~X) se puede escribir como    2 2 1 x1 ~X t A~X = [x1 , x2 , x3 ] 2 5 2 x2  . 1 2 2 x3 Dado que ∆1 =a11 = 2 6= 0,

∆2 =M33 (A) = 6

∆3 = det A = 7

y

se tiene que 7 F(~Y ) = 2y21 + 3y22 + y23 , 6 donde 1 y1 =x1 + x2 + x3 , 2 En forma matricial, se tiene que   1 1 21 ~Y = 0 1 1 ~X 3 0 0 1

1 y2 =x2 + x3 3

o

e

y3 =x3

  1 −1 − 61 ~X = 0 1 − 1 ~Y . 3 0 0 1

(5.31)

´ CAPITULO 5. FORMAS BILINEALES

222

En la transformaci´on anterior, se emple´o el hecho de que la transformaci´on ten´ıa determinante 1 y por lo tanto, era no singular. De este modo t     2 2 1 2 1 −1 − 61 t t 1  ~ ~ ~ ~ 2 F(X) =X 2 5 2 X = Y 0 1 − 3 1 2 2 1 0 0 1     1 0 0 2 0 0 2 1 0 2 3 0 ~Y = ~Y t 0 =~Y t  −1 − 16 − 13 1 1 1 76 0

  2 1 1 −1 − 61 5 2 0 1 − 31 ~Y 2 2 0 0 1  0 0 3 0 ~Y . 0 76

Teorema 5.7. Sea F(~X) una forma cuadr´atica asociada a una matriz sim´etrica real A. Sea L una matriz no singular triangular inferior tal que A se pueda factorizar como LDLt . Entonces el cambio de coordenadas ~Y = Lt ~X transforma a ~X t A~X en ~Y t D~Y . Demostraci´on La matriz A asociada a la forma, se puede factorizar como A = LDU. Como A es sim´etrica, por el Teorema 3.5, U = Lt . Por lo tanto, ¡ ¢ ~X t A~X =~X t LDLt ~X puesto que A = LDLt ³ ´ ³ ´ = ~X t L D Lt ~X ´ ³ ´t ³ puesto que ~Y = Lt ~X. = Lt ~X D Lt ~X = ~Y t D~Y As´ı, queda probado el teorema. A continuaci´on se presenta una versi´on de este m´etodo de diagonalizaci´on.

(5.32)

´ DE UNA FORMA CUADRATICA ´ 5.3. DIAGONALIZACION

223

Procedimiento para diagonalizar una forma cuadr´atica i) Halle la matriz de coeficientes sim´etrica A asociada a F(~X). ii) Obtenga la descomposici´on LDLt de A, sin efectuar intercambios de filas que destruyan la simetr´ıa y con elementos en D = diag{d11 , d22 , . . . , dnn } no necesariamente distintos de cero. Forme L de manera que det(L) = 1. iii) Transforme a F(~X) en d11 y21 + d22 y22 + . . . + dnn y2n , bajo el cambio de coordenadas ~Y = Lt ~X. Ejemplo 5.9. Considere la forma cuadr´atica dada en el Ejemplo 5.7 y determine una forma diagonal equivalente por el m´etodo descrito. Soluci´on La factorizaci´on LDLt de la matriz asociada a la forma cuadr´atica es · ¸ ¸ · ¸· ¸· 1 0 3 0 1 13 3 1 . = 1 1 3 0 83 0 1 3 1 Luego, la F(~X) se puede expresar como · ¸· ¸· ~X t A~X = [x1 , x2 ] 11 0 3 08 1 0 3 0 3 1

¸· ¸ x1 . 1 x2

1 3

(5.33)

Como L es no singular. Se hace, · ¸ · ¸· ¸ y1 1 13 x1 = , y2 0 1 x2 F(~X) se puede escribir en t´erminos de las variables y1 , y2 como 8 F(~Y ) = 3y21 + y22 . 3 Ejemplo 5.10. Considere la forma cuadr´atica dada en el Ejemplo 5.4 y determine una forma diagonal equivalente. Soluci´on La factorizaci´on LDLt de la matriz asociada a la forma cuadr´atica es       1 0 0 2 0 0 1 1 21 2 2 1 2 5 2 =  1 1 0 0 3 0  0 1 1  , 3 1 1 1 2 2 0 0 76 0 0 1 2 3 1

´ CAPITULO 5. FORMAS BILINEALES

224 de modo que

      1 0 0 2 0 0 1 1 12 2 2 1 F(~X) =~X t 2 5 2~X = ~X t  1 1 0 0 3 0  0 1 13 ~X. 1 1 1 2 2 0 0 76 0 0 1 2 3 1

N´otese que L es no singular. Por lo tanto, se puede hacer el cambio de variable   1 1 21 ~Y = 0 1 1 ~X, 3 0 0 1 se puede escribir F(~X) en t´erminos de las variables y1 , y2 , y3 como 7 F(~Y ) = 2y21 + 3y22 + y23 . 6

5.3.2. Diagonalizaci´on por transformaci´on ortogonal En la diagonalizaci´on de la forma cuadr´atica F(~X) = ~X t A~X a la forma F(~Y ) = por el m´etodo de completaci´on de cuadrados, s´olo se exigi´o que la matriz P fuera no singular. Cuando la matriz A asociada a la forma cuadr´atica sea sim´etrica, entonces, se puede diagonalizar a F(~X) mediante una matriz P ortogonal en cuyo caso los elementos sobre la diagonal de la matriz B son los valores propios de la matriz A.

~Y t B~Y ,

Teorema 5.8. Teorema de los ejes principales Sea F(~X) una forma cuadr´atica asociada a una matriz sim´etrica real A con valores propios (no necesariamente distintos) λ1 , λ2 , . . . , λn . Sea Q una matriz ortogonal propia que diagonaliza a A. Entonces el cambio de coordenadas ~X = Q~Y transforma a ~X t A~X en ~Y t D~Y , donde D = Qt AQ = diag{λ1 , λ2 , . . . , λn }. Demostraci´on La demostraci´on consiste en un c´alculo directo ~X t A~X =(Q~Y )t A(Q~Y ) =(~Y t Qt )A(Q~Y ) =~Y t (Qt AQ)~Y = ~Y t D~Y

puesto que ~X = Q~Y puesto que Q diagonaliza a A

(5.34)

´ DE UNA FORMA CUADRATICA ´ 5.3. DIAGONALIZACION

225

as´ı, queda el teorema probado. El Teorema 5.8 se llama Teorema de los ejes principales porque define nuevos ejes (los ejes principales) con respecto a los cuales la forma cuadr´atica tiene una expresi´on paticularmente simple. A continuaci´on se presenta una versi´on de este m´etodo de diagonalizaci´on. Procedimiento para diagonalizar una forma cuadr´atica i) Halle la matriz de coeficientes sim´etrica A asociada a F(~X). ii) Encuentre los valores propios (no necesariamente distintos), λ1 , λ2 , . . . , λn de A. iii) Obtenga una base ortonormal para Rn formada por los vectores propios normalizados de A. iv) Forme la matriz Q cuyas columnas sean los vectores de la base hallada en el paso iii) en el orden correspondiente al listado de los valores propios en el paso ii). La transformaci´on ~X = Q~Y es una rotaci´on si det(Q) = 1. v) Transforme a F(~X) en λ1 y21 + λ2 y22 + . . . + λn y2n . Nota Si Q es una matriz ortogonal impropia, es decir, det Q = −1, se debe cambiar de signo todas las componentes de un s´olo vector columna (o intercambiar dos vectores columnas de Q). Ejemplo 5.11. Determine los ejes principales de la forma cuadr´atica dada en el Ejemplo 5.7. Soluci´on En el Ejemplo 5.7, se obtuvo que la F(~X), se puede escribir como · ¸· ¸ 3 1 x1 t ~X A~X = [x1 , x2 ] . 1 3 x2

(5.35)

En este caso, los valores propios · ¸ de A son · ¸λ1 = 2 y λ2 = 4 y los vectores propios −1 1 correspondientes son ~v1 = y ~v2 = , respectivamente. 1 1

226

´ CAPITULO 5. FORMAS BILINEALES

√ ¸ · √ −1/√ 2 ~v1 Para encontrar Q, como k~v1 k = 2, se hace ~u1 = k~v1 k = y dado que 1/ 2 √ · ¸ √ 1/√2 k~v2 k = 2 se tiene ~u2 = . Se puede verificar que la base obtenida para R2 1/ 2 es ortonormal observando que ~u1 ·~u2 = 0. Por lo tanto, √ √ ¸ · −1/√ 2 1/√2 Q= . 1/ 2 1/ 2 Como el det(Q) = −1, intercambiamos las columnas y se tiene √ ¸ · √ · ¸ 1/√2 −1/√ 2 4 0 Q= y Qt AQ = . 0 2 1/ 2 1/ 2 Si se definen los ejes principales como sigue √ ¸· ¸ · ¸ · √ ~Y = y1 = Qt ~X = 1/ √2 1/√2 x1 , y2 −1/ 2 1/ 2 x2 entonces, (5.35) se puede escribir en t´erminos de las nuevas variables y1 , y2 como ~Y t D~Y , o sea, 4y21 + 2y22 . (5.36) Ejemplo 5.12. Considere la forma cuadr´atica dada en el Ejemplo 5.4 y determine sus ejes principales. Soluci´on Haciendo referencia al Ejemplo 5.4, la F(~X), se puede escribir como    2 2 1 x1 ~X t A~X = [x1 , x2 , x3 ] 2 5 2 x2  . 1 2 2 x3 Del Ejemplo 3.11, se tiene que √ √  √  −1/ 2 1/ √3 1/√6 Q =  0√ −1/√ 3 2/√6 1/ 2 1/ 3 1/ 6

y

(5.37)

  1 0 0 Qt AQ = 0 1 0 0 0 7

Por lo tanto, (5.37) se puede escribir en t´erminos de las nuevas variables y1 , y2 , y3 como ~Y t D~Y , o sea, y21 + y22 + 7y23 , (5.38)

´ 5.4. LEY DE LA INERCIA PARA FORMAS CUADRATICAS

227

donde los ejes principales, se obtienen como sigue √ √      −1/√ 2 0√ 1/√2 x1 y1 ~Y = y2  = Qt ~X =  1/ 3 −1/ 3 1/ 3 x2  . √ √ √ y3 1/ 6 2/ 6 1/ 6 x3

5.4.

Ley de la inercia para formas cuadr´aticas

Sea F : Rn → R una forma cuadr´atica. Si ρ(A) = r, entonces toda matriz sim´etrica que represente a F tambi´en tiene rango r. En particular todas las formas diagonales a las que F sea semejante, mediante una transformaci´on lineal real invertible de variables, tendr´an exactamente r coeficientes no nulos. Adem´as, todas las formas diagonales a las que reduzcamos F tienen el mismo n´umero de coeficientes positivos y el mismo n´umero de coeficientes negativos, como se afirma en el resultado obtenido por Sylvester. Teorema 5.9. Ley de la inercia de Sylvester Sean A una matriz sim´etrica de tama˜no n × n y P una matriz no singular del mismo tama˜no, entonces ¡ ¢ In(A) = In PT AP . Demostraci´on Sea Q una matriz ortogonal tal que   λ1 0 . . . 0  0 λ2 . . . 0    Qt AQ = D =  . .. . . ..  , . . . . . 0 0 . . . λn de forma que λ1 , λ2 , . . . , λi son positivos, λi+1 , λi+2 , . . . , λi+ j son negativos y el resto nulos. b la matriz sim´etrica Pt AP y W una matriz ortogonal tal que Sean A   bλ1 0 . . . 0    0 bλ2 . . . 0  tb b= . W AW = D .. . . . , . . ..  . . 0 0 . . . bλn

´ CAPITULO 5. FORMAS BILINEALES

228

de forma que bλ1 , bλ2 , . . . , bλbi son positivos, bλbi+1 , bλbi+2 , . . . , bλbi+ bj son negativos y el resto nulos. Se prueba por contradicci´on que i = bi. Supongamos que bi > i. Sean ~q1 ,~q2 , . . . ,~qi las primeras i columnas de la matriz Q. Sean ~r1 ,~r2 , . . . ,~rn las filas de la matriz R = W t P−1 . Se forma una matriz B de tama˜no n × n, cuyas primeras filas sean las primeras i columnas de Q traspuestas y el resto sean las filas bi + 1, bi + 2, . . . , n de R, es decir,  t  ~q1  ~qt   2  ..   .   t   ~qi   B= ~rb   i+1  ~rb   i+2   .   ..  ~rn es una matriz real de tama˜no (i + n − bi) × n, donde i + n − bi < n. Por consiguiente, el sistema lineal homog´eneo cuya matriz de coeficientes es B tiene soluci´on distinta de la trivial y por tanto existe un vector ~u 6= ~0, tal que B~u = ~0. En otras palabras, el producto de cualquier fila de la matriz B por el vector ~u es cero, es decir ~qtk~u = 0

para k = 1, 2, . . . , i para k = bi + 1, bi + 2, . . . , n.

~rkt ~u = 0 Al evaluar ~ut A~u, se tiene que

~ut A~u =~ut QDQt~u 

£ ~ut A~u = 0 . . . 0 vi+1

n

=



s=i+1

λs v2s < 0,

 λ1 0 . . . ¤  0 λ2 . . . . . . vn  . .. . .  .. . . 0 0 ...

 0   0  ...    0 0    ..  v   .   i+1   ..  λn  .  vn (5.39)

´ 5.4. LEY DE LA INERCIA PARA FORMAS CUADRATICAS

229

donde, vs = ~qts~u para s = i + 1, i + 2, . . . , n. Por otra parte, b −1~u = ~ut (Pt )−1W DW b t P−1~u = ~ut Rt DR~ b u. ~ut A~u =~ut (Pt )−1 AP Si se denota wk =~rk~u para k = 1, 2, . . . , bi, se tiene b u ~ut A~u =~ut Rt DR~

£ = w1 . . . wbi

 bλ1 0 . . .  ¤  0 bλ2 . . . 0 ... 0  .. . .  .. . . . 0 0 ...

   w1 .  0   ..    bi 0   wb b 2 i =   ..   0  ∑ λs ws > 0, .    s=1   bλ  ...  n

0 lo que contradice (5.39). An´alogamente se demuestra que la hip´otesis bi < i conduce a una contradicci´on. Por lo tanto, se debe tener que bi = i. Con b j y j se procede de la misma forma. Teorema 5.10. Teorema de Euler Sea F(~X) una forma cuadr´atica asociada a una matriz sim´etrica real A. El valor ³ ´ ~ es de F ~X = ~X t A~X en un vector unitario U ³ ´ ~ = F U

n

∑ λ j cos2 θ j

(5.40)

j=1

donde los λ j son los valores propios de la matriz sim´etrica A y los a´ ngulos θ j son los a´ ngulos entre ~X y los vectores propios ortonormalizados ~q j correspondientes a los λ j respectivamente. Demostraci´on Sean ~q1 ,~q2 , . . . ,~qn los vectores propios ortonormalizados de la matriz A y sea ~ un vector unitario arbitrario. Supongamos que θ j representa el a´ ngulo entre U ~ y U ~q j , as´ı que ~ = ~qtjU. ~ cos θ j = ~q j · U

´ CAPITULO 5. FORMAS BILINEALES

230

£ ¤ ~ = Q~Y Si se forma Q = ~q1 ~q2 . . . ~qn y se obtiene ~Y por la transformaci´on U t ~ Entonces, o ~Y = Q U.   t  ~q1 cos θ1 ~qt  cos θ2    2   ..   ..      . ~Y = Qt U ~ =  t U ~  .  ~q  = cos θ j  .   j   ..   ..  .  .  cos θn ~qtn Por lo tanto, ³ ´ ~ =U ~ t AU ~ = ~Y t Qt AQ~Y = ~Y t D~Y = F U

n

∑ λ j cos2 θ j

j=1

y el teorema queda probado.

Ejercicios 5.3. 1. Diagonal´ıcense cada una de las siguientes formas cuadr´aticas por completaci´on de cuadrados y mediante transformaci´on ortogonal a. F (x, y) = 4x2 + 4xy + y2 .

b. F (x, y) = 9x2 − 24xy + 16y2 .

c. F (x, y) = x2 + 8xy + 16y2 .

d. F (x, y) = x2 + 2xy + y2

e. F (x, y, z) = 6x2 + 3y2 − 2z2 + 12xy − 18yz. f . F (x, y, z) = 7x2 + 7y2 + 10z2 − 2xy − 4xz + 4yz. g. F (x, y, z) = 2x2 + 2y2 + 5z2 − 4xy + 2xz − 2yz.

2. Hallar una condici´on necesaria y suficiente en a, b y c tal que la forma cuadr´atica ax2 + by2 + cxy se pueda expresar como ku2 .

´ ANALITICA ´ 5.5. APLICACIONES A LA GEOMETRIA

5.5.

231

Aplicaciones a la geometr´ıa anal´ıtica

En esta secci´on se pretende poner al alcance de los lectores un algoritmo proporcionado por el m´etodo de “valores propios y vectores propios”, para tratar con m´as generalidad, agilidad y libertad algunos objetos de la geometr´ıa anal´ıtica de no f´acil manipulaci´on por los m´etodos tradicionales usados para el estudio de las ecuaciones cuadr´aticas. Definici´on 5.10. Ecuaci´on Cuadr´atica Una ecuaci´on en las variables x y y de la forma ax2 + by2 + cxy + dx + ey + f = 0

(5.41)

donde a, b, . . . , f son n´umeros reales con al menos uno de los n´umeros a, b, c, distinto de cero, se denomina ecuaci´on cuadr´atica de segundo grado. Esta se puede escribir en forma matricial como ~X t A~X + K.~X + f = 0.

(5.42)

En esta notaci´on, la expresi´on ~X t A~X es la forma cuadr´atica asociada y la matriz · ¸ K de tama˜no 1 × 2, es K = d e . Definici´on 5.11. Tipos de ecuaci´on cuadr´atica Las curvas representadas por la ecuaci´on cuadr´atica de segundo grado dada en (5.41) se pueden clasificar seg´un la posici´on en la cual est´en con respecto a un sistema coordenado cartesiano X, as´ı: 1. Est´andar o can´onica, si tiene su centro en el origen. 2. Trasladada, si tiene su centro en un punto diferente del origen. 3. Rotada, si su posici´on con respecto al sistema X no es can´onica ni tampoco trasladada, pero es posible encontrar un sistema Y, con el mismo origen del

´ CAPITULO 5. FORMAS BILINEALES

232

sistema X y tal que los ejes coordenados de Y forman con los ejes coordenados del sistema X un a´ ngulo agudo θ, con respecto al cual la curva est´a en posici´on can´onica Ejemplo 5.13. Dada la ecuaci´on cuadr´atica 3x2 + 2xy + 3y2 − 9 = 0,

(5.43)

elimine el t´ermino cruzado xy utilizando el Teorema 5.8, escriba la ecuaci´on en t´erminos de las nuevas variables e identifique la secci´on c´onica obtenida. Soluci´on En el Ejemplo 5.11, se vio que la forma cuadr´atica asociada 3x2 + 2xy + 3y2 se puede expresar como 4u2 + 2v2 . Luego, la ecuaci´on cuadr´atica dada en (5.43), se puede escribir como 4u2 + 2v2 = 9, la cual es la ecuaci´on de una elipse est´andar. Por lo tanto (5.43), es la ecuaci´on de una elipse est´andar rotada. Vea la siguiente figura y v

u

,

θ

x

´ ANALITICA ´ 5.5. APLICACIONES A LA GEOMETRIA

233

Ejemplo 5.14. Dada la ecuaci´on cuadr´atica 2x2 + 4xy − y2 − 2x + 3y − 6 = 0,

(5.44)

elimine el t´ermino cruzado xy utilizando el Teorema 5.8, escriba la ecuaci´on en t´erminos de las nuevas variables e identifique la secci´on c´onica obtenida. Soluci´on La forma cuadr´atica asociada 2x2 + 4xy − y2 se puede expresar como · ¸· ¸ ~X t A~X = [x, y] 2 2 x . 2 −1 y

(5.45)

En este caso, los valores propios · ¸ de A son· λ¸1 = −2 y λ2 = 3 y los vectores propios −1 2 correspondientes son ~v1 = y ~v2 = , respectivamente. 2 1 Para encontrar Q se usa la expresi´on (5.6), dada en la definici´on de inercia, la cual establece primero los valores propios positivos ¸ los negativos. De · y√luego √ 2/ 5 √ y dado que k~v1 k = esta manera, como k~v2 k = 5, se hace ~u2 = k~~vv22 k = 1/ 5 √ ¸ · √ −1/√ 5 5 se tiene ~u1 = . Se puede verificar que la base obtenida para R2 es 2/ 5 ortonormal observando que ~u1 ·~u2 = 0. Por lo tanto, √ ¸ · ¸ · √ 3 0 2/√5 −1/√ 5 t y Q AQ = . Q= 0 −2 1/ 5 2/ 5 Dado que el det(Q) = 1, se define √ √ ¸· ¸ · ¸ · ~Y = u = Qt ~X = 2/ √5 1/√5 x . v −1/ 5 2/ 5 y

(5.46)

Entonces, (5.45) se puede escribir en t´erminos de las nuevas variables u, v como ~Y t D~Y , o sea, 3u2 − 2v2 . (5.47) Si se expresa ahora toda la ecuaci´on dada en (5.44), en la forma matricial dada en (5.42) queda de la siguiente manera: ~X t A~X + K ~X − 6 = 0,

´ CAPITULO 5. FORMAS BILINEALES

234

£ ¤ donde K = −2 3 y al hacer el cambio de variable propuesto en (5.46), se tiene √ ¸· ¸ · √ · ¸ £ ¤ 2/ 5 −1/ 5 u ¤ u 1 £ ~ ~ √ √ √ −1 −8 K X =KQY = −2 3 = . v 1/ 5 2/ 5 v 5 Luego, la ecuaci´on cuadr´atica dada en (5.44) se puede reescribir como 8 1 3u2 − 2v2 − √ u − √ v = 6. 5 5 Naturalmente esta no es la ecuaci´on de una c´onica en posici´on can´onica, pero si est´a trasladada porque al completar los cuadrados se obtiene · ¸ · ¸ 1 1 4 4 8 1 − 2 v2 + √ v + = 6− + 3 u2 − √ u + 180 5 5 60 3 5 5 · ¸2 · ¸ 1 2 2 53 3 u− √ −2 v + √ = , 12 6 5 5 ³ ´ la cual es la ecuaci´on de una hip´erbola con centro en 6√1 5 , − √25 . Por lo tanto, la ecuaci´on (5.44) es una hip´erbola rotada y trasladada. La gr´afica es y v

u

,

θ

x

´ ANALITICA ´ 5.5. APLICACIONES A LA GEOMETRIA

5.5.1.

235

Rotaci´on de ejes en R2

Como ya hemos se˜nalado una transformaci´on ~Y = Q~X, donde Q es ortogonal, se llama transformaci´on ortogonal. Ahora examinemos la interpretaci´on geom´etrica de estas transformaciones en R2 . Teorema 5.11. Rotaci´on de ejes en R2

n 0 0o 0 Sean B = {~e1 ,~e2 } una base del sistema coordenado X y B = ~e1 ,~e2 la base

correspondiente al sistema Y. Entonces si 0

~e1 =a1~e1 + a2~e2

0

~e2 =b1~e1 + b2~e2

y

las coordenadas (x1 , x2 ) de un punto cualquiera S en el sistema X y las coordenadas (y1 , y2 ) del mismo punto en el sistema Y, est´an relacionadas como sigue        x a b y  1  1 1  1 y1   =   = P  x2 a2 b2 y2 y2 0

donde, P es la matriz de transici´on (o matriz de cambio de base) de B a B . Demostraci´on Supongamos que los sistemas coordenados X y Y (en R2 ) tienen el mismo − → origen O. Sea OS el vector formado desde el origen del sistema coordenado X al punto S = (x1 , x2 ), entonces − → OS = x1~e1 + x2~e2 . − → Por otra parte, el vector OS formado desde el origen del sistema coordenado Y al punto S = (y1 , y2 ), es 0 0 − → OS =y1~e1 + y2~e2 =y1 (a1~e1 + a2~e2 ) + y2 (b1~e1 + b2~e2 ) = (y1 a1 + y2 b1 )~e1 + (y1 a2 + y2 b2 )~e2 {z } | {z } | =

x1

~e1 +

x2

~e2 ,

aqu´ı se uso el hecho de que la representaci´on de OS como combinaci´on lineal de ~e1 y ~e2 es u´ nica. Luego, x1 =a1 y1 + a2 y2 y el teorema queda probado.

y

x2 =b1 y1 + b2 y2

´ CAPITULO 5. FORMAS BILINEALES

236

Cambio de la direcci´on de los ejes conservando el mismo origen Consideremos que el sistema coordenado X (en R2 ), es rectangular y tiene unidades iguales sobre ambos ejes. Esto significa que ~e1 y ~e2 , que son los vectores base (unitarios), son perpendiculares entre s´ı. Supongamos que los ejes coordenados Y se obtienen haciendo girar el sistema X un a´ ngulo θ alrededor del origen, en sentido contrario al de las manecillas del 0 0 reloj, conservando la ortogonalidad. Los vectores base ~e1 y ~e2 del sistema Y, forman tambi´en una base ortonormal y est´an dados por: 0

~e1 =[cos θ, sen θ] = cos θ~e1 + sen θ~e2 . 0

~e2 =[− sen θ, cos θ] = − sen θ~e1 + cos θ~e2 . X2 Y2

(0, 1) ~e2 0 ~e1

(−senθ, cos θ) 0

~e2

Y1 (cos θ, senθ)

, ~e1

(1, 0)

X1

Se deduce por el Teorema 5.11, que las coordenadas de un punto en ambos sistemas est´an relacionadas por x1 =y1 cos θ − y2 sen θ

y

x2 =y1 sen θ + y2 cos θ,

(5.48)

que son las ecuaciones de una rotaci´on lev´ogira de ejes, cuando el a´ ngulo girado es θ. Si se denota por Aθ , la matriz ortogonal · ¸ cos θ − sen θ Aθ = (5.49) sen θ cos θ entonces (5.48), se puede expresar matricialmente como · ¸ · ¸ x1 y = Aθ 1 x2 y2

´ ANALITICA ´ 5.5. APLICACIONES A LA GEOMETRIA

237

la cual es una transformaci´on ortogonal propia, puesto que el det Aθ = 1 y representa cualquier rotaci´on de ejes en R2 . A continuaci´on se presenta un teorema para obtener el a´ ngulo de rotaci´on θ de una ecuaci´on cuadr´atica de segundo grado. Teorema 5.12. Sea la ecuaci´on general de segundo grado ax2 + by2 + cxy + dx + ey + f = 0.

(5.50)

Entonces existe un n´umero u´ nico θ, llamado a´ ngulo de rotaci´on, tal que µ ¶ 1 c θ = arctan , 2 a−b Demostraci´o·n a Sea A = c

c 2

h π´ θ ∈ 0, . 2

(5.51)

¸

la matriz sim´etrica que representa la forma cuadr´atica asocib ada a la ecuaci´on (5.50). Supongamos · que¸λ es un valor propio de A con vector cosθ propio unitario correspondiente ~X = , luego senθ 2

A~X = λ~X. Si se premultiplica por ~X t se obtiene ~X t A~X = λ~X t ~X = λ. Al sustituir ~X y A se tiene · £ ¤ a λ = cos θ sen θ c 2

¸· ¸ cos θ b sen θ c 2

=a cos2 θ + c sen θ cos θ + b sen2 θ =(a − b) cos2 θ + c sen θ cos θ + b. Si se multiplica por 2 y se utilizan las siguientes identidades trigonom´etricas 2 cos2 θ = cos(2θ) + 1

y

sen(2θ) =2 sen θ cos θ

se llega a 2λ = (a − b) cos(2θ) + c sen(2θ) + (a + b).

´ CAPITULO 5. FORMAS BILINEALES

238

Pero como λ es valor propio de A se tiene que q 2λ = tr(A) ± tr2 (A) − 4 det(A). Al igualar estas dos expresiones, se obtiene (a − b) cos(2θ) + c sen(2θ) + (a + b) =tr(A) ±

q tr2 (A) − 4 det(A),

pero tr(A) = a + b, por consiguiente (a − b) cos(2θ) + c sen(2θ) = ±

q tr2 (A) − 4 det(A)

a−b ±c ±p cos(2θ)+ p sen(2θ) = 1 tr2 (A) − 4 det(A) tr2 (A) − 4 det(A) | {z } | {z } u

cos(2θ)+

v

sen(2θ) = 1.

Luego, (v sen(2θ))2 =(1 − u cos(2θ))2 v2 sen2 (2θ) =1 − 2u cos(2θ) + u2 cos2 (2θ) v2 (1 − cos2 (2θ)) =1 − 2u cos(2θ) + u2 cos2 (2θ). El lector puede probar f´acilmente que u2 + v2 = 1, de manera que cos2 (2θ) − 2u cos(2θ)+(1 − v2 ) = 0 [cos(2θ) − u]2 =0 ∴ u = cos(2θ). Por lo tanto, v = sen(2θ) y as´ı entonces v c = tan(2θ) = . u a−b Al aplicar arctan a ambos lados de (5.52) se obtiene la ecuaci´on (5.51). Nota Si se usa la siguiente identidad trigonom´etrica tan(2θ) =

2 tan θ , 1 − tan2 θ

(5.52)

´ ANALITICA ´ 5.5. APLICACIONES A LA GEOMETRIA

239

se tiene que 2 tan θ c = 2 1 − tan θ a − b ¡ ¢ 2(a − b) tan θ =c 1 − tan2 θ . Al resolver esta ecuaci´on cuadr´atica, se llega a q (a − b)2 + c2 b−a ± . tan θ = c c

(5.53)

Ejemplo 5.15. Determine el a´ ngulo de rotaci´on de la ecuaci´on cuadr´atica dada en el Ejemplo 5.13. Soluci´on La matriz sim´etrica asociada a la forma cuadr´atica es · ¸ 3 1 A= . 1 3 La ecuaci´on (5.52) no es aplicable ya que como a = b se dividir´ıa por 0, luego se usa (5.53) y se tiene que tan θ = 1. (5.54) Cualquier soluci´on de (5.54) sirve a nuestro prop´osito; si se escoge la soluci´on para la cual 0 < θ < 90◦ , entonces sen(θ) = √12 y cos(θ) = √12 , es decir, el a´ ngulo de rotaci´on θ vale, aproximadamente θ = 45◦ y, construyendo la matriz de rotaci´on 5.49, se tiene que √ ¸ · √ 1/√2 −1/√ 2 Aθ = , 1/ 2 1/ 2 la cual coincide con la matriz ortogonal dada en el Ejemplo 5.11. Ejemplo 5.16. Determine el a´ ngulo de rotaci´on de la ecuaci´on cuadr´atica dada en el Ejemplo 5.14. Soluci´on La matriz sim´etrica asociada a la forma cuadr´atica es · ¸ 2 2 A= . 2 −1

´ CAPITULO 5. FORMAS BILINEALES

240 Por la ecuaci´on (5.52) se tiene que tan(2θ) =

4 4 = . 2 − (−1) 3

(5.55)

Cualquier soluci´on de (5.55) sirve a nuestro prop´osito. Si se escoge la soluci´on para la cual 0 < 2θ < 90◦ , entonces sen(2θ) = 45 y cos(2θ) = 53 y como θ es un a´ ngulo agudo r r 1 − cos 2θ 1 1 + cos 2θ 2 senθ = =√ , cos θ = =√ . 2 2 5 5 0

Es decir, el a´ ngulo de rotaci´on θ vale aproximadamente θ = 26◦ 33 54,18” y, construyendo la matriz de rotaci´on 5.49, se tiene que √ ¸ · √ 2/√5 −1/√ 5 Aθ = , 1/ 5 2/ 5 la cual coincide con la matriz ortogonal dada en el Ejemplo 5.14

5.5.2. Clasificaci´on de las ecuaciones cuadr´aticas Para la ecuaci´on general de segundo grado ax2 + by2 + cxy + dx + ey + f = 0,

(5.56)

se definen las cantidades · ω =a + b,

µ = det

a c 2

c 2

b



¸ y

a

ν = det  2c d 2

c 2

b e 2



d 2 e 2 .

f

Entonces la ecuaci´on cuadr´atica (5.56) representa los siguientes  ½   ων < 0 Una elipse      ν 6= 0     ων > 0 Ninguno  µ>0      ν = 0 Un punto µ = 6 0   ½    LUGARES ν 6= 0 Una hip´erbola    µ 0) Caso degenerado (ων ≥ 0)      Centro De tipo   Una hip´erbola (ν 6= 0)       LUGARES (µ 6= 0)  hiperb´olico    ´ (µ < 0) Caso degenerado (ν = 0) GEOMETRICOS       Curva    Una par´abola (ν 6= 0)   sin     Centro    Caso degenerado (ν = 0). (µ = 0) Las ecuaciones cuadr´aticas tambi´en pueden ser clasificadas de acuerdo a la inercia de la matriz A asociada a la forma cuadr´atica, como sigue: Identificaci´on de las ecuaciones cuadr´aticas Inercia Nombre de la c´onica In(A) = (2, 0, 0) Elipse In(A) = (1, 1, 0) Hip´erbola In(A) = (1, 0, 1) Par´abola Las formas cuadr´aticas tambi´en pueden usarse para analizar ecuaciones de superficies cu´adricas en el espacio. Definici´on 5.12. Superficie Cu´adrica Una ecuaci´on de segundo grado en x, y, y z de la forma ax2 + by2 + cz2 + dxy + exz + f yz + gx + hy + iz + j = 0,

(5.57)

donde a, b, . . . , j son n´umeros reales y |a| + |b| + |c| + |d| + |e| + | f | 6= 0, se denomina superficie cu´adrica. Esta se puede escribir en forma matricial como ~X t A~X + K ~X + j = 0.

(5.58)

En esta notaci´on, la expresi´on ~X t A~X es la forma cuadr´atica asociada y la matriz K de tama˜no 1 × 3, es K = [g h i].

´ CAPITULO 5. FORMAS BILINEALES

242

Ejemplo 5.17. Considere la ecuaci´on cuadr´atica 2x2 + 5y2 + 2z2 + 4xy + 2xz + 4yz − 36 = 0.

(5.59)

Determine la superficie cu´adrica obtenida al eliminar los t´erminos de productos cruzados. Soluci´on Haciendo referencia al Ejemplo 5.12, dicha ecuaci´on cuadr´atica se puede escribir como ~X t A~X = 36, (5.60)   2 2 1  donde A = 2 5 2. En este caso, (5.59) se puede escribir en t´erminos de las 1 2 2 nuevas variables u, v, w como ~Y t D~Y = 36, o sea, u2 + v2 + 7w2 = 36.

(5.61)

En R3 la superficie definida por (5.61) se llama elipsoide. Ejemplo 5.18. Considere la ecuaci´on cuadr´atica 7x2 + 7y2 + 10z2 − 2xy − 4xz + 4yz − 12x + 12y + 60z − 24 = 0.

(5.62)

Determine la superficie cu´adrica obtenida al eliminar los t´erminos de productos cruzados. Soluci´on La forma cuadr´atica asociada 7x2 + 7y2 + 10z2 − 2xy − 4xz + 4yz, se puede escribir como    7 −1 −2 x £ ¤ ~X t A~X = x y z −1 7 2  y (5.63) −2 2 10 z En este caso, los valores propios de A son λ1 = 12 y λ2 = 6 (de multiplicidad   −1 algebraica 2). El vector propio correspondiente a λ1 = 12 es ~v1 =  1  y los 2     2 1 correspondientes a λ2 = 6 son ~v2 = 1 y ~v3 = 0. 1 0

´ ANALITICA ´ 5.5. APLICACIONES A LA GEOMETRIA

243

√   −1/ √ √6 ~v1  Para encontrar Q, como k~v1 k = 6 se hace ~u1 = k~v1 k = 1/√6 . Despu´es, 2/ 6 se aplica el proceso de ortonormalizaci´on de Gram-Schmidt a {~v2√ ,~v3 }, para obtener una base ortonormal del espacio propio B . Puesto que k~ v k = 2, se tiene ~u2 = 2 2  √  1/√2 ~v2 1/ 2. Por u´ ltimo, = k~v2 k 0  √    1/ 2 2 0 2  √    ~v3 =~v3 − (~v3 ·~u2 )~u2 = 0 − √ 1/ 2 2 1 0       2 1 1 = 0 − 1 = −1 . 1 0 1 √  1/ √ √3 0 Entonces k~v3 k = 3 y ~u3 = −1/√ 3. Se puede verificar que la nueva base de 1/ 3 B2 es ortonormal observando que ~u2 ·~u3 = 0. Tambi´en se puede verificar que la base obtenida para R3 es ortonormal observando que ~u1 ·~u3 = 0 y ~u2 ·~u3 = 0. Por lo tanto, √ √ √   −1/√ 6 1/√2 1/ √3 Q =  1/√6 1/ 2 −1/√ 3 . 2/ 6 0 1/ 3 

Como det(Q) = −1, se multiplica la segunda columna por −1 y se tiene √ √ √   −1/√ 6 −1/√2 1/ √3 Q =  1/√6 −1/ 2 −1/√ 3 2/ 6 0 1/ 3

y

  12 0 0 Qt AQ =  0 6 0 . 0 0 6

Por lo tanto, (5.63) se puede escribir en t´erminos de las nuevas variables u, v, w como ~Y t D~Y , o sea, 12u2 + 6v2 + 6w2 (5.64) donde,

√ √ √      −1/√6 1/ √6 2/ 6 x u ~Y =  v  = Qt ~X = −1/ 2 −1/ 2 0√  y . √ √ w 1/ 3 −1/ 3 1/ 3 z

(5.65)

´ CAPITULO 5. FORMAS BILINEALES

244

Si se expresa toda la ecuaci´on dada en (5.62), en forma matricial queda ~X t A~X + K ~X − 24 = 0, donde K = [−12 12 60]. Al hacer ~X = Q~Y el cambio de variable propuesto en (5.65), se tiene √ √ √    −1/√ 6 −1/√2 1/ √3 u    ~ ~ v K X =KQY = [−12 12 60] 1/√6 −1/ 2 −1/√ 3 w 2/ 6 0 1/ 3   £ √ √ ¤ u = 24 6 0 12 3  v  . w Luego, la ecuaci´on cuadr´atica dada en (5.62), se puede escribir como √ √ 12u2 + 6v2 + 6w2 + 24 6u + 12 3w = 24. Al dividir por 6 y completar los cuadrados se obtiene h i h i √ √ 2 u2 + 2 6u + 6 + v2 + w2 + 2 3w + 3 = 4 + 12 + 3 o bien,

h h √ i2 √ i2 2 u + 6 + v2 + w + 3 = 19

³ √ √ ´ Esta ecuaci´on en R3 , representa un elipsoide con centro en − 6, 0, − 3 .

5.5.3. Rotaci´on de ejes en R3 La interpretaci´on geom´etrica dada a las transformaciones ortogonales en R2 , puede generalizarse para R3 . Esto es, si ~X = A~Y representa una transformaci´on ortogonal de coordenadas en R3 , entonces las columnas de A est´an dadas por los cosenos directores de los nuevos ejes de referencia con respecto al viejo sistema de referencia. Definici´on 5.13. Rotaci´on de ejes en R3 Una rotaci´on de ejes en R3 es una transformaci´on ortogonal propia que permite pasar a una nueva base a partir de un movimiento r´ıgido y continuo de los vectores base del sistema primitivo, conservando el origen fijo y preservando la ortogonalidad.

´ ANALITICA ´ 5.5. APLICACIONES A LA GEOMETRIA

245

Teorema 5.13. Rotaci´on de ejes en R3

n 0 0 0o 0 Sean B = {~e1 ,~e2 ,~e3 } una base del sistema coordenado X y B = ~e1 ,~e2 ,~e3

la base correspondiente al sistema Y. Entonces si 0

~e1 =a1~e1 + a2~e2 + a3~e3 0

~e2 =b1~e1 + b2~e2 + b3~e3 0

~e2 =c1~e1 + c2~e2 + c3~e3 las coordenadas (x1 , x2 , x3 ) de un punto cualquiera S en el sistema X y las coordenadas (y1 , y2 , y3 ) del mismo punto en el sistema Y, est´an relacionadas como sigue        x1  a1 b1 c1  y1  y1         x  = a b c  y  = P y   2  2 2 2  2  2        x3 a3 b3 c3 y3 y3 0

donde, P es la matriz de transici´on (o matriz de cambio de base) de B a B . Demostraci´on Queda como ejercicio para el lector.

Cambio de la direcci´on de los ejes conservando el mismo origen Consideremos que el sistema coordenado X (en R3 ) es rectangular y tiene unidades iguales sobre sus tres ejes, lo que significa que ~e1 , ~e2 y ~e3 , que son los vectores base est´andar (unitarios), son perpendiculares entre s´ı. 0 0 0 Sea ~e1 , ~e2 y ~e3 la base ortonormal del sistema Y. Denotemos los productos puntos entre las dos bases por 0 ai j =~ei ·~e j . 0

0

0

Por ejemplo, a1 j = ~e1 ·~e j , a2 j = ~e2 ·~e j y a3 j = ~e3 ·~e j son las tres componentes de 0 ~e j con respecto a la base anterior ~e1 , ~e2 , ~e3 y podemos poner 0

~e j =a1 j~e1 + a2 j~e2 + a3 j~e3 ,

j =1, 2, 3.

´ CAPITULO 5. FORMAS BILINEALES

246 0

Como ~e j es tambi´en vector unitario, se tiene que 0

ai j = cos ^(~ei ,~e j )

(5.66)

y a21 j + a22 j + a23 j =1, 0

0

j =1, 2, 3.

0

0

0

Adem´as, como ~e1 , ~e2 , ~e3 son ortogonales por pares, es decir ~ei ·~e j = 0, i 6= j, se llega a, a1 j a1k + a2 j a2k + a3 j a3k =0,

1 ≤ j < k ≤ 3.

F´ormulas de Euler Euler estableci´o unas f´ormulas que permiten fijar la posici´on del segundo sistema coordenado con relaci´on al primero, empleando u´ nicamente tres constantes. Sean X1 , X2 , X3 los ejes del sistema coordenado X y representemos por Y1 , Y2 , Y3 los ejes del sistema de referencia m´ovil. Se desea definir una transformaci´on ortogonal Y = AX, que exprese las coordenadas (y1 , y2 , y3 ) de un punto arbitrario en t´erminos de sus coordenadas iniciales (x1 , x2 , x3 ). Para formular anal´ıticamente esta transformaci´on, se pasar´a del sistema “viejo” X al “nuevo” Y mediante tres cambios sucesivos. En cada cambio se asumir´a que se tiene en com´un con el sistema precedente un eje y el plano opuesto. De esta manera no se exigir´an m´as que las f´ormulas correspondientes al cambio de ejes situados en el mismo plano. 1◦ . Se obtienen unos nuevos ejes W1 , W2 , W3 ≡ X3 haciendo girar el plano que contiene los vectores ~e1 y ~e2 del sistema X un a´ ngulo ϕ alrededor del eje X3 , en sentido contrario al de las manecillas del reloj, conservando la ortogonalidad. Por el Teorema 5.13, se tiene que las coordenadas de un punto en ambos sistemas est´an relacionadas por x1 =w1 cos ϕ − w2 sen ϕ, x2 =w1 sen ϕ + w2 cos ϕ, x3 =w3 . Al expresar dicha rotaci´on en forma matricial, se obtiene        x1 cos ϕ sen ϕ 0 x1 w1 w2  = − sen ϕ cos ϕ 0 x2  = Aϕ x2  . x3 0 0 1 x3 w3

(5.67)

´ ANALITICA ´ 5.5. APLICACIONES A LA GEOMETRIA

247

2◦ . Se generan otros nuevos ejes Z1 ≡ W1 , Z2 , Z3 haciendo girar el plano determinado por los ejes W2 y W3 un a´ ngulo θ alrededor del eje W1 , conservando la ortogonalidad; lo que har´a tomar al eje X3 la posici´on Y3 y al W2 la Z2 . Por lo tanto, se deduce por el Teorema 5.13, que las coordenadas de transformaci´on de un punto, ser´an w1 =z1 , w2 =z2 cos θ − z3 sen θ,

(5.68)

w3 =z2 sen θ + z3 cos θ. Si se expresa (5.68) en forma matricial, se obtiene        z1 1 0 0 w1 w1 z2  = 0 cos θ sen θ w2  = Aθ w2  . z3 0 − sen θ cos θ w3 w3 3◦ . Finalmente, se gira alrededor del eje Z3 ≡ Y3 el plano que contiene a los dos ejes Z2 y Z3 hasta que forman un a´ ngulo ψ, as´ı quedar´a W1 en Y1 y Z2 en Y2 y por el Teorema 5.13, las coordenadas de un punto en ambos sistemas est´an relacionadas por z1 =y1 cos ψ − y2 sen ψ, z2 =y1 sen ψ + y2 cos ψ,

(5.69)

z3 =y3 . Al expresar (5.69) en forma matricial, se obtiene        y1 cos ψ sen ψ 0 z1 z1 y2  = − sen ψ cos ψ 0 z2  = Aψ z2  . y3 0 0 1 z3 z3 La eliminaci´on de los sistemas coordenados W y Z en las ecuaciones (5.67), (5.68) y (5.69) dar´a la transformaci´on del producto Y = AX, mediante la siguiente matriz de rotaci´on en R3     cos ϕ sen ϕ 0 0 0 cos ψ sen ψ 0 1 Aψ Aθ Aϕ = − sen ψ cos ψ 0 0 cos θ sen θ − sen ϕ cos ϕ 0 = 0 0 1 0 0 1 0 − sen θ cos θ   cos ψ cos ϕ − sen ψ sen ϕ cos θ sen ψ cos ϕ cos θ + sen ϕ cos ψ sen ψ sen θ − sen ψ cos ϕ − sen ϕ cos ψ cos θ cos ψ cos ϕ cos θ − sen ψ sen ϕ cos ψ sen θ , sen ϕ sen θ − cos ϕ sen θ cos θ

´ CAPITULO 5. FORMAS BILINEALES

248

£ ¤ los a´ ngulos ϕ, θ, ψ, deben escogerse en el intervalo − π2 , π2 y se conocen como a´ ngulos eulerianos. N´otese que el determinante de esta matriz es: det(Aψ Aθ Aϕ ) = det(Aψ ) det(Aθ ) det(Aϕ ) = 1. Luego, esta matriz es ortogonal. La comparaci´on de las componentes de la matriz Aψ Aθ Aϕ con las expresiones dadas en (5.66) permiten obtener esos nueve cosenos en funci´on de las constantes ϕ, θ, ψ. Observaciones Para determinar los a´ ngulos eulerianos ϕ, θ, ψ se comparan las componentes de Qt = [ci j ] con las de Aψ Aθ Aϕ (donde las columnas de Q son los vectores propios normalizados de la matriz sim´etrica asociada a la forma cuadr´atica) y se tiene en cuenta que 1. Si c33 6= 1, entonces los a´ ngulos eulerianos se pueden determinar de la siguiente manera c31 c13 y tan ϕ = − . cos θ =c33 , tan ψ = c23 c32 2. Cuando c33 = 1, entonces θ = 0 y la matriz de rotaci´on Aψ Aθ Aϕ , tiene la forma   cos (ψ + ϕ) sen (ψ + ϕ) 0 Aψ Aθ Aϕ = − sen (ψ + ϕ) cos (ψ + ϕ) 0 , 0 0 1 en este caso, c21 tan (ψ + ϕ) = − . c11 Aqu´ı, los a´ ngulos ψ y ϕ se escogen arbitrariamente. 3. Si la suma de los cuadrados de los elementos de la diagonal principal de la matriz de rotaci´on Aψ Aθ Aϕ es igual a 1. Entonces el a´ ngulo θ, satisface que cos θ = p

tan2 ϕ + tan2 ψ (sec2 ϕ + sec2 ψ) (sec2 ϕ tan2 ψ + sec2 ψ tan2 ϕ) ∓ 2 tan ϕ tan ψ

.

En este caso, dado que la tangente de π2 no est´a definida, cuando uno de los a´ ngulos ϕ o´ ψ sea igual a ± π2 , se tiene que  ¡ ¢ 1   si ϕ → ± π2  p 2 tan ψ + sec2 ψ cos θ = ¡ ¢ 1  p  si ψ → ± π2  2 2 tan ϕ + sec ϕ

´ ANALITICA ´ 5.5. APLICACIONES A LA GEOMETRIA

249

y si uno de los a´ ngulos ϕ o´ ψ es igual a cero, entonces  |tan ψ|   si ϕ = 0  p 1 + sec2 ψ cos θ = |tan ϕ|   si ψ = 0.  p 1 + sec2 ϕ Ejemplo 5.19. Determine los a´ ngulos eulerianos de la ecuaci´on cuadr´atica dada en el Ejemplo 5.17. Soluci´on La matriz ortogonal asociada a la forma cuadr´atica era √ √  √  −1/ 2 1/ √3 1/√6 Q =  0√ −1/√ 3 2/√6 . 1/ 2 1/ 3 1/ 6 Al comparar las componentes de Qt con las de Aψ Aθ Aϕ se tiene que r 1 1 3 y tan ϕ = − . cos θ = √ , tan ψ = 2 2 6

(5.70)

Se debe escoger una soluci´on £de (5.70) ¤ para la cual los a´ ngulos eulerianos se enπ π cuentren dentro del intervalo − 2 , 2 . En este caso, los a´ ngulos θ, ψ y ϕ valen, 0 0 0 aproximadamente 65◦ 54 18,57” ; 50◦ 46 6,53” y −26◦ 33 54,18” . Ejemplo 5.20. Determine los a´ ngulos eulerianos de la ecuaci´on cuadr´atica dada en el Ejemplo 5.18. Soluci´on La matriz ortogonal asociada a la forma cuadr´atica era √ √ √   −1/√ 6 −1/√2 1/ √3 Q =  1/√6 −1/ 2 −1/√ 3 . 2/ 6 0 1/ 3 Si se comparan las componentes de Qt con las de Aψ Aθ Aϕ se tiene que 1 cos θ = √ , 3

tan ψ =indefinida

y

tan ϕ =1.

(5.71)

Se debe escoger una soluci´on £de (5.71) ¤ para la cual los a´ ngulos eulerianos se encuentren dentro del intervalo − π2 , π2 , en este caso, los a´ ngulos θ, ψ y ϕ valen, 0 aproximadamente 54◦ 44 8,2” ; 90◦ y 45◦

´ CAPITULO 5. FORMAS BILINEALES

250

5.5.4. Clasificaci´on de las superficies cu´adricas Para la ecuaci´on general de segundo grado ax2 + by2 + cz2 + dxy + exz + f yz + gx + hy + iz + j = 0 se definen las siguientes cantidades 

a A =  d2 e 2

d 2

b f 2

e 2 f 2 ,

c

ω = tr(A), µ=

3

∑ Mii (A),

i=1

ν = det A,



a

d 2 ρ = det  e 2 g 2

d 2

b f 2 h 2

(5.72) e 2 f 2

c i 2

g 2 h 2. i 2

j

Adem´as, si λ1 , λ2 , λ3 son los valores propios de A, entonces la ecuaci´on cu´adrica (5.72) representa los lugares geom´etricos (L.G.) siguientes    λ1 > 0, λ2 > 0, λ3 > 0 Un elipsoide      ρ     = 6 0   λ1 > 0, λ2 > 0, λ3 < 0 Un hiperboloide de una hoja    ´   ³ ρν   λ > 0, λ2 < 0, λ3 < 0 Un hiperboloide de dos hojas  0, λ2 > 0 Un cilindro el´ıptico       ρ       λ1 > 0, λ2 < 0 Un cilindro hiperb´olico  ν 6= 0      L.G. I=0  ½ λ1 < 0, λ2 < 0 Conjunto vac´ıo  ν=0     λ1 λ2 > 0 Una recta  ρ     =0 (λ3 = 0)     ν λ1 λ2 < 0 Dos planos que se cortan     ½      λ λ > 0 Un paraboloide el´ıptico  0 1 2    I 6= 0   λ1 λ2 < 0 Un paraboloide hiperb´olico   ( ρ     λ1 > 0 Conjunto vac´ıo   0 0   ν  I =0 y H =0 ν = 0 ρ   λ1 < 0 Dos planos paralelos   (λ1 6= 0)  ν   ρ 0  6= 0 y/o H 6= 0 Un cilindro parab´olico. ν

Tambi´en, puede ser clasificada teniendo en cuenta la inercia de la matriz sim´etrica A como sigue: Identificaci´on de las superficies cu´adricas Inercia Nombre de la superficie In(A) = (3, 0, 0) Elipsoide In(A) = (2, 1, 0) Hiperboloide de una hoja In(A) = (1, 2, 0) Hiperboloide de dos hojas In(A) = (2, 0, 1) Paraboloide el´ıptico In(A) = (1, 1, 1) Paraboloide hiperb´olico In(A) = (1, 0, 2) Cilindro parab´olico

´ DE LAS FORMAS CUADRATICAS ´ 5.6. CLASIFICACION

251

Ejercicios 5.4. 1. Determine la secci´on c´onica y el a´ ngulo de rotaci´on para a. 4x2 + 4xy + y2 = 9.

b.

36x2 + 9y2 + 4z2 − 36 = 0.

c. x2 + 8xy + 16y2 − 4x + 16y = −7.

d. x2 + 2xy + y2 + 2x + 2y = −1.

e. 4x2 − 20xy + 25y2 + 4x − 10y = −1.

f . 4x2 − 4xy + y2 − 6x + 3y = 4.

g. 9x2 − 24xy + 16y2 − 20x + 110y = 50. h. 6x2 + 3y2 − 2z2 + 12x − 18y − 8z = −7. i.

7x2 + 7y2 + 10z2 − 2xy − 4xz + 4yz − 12x + 12y + 60z = 24.

j. 2x2 + 2y2 + 5z2 − 4xy + 2xz − 2yz + 10x − 26y − 2z = 0. 2. Sea A la representaci´on matricial de la ecuaci´on cuadr´atica (5.50) con f 6= 0. Sean λ1 y λ2 los valores propios de A. Demuestre que la curva que describe (5.50) es

5.6.

a.

Una hip´erbola si λ1 λ2 < 0.

c.

Un circulo, elipse o secci´on c´onica degenerada si λ1 λ2 > 0.

b.

Un par de rectas si λ1 λ2 = 0.

Clasificaci´on de las formas cuadr´aticas

En esta secci´on se clasifican las formas cuadr´aticas seg´un sus valores posibles. Una forma cuadr´atica F : Rn → R es una funci´on de valor real con dominio en Rn . Luego, se pueden distinguir varias clases importantes de formas cuadr´aticas de acuerdo a los valores que estas asumen para diferentes ~X, dichos n´umeros reales pueden ser mayores que, menores que o iguales a 0. Obviamente si el vector ~X =~0 el valor siempre ser´a 0, por lo tanto no se tendra en cuenta este vector. Por otra parte, si la matriz A es nula F(~X) siempre dar´a el valor cero.

´ CAPITULO 5. FORMAS BILINEALES

252 Definici´on 5.14.

Dada F(~X) = ~X t A~X con A 6= O sim´etrica, se dice que es 1. Definida positiva si F(~X) > 0 para todo ~X distinto de cero en Rn , 2. Semidefinida positiva si F(~X) ≥ 0 para todo ~X en Rn , 3. Definida negativa si F(~X) < 0 para todo ~X distinto de cero en Rn , 4. Semidefinida negativa si F(~X) ≤ 0 para todo ~X en Rn , 5. Indefinida si F(~X) asume ambos valores positivos y negativos. La matriz sim´etrica asociada A, se denomina definida positiva, semidefinida positiva, definida negativa, semidefinida negativa o indefinida seg´un sea la forma cuadr´atica F(~X) que define. Teorema 5.14. Sea A una matriz sim´etrica de tama˜no n × n. Entonces la forma cuadr´atica F(~X) = ~X t A~X es 1. Definida positiva si y s´olo si todos los valores propios de A son positivos. 2. Definida negativa si y s´olo si todos los valores propios son negativos. 3. Indefinida si y s´olo si A tiene valores propios positivos y negativos. Demostraci´on 1. Sea A definida positiva, sea λ un valor propio de A; sea ~X un vector propio de A asociado a λ. Calculemos ~X t A~X = ~X t λ~X = λ~X t ~X. Por consiguiente, λ = n´umeros positivos.

~X t A~X ~X t ~X

es positivo puesto que esta es una raz´on de dos

´ DE LAS FORMAS CUADRATICAS ´ 5.6. CLASIFICACION

253

Las otras quedan como ejercicio para el lector. Ejemplo 5.21. Sea F(~X) = 3x12 +3x22 +2x1 x2 . Determine que clase de forma cuadr´atica es. Soluci´on En el Ejemplo 5.11 se obtuvo que los valores propios de la matriz asociada a la forma F(~X) eran 2 y 4. Por lo tanto, dicha forma cuadr´atica es definida positiva. Ejemplo 5.22. Dada F(~X) = 2x12 +4x1 x2 −x22 , determine la clase de forma cuadr´atica que es. Soluci´on En el Ejemplo 5.14, se obtuvo que los valores propios de la matriz asociada a la forma F(~X) eran -2 y 3. Por lo tanto, dicha forma cuadr´atica es indefinida. Teorema 5.15. Sea F : V → R una forma cuadr´atica en el espacio vectorial V de dimensi´on finita n. La forma F(~X) se dice que es definida positiva si y s´olo si A = [ai j ] la matriz asociada a la forma F(~X) tiene la propiedad de que todos los determinantes de sus submatrices angulares son positivos. Demostraci´on La demostraci´on se har´a por inducci´on sobre n. Para n = 1 la forma cuadr´atica F(~X) esta dada por F(~X) = [x][a][x] = ax2 , en donde A = [a]. El teorema afirma en este caso que la forma F(~X) es definida positiva si y s´olo si a > 0, lo cual es claro. Por el Teorema 5.8 la matriz A = [a] se transforma en la matriz Qt AQ, en donde Q es una matriz cuadrada de tama˜no 1 × 1 no singular, esto es, Q = [q], q 6= 0. De esta manera, Qt AQ = [q][a][q] = aq2 , en tal caso siendo a > 0 y q 6= 0, se tiene que aq2 > 0, as´ı que la afirmaci´on del teorema no depende de la base considerada en V, para el caso n = 1. Supongamos entonces que el teorema es v´alido para n = k − 1 y veamos si se cumple para n = k.

´ CAPITULO 5. FORMAS BILINEALES

254

Se demostrar´a primero que si la forma F(~X) es definida positiva, entonces los determinantes ∆1 , ∆2 , . . . ∆k son positivos. Dado que la forma F(~X) se puede escribir como k

k

k

k−1

F(~X) = ∑ ∑ ai j xi x j = ∑ aii xi2 + 2 ∑ i=1 j=1

i=1

k



ai j xi x j ,

i=1 j=i+1

esta se puede reescribir de la siguiente manera k−1

k−1

i=1

i=1 j=i+1

F(~X) = ∑ aii xi2 + 2 ∑

k



ai j xi x j + akk xk2 .

(5.73)

Sea W un subespacio de V de dimensi´on k − 1 y consid´erese F ∗ : W → R una forma cuadr´atica en W tal que k−1 k−1

F ∗ (~X) = ∑

∑ ai j xi x j .

i=1 j=1

En efecto, la forma F ∗ (~X) es definida positiva. Sup´ongase lo contrario, entonces existe un vector ~X ∗ ∈ W , digamos ~X ∗ = (x1 , x2 , . . . , xk−1 ) tal que F ∗ (~X ∗ ) ≤ 0. Formemos el vector ~X ∈ V como ~X = (x1 , x2 , . . . , xk−1 , 0) y evaluemos F(~X), seg´un la expresi´on (5.73) se obtiene que F(~X) ≤ 0, lo cual contradice la hip´otesis de que la forma F(~X) es definida positiva. Por lo tanto, seg´un la hip´otesis de inducci´on los determinantes de las submatri´ ces angulares de la matriz de la forma F ∗ (~X) son positivos. Estos son: ∆1 , ∆2 , . . . ∆k−1 . Falta probar que δk es tambi´en positivo. Pero por el Teorema 5.8 la matriz A asociada a la forma F(~X) mediante el empleo de una matriz no singular Q se transforma en la matriz D = Qt AQ, al tomar el determinante de las matrices en esta u´ ltima expresi´on se obtiene det(D) = det(Qt AQ) = det(Qt ) det(A) det(Q) = det(A) [det(Q)]2 . k

Pero como det(Q) 6= 0 y det(D) = ∏ λi , se tiene que i=1

det(A) = 3 V´ease

Teorema 5.14

k 1 det(D) = λ > 03 . 2 2∏ i [det(Q)] [det(Q)] i=1

1

´ DE LAS FORMAS CUADRATICAS ´ 5.6. CLASIFICACION

255

Se ha probado as´ı que ∆k = det(A) > 0, como se quer´ıa. Se deja como ejercicio para el lector demostrar que si los determinantes ∆1 , ∆2 , . . . ∆k de alguna matriz (arbitraria pero fija) asociada a la forma cuadr´atica F(~X) son positivos, entonces la forma F(~X) es definida positiva. Ejemplo 5.23. Determine si la siguiente forma cuadr´atica es definida positiva F(x, y, z) = 2x2 + 5y2 + 2z2 + 4xy + 2xz + 4yz. Soluci´on Seg´un el Ejemplo 5.17, la matriz asociada a la forma cuadr´atica es   2 2 1 A = 2 5 2 . 1 2 2 Luego los determinantes de las submatrices angulares son ¯ ¯ ¯ ¯ ¯ 2 2¯ ¯ ¯ ¯ ¯=6>0 ∆1 = det(A[1] ) = 2 = 2 > 0, ∆2 = det(A[2] ) = ¯ 2 5¯

y

¯ ¯ ¯2 2 1¯ ¯ ¯ ∆3 = det(A[3] ) = ¯¯2 5 2¯¯ = 7 > 0 ¯1 2 2¯ Como los tres determinantes ∆1 , ∆2 , ∆3 son positivos, se concluye, por el Teorema 5.15, que la forma cuadr´atica F(~X) es definida positiva. Corolario 5.15.1. La forma F : V → R es definida negativa si y s´olo si ∆1 < 0, ∆2 > 0, ∆3 < 0, . . . Es decir, si los determinantes ∆1 , ∆2 , . . . ∆n alternan sus signos, comenzando con ∆1 < 0. Demostraci´on Es claro que la forma F : V → R dada por F(~X) = ~X t A~X es definida negativa si y s´olo si la forma −F : V → R −F(~X) = ~X t (−A)~X

256

´ CAPITULO 5. FORMAS BILINEALES

es definida positiva. Seg´un el Teorema 5.15 se debe tener entonces, que los determinantes ¯ ¯ ¯ ¯ ¯−a11 −a12 −a13 ¯ ¯ ¯ ¯−a ¯ ¯ −a12 ¯¯ ∆1 = ¯−a11 ¯ , ∆2 = ¯¯ 11 , ∆3 = ¯¯−a21 −a22 −a23 ¯¯ , . . . , ¯ −a21 −a22 ¯−a31 −a32 −a33 ¯ ∆n = (−1)n det(A) deben ser positivos. Es decir, que ∆1 = det[−a11 ] = − det[a11 ] > 0 ¯ ¯ ¯ ¯ ¯−a11 −a12 ¯ ¯a11 a12 ¯ 2 ¯ ¯ = (−1) ¯ ∆2 = ¯¯ ¯a21 a22 ¯ > 0 −a21 −a22 ¯ ¯ ¯ ¯ ¯ ¯a11 a12 a13 ¯ ¯−a11 −a12 −a13 ¯ ¯ ¯ ¯ ¯ ∆3 = ¯¯−a21 −a22 −a23 ¯¯ = (−1)3 ¯¯a21 a22 a23 ¯¯ > 0 ¯a31 a32 a33 ¯ ¯−a31 −a32 −a33 ¯ y as´ı sucesivamente, lo que prueba el corolario. Teorema 5.16. La suma de dos cualesquiera matrices definidas positivas del mismo tama˜no es definida positiva. M´as generalmente, cualquier combinaci´on lineal no negativa de matrices semidefinidas positivas es semidefinida positiva. Demostraci´on Sean A y B matrices semidefinidas positivas, sean α, β ≥ 0. Si se denota C = αA + βB y se calcula ~X t C~X =~X t (αA + βB)~X = α(~X t A~X) + β(~X t B~X) ≥ 0,

∀~X ∈ Cn .

El caso de m´as de dos sumandos es tratado en el mismo sentido. Si los coeficientes α y β son positivos y si A y B son matrices definidas positivas y adem´as ~X 6= ~0, entonces cada t´ermino en la suma es positivo. As´ı una combinaci´on lineal de matrices definidas positivas es definida positiva. Teorema 5.17. Si A es una matriz sim´etrica definida positiva de tama˜no n × n, entonces cualquier submatriz principal de A es definida positiva. Demostraci´on Sea K un subconjunto propio de {1, 2, . . . , n} y denotemos por A(K) la matriz resultante de eliminar las filas y columnas complementarias a las indicadas por K

´ DE LAS FORMAS CUADRATICAS ´ 5.6. CLASIFICACION

257

de la matriz A. Entonces A(K) es una submatriz principal de A. N´otese que todas las submatrices se pueden obtener de esta manera; el n´umero det[A(K) ] es un menor de A. Sea ~X ∈ Cn un vector no nulo con entradas arbitrarias en las componentes indicadas por K y cero en las otras entradas. Denotando por ~X(K) el vector que se obtiene de eliminar las componentes nulas de ~X y obs´ervese que ~X H A(K)~X(K) = ~X H A~X > 0. (K) Puesto que ~X(K) 6= ~0 es arbitrario, esto significa que A(K) es definida positiva. Teorema 5.18. La traza, el determinante y todos los menores principales de una matriz sim´etrica definida positiva son positivos. Demostraci´on Sea A ∈ Mn×n una matriz sim´etrica definida positiva; luego, por el Teorema 2.17 se sabe que la traza y el determinante son respectivamente la suma y el producto de los valores propios, los cuales por el Teorema 5.14 son todos positivos. La otra parte del teorema se obtiene del Teorema 5.17. Ejemplo 5.24. Determine si la siguiente forma cuadr´atica es definida positiva verificando si la matriz asociada a la forma cumple las condiciones del teorema anterior F(x, y, z) = 2x2 + 5y2 + 2z2 + 4xy + 2xz + 4yz. Soluci´on Seg´un el Ejemplo 5.17, la matriz asociada a la forma cuadr´atica es   2 2 1 A = 2 5 2 . 1 2 2 La tr(A) = 9 > 0, det(A) = 7 > 0 y los determinantes de algunos menores son ¯ ¯ ¯2 2¯ ¯ = 6, ¯ det(M33 ) = ¯ 2 5¯

¯ ¯ ¯2 1¯ ¯ = 3. ¯ det(M22 ) = ¯ 1 2¯

Por lo tanto, la forma cuadr´atica dada si es definida positiva.

´ CAPITULO 5. FORMAS BILINEALES

258

Teorema 5.19. Sea A ∈ Mm×m definida positiva y P ∈ Mm×n , entonces Pt AP es semidefinida positiva. Adem´as, ρ (Pt AP) = ρ(P), as´ı que Pt AP es definida positiva si y s´olo si P tiene rango n. Demostraci´on Es claro que Pt AP es sim´etrica. Para cualquier ~X ∈ Cn se tiene que ~X t Pt AP~X = ~Y t A~Y ≥ 0 donde ~Y = P~X y la desigualdad se sigue porque A es definida positiva. As´ı que Pt AP es semidefinida positiva. Obs´ervese que ~X t Pt AP~X > 0 si y s´olo si P~X 6= ~0 ya que A es definida positiva. Supongamos que P~X = ~0, entonces obviamente Pt AP~X = ~0. Rec´ıprocamente, si Pt AP~X = ~0, entonces ~X t Pt AP~X = 0 y usando el hecho de que A es definida positiva se concluye que P~X = ~0. Por lo tanto, Pt AP~X = ~0 si y s´olo si P~X = ~0 lo cual significa que Pt AP y P tienen el mismo espacio nulo (y por lo tanto tambi´en tienen el mismo rango). Ejercicios 5.5. 1. Muestre que las entradas de la diagonal de una matriz sim´etrica definida positiva son n´umeros reales positivos. 2. Muestre que los valores propios, traza, determinante y menores principales de una matriz semidefinida positiva son todos no negativos. 3. Muestre que si A ∈ M2×2 es definida positiva, entonces a11 a22 > |a12 |2 . 4. Si A es de tama˜no m×n de rango n < m, muestre que At A es definida positiva y que AAt es semidefinida positiva. 5. Si A es de tama˜no m × n de rango k < m´ın{m, n}, muestre que At A y AAt son semidefinidas positivas.

Cap´ıtulo 6

Formas herm´ıticas En el cap´ıtulo anterior se desarroll´o la teor´ıa para formas cuadr´aticas con matriz asociada sim´etrica real. En este cap´ıtulo se consideran formas cuadr´aticas pero con matriz asociada compleja. Se estudia el caso complejo independientemente del caso real, ya que si se asume ~X ∈ C2 y se obtiene la expresi´on k~Xk2 = ~X t ~X, de manera an´aloga al producto escalar est´andar de R2 , se llega a resultados il´ogicos. Por ejemplo, para el vector no nulo ~X = (a, bi), se tiene que ~X t ~X = a2 + b2 i2 = a2 − b2 este producto puede ser cero si a = b o´ a = −b, hecho que contradice la propiedad (v) del producto escalar est´andar en Rn (ver Cap´ıtulo 1). Este hecho induce a la redefinici´on de formas cuadr´aticas para el caso complejo.

6.1.

Forma herm´ıtica

Definici´on 6.1. Forma sesquilineal Sea V un espacio vectorial de dimensi´on finita sobre el cuerpo complejo C. Una forma sesquilineal es una funci´on g : V × V → C tal que (i) g(α~u1 + β~u2 ,~v) = αg(~u1 ,~v) + βg(~u2 ,~v) (ii) g(~u, α~v1 + β~v2 ) = αg(~u,~v1 ) + βg(~u,~v2 ) 259

´ ´ CAPITULO 6. FORMAS HERMITICAS

260 donde α, β ∈ C y ~ui ,~v j ∈ V.

Como en la definici´on 5.1, la condici´on (ii) se interpreta como que g es lineal en la segunda variable. Por otra parte, expresamos la condici´on (i) diciendo que g es lineal conjugada en la primera variable. En el resto de esta secci´on se omitir´a el adjetivo “sesquilineal”, salvo que sea importante tenerlo en cuenta. Definici´on 6.2. Sea g : V × V → C una forma sobre V, entonces g es herm´ıtica, si para todo ~v, ~w ∈ V, se cumple que g(~v,~w) = g(~w,~v).

(6.1)

Ejemplo 6.1. Sea g : Cn × Cn → R definida por ³ ´ ~ ~ g X, Y = ~X H A~Y donde ~X y ~Y ∈ Cn y A es una matriz hermitiana. Verifique si la aplicaci´on g define una forma herm´ıtica sobre Cn . Soluci´on (i) Para todo ~X1 , ~X2 y ~Y ∈ Cn se tiene que ´ ³ ´H ´ ³ ³ g ~X1 + ~X2 ,~Y = ~X1 + ~X2 A~Y = ~X1H + ~X2H A~Y ´ ´ ³ ³ =~X1H A~Y + ~X2H A~Y = g ~X1 ,~Y + g ~X2 ,~Y . (ii) Para todo β ∈ C, ~X y ~Y ∈ Cn se tiene que ³ ´ ³ ´ g ~X, β~Y =~X H A β~Y = β~X H A~Y ³ ´ =β~X H A~Y = βg ~X,~Y As´ı, la aplicaci´on g es lineal en la segunda variable. Adem´as, ³ ´ ³ ´ ³ ´t ³ ´ g ~X,~Y = ~X H A~Y = ~X H A~Y = ~Y H AH ~X = ~Y H A~X = g ~Y , ~X Por lo tanto, g es una forma herm´ıtica sobre Cn .

´ 6.1. FORMA HERMITICA

261

Teorema 6.1. Sean V un espacio vectorial complejo y g una forma sesquilineal sobre V tal que g(~u,~u) sea real para todo ~u ∈ V. Entonces g es herm´ıtica. Demostraci´on Sean ~u,~v ∈ V y g una forma sesquilineal sobre V tal que g(~u,~u) sea real para todo ~u ∈ V. Se debe probar que g(~u,~v) = g(~v,~u). En efecto, g(~u +~v,~u +~v) = g(~u,~u) + g(~u,~v) + g(~v,~u) + g(~v,~v). Como por hip´otesis g(~u +~v,~u +~v), g(~u,~u) y g(~v,~v) son reales, el n´umero g(~u,~v) + g(~v,~u) es real. De manera an´aloga se tiene g(~u + i~v,~u + i~v) = g(~u,~u) + ig(~u,~v) − ig(~v,~u) + g(~v,~v). Por el mismo razonamiento anterior, vemos que ig(~u,~v) − ig(~v,~u) es real. Al concluir que estos dos n´umeros son reales, se pueden igualar sus complejos conjugados y se obtiene g(~u,~v) + g(~v,~u) =g(~u,~v) + g(~v,~u) ig(~u,~v) − ig(~v,~u) = − ig(~u,~v) + ig(~v,~u).

(6.2) (6.3)

Al multiplicar (6.3) por (−i) y sumarle (6.2), se llega a 2g(~u,~v) = 2g(~v,~u). Teorema 6.2. Sea V un espacio vectorial de dimensi´on finita sobre los n´umeros complejos. Sea g una forma hermitiana sobre V. Entonces, existe una matriz u´ nica hermitiana A, tal que para todo ~u,~v ∈ V, gA (~u,~v) = ~uH A~v.

(6.4)

Demostraci´on La prueba es completamente an´aloga a la del Teorema 5.1 y se deja como ejercicio al lector. Teorema 6.3. Identidad de polarizaci´on Sea g una forma hermitiana sobre un espacio vectorial complejo V, entonces para todo ~u,~v ∈ V se cumple que gA (~u +~v,~u +~v) − gA (~u −~v,~u −~v) = 2 [gA (~u,~v) + gA (~v,~u)] .

(6.5)

´ ´ CAPITULO 6. FORMAS HERMITICAS

262

Demostraci´on La verificaci´on de esta identidad se hace en forma trivial, solo desarrollando el miembro izquierdo que aparece en (6.5). Teorema 6.4. Sea V como antes. Si g es una forma hermitiana tal que gA (~v,~v) = 0 para todo ~v ∈ V, entonces A = O Demostraci´on Por el Teorema 6.3, para todo ~u,~v ∈ V, se tiene que: gA (~u +~v,~u +~v) − gA (~u −~v,~u −~v) = 2 [gA (~u,~v) + gA (~v,~u)] . Luego, si g es tal que gA (~v,~v) = 0 para todo ~v ∈ V, el miembro izquierdo de la identidad de polarizaci´on, es igual a 0, de donde se obtiene que gA (~u,~v) + gA (~v,~u) = 0,

(6.6)

para todo ~u,~v ∈ V. Si se reemplaza ~u por i~u, entonces se tiene que gA (i~u,~v) + gA (~v, i~u) = −igA (~u,~v) + igA (~v,~u) = 0. As´ı, −gA (~u,~v) + gA (~v,~u) = 0.

(6.7)

Si se restan las relaciones (6.6) y (6.7), se obtiene 2gA (~u,~v) = 0. Por lo tanto gA (~u,~v) = 0. De donde A = O. Como se quer´ıa demostrar. Teorema 6.5. Una matriz compleja A de tama˜no n×n representa una forma herm´ıtica si y s´olo si es una matriz hermitiana. Demostraci´on Sup´ongase que A es hermitiana. Como para todo ~X, ~Y ∈ Cn , la matriz ~X H A~Y es una matriz de 1 × 1, es decir, un elemento de R, entonces es igual a su propia traspuesta conjugada. Por lo tanto, ³ ´t ~X H A~Y = ~X H A~Y = ~Y t At ~X = ~Y H AH ~X = ~Y H A~X as´ı que A representa una forma hermitiana.

´ 6.2. FORMA CUADRATICA COMPLEJA

263

Rec´ıprocamente, sup´ongase que A representa una forma herm´ıtica; es decir, gA (~X,~Y ) = gA (~Y , ~X),

(6.8)

³ ´t gA (~Y , ~X) = ~Y H A~X = ~Y H A~X = ~X H AH~Y ,

(6.9)

para todo ~X, ~Y ∈ Cn . Como

Al comparar (6.8) y (6.9), se tiene que gA (~X,~Y ) = ~X t A~Y = ~X t AH~Y .

(6.10)

Como (6.10) se cumple para todo ~X, ~Y ∈ Cn , se concluye que A = AH , es decir, A es hermitiana.

6.2.

Forma cuadr´atica compleja

En esta secci´on se estudian las formas cuadr´aticas F(~X) = ~X H A~X, en donde A es una matriz compleja de tama˜no n × n y la variable ~X se escoge en Cn . Como en la pr´actica, generalmente uno s´olo se preocupa de las formas cuadr´aticas F(~X) = ~X H A~X que toman u´ nicamente valores reales, en este apartado se asumir´a que la matriz A asociada a la forma es hermitiana. Cabe notar que en los casos en que F(~X) es compleja, por lo general s´olo se puede estudiar la parte real de F(~X). Definici´on 6.3. Forma cuadr´atica compleja Sea V un espacio vectorial de dimensi´on finita sobre los n´umeros complejos. Sea g : V × V → R una forma herm´ıtica sobre V. Entonces una forma cuadr´atica herm´ıtica o forma cuadr´atica compleja determinada por g es una funci´on F : V → R, tal que F(~v) = gA (~v,~v) =~vH A~v.

(6.11)

La matriz A se llama la representaci´on matricial de la forma cuadr´atica compleja.

´ ´ CAPITULO 6. FORMAS HERMITICAS

264

Ejemplo 6.2. Producto herm´ıtico can´onico Sea V = Cn y considere la forma cuadr´atica compleja determinada por el producto escalar sobre Cn , F(~v) = |z1 |2 + |z2 |2 + . . . + |zn |2 , donde |zi |2 = zi zi . Exprese esta forma cuadr´atica compleja como ~vH A~v. Soluci´on Vamos a determinar la matriz compleja A = (ai j ) de la forma herm´ıtica g, de tal forma que n

n

F(~v) =~vH A~v = ∑ ∑ ai j zi z j .

(6.12)

i=1 j=1

Es decir, se quiere encontrar los valores de ai j , de manera que n

n

n

∑ ∑ ai j zi z j = ∑ |zi |2 .

i=1 j=1

i=1

Como la matriz A es hermitiana, ai j = a ji . Por lo tanto, la forma cuadr´atica compleja dada en (6.12) se puede expresar como n

n

n

n−1

n

∑ ∑ ai j zi z j = ∑ aii |zi |2 + ∑ ∑

i=1 j=1

i=1

i=1 j=i+1

n−1

ai j zi z j + ∑

n



ai j zi z j ,

(6.13)

i=1 j=i+1

si se comparan t´erminos se establecen las siguientes relaciones n

n

∑ aii |zi |2 = ∑ |zi |2

i=1

i=1

n−1

y

n

∑ ∑

i=1 j=i+1

n−1

ai j zi z j + ∑

n



ai j zi z j =0.

i=1 j=i+1

Pero como en la funci´on F(~v) no aparecen t´erminos de la forma zi z j , entonces ½ 1 si i = j ai j = 0 si i 6= j. Luego, A = In y por lo tanto, F(~v) se puede expresar como ~vH In~v. Ejemplo 6.3. Sea V = C3 y F(~X) = |x1 |2 − ix1 x2 + ix2 x1 − x1 x3 − x3 x1 − 2ix2 x3 + 2ix3 x2 . Exprese esta forma herm´ıtica como ~X H A~X.

´ DE UNA FORMA HERMITICA ´ 6.3. DIAGONALIZACION

265

Soluci´on Si se utiliza el resultado obtenido en (6.13) para n = 3, se tiene que 3

2

~X H A~X = ∑ aii |xi |2 + ∑ i=1

3



i=1 j=i+1

2

ai j xi x j + ∑

3



ai j xi x j .

i=1 j=i+1

Al resolver esta suma y comparar los ai j con los coeficientes de la funci´on F(~X), se obtiene la matriz   1 −i −1 0 −2i , A= i −1 2i 0 la cual permite expresar a F(~X) de la forma ~X H A~X.

6.3.

Diagonalizaci´on de una forma herm´ıtica

Teorema 6.6. Sea F(~X) una forma cuadr´atica compleja asociada a una matriz herm´ıtica A. Sea L una matriz compleja triangular inferior tal que A se pueda factorizar como LDLH . Entonces el cambio de coordenadas ~Z = LH ~X, transforma a ~X H A~X en ~Z H D~Z. Demostraci´on La matriz A asociada a la forma, se puede factorizar como A = LDU. Como A es herm´ıtica, por el Teorema 3.5, U = LH . Por lo tanto, ¡ ¢ ~X H A~X =~X H LDLH ~X puesto que A = LDLH ³ ´ ³ ´ = ~X H L D LH ~X ³ ´H ³ ´ = LH ~X D LH ~X = ~Z H D~Z puesto que ~Z = LH ~X.

(6.14)

´ ´ CAPITULO 6. FORMAS HERMITICAS

266 As´ı, queda probado el teorema.

A continuaci´on se presenta una versi´on de este m´etodo de diagonalizaci´on. Procedimiento para diagonalizar una forma herm´ıtica i) Halle la matriz de coeficientes herm´ıtica A asociada a F(~X). ii) Obtenga la descomposici´on LDLH de A, sin efectuar intercambios de filas que destruyan el hecho de que ai j = a ji y con elementos en D = diag{d11 , d22 , . . . , dnn }, tales que dii ∈ R no necesariamente distintos de cero. Adem´as, det(L) = 1. iii) Transforme a F(~X) en d11 |z1 |2 +d22 |z2 |2 +. . .+dnn |zn |2 , bajo el cambio de coordenadas ~Z = LH ~X. Ejemplo 6.4. Considere la ecuaci´on cuadr´atica compleja |x1 |2 − ix1 x2 + ix2 x1 − x1 x3 − x3 x1 − 2ix2 x3 + 2ix3 x2 = 9

(6.15)

encuentre una diagonalizaci´on para esta forma herm´ıtica, usando el m´etodo descrito anteriormente. Soluci´on En el Ejemplo 6.3, se obtuvo que la forma cuadr´atica herm´ıtica asociada |x1 |2 − ix1 x2 + ix2 x1 − x1 x3 − x3 x1 − 2ix2 x3 + 2ix3 x2 , se puede expresar matricialmente como 

  1 −i −1 x1 ~X H A~X = [x1 x2 x3 ]  i 0 −2i x2  −1 2i 0 x3 La factorizaci´on LDLH de la matriz asociada a la forma herm´ıtica es       1 0 0 1 0 0 1 −i −1 1 −i −1  i i . 1 0 0 −1 0 0 1 0 −2i =  i 1 −1 −i 1 0 0 0 0 0 −1 2i 0

(6.16)

´ DE UNA FORMA HERMITICA ´ 6.3. DIAGONALIZACION

267

de modo que 

     1 −i −1 1 0 0 1 0 0 1 −i −1 0 −2i~X = ~X H  i 1 0 0 −1 0 0 1 i ~X. F(~X) =~X H  i −1 2i 0 −1 −i 1 0 0 0 0 0 1 Si se hace     z1 1 −i −1 ~Z = z2  = LH ~X = 0 1 i ~X. z3 0 0 1 N´otese que det(L) = 1. Por lo tanto, el cambio de variables z1 =x1 − ix2 − x3 ,

z2 =x2 + ix3

y

z3 = x3 ,

permite reescribir a F(~X) de la siguiente manera, F(~Z) = |z1 |2 − |z2 |2 = 9.

Teorema 6.7. Teorema de los ejes principales Sea F(~X) una forma herm´ıtica asociada a una matriz hermitiana A con valores propios (no necesariamente distintos) λ1 , λ2 , . . . , λn . Sea U una matriz unitaria que diagonaliza a A. Entonces el cambio de coordenadas ~X = U~Z

(6.17)

transforma a ~X H A~X en ~Z H U~Z, donde D = U H AU = diag{λ1 , λ2 , . . . , λn }. Demostraci´on La demostraci´on consiste en un c´alculo directo ~X H A~X =(U~Z)H A(U~Z) =(~Z H U H )A(U~Z) =~Z H (U H AU)~Z = ~Z H D~Z

puesto que ~X = U~Z puesto que U diagonaliza a A

´ ´ CAPITULO 6. FORMAS HERMITICAS

268

A continuaci´on se presentan los pasos a seguir para determinar la diagonalizaci´on de una forma hermitiana mediante este m´etodo. Procedimiento para diagonalizar una forma herm´ıtica i) Halle la matriz de coeficientes hermitiana A asociada a F(~X). ii) Encuentre los valores propios (no necesariamente distintos), λ1 , λ2 , . . . , λn de A. iii) Encuentre una base ortonormal para Cn formada por los vectores propios normalizados de A. iv) Forme la matriz U cuyas columnas sean los vectores de la base hallada en el paso iii) en el orden correspondiente al listado de los valores propios en el paso ii). La transformaci´on ~X = U~Z es una “rotaci´on” si | det(U)| = 1. v) Transforme a F(~X) en λ1 |z1 |2 + λ2 |z2 |2 + . . . + λn |zn |2 .

Ejemplo 6.5. Considere la ecuaci´on cuadr´atica compleja dada en el Ejemplo 6.4. Determine la “superficie” cuadr´atica obtenida al eliminar los t´erminos de productos cruzados. Soluci´on Haciendo referencia al Ejemplo 4.4, se tiene que la matriz A asociada a la forma cuadr´atica compleja es diagonalizable mediante la matriz unitaria √  √  2/ √6 1/√ 3 0√ U = −i/√ 6 i/ √3 1/ √2  . 1/ 6 −1/ 3 −i/ 2 Luego,

  0 0 0 U H AU = 0 3 0  . 0 0 −2

Por consiguiente, (6.16) se puede escribir en t´erminos de las nuevas variables z1 , z2 , z3 como ~Z H D~Z, es decir, 3|z2 |2 − 2|z3 |2 = 9,

(6.18)

´ DE FORMAS CUADRATICAS ´ 6.4. CLASIFICACION COMPLEJAS donde

√ √    √   2/√6 i/ √6 1/ √6 z1 x1 ~Z = z2  = U H ~X = 1/ 3 −i/ 3 −1/ 3 x2  √ √ z3 x3 0 1/ 2 i/ 2

269

(6.19)

reescribiendo (6.18), se obtiene 1 2 1 |z2 | − |z3 |2 = 1, 3 9/2 lo cual corresponde a la ecuaci´on de una “hip´erbola” sobre los ejes z2 y z3 . Definici´on 6.4. Forma Polar de una forma hermitiana Dada F una forma cuadr´atica compleja, se puede obtener una forma herm´ıtica g de F de acuerdo con la siguiente identidad llamada la forma polar de g: g(~u,~v) =

6.4.

1 ı [F(~u +~v) − F(~u −~v)] + [F(~u + ı~v) − F(~u − ı~v)] 4 4

(6.20)

Clasificaci´on de formas cuadr´aticas complejas

Definici´on 6.5. Una forma cuadr´atica compleja F(~X) = ~X H A~X con A 6= O, es 1. Definida positiva si F(~X) > 0 para todo ~X distinto de cero en Cn , 2. Definida negativa si F(~X) < 0 para todo ~X distinto de cero en Cn , 3. Indefinida si F(~X) asume ambos valores positivos y negativos, 4. Semidefinida positiva si F(~X) ≥ 0 para todo ~X en Cn , 5. Semidefinida negativa si F(~X) ≤ 0 para todo ~X en Cn . La matriz hermitiana asociada A, se denomina definida positiva, semidefinida positiva, definida negativa, semidefinida negativa o indefinida seg´un sea la forma cuadr´atica compleja F(~X) que define.

´ ´ CAPITULO 6. FORMAS HERMITICAS

270

Ejemplo 6.6. Verifique si la forma herm´ıtica dada en el Ejemplo 6.2, es definida positiva. Soluci´on La forma F(~v) dada en el Ejemplo 6.2, es definida positiva ya que, para todo ~u 6= 0, n

n

i=1

i=1

F(~v) =~vH~v = ∑ zi zi = ∑ |zi |2 > 0 donde ~vH = (z1 , z2 , . . . , zn )t y zi ∈ C.

6.5. Orden parcial entre matrices Dadas dos matrices, adem´as de combinarlas haciendo operaciones entre ellas (suma, resta, multiplicaci´on), las podemos comparar para ordenarlas o clasificarlas. Una comparaci´on que surgi´o en secciones anteriores fue ver si eran semejantes. En esta secci´on se hablar´a de un orden “parcial” entre matrices semidefinidas positivas. Definici´on 6.6. Orden entre matrices Sean A y B matrices hermitianas de tama˜no n × n. Se escribe A < B si la matriz A − B es semidefinida positiva. Similarmente, A Â B significa que la matriz A − B es definida positiva. Teorema 6.8. Si A, B son matrices hermitianas de tama˜no n × n, entonces A 0. Muestre que A tiene un valor propio positivo y dos negativos. 4. Sea A cualquier matriz compleja no singular. Muestre que B = AH A es herm´ıtica y definida positiva. 5. Muestre que si A es una matriz herm´ıtica cuadrada de tama˜no n × n definida positiva con valores propios λ1 ≥ λ2 ≥ . . . ≥ λn > 0 y B es una submatriz principal de A de tama˜no k × k, entonces k

k

j=1

j=1

∏ λn− j+1 ≤ det B ≤ ∏ λ j . 6. Sean A y B matrices herm´ıticas cuadradas de tama˜no n × n con valores propios λ1 ≥ λ2 ≥ . . . ≥ λn y µ1 ≥ µ2 ≥ . . . ≥ µn respectivamente. Sean σ1 ≥ σ2 ≥ . . . ≥ σn los valores propios de A + B. Demuestre que m´ax {λk + µn , λn + µk } ≤ σk ≤ m´ax {λk + µ1 , λ1 + µk }

1 ≤ k ≤ n.

Cap´ıtulo 7

Normas matriciales En este cap´ıtulo se intenta medir la sensibilidad o la “vulnerabilidad” de la soluci´on de un sistema no singular de ecuaciones lineales A~X = ~b. En otras palabras, se quiere medir que tan grande es el efecto en ~X = A−1~b si se cambian ligeramente las componentes de A y ~b. Es decir, debemos encontrar una manera de medir el cambio ∆A y definir la “longitud” de una matriz, pues para vectores ya sabemos como obtener su longitud ahora necesitamos un concepto an´alogo para matrices.

7.1.

Definici´on y resultados b´asicos

Definici´on 7.1. Norma de una matriz Sea Mnn el espacio de las matrices de tama˜no n × n con componentes reales (complejas). Una norma de matriz k · k de Mnn en R es una funci´on que satisface para toda A, B ∈ Mnn los cinco axiomas siguientes: (1) kAk ≥ 0

No negativa

(2) kAk = 0 si y s´olo si A = 0

Positiva

(3) kcAk = |c|kAk para todo escalar c Homog´enea 273

´ CAPITULO 7. NORMAS MATRICIALES

274

(4) kA + Bk ≤ kAk + kBk Desigualdad triangular (5) kABk ≤ kAk kBk

Submultiplicativa.

Teorema 7.1. Sea k · k cualquier norma matricial, entonces 1. kIn k ≥ 1, donde In es la matriz identidad de tama˜no n × n. 2. kA−1 k ≥

kIn k , para cualquier matriz A ∈ Mnn no singular. kAk

° ° 3. °Ak ° ≤ kAkk para cualquier matriz A ∈ Mnn y todo k ≥ 2. Demostraci´on 1. Queda como ejercicio para el lector. 2. Puesto que AA−1 = In , entonces kIn k = kAA−1 k ≤ kAk kA−1 k. Pero como kAk > 0, se tiene que kA−1 k ≥

kIn k . kAk

3. La demostraci´on es por inducci´on sobre k. El resultado es trivial para k = 2 puesto que por la propiedad submultiplicativa kA2 k ≤ kAk kAk = kAk2 . Supongamos que se ha demostrado para cualquier k = m, es decir kAm k ≤ kAkm . Luego, kAm+1 k = kAm Ak y por la propiedad submultiplicativa se tiene kAm Ak ≤ kAm kkAk ≤ kAkm kAk = kAkm+1 .

7.2. TIPOS DE NORMAS MATRICIALES

7.2.

275

Tipos de normas matriciales

Las siguientes son algunas de las normas que uno puede introducir en el espacio de matrices Mnn an´alogas a las normas de los espacios vectoriales. Teorema 7.2. Norma L1 Para cualquier matriz A = [ai j ], la funci´on k · k : Mnn → R definida por n



kAk1 =

|ai j |,

i, j=1

es una norma de matriz Demostraci´on Los axiomas de (1) − (3) se satisfacen f´acilmente de la definici´on de valor absoluto, se demostrar´a, por lo tanto, que se cumplen los axiomas (4) y (5) n

(4) kA + Bk1 = =

n

∑ |ai j + bi j | ≤ ∑ (|ai j | + |bi j |)

i, j=1 n

n

i, j=1

i, j=1

i, j=1

∑ |ai j | + ∑

|bi j | = kAk1 + kBk1 .

Por lo tanto, se cumple el axioma (4). ¯ ¯ ¯ n ¯ n n n ¯ ¯ (5) kABk1 = ∑ ¯ ∑ aik bk j ¯ ≤ ∑ |aik b jk | ≤ ∑ |aik bm j | ¯ ¯ i, j,k=1 i, j=1 k=1 i, j,k,m=1 ! Ã !Ã n

=



n

|aik |



|bm j |

= kAk1 kBk1 .

j,m=1

i,k=1

En la verificaci´on de este axioma, la primera desigualdad se obtiene de la generalizaci´on de la desigualdad triangular y la segunda de los t´erminos adicionales a la suma. Por consiguiente, kAk1 si es una norma matricial. Ejemplo 7.1. Norma Euclideana (L2 ) Determine si la norma L2 definida por à n

kAk2 =



i, j=1

es una norma de matriz.

! 21 |ai j |2

,

´ CAPITULO 7. NORMAS MATRICIALES

276

Soluci´on F´acilmente se puede probar que los axiomas de (1) − (3) se satisfacen. Por lo tanto, veamos si se cumplen los axiomas (4) y (5) n



4. kA + Bk22 =

|ai j + bi j |2 ≤

i, j=1 n



=



i, j=1

|ai j |2 + 2

i, j=1

Ã ≤

¢ ¡ |ai j |2 + 2|ai j | |bi j | + |bi j |2

n

n



n

|ai j bi j | +

i, j=1

! 12

n



|ai j |2

+

|bi j |2

i, j=1

Ã

i, j=1



n



! 12 2 |bi j |2 

i, j=1

= (kAk2 + kBk2 )2 . Luego, se cumple el axioma (4). 5.

kABk22

¯ ¯2 Ã !Ã ! ¯ n ¯ n n n ¯ ¯ 2 2 = ∑ ¯ ∑ aik bk j ¯ ≤ ∑ ∑ |aik | ∑ |bm j | ¯ ¯ i, j=1 k=1 i, j=1 k=1 m=1 Ã !Ã ! n

n

=



|aik |2

i,k=1 =kAk22 kBk22 .

n



|bm j |2

j,m=1

Esta desigualdad es justo la desigualdad de Cauchy-Schwarz. Por consiguiente, k · k2 si es una norma. Ejemplo 7.2. Norma L∞ Determine si la funci´on k · k : Mnn → R definida por kAk∞ = n m´ax |ai j |, 1≤i, j≤n

es una norma de matriz.

7.2. TIPOS DE NORMAS MATRICIALES

277

Soluci´on Los axiomas de (1) − (3) se satisfacen f´acilmente de la definici´on de m´aximo. Se probara si se cumplen los axiomas (4) y (5) 4. kA + Bk∞ =n m´ax |ai j + bi j | ≤ n m´ax (|ai j | + |bi j |) 1≤i, j≤n

1≤i, j≤n

=n m´ax |ai j | + n m´ax |bi j | 1≤i, j≤n

1≤i, j≤n

=nkAk∞ + nkBk∞ . Por lo tanto, se cumple el axioma (4). ¯ ¯ ¯ ¯ n n ¯ ¯ 5. kABk∞ =n m´ax ¯ ∑ aik bk j ¯ ≤ n m´ax ∑ |aik bk j | ¯ 1≤i, j≤n ¯ 1≤i, j≤n k=1 k=1 n

∑ kAk∞ kBk∞ = nkAk∞ nkBk∞ 1≤i, j≤n

≤ n m´ax

k=1

=kAk kBk. Por consiguiente, kAk∞ si es una norma. Definici´on 7.2. Norma matricial inducida Sea k · k una norma vectorial sobre Cn . Se define k · kin sobre Mnn por kAkin = m´ax kA~xk = m´ax k~xk=1

~x6=~0

kA~xk . k~xk

(7.1)

Las letras “in” en la norma es la abreviaci´on de la frase “norma inducida”. Teorema 7.3. Norma Espectral La norma espectral k · kS se define sobre Mnn por kAkS = σ1 = m´ax{σi : σi es un valor singular de A}. Demostraci´on De la ecuaci´on (7.1) se tiene que kAk2in

½ ¾ kA~xk2 (A~x)t (A~x) = m´ax = m´ax . xk2 ~xt~x ~x6=~0 k~ ~x6=~0

(7.2)

´ CAPITULO 7. NORMAS MATRICIALES

278

Luego, si At A~x = σ2~x se obtiene ¾ ½ ¾ ½ t t xt~x ~x (A A~x) 2 2~ kAkin = m´ax = m´ax σ t = σ2m´ax t~ ~ x x ~ x ~ x ~ ~ ~x6=0 ~x6=0 como At A es una matriz sim´etrica, sus valores propios son reales. Definici´on 7.3. Radio espectral El radio espectral r(A) de una matriz A ∈ Mnn es definido por la cantidad r(A) = m´ax{|λ| : λ es un valor propio de A}. Ejemplo 7.3. Obtenga la norma espectral y el radio espectral de la matriz   3 1 A= . 1 3 Soluci´on Como la matriz A es sim´etrica, sus valores singulares y sus valores propios son iguales, es decir, σ1 = λ1 = 4 y σ2 = λ2 = 2. Por lo tanto, kAkS =4

y

r(A) =4.

Teorema 7.4. Sea A ∈ Mnn y k · k cualquier norma de matriz, entonces r(A) ≤ kAk. Demostraci´on Sup´ongase que A~x = λ~x, ~x 6= ~0 y que |λ| = r(A). Sea X ∈ Mnn la matriz cuyas columnas son todas iguales a ~x, entonces AX = λX. Luego, si k · k es cualquier norma de matriz, se tiene que kAXk ≤kAk kXk kλXk ≤kAk kXk |λ| kXk ≤kAk kXk. Por consiguiente, |λ| = r(A) ≤ kAk.

7.2. TIPOS DE NORMAS MATRICIALES

279

Ejercicios 7.1. 1. Calcule para cada una de las siguientes matrices la norma espectral y el radio espectral 

  1 1 a.  . −1 3   1 3 −2      d.   3 1 2 .   −1 1 1

  1 1  b.  . 3 −1



  1 −1 c.  . −1 3   3 −1 4      e.  −4 1 −5 .   5 3 2

2. Muestre que A y At tienen el mismo radio espectral y la misma norma espectral. 3. Si A es una matriz sim´etrica de tama˜no n ×n, muestre que su norma espectral coincide con su radio espectral. 4. Si A es una matriz hermitiana de tama˜no n × n, muestre que la norma espectral y el radio espectral son iguales. Teorema 7.5. Lema de Banach Sea A una matriz real de tama˜no n × n y sea k · k una norma matricial sobre

Mnn . Suponiendo que kAk < 1, entonces In − A es no singular y ° ° 1 1 ° ° ≤ °(In − A)−1 ° ≤ . 1 + kAk 1 − kAk Demostraci´on La matriz In − A es no singular si y s´olo si la u´ nica soluci´on del sistema homog´eneo (In − A)~x = ~0 es ~x = ~0. Suponga entonces que (In − A)~x = ~0 de modo que ~x = A~x. Entonces se tiene que k~xk = kA~xk ≤ kAkk~xk.

´ CAPITULO 7. NORMAS MATRICIALES

280

Pero como kAk < 1, entonces hay una contradicci´on a menos que ~x = ~0, como se ha tratado probar. As´ı que (In − A)−1 existe, se denotar´a con R. Luego In = R (In − A) = R − RA.

(7.3)

Por lo tanto, 1 = kIn k = kR (In − A)k ≤ kRk kIn + (−A)k ≤ kRk (1 + kAk) , de manera que kRk ≥ 1/ (1 + kAk) como se afirm´o. De la expresi´on (7.3), R = In + RA, as´ı que kRk = kIn + RAk ≤ 1 + kRAk ≤ 1 + kRkkAk. Por consiguiente, kRk ≤ 1/ (1 − kAk), con lo que se completa la prueba. Ejemplo 7.4. Para la siguiente matriz   1 11 −6 A=  . 10 8 9 Determine las cotas superior e inferior del Lema de Banach. Soluci´on La matriz A se puede escribir como A = I − B, en donde · ¸ 1 −1 6 B= . 10 −8 1 Como se puede emplear cualquier norma matricial, usando la norma espectral se tiene que √ 7+ 2 kBkS = < 1. 10 El Lema de Banach dice que A = I − B es no singular y por lo tanto ° ° 10 10 √ ≤ °A−1 °S ≤ √ . 17 + 2 3− 2

El Lema de Banach dice que matrices suficientemente “cercanas” a In son no singulares. El teorema siguiente es una generalizaci´on de este hecho.

7.2. TIPOS DE NORMAS MATRICIALES

281

Teorema 7.6. Inversas Perturbadas Sean A y B matrices de tama˜no n × n siendo A no singular y sea k · k una norma ° ° ° ° matricial sobre Mnn . Def´ınase α = °A−1 B° o α = °BA−1 °. Si α < 1 (es decir en ° ° especial si kBk < 1/ °A−1 °) entonces A − B tambi´en es no singular y ° −1 ° ° ° ° ° °A ° ° °A−1 ° −1 ° ≤ °(A − B) ° ≤ . 1+α 1−α Demostraci´on ° ° Supongamos que °A−1 B° < 1. El otro caso es semejante. Como A−1 existe, se puede escribir A−B

como

¡ ¢ A In − A−1 B = A (In − R) ,

donde R = A−1 B. Por hip´otesis kRk = α < 1, de modo que al aplicar el Lema de Banach, se obtiene que In − R es no singular, como lo es A. Luego A (In − R) = A − B,

(7.4)

es tambi´en no singular y (A − B)−1 = [A (In − R)]−1 = (In − R)−1 A−1 . Por lo tanto, ° ° ° ° ° °° ° °A−1 ° ° ° −1 ° −1 ° ° −1 ° . ≤ °(A − B) ° ≤ °(In − R) ° A 1−α Por el Lema de Banach, e´ sta es la cota superior que se deseaba. Para obtener la cota inferior, se reescribe (7.4) como A−1 = (In − R) (A − B)−1 , de lo cual se deduce que ° ° ° ° ° ° −1 ° −1 ° kA k ≤ kIn − Rk °(A − B) ° ≤ (1 + α) °(A − B) ° . −1

Al dividir por (1 + α), se obtiene la cota inferior que se buscaba.

´ CAPITULO 7. NORMAS MATRICIALES

282

7.3. Condici´on de ecuaciones lineales El concepto de condici´on es importante en todas las matem´aticas aplicadas. Si “peque˜nos cambios en los datos” de un problema producen cambios razonablemente peque˜nos en la soluci´on del mismo, se dice que el problema est´a bien planteado. Si “peque˜nos cambios en los datos” de alg´un problema ocasionan cambios inaceptablemente grandes en la soluci´on, se dice que el problema est´a mal planteado. La raz´on de la importancia de este concepto deber´ıa ser evidente: En los problemas aplicados, casi siempre los datos son inexactos por errores de medici´on y de modelamiento y es crucial conocer los efectos que tienen sobre la soluci´on del problema las inexactitudes en los datos. Definici´on 7.4. Sistema de ecuaciones de mal comportamiento Un sistema de ecuaciones lineales A~X = ~b

(7.5)

con A una matriz de tama˜no n×n, ~X ∈ Rn y~b ∈ Rn , se dice que es un sistema de mal comportamiento si las n columnas de la matriz son casi linealmente dependientes o, en otras palabras, si la matriz de los coeficientes es casi singular. Esto significa que un cambio peque˜no en algunos elementos de A produce una matriz singular. ´ Definici´on 7.5. Numero de Condici´on ´ Sea A una matriz no singular real de tama˜no n × n, el numero de condici´on se define como κ (A) = kAkS kA−1 kS =

σmax , σmin

(7.6)

donde, σmax y σmin son respectivamente los valores singulares m´as grande y m´as peque˜no, asociados a A. Teorema 7.7. Sea A no singular y sea k · k una norma matricial sobre Mnn . La sensibilidad de la soluci´on de un sistema de ecuaciones lineales A~x = ~b

´ DE ECUACIONES LINEALES 7.3. CONDICION

283

con respecto a la perturbaci´on ∆A en A se relaciona directamente con el n´umero de condici´on. En otras palabras, si ~y,

resuelve a

(A + ∆A)~y =~b.

Entonces el cambio en la soluci´on satisface que k~y −~xk ≤ ακ(A), k~xk en donde α = k∆Ak / kAk es el error relativo en A. Demostraci´on Puesto que la soluci´on del sistema perturbado es ~y, entonces (A + ∆A)~y−~b = ~0 A~y + ∆A~y−A~x = ~0 A (~y −~x) = − ∆A~y ~y −~x =A−1 (−∆A~y) Luego, si k · k es cuarquier norma matricial, se tiene que ° ° ° ° k~y −~xk = °−A−1 ∆A~y° ≤ °A−1 ∆A° k~yk ° ° ≤ °A−1 ° k∆Ak k~yk . Como se quer´ıa. Ejemplo 7.5. Resuelva el sistema de ecuaciones (1 + ε) x1 + x2 =2

ε∈R

x1 + x2 =1 y en las f´ormulas que obtenga para x1 y x2 sustituya (i) ε = 0. 01, 0. 02

(ii) ε = 2. 01, 2. 04

´ CAPITULO 7. NORMAS MATRICIALES

284

compare los cambios en porcentaje del coeficiente de x1 , en la primera ecuaci´on, en los casos (i) y (ii), con los cambios en porcentaje de la correspondiente soluci´on de x1 . Soluci´on Aplicando el m´etodo de eliminaci´on de Gauss se obtiene · ¸ · ¸ 1+ε 1 | 2 ε 0 | 1 ∼ . 1 1 | 1 F1 −F2 1 1 | 1 Esto conduce a x1 =

1 ε

y x2 = 1 − 1ε , (ε 6= 0) (i)

(ii)

ε

0. 01

0. 02

Soluci´on

(100, −99)

(50, −49)

2. 01 ¡ 100

101 201 , 201

2. 04 ¢

¡ 25

26 51 , 51

¢

El cambio en porcentaje del coeficiente de x1 es 1 % con una cifra decimal en cada caso. La soluci´on de x1 en (i) var´ıa en un 50 % y en (ii) en un 2,41 %. Esto indica que cuando ε es peque˜no las “ecuaciones son de mal comportamiento”. Un modo sencillo de probar si un sistema de ecuaciones es de mal comportamiento consiste, precisamente, en proceder como lo hicimos en el ejemplo anterior, esto es, efectuar un peque˜no cambio en algunos coeficientes para ver qu´e efectos se producen en la soluci´on, pero esto es dif´ıcil de hacer cuando se trata de un sistema de ecuaciones muy grande. Existe un m´etodo que nos da una indicaci´on de cuando se presenta el mal comportamiento, usando la definici´on 7.5. El n´umero de condici´on nos da una regla pr´actica para determinar si un sistema de ecuaciones es de mal comportamiento Si

0 ≤κ (A) ≤ 100

siempre el sistema es bien condicionado,

100 n) con ρ (A) = n, entonces la matriz C = A (At A)−1 At es sim´etrica e idempotente, al igual que Ce = In −C. Demostraci´on La matriz C = A (At A)−1 At es sim´etrica, ya que h¡ h ¡ ¢t i−1 t ¢−1 t it ¡ t ¢t h¡ t ¢−1 it t A = C. AA A = A At A Ct = A At A A = A Adem´as es idempotente pues h ¡ ¢−1 t i h ¡ t ¢−1 t i ¡ ¢−1 t C2 = A At A A A AA A = AIk At A A = C. N´otese que la matriz At A es no singular pues A es de rango completo columna y ρ (At A) = ρ (A), el lector puede probar f´acilmente que Ce = In − C es tambi´en sim´etrica e idempotente. Teorema 8.11. Sea A una matriz sim´etrica e idempotente de tama˜no n×n, entonces ρ(A) = tr(A).

´ CAPITULO 8. MATRICES IDEMPOTENTES

298

Demostraci´on Por el teorema 8.6, existe una matriz ortogonal Q tal que A = QDr Qt . Luego, se tiene que tr(A) = tr(QDr Qt ) = tr(Dr Qt Q) = tr(Dr ) = r = ρ(A). Teorema 8.12. Todas las matrices sim´etricas idempotentes de rango incompleto son semidefinidas positivas. Demostraci´on Queda como ejercicio al lector. Teorema 8.13. Sea A una matriz real de tama˜no n × n, entonces A es sim´etrica e idempotente si y s´olo si ρ(A) + ρ(In − A) = n. Demostraci´on Supongamos que ρ(A) + ρ(In − A) = n y sea R(A) el espacio de los renglones de A. Veamos que Rn = R(A) ⊕ R(In − A). Obs´ervese que n =dim (Rn ) = dim {R(A) + R(In − A)} =dim {R(A)} + dim {R(In − A)} − dim {R(A) ∩ R(In − A)} =ρ(A) + ρ(In − A) − dim {R(A) ∩ R(In − A)} =n − dim {R(A) ∩ R(In − A)} . Esto implica que dim {R(A) ∩ R(In − A)} = 0, de lo cu´al se tiene que R(A) ∩ R(In − A) = {~0}. Por consiguiente, Rn = R(A) ⊕ R(In − A), esto exige que A (In − A) = 0.

´ Y PROPIEDADES 8.1. DEFINICION

299

Supongamos que no es as´ı, entonces existen vectores no nulos ~u y ~v en Rn , tales que A (In − A)~u =~v. Luego ~v ∈ R(A), pero como A (In − A) = (In − A) A, se tiene que (In − A) A~u =~v. Esto implica que~v ∈ R(In −A) y se llega a una contradicci´on. Por lo tanto, A (In − A) = 0 o A2 = A. Esto completa la prueba. Ejemplo 8.3. Determine el rango de la matriz asociada a la forma cuadr´atica del Ejemplo 5.5. Soluci´on La matriz asociada a la forma cuadr´atica dada en el Ejemplo 5.5 era In − J n . Veamos si es sim´etrica e idempotente: µ ¶ µ ¶ ¢t ¡ 1 t t 1 t = In − 11 In − J n = In − 11 n n µ ¶µ ¶ ¡ ¢2 1 t 1 t In − J n = In − 11 In − 11 n n 1 1 1 1 = In − 11t − 11t + 2 1 |{z} 1t 1 1t = In − 11t = In − J n . n n n n Luego, por el teorema anterior se tiene que ¢ ¡ ¢ ¡ ρ In − J n = n − ρ J n = n − 1, pues la matriz J n tiene u´ nicamente una fila linealmente independiente. Teorema 8.14. Sean A1 y A2 dos matrices cuadradas del mismo tama˜no y A = A1 + A2 , entonces las siguientes condiciones son equivalentes (1) A es sim´etrica e idempotente y ρ(A) = ρ(A1 ) + ρ(A2 ). (2) A1 y A2 son sim´etricas e idempotentes y A1 A2 = A2 A1 = 0.

´ CAPITULO 8. MATRICES IDEMPOTENTES

300

Demostraci´on Supongamos que (2) es verdadero, entonces A2 = (A1 + A2 ) (A1 + A2 ) =A21 + A22 + A1 A2 + A2 A1 = A1 + A2 . Puesto que A, A1 y A2 son idempotentes, ρ(A) =tr(A) = tr (A1 + A2 ) = tr (A1 ) + tr (A2 ) =ρ (A1 ) + ρ (A2 ) . Ahora, supongamos que (1) es verdadero, por el Teorema 8.13 n =ρ(A) + ρ (In − A) = ρ (A1 ) + ρ (A2 ) + ρ (In − A) ≥ρ (A1 ) + ρ [A2 + (In − A)] = ρ (A1 ) + ρ (In − A1 ) ≥ρ [A1 + (In − A1 )] = ρ (In ) = n. Por consiguiente, ρ (A1 ) + ρ (In − A1 ) = n y de nuevo por el Teorema 8.13, se tiene que A1 es idempotente; de manera an´aloga se puede mostrar que A2 es idempotente. Ahora demostremos que A1 A2 = A2 A1 = 0. Dado que A, A1 y A2 son idempotentes y A = A1 + A2 , multiplicando ambos lados por A se obtiene que A =A2 = (A1 + A2 ) (A1 + A2 ) =A21 + A22 + A1 A2 + A2 A1 = (A1 + A2 ) + A1 A2 + A2 A1 =A + A1 A2 + A2 A1 . Esto implica que A1 A2 + A2 A1 =0,

es decir,

A1 A2 = −A2 A1 .

Por otra parte, el hecho de que ρ(A) = ρ(A1 ) + ρ(A2 ) implica que R(A1 ) ∩ R(A2 ) = {~0}. Este hecho unido con A1 A2 = −A2 A1 da A1 A2 = 0. Corolario 8.14.1. Sean A1 , A2 dos matrices de tama˜no n × n tal que A1 + A2 = In entonces las condiciones dadas en el Teorema 8.14 se cumplen.

´ Y PROPIEDADES 8.1. DEFINICION

301

Demostraci´on Queda como ejercicio para el lector. Una generalizaci´on del Teorema 8.14 en el que se involucran m´as de dos matrices es el siguiente Teorema 8.15. Sean A1 , A2 , . . . , Am una colecci´on de m matrices de tama˜no n × n m

y A = ∑ Ai . Considere las siguientes condiciones: i=1

(1) Cada Ai es sim´etrica e idempotente. ¡ ¢ (2) Ai A j = 0 para toda i 6= j y ρ A2i = ρ (Ai ) para toda i. (3) A es sim´etrica e idempotente. m

(4) ρ(A) = ∑ ρ (Ai ) . i=1

Entonces cualquiera dos de las condiciones (1), (2) y (3) implica la validez de la condici´on (4). Adem´as, las condiciones (3) y (4) implica la validez del resto de las condiciones. Demostraci´on m Suponga que (1) y (2) son dadas. Como A = ∑ Ai es claro que es idempotente. i=1

Puesto que A y A1 , A2 , . . . , Am son todas idempotentes, m

m

i=1

i=1

ρ(A) = tr(A) = ∑ tr (Ai ) = ∑ ρ (Ai ) . As´ı, la condici´on (4) es verdadera. Suponga que (2) y (3) son dadas. El c´omputo de A2 produce m

A2 = ∑ A2i ,

para

1 ≤ i ≤ m.

i=1

N´otese que AAi =Ai A = A2i

y

A2 Ai = Ai A2 = A3i

´ CAPITULO 8. MATRICES IDEMPOTENTES

302

2 3 2 como A es idempotente, ¡se tiene ¢ que Ai = Ai , lo cual implica que Ai (In − Ai ) = 0. 2 La condici´on ρ (Ai ) = ρ Ai es equivalente a la siguiente afirmaci´on © ¡ ¢ª dim {R (Ai )} = dim R A2i . ¡ ¢ ¡ ¢ Puesto que R A2i ⊂ R (Ai ), se tiene que R (Ai ) = R A2i . Por consiguiente, existe una matriz D no singular tal que Ai = DA2i . Por lo tanto, A2i (In − A) = 0 implica que Ai (In − A) = 0 de lo cual se concluye que Ai es idempotente; as´ı, la condici´on (1) es verdadera y se sigue la (4). Supongamos que (3) y (4) son v´alidas. Para i 6= j, sea B = Ai + A j y C = A − B, por (4) m

∑ ρ (Ai ) =ρ(A) = ρ (B +C)

i=1

m

≤ρ(B) + ρ(C) ≤ ∑ ρ (Ai ) . i=1

De esto, se tiene que ρ(A) = ρ(B) + ρ(C), por otra parte, n =ρ (In ) = ρ (B + In − B) ≤ ρ(B) + ρ (In − B) =ρ(B) + ρ (In − A +C) ≤ ρ(B) + ρ (In − A) + ρ(C) =ρ(A) + ρ (In − A) = n. Por lo tanto, ρ(B) + ρ (In − B) = n y por el Teorema 8.13, B es idempotente. As´ı se tiene que Ai + A j es idempotente y ρ(B) = ρ (Ai ) + ρ (A j ). Por el Teorema 8.14, Ai A j = 0 y Ai y A j son idempotentes. As´ı, (2) y (3) se obtienen de una vez. Suponga que (1) y (2) se cumplen. Es obvio que (4) se sigue aprovechando la conexi´on entre rango y traza para matrices idempotentes. Por lo tanto, se tiene que (4) es v´alido, (3) se sigue ahora de lo que se ha establecido anteriormente. Esto completa la prueba. Corolario 8.15.1. Sean A1 , A2 , . . . , Am una colecci´on de matrices sim´etricas e idempotentes de tama˜no n × n tal que m

∑ Ai = In

i=1

entonces las condiciones dadas en el Teorema 8.15 se cumplen. En este caso, las condiciones (1) y (2) son equivalentes.

´ Y PROPIEDADES 8.1. DEFINICION

303

Demostraci´on Queda como ejercicio para el lector. Teorema 8.16. Sean A1 , A2 , . . . , At una colecci´on de matrices sim´etricas e idempotentes de tama˜no n × n. Una condici´on necesaria y suficiente para que exista una matriz P ortogonal tal que Pt A1 P, Pt A2 P, . . . , Pt At P sean todas diagonales es que Ai A j = A j Ai para toda i y j. Demostraci´on Queda como ejercicio para el lector.

Ejercicios 8.1. 1. Obtenga condiciones para los elementos de las matrices idempotentes de tama˜no 2 × 2. ¿Se puede generalizar a cualquier dimensi´on?. 2. Muestre que si A es idempotente, entonces At es idempotente. 3. Sea X una matriz de tama˜no m × n (m > n) y rango n. Demuestre que la matriz H = X(X t X)−1 X t es una matriz sim´etrica e idempotente. Obtenga la inversa de In − H. 4. Suponga que KA = 0 y K es idempotente. Defina G = (A − K)−1 . Pruebe que (i) AG = I − K,

(ii) AGA = A

y

(iii)

AGK = 0.

304

´ CAPITULO 8. MATRICES IDEMPOTENTES

Cap´ıtulo 9

Inversa generalizada de matrices El concepto de inversa generalizada tiene sus principios en la teor´ıa de ecuaciones lineales simult´aneas (sistemas de m ecuaciones lineales con n inc´ognitas). La soluci´on de un conjunto de ecuaciones lineales consistente A~x = ~b,

(9.1)

donde A es de tama˜no m × n con rango r ≤ min(m, n), puede asumir dos formas diferentes. Si m = n = r, el sistema (9.1) tiene soluci´on u´ nica ~x = A−1~b. Sin embargo, cuando A es una matriz rectangular o singular, una representaci´on simple de una soluci´on en t´erminos de A es m´as dif´ıcil. En este cap´ıtulo, se trataran estos sistemas de ecuaciones usando las inversas generalizadas de matrices. Dichas matrices las estudiaremos como una aplicaci´on de las descomposiciones de matrices.

9.1.

Definici´on y propiedades b´asicas

En esta secci´on, se analizaran las inversas generalizadas de matrices rectangulares o singulares. Este tipo de inversas las estudiaremos como una aplicaci´on de los valores propios, considerando los dos casos valores propios reales o complejos.

305

´ CAPITULO 9. INVERSA GENERALIZADA DE MATRICES

306

Definici´on 9.1. Inversa Generalizada Para cualquier matriz A cuadrada o rectangular, se dice que G es una inversa generalizada de A, si satisface las siguientes condiciones: (i) AGA =A,

(iii) AG es sim´etrica

(ii) GAG =G,

(iv) GA es sim´etrica.

y

(9.2)

Nota La inversa generalizada de A se llama tambi´en seudoinversa de A. Teorema 9.1. Si A es una matriz no singular, entonces G = A−1 . Demostraci´on Queda como ejercicio al lector. Notaci´on La notaci´on y nomenclatura que se se usar´a en este cap´ıtulo, para los cuatro tipos de inversa generalizada introducido en (9.2) es el siguiente: Condiciones que satisface (i) (i) y (ii) (i), (ii) y (iii) (i), (ii) y (iv) (i), (ii), (iii)y(iv)

Nombre

Abreviaci´on

Notaci´on

Inv. Gen. condicionada Inv. Gen. reflexiva Inv. Gen. normalizada Inv. Gen. normalizada La Inversa Generalizada

g1 -Inversa g2 -Inversa g3 -Inversa g∗3 -Inversa La g-Inversa

Ag1 o Ac Ag2 o Ar Ag3 o An ∗ ∗ Ag3 o An Ag o A−

como veremos el t´ermino “normalizada” significa de norma m´ınima. En la Definici´on 9.1 no se establece que toda matriz tenga inversa generalizada y adem´as que e´ sta sea u´ nica. Por supuesto que as´ı es, como lo establece el siguiente teorema. Teorema 9.2. Sea A una matriz cuadrada o rectangular, entonces: i) Siempre existe G.

ii) G es u´ nica.

´ Y PROPIEDADES BASICAS ´ 9.1. DEFINICION

307

Demostraci´on i) Si A es la matriz nula de tama˜no m × n, es claro que la g−inversa de A es la matriz nula de tama˜no n × m. Si se supone que ρ (A) = r > 0, entonces por la propiedad (iv) del rango de una matriz (ver Cap´ıtulo 1) se tiene que existen K y L de tama˜no m × r y r × n, respectivamente, ambas con rango r tales que A = KL. Entonces la matriz dada por ¡ ¢−1 ¡ t ¢−1 t Ag = Lt LLt KK K

(9.3)

es una g−inversa de A, pues basta sustituir en (9.2) para obtener que ¡ ¢−1 ¡ t ¢−1 t AAg A =KLLt LLt KK K KL = KL = A. ¡ ¢ ¡ ¢ −1 −1 t Ag AAg =Lt LLt Kt K K = Ag . ¡ ¢−1 ¡ t ¢−1 t ¡ ¢−1 t AAg =KLLt LLt KK K = K Kt K K ¡ ¢ ¡ ¢ ¡ ¢ −1 −1 −1 Ag A =Lt LLt Kt K K t KL = Lt LLt L

es sim´etrica. es sim´etrica.

As´ı pues, siempre existe una g−inversa de una matriz A. ii) Para probar la unicidad se procede por reducci´on al absurdo y se supone que existen dos matrices Ag y Bg de tama˜no n × m que son inversas generalizadas de A. Por ser Ag una g−inversa de A se tiene que AAg A = A.

(9.4)

Al postmultiplicar por Bg se obtiene AAg ABg = ABg y, dada la simetr´ıa de ABg y AAg , resulta ABg = (ABg )t = [(AAg ) (ABg )]t = (ABg A) Ag = AAg .

(9.5)

De manera an´aloga premultiplicando a (9.4) por Bg se llega a Bg A = (Bg A)t = [(Bg A) (Ag A)]t = Ag (ABg A) = Ag A.

(9.6)

´ CAPITULO 9. INVERSA GENERALIZADA DE MATRICES

308

Por u´ ltimo, si se premultiplica en (9.5) por Bg , se tiene Bg ABg = Bg AAg y, de acuerdo con (9.6) y la definici´on 9.1, resulta Bg = Bg ABg = (Bg A) Ag = Ag AAg = Ag . Es decir, la g−inversa de una matriz es u´ nica. Ejemplo 9.1.

  2 −1 3 Dada la matriz A =  , determine el tipo de inversa generalizada 1 −2 3   2 −1    que es G = 13  1 −2 .   0 0 Soluci´on Veamos que condiciones cumple G de las dadas en (9.2):   · ¸ 2 −1 · ¸ 1 3 0 1 2 −1 3   1 −2 = , AG = 3 1 −2 3 3 0 3 0 0 entonces

(9.7)

· ¸ 2 −1 3 AGA = = A. 1 −2 3

Por lo tanto, la matriz G es Ag1 . Observemos si cumple la segunda condici´on     ¸ 2 −1 · 3 0 3 1 1 2 −1 3 1 −2 GA = = 0 3 −3 , (9.8) 1 −2 3 3 3 0 0 0 0 0 luego

  6 −3 1 3 −6 = G. GAG = 9 0 0

As´ı, G es una matriz Ag2 y de la expresi´on (9.7) se tiene finalmente que G es una Ag3 . No alcanza ser Ag ya que no cumple la cuarta condici´on, lo cual se verifica en (9.8).

9.2. PROPIEDADES DE LAS INVERSAS GENERALIZADAS

9.2.

309

Propiedades de las inversas generalizadas

Algunas de las propiedades m´as importantes de la inversa generalizada se resumen en el siguiente teorema. Teorema 9.3. Sea A una matriz de tama˜no m × n con rango r ≤ m´ın(m, n) y Ag una matriz de tama˜no n × m. Entonces: a) (Ag )g = A. b) (At )g = (Ag )t . c) A = AAt (Ag )t = (Ag )t At A. d) (αA)g = αg Ag , donde α 6= 0 es cualquier escalar con αg = α−1 . d) (At A)g = Ag (Ag )t . e) Ag = Ag (Ag )t At = At (Ag )t Ag . f) Ag = (At A)g At = At (AAt )g . g) Las matrices AAg , Ag A, Im − AAg e In − Ag A son todas idempotentes con rangos iguales a r, r, m − r y n − r respectivamente. h) ρ(Ag ) = ρ(A). Demostraci´on En esta demostraci´on se utilizan las condiciones dadas en (9.2): a) Se tiene inmediatamente de las condiciones. b) Supongamos que la g-inversa de At es (At )g , si se transpone la primera condici´on de la g-inversa de la matriz A, se tiene [AAg A]t =At At (Ag )t At =At . Pero por la definici´on 9.1 la g-inversa es u´ nica, entonces (At )g = (Ag )t .

310

´ CAPITULO 9. INVERSA GENERALIZADA DE MATRICES

c) - f) Quedan como ejercicio para el lector. g) Para verificar si las matrices son idempotentes se eleva cada una de ellas al cuadrado: (AAg )2 =(AAg )(AAg ) = (AAg A)Ag = AAg , (Ag A)2 =(Ag A)(Ag A) = Ag (AAg A) = Ag A. De manera an´aloga se demuestra que I − AAg e I − Ag A son idempotentes. Puesto que el rango de un producto no puede exceder el rango m´as peque˜no de los factores: r = ρ(A) =ρ(AAg A) ≤ ρ(AAg ) ≤ ρ(A) = r, r = ρ(A) =ρ(AAg A) ≤ ρ(Ag A) ≤ ρ(A) = r. Por el teorema del emparedado se tienen las igualdades. Para demostrar que ρ(Im − AAg ) = m − r y ρ(In − Ag A) = n − r se usa el hecho de que el rango de una matriz idempotente es igual a su traza. Luego, ρ(Im − AAg ) =tr(Im − AAg ) = m − tr(AAg ) = m − ρ(AAg ) = m − r. ρ(In − Ag A) =tr(In − Ag A) = n − tr(Ag A) = n − ρ(Ag A) = n − r. h) Por la parte a), si AAg A = A, entonces ρ(A) = ρ(AAg A) ≤ ρ(AAg ) ≤ ρ(Ag ). Por otra parte, la condici´on Ag AAg = Ag , implica que ρ(Ag ) = ρ(Ag AAg ) ≤ ρ(AAg ) ≤ ρ(A). As´ı, ρ(Ag ) = ρ(A). Teorema 9.4. Si A es una matriz sim´etrica, entonces Ag es sim´etrica. Demostraci´on La prueba se sigue de la parte b) del Teorema 9.3, es decir: ¡ ¢g Ag = At = (Ag )t . Corolario 9.4.1. Si A es sim´etrica e idempotente entonces Ag = A.

´ 9.3. METODOS PARA CALCULAR INVERSAS GENERALIZADAS

311

Demostraci´on Queda como ejercicio al lector. Ejemplo 9.2. Determine la inversa generalizada de la matriz asociada a la forma cuadr´atica del Ejemplo 5.5 Soluci´on En el Ejemplo 8.3, se mostr´o que In − J n era sim´etrica e idempotente. Luego por el Corolario 9.4.1, se tiene que ¡ ¢g In − J n = In − J n . Teorema 9.5. Si A y Ag3 son sim´etricas, entonces Ag3 = Ag . Demostraci´on Puesto que Ag3 es sim´etrica, (Ag3 A)t = AAg3 = (AAg3 )t = Ag3 A y la cuarta condici´on dada en (9.2) se satisface.

9.3.

M´etodos para calcular inversas generalizadas

En esta secci´on se ilustra algunos de los m´etodos para hallar la g-inversa. Se estudiar´an s´olo los m´etodos que utilizan las distintas factorizaciones de la matriz A dadas en estas notas. Aunque en esta secci´on se consideran u´ nicamente matrices reales, cuando el lector necesite emplear alguno de los m´etodos desarrollados aqu´ı para matrices complejas, simplemente puede realizar los cambios adecuados en cada m´etodo. Por ejemplo, en vez de utilizar At se usa AH y si en el m´etodo se emplea una matriz ortogonal pues se cambia por una matriz unitaria. Teorema 9.6. Sea A una matriz real de tama˜no m × n con rango r ≤ m´ın(m, n) particionada como

 A11  A=  ...  A21

 .. . A12   . ...  ,  .. . A22

donde A11 o´ A22 es una submatriz real de tama˜no r × r; entonces

´ CAPITULO 9. INVERSA GENERALIZADA DE MATRICES

312

1. Si A11 es no singular y A22 = A21 A−1 11 A12 , una g2 -inversa de A es la matriz Ag2 de tama˜no n × m, dada por:  −1  A11  Ag2 =   ...  0n1 ×r

.. . . .. .

 0r×m1   ...  .  0n1 ×m1

(9.9)

con m1 = m − r y n1 = n − r. 2. Si A22 es no singular y A11 = A12 A−1 22 A21 , una g2 -inversa de A es la matriz Ag2 de tama˜no n × m, dada por:  0n1 ×m1  Ag2 =   ...  0r×m1

 .. . 0n1 ×r   . ...  .  .. . A−1 22

(9.10)

Demostraci´on Como la partici´on de las matrices expuestas son consistentes para el producto, efect´ue los productos AAg2 A y Ag2 AAg2 . Obs´ervese que se obtiene respectivamente A y Ag2 . Ejemplo 9.3.

  2 −1 3 Dada la matriz A =  , obtenga una g2 −inversa. 1 −2 3

Soluci´on Para la partici´on 1 × (2 + 1) de la matriz dada se tiene   .. . 2 −1 . 3 = (A1 .. A2 ). A= .. 1 −2 . 3 Se calcula la inversa de A1 y se obtiene A−1 1 =−

· ¸ 1 −2 1 . 3 −1 2

´ 9.3. METODOS PARA CALCULAR INVERSAS GENERALIZADAS

313

Luego, una g2 -inversa es la matriz   2 −1 1 Ag2 = 1 −2 . 3 0 0 N´otese que e´ sta es igual a la dada en el Ejemplo 9.1. Corolario 9.6.1. Sea A una matriz “diagonal” de tama˜no m×n y rango r ≤ m´ın(m, n) particionada como sigue   .. . 0r×n1   D   A = · ...   ... ,   . 0m1 ×r .. 0m1 ×n1

donde

  d1 . . . 0  . .  . . . ...  . D = .    0 . . . dr

con m1 = m − r y n1 = n − r. Entonces la inversa generalizada de A est´a dada por   .. −1 D . 0 r×m1     . G= (9.11) . . . . . .     . 0n1 ×r .. 0n1 ×m1 Demostraci´on Queda como ejercicio para el lector. Teorema 9.7. Sea A una matriz sim´etrica de tama˜no n × n y rango r, (r < n). Entonces la inversa generalizada de A est´a dada por G = PΛg P−1 ,

(9.12)

donde P es una matriz real de tama˜no n×n cuyas columnas son los vectores propios asociados a A, particionada como . . P = [S .. T ] = [~v1 . . . ~vr .. ~vr+1 . . . ~vn ].

(9.13)

314

´ CAPITULO 9. INVERSA GENERALIZADA DE MATRICES

Aqu´ı, la submatriz S es de tama˜no n × r, sus columnas corresponden a los vectores propios asociados a los valores propios distintos de cero de la matriz A y la submatriz T es de tama˜no n × (n − r), cuyas columnas corresponden a los vectores propios asociados a los valores propios nulos de A.   −1 0 D Λg =  , 0 0

(9.14)

con D la submatriz real de tama˜no r × r que tiene en la diagonal los valores propios distintos de cero asociados a A, 0 la submatriz real de tama˜no (n − r) × (n − r) en cuya diagonal est´an los valores propios nulos de A. Demostraci´on Puesto que A tiene n vectores propios~v1 ,~v2 , . . . ,~vn que corresponden a los valores propios (no necesariamente diferentes) λ1 , λ2 , . . . , λn , dichos vectores resultan ser linealmente independientes y por lo tanto la matriz P dada en (9.13) es no singular. −1 · Por¸consiguiente, la matriz A se puede expresar como A = PΛP , donde Λ = D 0 . 0 0 Veamos si G = PΛg P−1 cumple la primer condici´on de la definici´on 9.1 ¡ ¢ ¡ ¢¡ ¢¡ ¢ AGA =A PΛg P−1 A = PΛP−1 PΛg P−1 PΛP−1 =PΛΛg ΛP−1 = PΛP−1 = A. Luego G es una matriz Ag1 . Observemos si es Ag2 : ¡ ¢ ¡ ¢ ¡ ¢¡ ¢¡ ¢ GAG = PΛg P−1 A PΛg P−1 = PΛg P−1 PΛP−1 PΛg P−1 =PΛg ΛΛg P−1 = PΛg P−1 = G. Ahora, verifiquemos si G es una matriz Ag3 : £ ¡ ¢¤ ¡ ¢ AG = A PΛg P−1 = [ PΛP−1 (PΛg P−1 )] = [P (ΛΛg ) P−1 ].

(9.15)

Pero como A = At , por el Teorema 2.26, la matriz A es semejante a una matriz Q ortogonal. Si se ortonormalizan las columnas de la matriz P se tiene que P−1 = Pt y por lo tanto ½ · ¸ ¾t · ¸ Ir 0 t Ir 0 t t g −1 t (AG) = [P(ΛΛ )P ] = P P =P P = AG. 0 0 0 0

´ 9.3. METODOS PARA CALCULAR INVERSAS GENERALIZADAS

315

Tambi´en G es Ag3 . Observemos si cumple la cuarta condici´on dada en (9.2) GA = [(PΛg P−1 )A] = [(PΛg P−1 )(PΛP−1 )] = [P(Λg Λ)P−1 ].

(9.16)

Usando de nuevo el hecho de que A es diagonalizable ortogonalmente, se tiene ½ · ¸ ¾t · ¸ Ir 0 t Ir 0 t t g −1 t P =P P = GA (GA) = [P(Λ Λ)P ] = P 0 0 0 0 As´ı, G es la g-inversa de A y el teorema queda demostrado. Ejemplo 9.4. Inversa Generalizada de una Matriz Sim´etrica   5 −4 9     Sea A =  −4 5 −9, obtenga la g-inversa.   9 −9 18 Soluci´on En este caso, la ecuaci´on caracter´ıstica es: det(A − λI) = −λ3 + 28λ2 − 27λ = 0. Entonces, los valores propios de A son λ1 = 1, λ2 = 27 y λ3 = 0.   1 Para λ1 = 1, se tiene el vector propio correspondiente ~v1 = 1. 0   1 Si λ2 = 27, se obtiene el vector propio asociado ~v2 = −1 2   −1 y para λ3 = 0, se llega al vector propio ~v3 =  1 . 1 Estableciendo     1 1 −1 −3 −3 0 1 con P−1 = − −1 1 −2 P = 1 −1 1  6 0 2 1 2 −2 −2 y   1 0 0 Λ = 0 27 0 0 0 0

con

  27 0 0 1 Λg =  0 1 0 , 27 0 0 0

´ CAPITULO 9. INVERSA GENERALIZADA DE MATRICES

316 se obtiene

    1 1 −1 27 0 0 −3 −3 0 1  1 −1 1   0 1 0 −1 1 −2 . G=− 162 0 2 1 0 0 0 2 −2 −2 Despu´es de realizar la multiplicaci´on de las matrices queda   41 40 1 1  40 41 −1 , G= 81 1 −1 2 de manera que 

5 1  −4 AG = 81 9  41 1  40 GA = 81 1

  −4 9 41 40 1 5 −9 40 41 −1 = −9 18 1 −1 2   40 1 5 −4 9 41 −1 −4 5 −9 = −1 2 9 −9 18

  2 1 1 1 1 2 −1 , 3 1 −1 2   2 1 1 1 1 2 −1 . 3 1 −1 2

As´ı, AG = GA, adem´as los productos dan como resultado matrices sim´etricas. Por otra parte,      2 1 1 15 −12 27 5 −4 9 1 1 AGA = 1 2 −1 −4 5 −9 = −12 15 −27 = A, 3 3 1 −1 2 27 −27 54 9 −9 18      2 1 1 123 120 3 41 40 1 1  1 120 123 −3 = G. 1 2 −1 40 41 −1 = GAG = 243 243 1 −1 2 1 −1 2 3 −3 6

Corolario 9.7.1. Sea A una matriz singular de tama˜no n × n con valores propios (reales o complejos) distintos de cero λ1 , λ2 , . . . , λr (r = ρ(A)). Entonces una g2 inversa de A es la matriz definida de la siguiente forma: Ag2 = PΛg P−1 ,

(9.17)

´ 9.3. METODOS PARA CALCULAR INVERSAS GENERALIZADAS

317

donde, P1 y Λg estan definidas de manera an´aloga a (9.13) y (9.14), y    diag(λ1 , λ2 , . . . , λr ) si m.a(λi ) = m.g(λi )    D= J si m.a(λi ) 6= m.g(λi )      R si posee valores propios complejos, en donde J es la matriz de Jordan dada en (3.25). En este caso, AG = GA. Demostraci´on En el Teorema 9.7, se demostr´o que G era Ag2 . Para demostrar que AG = GA, de (9.15) y (9.16) se tiene que AG =[P(ΛΛg )P−1 ] y GA =[P(Λg Λ)P−1 ]. · ¸ I 0 Dado que ΛΛg = Λg Λ = r , el corolario queda demostrado. 0 0 Ejemplo 9.5. Inv. gen.de una matriz con valores propios reales 4 1 2   , obtenga una g2 -inversa. Sea A =  3 1 3     1 1 5 Soluci´on En este caso, los valores propios de  A son 2 = 3 y λ 3=0  λ1 =7, λ y los vec1 −7 1 tores propios correspondientes son ~v1 = 1, ~v2 = −3 y ~v3 = −6, respecti1 5 1 vamente. Estableciendo     27 12 45 1 −7 1 1 0 7 P = 1 −3 −6 con P−1 = −7 84 1 5 1 8 −12 4 y   7 0 0 Λ = 0 3 0 0 0 0

con

1 Cuando la multiplicidad algebraica de un λ

i

  3 0 0 1 Λg = 0 7 0 . 21 0 0 0

sea mayor que su multiplicidad geom´etrica, algunas

de las columnas de P ser´an vectores propios generalizados

´ CAPITULO 9. INVERSA GENERALIZADA DE MATRICES

318 Se obtiene

    1 −7 1 3 0 0 27 12 45 1  1 −3 −6 0 7 0 −7 0 7. G= 1764 1 5 1 0 0 0 8 −12 4

Despu´es de realizar el producto entre matrices, se llega a   106 9 −52 1  57 9 −3  G= 441 −41 9 95 de manera que

 4 1 1  3 1 AG = 441 1 1  106 1  57 GA = 441 −41

 2 106 9 3  57 9 5 −41 9  9 −52 4 9 −3  3 9 95 1

 −52 −3  = 95  1 2 1 3 = 1 5



19 1  12 21 −2  19 1  12 21 −2

 3 −1 3 6 , 3 20  3 −1 3 6 . 3 20

Entonces AG = GA, pero los productos no dan como resultado matrices sim´etricas. Por otra parte,      19 3 −1 4 1 2 84 21 42 1  1 63 21 63  = A, y 12 3 6  3 1 3 = AGA = 21 21 −2 3 20 21 21 105 1 1 5      19 3 −1 2226 189 −1092 106 9 −52 1  1  1197 189 12 3 6   57 9 −3  = −63  = G GAG = 9261 9261 −2 3 20 −861 189 1995 −41 9 95 As´ı, la matriz G cumple los requisitos (i) y (ii) dados en (9.2), pero no con las condiciones (iii) y (iv), pues AG y GA no son matrices sim´etricas. Corolario 9.7.2. Sea A una matriz real de tama˜no m × n (n < m) y rango r, (r ≤ n). Entonces la g-inversa de A est´a dada por G = (At A)g At

(9.18)

donde (At A)g = PΛg P−1 es la matriz definida en (9.12). Si r = n, entonces G =(At A)−1 At

y

GA =In .

´ 9.3. METODOS PARA CALCULAR INVERSAS GENERALIZADAS

319

Demostraci´on En el Teorema 9.7, se demostr´o que la g-inversa de matrices sim´etricas cumplen las condiciones establecidas en la definici´on 9.1. Entonces, (At A)g las cumple. Veamos si la expresi´on dada en (9.18) verifica las condiciones dadas en (9.2): AG = A(At A)g At . Pero por el Teorema 9.3 se tiene que A = (At )g At A, luego, AGA =[(At )g At A](At A)g At A = (At )g (At A)(At A)g (At A) =(At )g (At A) = A. Por otra parte, GA = (At A)g At A. Entonces, GAG =(At A)g At A(At A)g At = (At A)g (At A)(At A)g At =(At A)g At = G. Ahora, observemos si AG y GA son sim´etricas, (AG)t =[A(At A)g At ]t = A[(At A)g ]t At =A[(At A)t ]g At = AG y (GA)t =[(At A)g At A]t = [(At A)g (At A)]t =(At A)g (At A) = GA la u´ ltima expresi´on se tiene debido a que (At A)g es una g-inversa de (At A). Corolario 9.7.3. Sea A una matriz real de tama˜no m × n (m < n) y rango r, (r ≤ n). Entonces la g-inversa de A es G = At (AAt )g

(9.19)

donde (AAt )g = PΛg P−1 es la matriz definida en (9.12). Si r = m, entonces G =At (AAt )−1

y

AG =Im .

320

´ CAPITULO 9. INVERSA GENERALIZADA DE MATRICES

Demostraci´on Queda como ejercicio para el lector. Ejemplo 9.6. Consid´erese la matriz dada en el Ejemplo 9.1, obtenga la g-inversa. Soluci´on Como ρ (A) = 2, el producto de AAt da como resultado: · ¸ · ¸ ¡ t ¢−1 1 14 13 14 −13 t AA = y AA = . 13 14 27 −13 14 Luego, la inversa generalizada es

  5 −4 ¡ ¢ 1 −1 Ag = At AAt = 4 −5 . 9 1 1

la cual es diferente a la Ag2 dada en el Ejemplo 9.1. En el caso de que no se establezca primero el rango de la matriz A, se puede realizar el producto de At A el cual da como resultado   5 −4 9 At A = −4 5 −9 . 9 −9 18 En el Ejemplo 9.4 se obtuvo que la g-inversa para e´ sta matriz era   41 40 1 1 40 41 −1 . (At A)g = 81 1 −1 2 Por lo tanto, la g-inversa de la matriz A, es:   5 −4 1 Ag = 4 −5 , 9 1 1 la cual coincide con la obtenida anteriormente. Ejemplo 9.7. Determine una g-inversa para la matriz    1 2 3    A= −1 1 2 .   2 1 1

´ 9.3. METODOS PARA CALCULAR INVERSAS GENERALIZADAS

321

Soluci´on El producto de AAt da como resultado:   14 7 7 B = AAt =  7 6 1 . 7 1 6 En este caso, los valores propios de B y los vectores 2 = 5 y λ3= 0   son  λ1 = 21,  λ 2 0 −1 propios correspondientes son ~v1 = 1, ~v2 = −1 y ~v3 =  1 , respectiva1 1 1 mente. Estableciendo     2 1 1 2 0 −1 1 P = 1 −1 1  con P−1 =  0 −3 3 6 −2 2 2 1 1 1 y   21 0 0 Λ =  0 5 0 0 0 0

con

  5 0 0 1 0 21 0 , Λg = 105 0 0 0

se obtiene     2 0 −1 5 0 0 2 1 1 1 1 −1 1  0 21 0  0 −3 3 . (AAt )g = 630 1 1 1 0 0 0 −2 2 2 Despu´es de multiplicar las matrices queda   10 5 5 1  5 34 −29 . (AAt )g = 315 5 −29 34 Por lo tanto, la g-inversa de la matriz A es   5 −29 34 1 10 5 5 . Ag = 105 15 18 −3 El lector puede verificar que esta matriz cumple las condiciones dadas en (9.2).

322

´ CAPITULO 9. INVERSA GENERALIZADA DE MATRICES

Teorema 9.8. Sup´ongase que A = LU es una descomposici´on de la matriz A de tama˜no m × n, de rango r ≤ m´ın(m, n). Entonces la inversa generalizada de A est´a dada por ³ ´−1 ³ ´−1 et U eU et et L e et , G=U L L

(9.20)

e es una matriz de tama˜no n ×r de rango r, obtenida de eliminar las filas nudonde U e de tama˜no m × r, tambi´en de rango r, es obtenida eliminando las de U y la matriz L las columnas que multiplican a las filas nulas de U. Demostraci´on Queda como ejercicio para el lector. Ejemplo 9.8. Consid´erese la transpuesta de la matriz dada en el Ejemplo 9.1 y utilice el Teorema 9.8 para hallar la g-inversa. Soluci´on Si se transpone la matriz dada en el Ejemplo 9.1, la factorizaci´on LU es 

  1 2 1 −1 −2 = − 1 2 3 3 3 2

  0 0 2 1 1 0 0 − 23  = LU. −1 1 0 0

Al eliminar la u´ ltima fila de U y la u´ ltima columna de L se obtiene 

  1 2 1 −1 −2 = − 1 2 3 3 3 2 Luego,

 ¸ 0 · 2 1 e U. e  1 =L 0 − 23 −1

¸· ¸ · ¸ · 1 20 −6 2 1 2 0 t e e = UU = 0 − 32 1 − 23 4 −6 9

y por lo tanto, ³ ´−1 ·2 0 ¸ · 1 4 et U eU et U = 1 − 32 16

1 6 5 9

¸ =

· ¸ 1 3 2 . 6 0 −4

´ 9.3. METODOS PARA CALCULAR INVERSAS GENERALIZADAS

323

Por otra parte, · 1 − 12 te e LL= 0 1

3 2

¸

−1



1 − 1 2 3 2

 · ¸ 0 1 7 −4  1 = . 2 −4 4 −1

De donde, ³

et L e L

´−1

· ¸· 1 4 4 1 − 12 t e L = 6 4 7 0 1

¸

· ¸ 1 4 2 2 = . −1 6 4 5 −1 3 2

Siguiendo el procedimiento dado en (9.20), se tiene que · ¸· ¸ · ¸ 1 3 2 4 2 2 1 5 4 1 G= = , 36 0 −4 4 5 −1 9 −4 −5 1 la cual coincide con la transpuesta obtenida en el Ejemplo 9.6. Ejemplo 9.9. Consid´erese la matriz dada en el Ejemplo 9.5, obtenga la factorizaci´on LU de A y utilice el Teorema 9.8 para hallar la g-inversa. Soluci´on La factorizaci´on LU de la matriz dada en el Ejemplo 9.5 es      1 0 0 4 1 2 4 1 2 3 1 3 =  3 1 0 0 1 3  = LU. 4 4 2 1 1 1 5 0 0 0 4 3 1 Al eliminar la u´ ltima fila de U y la u´ ltima columna de L se obtiene     ¸ 1 0 · 4 1 2 e U. e 3 1 3 =  3 1 4 11 23 = L 4 0 4 2 1 1 1 5 4 3 Luego,

  · ¸ 4 0 · ¸ 1 336 52 4 1 2  t 1 e e 1 4 = UU = 0 41 32 16 52 37 2 32

y por lo tanto,     ¸ 4 0 · 37 −52 ³ ´−1 1  1  37 −52 et U eU et 6 8 . 1 41  = U = −52 336 608 152 3 −1 100 2 2

324 Por otra parte,

´ CAPITULO 9. INVERSA GENERALIZADA DE MATRICES   ¸ 1 0 · · ¸ 1 3 1 13 12 1 t 3 4 4  eL e= 1 = L , 0 1 3 41 8 12 80 4 3

de donde, · ¸· ¸ · ¸ ³ ´−1 1 20 12 −4 80 −12 1 43 14 et L e et = 1 L L = . 9 0 1 3 112 −12 13 28 −3 1 Siguiendo el procedimiento dado en (9.20), se tiene que     ¸ 37 −52 · 112 49 −77 1  8 20 12 −4  12 10 6 8  6 . G= = −3 1 9 4256 4256 −1 100 −40 11 113 N´otese que esta matriz no coincide con la obtenida en el Ejemplo 9.5, por otra parte      4 1 2 10 6 −2 112 49 −77 1  1  3 1 3  12 10 6 5 3 , 6 = AG = 532 14 1 1 5 −40 11 113 −2 3 13      112 49 −77 4 1 2 37 6 −1 1  1  12 10 6  3 1 3 = 6 2 6 . GA = 532 38 −40 11 113 −1 6 37 1 1 5 En este caso AG y GA dan como resultado matrices sim´etricas. Adem´as,      10 6 −2 4 1 2 56 14 28 1  1  6 5 3  3 1 3 = 42 14 42 = A, y AGA = 14 14 −2 3 13 14 14 70 1 1 5      37 6 −1 112 49 −77 112 49 −77 1  1  6 2 6   12 10 12 10 6  = G. 6 = GAG = 20216 532 −1 6 37 −40 11 113 −40 11 113 As´ı, la matriz G cumple todos los requisitos dados en (9.2). Teorema 9.9. Sup´ongase que A = QR es una descomposici´on de la matriz A de tama˜no m × n, de rango r ≤ m´ın(m, n) de modo que Q tiene columnas ortonormales y R es triangular superior de rango r. Entonces la inversa generalizada de A est´a dada por ¡ ¢g G = Rt RRt Qt .

(9.21)

´ 9.3. METODOS PARA CALCULAR INVERSAS GENERALIZADAS

325

Demostraci´on Queda como ejercicio para el lector. Ejemplo 9.10. Consid´erese la matriz dada en el Ejemplo 9.1, obtenga la factorizaci´on QR de A y utilice el Teorema 9.9 para hallar la g-inversa. Soluci´on La factorizaci´on QR de la matriz dada en el Ejemplo 9.1 es √ ¸ ·√ √ √ ¸ ¸ ·2√ · 2 −1 3 5 15 √5 5 − 45√ 5 95 √5 5 √ = 1 . 2 3 1 −2 3 0 − 35 5 5 5 −5 5 5 5 Luego,

  √ √ √ ¸ · ¸ ·√ 5 0 4 9 √ √ 1 5 − 5 5 122 −39 t 3 4 5 5 √ √ − 5 RR = 5 = 3 5√ 5 √ 0 − 35 5 5 −39 18 9 3 5 5 −5 5 5 5

y por lo tanto,

· ¸ ¡ t ¢g 1 18 39 RR = . 135 39 122

Por otra parte,

√   √  √  · ¸ 5 0 18 5 39 √ √5 ¡ ¢g 1  4√ 1  √ 18 39 Rt RRt = = − 5√ 5 35 √5  9√5 42 √5  . 39 122 135 9 135 9 5 −3 5 − 35 5 5 5

Empleando el procedimiento dado en (9.21), se tiene que √   √     √ ¸ 18√ 5 39√5 · 2 √ 5 −4 5 −4 1 1  15 1 5 5 5 √ 4 −5 = 4 −5 , G= = 9√5 42 √5  15 √ 2 5 − 5 135 135 9 5 5 1 1 1 1 9 5 −3 5 la cual coincide con la obtenida en el Ejemplo 9.6. Ejemplo 9.11. Inversa generalizada de una matriz cuadrada Obtenga la g-inversa, usando el procedimiento dado en (9.21) para la matriz   −1 1 −2    A=  1 −1 2  .   −1 1 1

´ CAPITULO 9. INVERSA GENERALIZADA DE MATRICES

326

Soluci´on La factorizaci´on QR de la matriz dada es √    1√ − 3√ 3 − 16√ 6 −1 1 −2 1  1 −1 2  =  1 3 3 √ 6 √6 1 −1 1 1 − 3 3 13 6



√ √  √ 3 − 3 √3 6 . 0 0 0 0 0

 1 2 √2 1  2 2 0

Luego, √ √ √  √    √ 3 0 0 3 − 3 √3 9 3 2 0 √ √ RRt =  0 0 6 −√ 3 √0 0 = 3 2 6 0 0 0 0 0 0 0 3 6 0 y por lo tanto,

√   2 − 2 0 ¡ t ¢g √ 1  RR = − 2 3 0 . 12 0 0 0

Por otra parte, √ √3 ¡ ¢ 1 g Rt RRt = −√ 3 12 3  √ 2 3 1  √ = −2 3 12 0

√   0 0 2 − 2 0 √  3 0 √0 0 − 2 0 0 0 6 0 √  −√ 6 0 . √6 0 2 6 0

Mediante el procedimiento dado en (9.21), se tiene que √ √ √   √  1√   − 3 √3 13 √3 − 31√ 3 2 √3 −√ 6 0 −1 1 −4 1  1  − 1 6 1 6 1 6  =  1 −1 4  , G= −2 3 6√ 6√ 3 √6 0 12 12 1 1 −2 2 4 0 0 2 6 0 2 2 2 2 de manera que      −1 1 −2 −1 1 −4 6 −6 0 1 1  −6 6 1 −1 2   1 −1 4  = 0, AG = 12 12 −2 2 4 −1 1 1 0 0 12      −1 1 −4 −1 1 −2 6 −6 0 1  1 −6 6 0. GA =  1 −1 4   1 −1 2  = 12 12 −1 1 1 −2 2 4 0 0 12

´ 9.3. METODOS PARA CALCULAR INVERSAS GENERALIZADAS De este modo AG = GA. Adem´as,   6 −6 0 −1 1    −6 6 0 1 AGA = 12 0 0 12 −1   6 −6 0 6 1  −6 6 0  −6 GAG = 144 0 0 12 0

327

   1 −2 −12 12 −24 1  −1 2  = 12 −12 24  = A, y 12 1 1 −12 12 12    6 −6 0 −6 0 1  −6 6 0  = G. 6 0 = 12 0 0 12 0 12

As´ı, la matriz G cumple todos los requisitos dados en (9.2). Teorema 9.10. Sea A una matriz real de tama˜no n×n con valores singulares distintos de cero σ1 , σ2 , . . . , σr (r = ρ(A)). Entonces la inversa generalizada de A est´a dada por G = V SgU t ,

(9.22)

donde U y V son matrices ortogonales de tama˜no n × n y Sg es la inversa generalizada de la matriz dada en (3.31). Demostraci´on Por el Teorema 3.25, la matriz A se puede expresar como A = USV t , por consiguiente la g-inversa es G = V SgU t . Veamos si G cumple la primer condici´on de la Definici´on 9.1 AGA =A(V SgU t )A = (USV t )(V SgU t )(USV t ) =US(V t V )Sg (U t U)SV t = USV t = A. Aqu´ı se utilizaron los hechos de que U y V son matrices ortogonales y de que Sg es una inversa generalizada de S. Luego G es una matriz Ag1 , miremos si es Ag2 GAG =(V SgU t )A(V SgU t ) = (V SgU t )(USV t )(V SgU t ) =V (Sg SSg )U t = V SgU t = G. Ahora, observemos si G es una matriz Ag3 £ ¤ £ ¤ £ ¤ AG = A(V SgU t ) = (USV t )(V SgU t ) = U(SSg )U t .

(9.23)

328

´ CAPITULO 9. INVERSA GENERALIZADA DE MATRICES

Como

· ¸ Ir 0 SS = , 0 0 g

(9.24)

la matriz AG es sim´etrica, por lo tanto G tambi´en es Ag3 . Observemos si cumple la cuarta condici´on dada en (9.2) £ ¤ £ ¤ £ ¤ GA = (V SgU t )A = (V SgU t )(USV t ) = V (Sg S)V t . (9.25) Usando de nuevo el hecho dado en (9.24), se tiene (GA)t = GA. As´ı, G es la g-inversa de A y el teorema queda demostrado. Ejemplo 9.12. Consid´erese la matriz dada en el Ejemplo 9.11, obtenga la g-inversa. Soluci´on En este caso, los valores singulares de A son σ21 = 12, σ22 = 3 y σ23 = 0. Al calcular los respectivos vectores propios normalizados de At A, se obtiene:       −1 −1 1 1 1 1 ~v1 = √  1  , y ~v3 = √ 1 . ~v2 = √  1  3 1 6 −2 2 0 Por otra parte, los respectivos vectores propios normalizados de la matriz AAt son       1 1 0 1   1     √ √ −1 , 1 . ~u1 = ~u2 = 0 y ~u3 = 2 0 2 0 1 Por lo tanto, si se establece  1  √ 0 √12 2   U = − √12 0 √12  , 0 1 0

 1 − √6  V t = − √13 √1 2

√1 6 √1 3 √1 2

− √26 √1 3

  

0

y √  12 √0 0 S = 0 3 0 , 0 0 0

luego

√  3 √ 0 0 1 Sg =  0 2 3 0 , 6 0 0 0

´ 9.3. METODOS PARA CALCULAR INVERSAS GENERALIZADAS se obtiene

 1 −√ 1  √1 6 G=  6 6 − √26

− √13 √1 3 √1 3



√ √1 3 2 √1   0 2 0

0

  √1 0 0 √  2 2 3 0  0 √1 0 0 2

− √12 0 √1 2

329

 0  1 . 0

Despu´es de realizar la multiplicaci´on de las matrices queda   −1 1 −4 1  1 −1 4  , G= 12 −2 2 4 la cual coincide con la obtenida en el Ejemplo 9.11.

Corolario 9.10.1. Sea A una matriz real de tama˜no m × n con valores singulares distintos de cero σ1 , σ2 , . . . , σr (r = ρ(A)). Entonces la g-inversa de A es la matriz definida de la siguiente forma: G = V SgU t ,

(9.26)

donde U y V son matrices ortogonales de tama˜no m × m y n × n, respectivamente y Sg es la inversa generalizada de la matriz dada en (3.31). Demostraci´on Queda como ejercicio para el lector. Ejemplo 9.13. Consid´erese la matriz dada en el Ejemplo 9.1, obtenga la g-inversa. Soluci´on En este caso, los valores singulares de A son σ21 = 27, σ22 = 1. Al calcular los respectivos vectores propios normalizados de At A, se obtiene:       1 −1 −1 1 1 1 ~v2 = √ −1 y ~v3 = √  1  . ~v1 = √ −1 , 3 1 6 2 2 0 Por otra parte, los respectivos vectores propios normalizados de la matriz AAt son · ¸ · ¸ 1 −1 1 1 y ~u2 = √ . ~u1 = √ 2 1 2 1

´ CAPITULO 9. INVERSA GENERALIZADA DE MATRICES

330

Por lo tanto, si se establece " U=

√1 2 √1 2

− √12 √1 2



#

√1 6  V t = − √12 − √13

,

− √16 − √12 √1 3

√2 6



0 

√1 3

y ·√ ¸ 27 0 0 S= , 0 1 0 As´ı se obtiene 1 G= √ 3 3



√1 6 − √1  6 √2 6

luego

− √12 − √12 0

  1 √ 0 1 Sg = √ 0 3 3 . 3 3 0 0

  − √13 1 0 " √1 √ 2 √1    3  0 3 3 − √12 1 √ 0 0

√1 2 √1 2

# .

3

Despu´es de multiplicar las matrices queda   5 −4 1 4 −5 , G= 9 1 1 la cual coincide con la obtenida en el Ejemplo 9.6. Teorema 9.11. M´etodo de Penrose Sea A una matriz real de tama˜no m × n y rango r ≤ m´ın(m, n), particionada de la siguiente forma

  A11 A12  A= , A21 A22

(9.27)

con A11 una submatriz no singular de tama˜no r × r y A22 = A21 A−1 11 A12 . Entonces la inversa generalizada de A es   t t t t A11 PA11 A11 PA21  G= , At12 PAt11 At12 PAt21 donde P = (A11 At11 + A12 At12 )−1 A11 (At11 A11 + At21 A21 )−1 .

(9.28)

´ 9.3. METODOS PARA CALCULAR INVERSAS GENERALIZADAS Demostraci´on Como A11 es no singular, la matriz A se puede particionar como sigue · ¸ · ¸ ¤ A11 A12 A £ = 11 Ir A−1 A12 . 11 A21 A22 A21 | {z } | {z } | {z } Am×n = Lm×r

Ur×n

En esta partici´on se usa el hecho de que A22 = A21 A−1 11 A12 . Luego, · ¸g £ ¤g A11 Ag = Ir A−1 . 11 A12 A21 Por el Corolario 9.7.3 se tiene que £ ¤g £ ¤t n£ ¤£ ¤t o−1 −1 −1 −1 = Ir A−1 A I A A I A A I A A r r r 11 12 11 12 11 12 11 12 · ¸h i −1 Ir = t Ir + A−1 A12 At12 (At11 )−1 −1 t 11 A (A )  12 11  ³ ´−1 −1 −1 t t Ir + A11 A12 A12 (A11 )   ³ ´−1  . = −1 −1 −1 t t t t A12 (A11 ) Ir + A11 A12 A12 (A11 ) N´otese que h ¡ t ¢−1 i−1 h −1 ³ ¡ t ¢−1 ´i−1 t t Ir + A−1 A A A = A A + A A 12 11 12 12 11 12 A11 11 11 h ¡ ¢−1 i−1 A11 = A11 + A12 At12 At11 h¡ ¢ ¡ ¢−1 i−1 A11 = A11 At11 + A12 At12 At11 ¡ ¢ −1 =At11 A11 At11 + A12 At12 A11 . Por lo tanto,

" # t (A At + A At )−1 A £ ¤ A g 11 11 12 12 11 11 . Ir A−1 11 A12 = At12 (A11 At11 + A12 At12 )−1 A11

Por otra parte, por el Corolario 9.7.2 se tiene que · ¸g (· ¸t · ¸)−1 · ¸t A11 A11 A11 A11 = A21 A21 A21 A21 ¤ ¤−1 £ t £ A11 At21 = At11 A11 + At21 A21 i h = (At11 A11 + At21 A21 )−1 At11 (At11 A11 + At21 A21 )−1 At21 .

331

332

´ CAPITULO 9. INVERSA GENERALIZADA DE MATRICES

Si se realizan los respectivos productos se llega a que la Ag es · ¸ · t ¸ £ ¤g A11 g A11 PAt11 At11 PAt21 Ag = Ir A−1 = , A 11 12 A21 At12 PAt11 At12 PAt21

(9.29)

con P = (A11 At11 + A12 At12 )−1 A11 (At11 A11 + At21 A21 )−1 y el teorema queda demostrado. Corolario 9.11.1. Sea A una matriz cualquiera de rango r, particionada como en 9.27, con A22 una submatriz no singular de tama˜no r × r y la submatriz A11 = A12 A−1 22 A21 . Entonces la inversa generalizada de A es   t t t t A21 PA12 A21 PA22  G= , At22 PAt12 At22 PAt22

(9.30)

donde P = (A22 At22 + A21 At21 )−1 A22 (At22 A22 + At12 A12 )−1 . Demostraci´on Queda como ejercicio para el lector. Antes de dar ejemplos, se proporciona el siguiente procedimiento que recoge el M´etodo de Penrose para determinar la inversa generalizada Procedimiento para determinar la inversa generalizada Realice una partici´on de la matriz A como sigue · ¸ A A12 A = 11 A21 A22 de tal manera que una de las submatrices A11 o´ A22 sea cuadrada y con rango igual al de la matriz A. I. Si A11 es la submatriz no singular a) Verifique que A22 = A21 A−1 11 A12 . b) Obtenga ¡ ¢−1 ¡ ¢−1 P = A11 At11 + A12 At12 A11 At11 A11 + At21 A21 . c) Forme la matriz

¸ · t A11 PAt11 At11 PAt21 At12 PAt11 At12 PAt21

este resultado es la inversa generalizada de A.

´ 9.3. METODOS PARA CALCULAR INVERSAS GENERALIZADAS

333

II. Si A22 es la submatriz no singular a) Verifique que A11 = A12 A−1 22 A21 . b) Obtenga ¡ ¢−1 ¡ ¢−1 P = A22 At22 + A21 At21 A22 At22 A22 + At12 A12 . c) Forme la matriz

· t ¸ A21 PAt12 At21 PAt22 At22 PAt12 At22 PAt22

este resultado es la inversa generalizada de A. Ejemplo 9.14. Calcule utilizando el m´etodo descrito anteriormente la inversa generalizada de la matriz dada en el Ejemplo 9.5. Soluci´on Para la partici´on (2 + 1) × (2 + 1) de la matriz dada se tiene:   .. 4 1 . 2   · ¸   .. A11 A12 3 1 . 3 A= . = A21 A22 . . . . . . . . . .   . 1 1 .. 5 Luego A11 es no singular ya que su determinante es 1. El lector puede verificar que A22 = A21 A−1 as 11 A12 . Adem´ · ¸ · ¸ · ¸ 17 13 4 6 21 19 A11 At11 + A12 At12 = + = 13 10 6 9 19 19 y At11 A11 + At21 A21

· ¸ · ¸ · ¸ 25 7 1 1 26 8 = + = . 7 2 1 1 8 3

Por lo tanto, P se obtiene como · ¸−1 · ¸· ¸−1 · ¸ 1 21 19 4 1 26 8 57 −152 P= . = 19 19 3 1 8 3 532 −55 156 El lector puede realizar los otros productos y llegar a que   112 49 −77 1  12 10 6 . G= 532 −40 11 113

334

´ CAPITULO 9. INVERSA GENERALIZADA DE MATRICES

La cual coincide con la obtenida en el Ejemplo 9.9. Ejemplo 9.15. Consid´erese la matriz dada en el Ejemplo 9.11. Obtenga la ginversa mediante el m´etodo descrito anteriormente. Soluci´on Realizando una partici´on (1 + 2) × (1 + 2) a la matriz dada se tiene:   .. −1 . 1 −2 · ¸ ... . ... ... A11 A12   . A= = . A21 A22  1 .. −1 2    . −1 .. 1 1 Luego A22 es no singular ya que su determinante es −3. El lector puede verificar que A11 = A12 A−1 en 22 A21 . Tambi´ · ¸ · ¸ · ¸ 5 1 1 −1 6 0 t t A22 A22 + A21 A21 = + = 1 2 −1 1 0 3 y

·

At11 A11 + At21 A21

¸ · ¸ · ¸ 2 −1 1 −2 3 −3 = + = . −1 5 −2 4 −3 9

Por lo tanto, P se obtiene como · ¸−1 · ¸· ¸−1 · ¸ 1 −1 1 6 0 −1 2 3 −3 P= = . 0 3 1 1 −3 9 36 8 4 El lector puede realizar los otros productos y llegar a que   −1 1 −4 1  1 −1 4  . G= 12 −2 2 4 N´otese que esta matriz coincide con la obtenida en el Ejemplo 9.11.

9.4. Vectores y valores propios Si A es una matriz no singular, por el Teorema 2.10 se sabe que los valores propios de A−1 son los rec´ıprocos de los valores propios de A y los correspondientes vectores propios son los mismos. En esta secci´on se muestran las relaciones entre los valores y vectores propios de una matriz cuadrada y los asociados a la g-inversa.

9.4. VECTORES Y VALORES PROPIOS

335

Teorema 9.12. Sea G la g-inversa de A y λ un valor propio distinto de cero de A con vector propio correspondiente ~v 6= 0. Entonces una condici´on suficiente para que G~v = λ−1~v es que AG = GA. Demostraci´on Si A~v = λ~v, entonces premultiplicando por AG, se obtiene que AGA |{z}~v =λAG~v A ~v =λAG~v λ~v =λAG~v. Como λ 6= 0, entonces ~v =AG~v

si AG = GA

=GA~v = λG~v. Es decir, G~v = λ−1~v. Ejemplo 9.16. Determine los vectores y valores propios de la matriz g2 -inversa, obtenida en el Ejemplo 9.5. Soluci´on En el Ejemplo 9.5, se obtuvo que   106 9 −52 1  57 9 −3  . G= 441 −41 9 95 El polinomio caracter´ıstico de G es pG (λ) = −

1 λ (7λ − 1) (3λ − 1) 21

luego, los valores propios de G son λ1 = 0, λ2 = 17 y λ3 = 13 y los vectores propios       −7 1 1      correspondientes son ~v1 = −6 , ~v2 = 1 y ~v3 = −3, respectivamente. 5 1 1 Teorema 9.13. Si A es sim´etrica, los valores propios no nulos de A y Ag3 son rec´ıprocos.

´ CAPITULO 9. INVERSA GENERALIZADA DE MATRICES

336

Demostraci´on Si A~v = λ~v, entonces premultiplicando por AAg3 da g3 g3 AA | {z A}~v =λAA ~v

A ~v =λ (AAg3 )t ~v λ~v =λ (Ag3 )t A~v. Como λ 6= 0, entonces (Ag3 )t ~v =λ−1~v. El resultado se sigue, puesto que una matriz y su transpuesta tienen los mismos valores propios.

Ejercicios 9.1. 1. En los siguientes problemas determine la inversa generalizada con los m´etodos descritos en esta secci´on    1  1 −1 b)  a)  . 1 −1 1    1 −1 −1    3      d)  −1 1 −1 . e) −1    1 −1 −3 4

 1 −1 . 0 −2

  1 0 3 c)  . 2 −1 6

 1  1 −5 −1 .  −5 2 0

−1

4

2. Encuentre una inversa generalizada para cada una de las siguientes matrices: a) PAQ cuando P y Q son no singulares. b) GA cuando G es una inversa generalizada de A. c) kA cuando k es un escalar. d) PAPt cuando P es ortogonal y A es idempotente.

´ DE SISTEMAS 9.5. SOLUCION

337

3. Sean A y X matrices sim´etricas tal que AX = 0, si X es idempotente y A + X es no singular, pruebe que (A + X)−1 es una inversa generalizada para A y X.   X1  4. Para X particionada como X =   con X1 de rango completo columna, X2 pruebe que X(X t X)g X t = X1 (X1t X1 )g X1t .

9.5.

Aplicaciones a la soluci´on de sistemas de ecuaciones lineales

Entre las m´ultiples aplicaciones que tiene el concepto de inversa generalizada cabe se˜nalar el papel que desempe˜na en el an´alisis y “soluci´on” de sistemas lineales tanto consistentes como inconsistentes. En el caso de sistemas consistentes, dado que las soluciones existen permiten caracterizarlas y para sistemas inconsistentes posibilitan hallar soluciones aproximadas, ya que por definici´on este tipo de sistemas carece de soluciones. En esta secci´on se analiza con ayuda de la g-inversa de la matriz A, cuando (9.1) es consistente y c´omo son sus soluciones. Teorema 9.14. El sistema de ecuaciones lineales dado en (9.1) es consistente si y s´olo si se verifica que AAg1~b = ~b.

(9.31)

Demostraci´on Si para Ag1 , se cumple que AAg1~b = ~b entonces el sistema (9.1) es consistente, puesto que al menos ~x = Ag1~b es soluci´on del mismo. Rec´ıprocamente, la condici´on es necesaria pues si el sistema, es consistente, existe ~x0 ∈ Rn tal que A~x0 = ~b. 0

Ahora bien, dado que Ag1 siempre existe, premultiplicando la expresi´on anterior

´ CAPITULO 9. INVERSA GENERALIZADA DE MATRICES

338

por AAg1 se obtiene g1 g1~ AA | {z A}~x0 =AA b A ~x0 =AAg1~b | {z } ~b =AAg1~b

lo cual prueba el teorema. Teorema 9.15. Dado un sistema consistente A~x = ~b, con A de tama˜no m × n, ~x ∈ Rn y ~b ∈ Rm , se verifica que i) Para todo d~ ∈ Rn , ~x0 = Ag1~b + (In − Ag1 A) d~

(9.32)

es soluci´on del sistema. 0 0 ii) Si ~x es una soluci´on cualquiera del sistema, existe d~ ∈ Rn tal que ~x puede

expresarse en la forma dada en (9.32). Demostraci´on i) Sea ~x0 una soluci´on del sistema, es decir A~x0 = ~b. Entonces por el Teorema 9.14 y la definici´on de Ag1 , se tiene que ~ A~x0 = AAg1~b + A (In − Ag1 A) d~ = ~b + Ad~ − Ad. 0

ii) Si ~x es una soluci´on cualquiera del sistema se verifica que ~b − A~x0 = ~0. 0

Si se premultiplica por Ag1 y se suma ~x a ambos lados, se tiene que 0

0

0

Ag1~b − Ag1 A~x +~x =~x 0 0 Ag1~b + (In − Ag1 A)~x =~x . 0 Luego, tomando en el lado izquierdo d~ =~x , se obtiene lo que se deseaba.

´ DE SISTEMAS 9.5. SOLUCION

339

Teorema 9.16. Dado el sistema consistente A~x = ~b, 0 con A de tama˜no m × n, ~x ∈ Rn y ~b ∈ Rm , se verifica que existe soluci´on u´ nica ~x si

y s´olo si Ag A = In siendo Ag la g−inversa de la matriz A. Demostraci´on Queda como ejercicio para el lector. Ejemplo 9.17. Determine una soluci´on del sistema de ecuaciones lineales x1 + 6x2 + 11x3 =0 6x1 + 46x2 + 86x3 =20

(9.33)

11x1 + 86x2 + 161x3 =40. Soluci´on Si se reescribe (9.33) se llega a      1 6 11 x1 0  6 46 86  x2  = 20 . 11 86 161 x3 40

(9.34)

El sistema dado en (9.33), se puede resolver usando inversa generalizada y usando cualquiera de los m´etodos descritos en este cap´ıtulo. De esta manera, se tiene que   517 190 −137 1  190 70 −50  . Ag = 180 −137 −50 37 Veamos si el sistema de ecuaciones (9.33) es consistente determinado,    1 6 11 517 190 −137 1  190 70 −50   6 46 86  Ag A = 180 11 86 161 −137 −50 37   5 2 −1 1 =  2 2 2  6= I3 . 6 −1 2 5

340

´ CAPITULO 9. INVERSA GENERALIZADA DE MATRICES

Por el Teorema 9.16 el sistema es consistente indeterminado, luego una soluci´on de (9.33) es      x1 517 190 −137 0 x2  = 1  190   70 −50 20 180 x3 −137 −50 37 40      517 190 −137 0 28 1 1     190 70 −50 10 . 1 =− = 9 3 −137 −50 37 −8 2

(9.35)

Teniendo en cuenta el Teorema 9.15, para todo d~ = (α, β, γ) ∈ R3 el vector  28 1  − 3 + 6 α − 13 β + 16 γ 1 2 1  ~x0 = Ag~b + (In − Ag A) d~ = − 10 3 − 3α+ 3β− 3γ , 8 1 1 1 3 + 6α− 3β+ 6γ es una soluci´on del sistema, como el lector puede comprobar f´acilmente sustituyendo ~x0 en (9.33). Teorema 9.17. Dado el sistema de ecuaciones lineales A~x = ~b en donde A es una matriz de tama˜no m × n con rango r, ~x ∈ Rn y ~b ∈ Rm . Consid´erese la funci´on residuo r (~x) = A~x −~b. para cualquier~x. Entonces~x = Ag~b es una soluci´on aproximada m´ınimo cuadr´atica 0

(LS, por sus siglas en ingl´es) del sistema si y s´olo si m´ınimiza a krr (~x) k. Demostraci´on Si se reescribe la norma eucl´ıdea de r (~x) se obtiene que ³ ´t ³ ´ ³ ´³ ´ A~x −~b = ~xt At −~bt A~x −~b krr (~x) k = r (~x)t r (~x) = A~x −~b | {z } F (~x) =~xt At A~x −~bt A~x −~xt At~b +~bt~b.

´ DE SISTEMAS 9.5. SOLUCION

341

para determinar la ~x que minimiza esta suma de cuadrados de los residuos, se calculan las derivadas parciales2 de F (~x) con respecto a ~x ∂F (~x) = 2At A~x − 2At~b = ~0. ∂~x

(9.36)

Al despejar ~x, se obtiene un m´ınimo global de F (~x) pues ∂2 F (~x) = 2At A, ∂~x2 la cual es una matriz definida positiva si A es de rango completo, o semidefinida positiva en caso contrario y por ello, en ambas situaciones, F (~x) es una funci´on convexa. 0 Luego, si se sustituye ~x en (9.36) se tiene ¡ t g ¢ At AAg~b − At~b =~0 o A AA − At ~b =~0 pero como ~b es cualquier vector de Rm esto equivale a la condici´on At AAg = At , Esto se sigue inmediatamente del Teorema 9.3 parte c). Definici´on 9.2. Dado el sistema lineal A~x = ~b y la funci´on residuo r (~x) = A~x −~b, se dice que 0

i) ~x es una soluci´on aproximada m´ınimo cuadr´atica (LS, por sus siglas en ingl´es) del sistema si y s´olo si para todo ~x ∈ Rn se verifica que ³ 0 ´t ³ 0 ´ r ~x r ~x ≤ r (~x)t r (~x) . 0

ii) Una soluci´on aproximada m´ınimo cuadr´atica~x es de norma m´ınima (MNLS, por sus siglas en ingl´es), si y s´olo si para todo ~x ∈ Rn se cumple que ³ 0 ´t ³ 0 ´ r ~x r ~x = r (~x)t r (~x) . 2 Si

el lector desea consultar t´ecnicas de derivaci´on matricial puede ver Barbolla (1998), cap. 5

´ CAPITULO 9. INVERSA GENERALIZADA DE MATRICES

342

En el siguiente resultado se recogen dos caracter´ısticas de las soluciones m´ınimo cuadr´aticas LS para sistemas inconsistentes a partir de la g3 −Inversa de la matriz de coeficientes del sistema. Teorema 9.18. Dado el sistema de ecuaciones lineales inconsistente A~x = ~b con A de tama˜no m × n, ~x ∈ Rn y ~b ∈ Rm , se verifica que 0 (i) ~x = G~b es una soluci´on LS del sistema si y s´olo si G es una Ag3

(ii) La soluci´on ~x0 dada en (9.32) es una soluci´on LS del sistema si y s´olo si ~x

0

es soluci´on del sistema consistente A~x = AAg3~b Demostraci´on (i) Por el Teorema 9.17, una soluci´on LS del sistema es de la forma ~x = Ag~b. Falta entonces comprobar qu´e condiciones de las dadas en (9.2), debe cumplir 0 G si ~x = G~b es soluci´on LS del sistema y por tanto, soluci´on de (9.36). 0 As´ı sustituyendo ~x en (9.36) se tiene At AG~b − At~b = ~0 y como ~b es cualquier vector de Rm esto equivale a la condici´on At AG = At , que se verifica si y s´olo si G es una g3 −Inversa de A, ya que AG es sim´etrica

y

At Gt At =At .

´ DE SISTEMAS 9.5. SOLUCION

343

(ii) Si el sistema

A~x = AAg3~b

es consistente, entonces por el Teorema 9.15 sus soluciones son de la forma ³ ´ 0 ~ ~x = Ag1 AAg3~b + (In − Ag1 A) d, para cualquier d~ ∈ Rm o tambi´en ³ ´ 0 ~x = Ag3 AAg3~b + (In − Ag3 A) d~ = Ag3~b + (In − Ag3 A) d~ dado que cualquier g3 −Inversa de A es a su vez g1 −Inversa. 0

La demostraci´on concluye si se muestra que~x es una soluci´on LS del sistema 0 A~x = ~b. Para ello, razonando como en (i), ~x debe ser soluci´on de (9.36), lo cual es v´alido, pues de acuerdo con la definici´on de la g3 −Inversa i h At A Ag3~b + (In − Ag3 A) d~ − At~b = At AAg3~b − At~b y como AAg3 = (Ag3 )t At dada la simetr´ıa de AAg3 se obtiene finalmente que At (Ag3 )t At~b − At~b = ~0.

Teorema 9.19. Dado el sistema inconsistente A~x = ~b, con A de tama˜no m × n, ~x ∈ Rn y ~b ∈ Rm , su soluci´on MNLS es u´ nica y est´a dada por 0

~x = Ag~b.

(9.37)

Demostraci´on Si Ag es la g−Inversa de A, tambi´en es g3 −Inversa de A y, por ello, en virtud del teorema anterior, est´a garantizado que 0

~x = Ag~b es soluci´on LS del sistema. 0 Bastar´a, por tanto, probar que ~x es u´ nica y de m´ınima norma.

´ CAPITULO 9. INVERSA GENERALIZADA DE MATRICES

344 0

~x es MNLS. 0

En efecto, por ser ~x LS es soluci´on del sistema A~x = AAg~b o equivalentemente Ag A~x = Ag AAg~b = Ag~b.

(9.38)

Por lo tanto, cualquier soluci´on LS es de la forma ~x = Ag~b + (In − Ag A)~x el cuadrado de su norma eucl´ıdea es ~xt~x = ~bt (Ag )t Ag~b + (~x − Ag A~x)t (~x − Ag A~x) . Si se sustituye (9.38) en esta expresi´on resulta ³ ´t ³ ´ ~xt~x =~bt (Ag )t Ag~b + ~x − Ag~b ~x − Ag~b ° ° ° °2 ° g~ °2 ° g~ ° = °A b° + °~x − A b° , de donde

°2 ³ 0 ´t ³ 0 ´ ° ° ° ~xt~x ≥ ~x ~x = °Ag~b°

cuando ~x = Ag~b. 0

0

~x es u´ nica Sup´ongase que ~x0 ∈ Rn es tambi´en soluci´on MNLS del sistema. Entonces ~x0 cumple que ° °2 ° °2 ³ 0 ´t ³ 0 ´ ° °2 ° ° ° ° ° ° (~x0 )t (~x0 ) = °Ag~b° + °~x0 − Ag~b° = ~x ~x = °Ag~b° . Por lo tanto,

° °2 ° ° °~x0 − Ag~b° = 0.

Es decir, ~x0 − Ag~b =~0



En consecuencia, 0

~x0 =~x .

~x0 = Ag~b.

´ DE SISTEMAS 9.5. SOLUCION

345

Esto es lo que se quer´ıa demostrar. Ejercicios 9.2. 1. Encuentre una soluci´on para cada uno de los sistemas de ecuaciones lineales dados a continuaci´on a)

c)

3x1 − 2x2 − x3 = 1

x1 − x2 − x3 = 2

b)

−x1 + 2x2 + 2x3 = 2

2x1 + x2 + 2x3 = 4

x1 + 2x2 + 3x3 = 4.

x1 − 4x2 − 5x3 = 2.

2x1 + 6x2 − 4x3 + 2x4 = 4 x1

− x3 + x4 = 5

−3x1 + 2x2 − 2x3

d)

x1 − 2x2 + x3 + x4 = 2 3x1

= −2.

+ 2x3 −2x4 = −8 4x2 − x3 − x4 = 1

5x1

+ 3x3 − x4 = −3.

2. Sea X una matriz de tama˜no m × n (m > n) y rango r < n. Sea G una inversa generalizada de X t X defina: ~b =GX t~Y , ~b0 = ~b − GQ(Qt GQ)−1 (Qt~b − ~m),

s2 =(~Y − X~b)t (~Y − X~b) ¡ ¢t con Q = GX t XGt X.

Pruebe que a) s2 = ~Y t~Y −~bt X t~Y . b) Qt~b0 = ~m. c) (~Y − X~b0 )t (~Y − X~b0 ) = s2 + (Qt~b − ~m)t (Qt GQ)−1 (Qt~b − ~m).

346

´ CAPITULO 9. INVERSA GENERALIZADA DE MATRICES

Cap´ıtulo 10

Aplicaciones En este cap´ıtulo se recopila algunos desarrollos te´oricos de la Estad´ıstica que el lector que est´e interesado en profundizar puede consultar textos de Modelos Lineales, Estad´ıstica Multivariada (o cursar las asignaturas correspondientes). El prop´osito de este cap´ıtulo es ilustrar la utilidad de la mayor cantidad posible de los conceptos tratados en este escrito y por eso en esta parte de aplicaciones se omiten tanto conceptos b´asicos del a´ rea de la Estad´ıstica, como aquellos temas avanzados que el lector aprender´a posteriormente.

10.1.

Matrices estoc´asticas

Las matrices estoc´asticas corresponden a un tipo especial de matrices definidas positivas y se usan con frecuencia en el estudio de fen´omenos aleatorios, en Teor´ıa de la Probabilidad y Estad´ıstica.

Definici´on 10.1. Una matriz A = [ai j ] de tama˜no n × n se dice que es estoc´astica por filas (columnas) si todos sus elementos son n´umeros reales no negativos y la suma de los elementos de cada una de sus filas (columnas) es igual a 1. Es decir

0 ≤ ai j ≤ 1

i, j =1, 2, . . . , n 347

´ CAPITULO 10. APLICACIONES

348 y adem´as n

∑ ai j = 1

Si A es estoc´astica por filas.

∑ ai j = 1

Si A es estoc´astica por columnas.

j=1 n i=1

Se dice que A es doblemente estoc´astica cuando es estoc´astica tanto por filas como por columnas. Teorema 10.1. Si A y B son estoc´asticas (doblemente estoc´asticas) se verifica i) AB es estoc´astica (doblemente estoc´astica). ii) Para todo k ∈ N, Ak es estoc´astica (doblemente estoc´astica). iii) Cuando A es doblemente estoc´astica, entonces At tambi´en lo es. Teorema 10.2. Si A es una matriz estoc´astica por filas (columnas) entonces λ = 1 es uno de sus valores propios. Demostraci´on Sea A una matriz de tama˜no n×n tal que A es una matriz estoc´astica por columnas. Basta probar que det (A − I) = 0 para ello veamos que las filas de la matriz A − I no son linealmente independientes. Si B = A − I, consideremos la suma vectorial de las filas de la matriz B       an1 a21 a11 − 1  an2   a12  a22 − 1      ~Bt1 + ~Bt2 + . . . ~Btn =   ..  +  ..  + . . . +  ..  .  .   .   .  a1n

a2n

ann − 1

´ 10.1. MATRICES ESTOCASTICAS

349

Es decir,   a11 + a21 + . . . + an1 − 1 a12 + a22 + . . . + an2 − 1  ~Bt1 + ~Bt2 + . . . ~Btn =    ..   . a1n + a2n + . . . + ann − 1

(10.1)

como A es una matriz estoc´astica por columnas, las entradas de cada columna de A suman uno y por lo tanto n

∑ ai j =1

∀j

i=1

luego (10.1), se transforma en ~Bt1 + ~Bt2 + . . . + ~Btn = ~0, es decir, se encontro una combinaci´on lineal no trivial de las filas de B = A − I que producen el vector cero de Rn . Por lo tanto, las filas de A − I son linealmente dependientes, luego la matriz A − I es singular, es decir, det (A − I) = 0 y entonces λ = 1 es un valor propio de A. Definici´on 10.2. Matriz regular Una matriz estoc´astica A se dice regular si todas las componentes de al menos una de sus potencias Ak (k entero positivo) son estrictamente positivas (mayores que cero). Definici´on 10.3. Cadena de Markov Una cadena de Markov o proceso de Markov es un proceso en el cual la probabilidad de que el sistema est´e en un estado particular en un periodo dado de observaci´on depende solamente de su estado en el periodo de observaci´on inmediatamente anterior. Definici´on 10.4. Probabilidad de transici´on Se define la probabilidad de transici´on pi j (i, j = 1, 2, ..., n), como la probabilidad de que el sistema pase del estado j al estado i en la siguiente observaci´on.

´ CAPITULO 10. APLICACIONES

350 Definici´on 10.5. Matriz de transici´on

A cada cadena de Markov se le puede asignar una u´ nica matriz de transici´on P, cuyos elementos son las probabilidades pi j . Esta matriz es cuadrada y su dimensi´on depende del n´umero posible de estados, la matriz P resulta ser estoc´astica. Definici´on 10.6. Vector de probabilidad Un vector de probabilidad es un vector columna, con entradas no negativas, en el que la suma de sus elementos es igual a la unidad. Se dice que los vectores de probabilidad X (n) para n = 0, 1, . . . son los vectores de estado de un proceso de (n)

Markov, si la componente de orden i, pi

de X (n) , es la probabilidad de que el

sistema est´e en el estado i cuando se hace la observaci´on n. Teorema 10.3. Si P es la matriz de transici´on de un proceso de Markov y X (n) es el vector columna de la observaci´on n, se tendr´a que:    PX (n−1) Si P es estoc´astica por columnas (n) X =   Pt X (n−1) Si P es estoc´astica por filas

(10.2)

La ecuaci´on (10.2) implica X (1) =PX (0)

³ ´ X (2) =PX (1) = P PX (0) = P2 X (0) ³ ´ X (3) =PX (2) = P P2 X (0) = P3 X (0) y, en general,

X (n) = Pn X (0) .

As´ı, la matriz de transici´on y el vector de estados inicial tamente los dem´as vectores de estado.

(10.3) X (0)

determinan comple-

Definici´on 10.7. Un proceso de Markov es regular si su matriz de transici´on es una matriz estoc´astica regular.

´ 10.1. MATRICES ESTOCASTICAS

351

Teorema 10.4. Si P es una matriz de transici´on regular de tama˜no n × n. Entonces, cuando n → ∞, Pn tiende a una matriz R de tama˜no n × n, de la forma R = [~v ~v . . . ~v] donde ~v es un vector de probabilidad de tama˜no n × 1, con todos sus elementos mayores que cero. Demostraci´on El lector puede consultarla en Kemeny (1976). Teorema 10.5. Si P es una matriz de transici´on regular de tama˜no n × n y R y ~v son como en el Teorema 10.4, entonces (i) Para cualquier vector X (0) de probabilidad inicial, Pn X (0) tiende a ~v cuando aumenta n, esto es,

³ ´ l´ım Pn X (0) =~v.

n→∞

Es decir, todo proceso regular de Markov tiene un vector estacionario ~v. (ii) El vector estacionario ~v es el u´ nico vector de probabilidad que satisface la ecuaci´on P~v =~v,

o

(P − I)~v =~0.

Luego, ~v es un vector propio de P asociado al valor propio λ = 1. Ejemplo 10.1. Una empresa de investigaci´on de mercado estudia un grupo de consumidores de caf´e, los cuales compran una lata del grano cada semana. Las personas que actualmente toman la marca A, la comprar´an de nuevo la pr´oxima semana con una probabilidad de 0,50, cambiar´an a la marca B con una probabilidad

´ CAPITULO 10. APLICACIONES

352

de 0,25 y comprar´an la marca D con una probabilidad de 0,25. De las personas que ahora consumen la marca B, preferir´an la pr´oxima semana la marca A, B o D con probabilidades de 0,60, 0,30, 0,10 respectivamente. Ahora, de las personas que en la actualidad compran la marca D adquirir´an la pr´oxima semana la marca A, B o D con probabilidades de 0,30, 0,40, 0,30. Suponga que al iniciar el estudio, la marca A tiene el 20 % del mercado, la marca B tiene el 20 % y la otra marca el 60 %. ¿A la larga cual ser´a el porcentaje del mercado que tendr´an las marcas A, B y D?. Soluci´on Si se aborda el problema por medio de las Cadenas de Markov. A  0,50 P=  0,25 0,25

B 0,60 0,30 0,10

D  0,40 0,30 0,30

A B D

Como P es estoc´astica por columnas, al calcular√los valores propios de P se ob√ 1 1 1 tienen λ1 = 1, λ2 = 20 − 20 i 3 y λ3 = 20 + 1 i 3 y los vectores propios corres√       20 3 46 −1 0 , respectivamente. pondientes son ~v1 = 25, ~v2 =  1  + i  √ 20 0 − 3 Esto implica que la matriz P no es diagonalizable, sin embargo √   1 46 −1 3 n    0 0 P = 25 1 √ 20 0 − 3 0

√ −1 n  0√ 3 46 −1 1 1   25 1 0  . 20 √ − 201 3 √ 1 20 0 − 3 20 3 20 0

Luego, √   1 0 46 −1 3 1 1 25 1  0 0 l´ım Pn = 20√ √ n→∞ 273 1 20 0 − 3 0 − 20 3 Aqu´ı, las potencias de la forma 3n cumplen que  3n  1 1 0 0√  1 1 0  = 0 20 √ − 201 3 1 0 20 3 0 20

 n  0√ 3 3 3 1    −75 198 −75 20 3 √ √ √ . 1 20 3 20 3 −71 3 20

0 (−1)n 103n

0

 0  0 ,

(−1)n 103n

´ 10.1. MATRICES ESTOCASTICAS y dado que

¡ −1 ¢n 103

353

tiende a cero cuando n → ∞,   46 46 46 1  25 25 25 . l´ım P3n = n→∞ 91 20 20 20

N´otese que l´ım Pn da como resultado una matriz con todas sus columnas iguales n→∞ al vector de probabilidad correspondiente alvector  propio asociado al valor propio 46 λ = 1; para convertir el vector propio ~v1 = 25, en un vector de probabilidad, se 20 divide cada una de sus componentes por la suma de todos sus elementos, es decir   46 1   1 25 . ~v = ~v1 = 91 91 20 Por lo tanto, el vector de estados a largo plazo es    1   46  46 46 46 5 91 1   25 25 25  15  =  25 l´ım X (n+1) = l´ım Pn X (0) = 91 n→∞ n→∞ 91 3 20 20 20 20 5 91 Entonces, se puede decir que a largo plazo, la marca A tendr´a el control de cerca 25 del 46 91 ≈ 50,55 % del mercado, la marca B el 91 ≈ 27,47 % del mercado y la otra 20 marca el 91 ≈ 21,98 % del mercado.

Ejemplo 10.2. Sup´ongase que el clima en cierta ciudad es, bueno, regular o malo. Si el clima es bueno hoy, ser´a bueno ma˜nana con una probabilidad de 0,60, ser´a regular con una probabilidad de 0,20 y ser´a malo con una probabilidad de 0,20. Si el clima es regular hoy, ser´a bueno, regular o malo con probabilidades de 0,25, 0,50, 0,25 respectivamente. Ahora si el clima es malo hoy ma˜nana ser´a bueno, regular o malo con probabilidades de 0,25, 0,25, 0,50. ¿A la larga cual ser´a el porcentaje de d´ıas buenos, regulares, malos?

´ CAPITULO 10. APLICACIONES

354

Soluci´on Si se aborda el problema por medio de las Cadenas de Markov con

P=

B R M

B 0,60 0,25 0,25

R M  0,20 0,20 0,50 0,25 . 0,25 0,50

Como P es estoc´astica por filas, entonces se transpone 3 1 1 5

Pt =  15 1 5

4 1 2 1 4

4 1 4 . 1 2

7 En este caso, los valores propios de Pt son λ1 = 1, λ2 = 20 y λ3 = 14 y los vectores       5 −2 0 propios correspondientes son ~v1 = 4, ~v2 =  1  y ~v3 = −1, respectiva4 1 1 mente. Luego, la diagonalizaci´on de Pt da como resultado  n   −1 1 0 0 5 −2 0 5 −2 0 ¡ t ¢n 7 0  4 1 −1 . P = 4 1 −1 0 20 4 1 1 4 1 1 0 0 14 ¡ 7 ¢n ¡ 1 ¢n Dado que 20 y 4 tienden a cero cuando n → ∞,       5 −2 0 5 5 5 1 0 0 2 2 2 ¡ ¢n 1  1  4 1 −1 0 0 0 −8 4 4 4 . 5 5= l´ım Pt = n→∞ 26 13 4 1 1 4 4 4 0 0 0 0 −13 13

N´otese que l´ım (Pt )n da como resultado una matriz con todas sus columnas iguales n→∞ al vector de probabilidad correspondiente alvector  propio asociado al valor propio 5 λ = 1, para convertir el vector propio ~v1 = 4, en un vector de probabilidad, se 4 divide cada una de sus componentes por la suma de todos sus elementos, es decir   5 1 1   4 . ~v = ~v1 = 13 13 4 5 Entonces, se puede decir que a la larga, el clima ser´a bueno el 13 ≈ 38,46 % de los 4 4 d´ıas, regular el 13 ≈ 30,77 % de los d´ıas y malo el 13 ≈ 30,77 % de los d´ıas.

´ 10.2. MODELOS GENETICOS

10.2.

355

Modelos Gen´eticos

La relaci´on entre las Matem´aticas y la Biolog´ıa forma parte de un problema antiguo en la historia de las ciencias. Esta secci´on se ha dedicado a una de las aplicaciones de m´etodos de modelaci´on matem´atica en Gen´etica. Para desarrollar este tipo de aplicaci´on u´ nicamente es requisito conocer el proceso para diagonalizar una matriz desde el punto de vista matem´atico ya que tambi´en se tendr´an que manejar t´erminos propios utilizados dentro del desarrollo de la Gen´etica. Para una mejor comprensi´on se dar´an a conocer algunas nociones b´asicas de este tema, se comienza con una rese˜na hist´orica muy breve de c´omo inicio la Gen´etica y de c´omo desde el principio estuvo muy ligada a la Estad´ıstica, adem´as de una explicaci´on sencilla de que es la Gen´etica en cuanto a lo que al lector le interesa. La ciencia de la Gen´etica naci´o en 1900, cuando varios investigadores de la reproducci´on de las plantas descubrieron el trabajo del monje austr´ıaco Gregor Mendel, que aunque fue publicado en 1865 hab´ıa sido ignorado en la pr´actica. Mendel, quien trabaj´o con la planta del guisante (o ch´ıcharo), describi´o los patrones de la herencia en funci´on de siete pares de rasgos contrastantes que aparec´ıan en siete variedades diferentes de esta planta. Observ´o que los caracteres se heredaban como unidades separadas y cada una de ellas lo hac´ıa de forma independiente con respecto a las otras. Se˜nal´o que cada progenitor tiene pares de unidades, pero que s´olo aporta una unidad de cada pareja a su descendiente. M´as tarde, las unidades descritas por Mendel recibieron el nombre de genes. Su publicaci´on era el resultado de cerca de 10 a˜nos de observaciones minuciosas, las cuales expres´o matem´aticamente mediante las leyes de la probabilidad y as´ı predijo los resultados de los cruces gen´eticos, datos que se escriben en fracciones o porcentajes. La observaci´on obtenida al cruzar dos plantas puras con diferentes caracteres llev´o a Mendel a deducir que exist´ıa un rasgo m´as fuerte, al que llamo dominante y al rasgo m´as d´ebil o que aparentemente desaparece, le dio el nombre de recesivo. Estos dos conceptos de rasgo dominante y recesivo, aunque muy f´aciles de comprender, son de vital importancia a la hora de desarrollar la parte matem´atica de esta rama. En la historia de la Biolog´ıa este ha sido uno de los experimentos m´as extensos que ha realizado un solo autor. La recepci´on que tuvo esta publicaci´on fue pr´acticamente nula entre la comunidad cient´ıfica de su e´ poca. Casi cuatro d´ecadas despu´es, las leyes de Mendel fueron redescubiertas. A partir de entonces comenz´o el desarrollo impetuoso de la Gen´etica. A´un cuando sea un simplismo, el haber ignorado por parte de la comunidad cient´ıfica las leyes de Mendel, ha costado cuarenta a˜nos de retraso a la Biotecnolog´ıa moderna. Un gene particular puede ocurrir en varias formas o alelos. Para simplificar, consideraremos un gene con dos alelos, los genetistas denotan los caracteres dom-

´ CAPITULO 10. APLICACIONES

356

inantes con letras may´usculas y los caracteres recesivos, con min´usculas. De esta manera los alelos ser´an A y a.

10.2.1. Herencia autos´omica En esta secci´on se considera la herencia como autos´omica, esto quiere decir que un individuo hereda un gene de cada uno de los genes de sus padres formando as´ı su propio par. Hasta donde se sabe, es el azar el que determina cu´al de los dos genes de un progenitor pasa a su descendiente. Si fuera posible clasificar los individuos de una poblaci´on de una especie dada en cuanto a los genotipos AA, Aa y aa (t´engase en cuenta que el genotipo Aa es igual que el aA) ser´ıa posible determinar las proporciones de los alelos en la poblaci´on. Esto no ser´ıa factible si, por ejemplo, no se pudieran distinguir AA de Aa. Para n = 0, 1, 2, . . . , se establece que pn = Proporci´on del genotipo AA que hay en la generaci´on de orden n, qn = Proporci´on del genotipo Aa que hay en la generaci´on de orden n, rn = Proporci´on del genotipo aa que hay en la generaci´on de orden n. Si se supone que se pueden determinar esas proporciones, n´otese que se debe tener pn + qn + rn = 1.

(10.4)

Entonces, las proporciones u y v de los dos alelos A y a en la poblaci´on satisfacen las ecuaciones 1 u =pn + qn 2

y

1 v = qn + rn . 2

(10.5)

Aqu´ı, se us´o el hecho de que los alelos A y a constituyen el 100 % del genotipo AA (con proporci´on pn ) y el 50 % del genotipo Aa y similarmente para los alelos. Si se supone que los genotipos ocurren en las mismas proporciones entre los machos y las hembras, entonces u y v representan (en toda la poblaci´on) las probabilidades de que el gene sea A o a, respectivamente. Ejemplo 10.3. En una poblaci´on, la distribuci´on de genotipos en la n−´esima generaci´on es de 50 % de AA, 30 % de Aa y 20 % de aa. ¿Qu´e proporciones de los genes en esta poblaci´on son A y a ?

´ 10.2. MODELOS GENETICOS

357

Soluci´on En este ejemplo, pn = 0,50, qn = 0,30, rn = 0,20. Por lo tanto, 1 u =0,50 + (0,30) = 0,65 2

y

v =0,15 + 20 = 0,35.

Es decir, que de la “poblaci´on” de genes el 65 % es de A y el 35 % es de a. Con frecuencia es interesante el problema inverso al de la determinaci´on de las proporciones de los genotipos cuando se conocen las proporciones de los alelos. En general, este problema no tiene soluci´on u´ nica. El sistema de ecuaciones dado en (10.5) se reduce a una ecuaci´on de dos inc´ognitas, u = pn + (1/2)qn . Para obtener una segunda ecuaci´on independiente, supondremos apareamiento aleatorio. Esto quiere decir que la probabilidad de que un individuo dado se aparee con otro individuo no depende del genotipo de este u´ ltimo. En muchos casos, e´ sta es una suposici´on correcta. En otros no, por ejemplo, se sabe que la gente alta tiende a casarse con gente alta y por lo tanto la caracter´ıstica de la estatura en los humanos no se puede analizar de esta manera. Por otro lado, se ha demostrado que la suposici´on de apareo aleatorio se aplica a la caracter´ıstica de los tipos de sangre humana. La mayor´ıa de los individuos escogen su c´onyuge sin preocuparse por su tipo de sangre. Igual que antes, sup´ongase que u y v son las proporciones de los alelos A y a entre los machos y entre las hembras. Entonces, si suponemos que la poblaci´on es grande, la probabilidad de que la descendencia reciba el alelo A de los dos padres es u2 . De manera similar, las probabilidades de los genotipos AA y aa son 2uv y v2 , respectivamente. El t´ermino 2uv viene del hecho de que los alelos Aa y aA son el mismo, hecho que ya se hab´ıa enunciado. Este resultado conduce al siguiente teorema, descubierto de manera independiente por Hardy y Weinberg en 1908.

Teorema 10.6. Ley de Hardy–Weinberg Sup´ongase que, en una gran poblaci´on de padres, los alelos A y a de un gene en particular se presentan en las proporciones u y v = 1 − u. Suponiendo que estas proporciones son las mismas para los machos y para las hembras y, adem´as, que el apareo es aleatorio, la primera y todas las generaciones sucesivas se compondr´an de los tres genotipos, AA, Aa y aa en las proporciones u2 , 2uv y v2 .

´ CAPITULO 10. APLICACIONES

358

Demostraci´on Como se ha visto, un individuo de la primera generaci´on es de genotipo AA si sus dos padres contribuyen con los alelos A. Como la probabilidad es u de que cualquiera de los padres contribuya con un alelo A, la probabilidad del genotipo AA en la descendencia inmediata es de v2 . De manera semejante, las probabilidades de los genotipos Aa y aa son de 2uv y v2 . Esto implica que las proporciones p1 y q1 de los alelos A y a en la primera generaci´on est´an dadas por 1 p1 =u2 + (2uv) = u(u + v) = u 2 y 1 q1 = (2uv) + v2 = v(u + v) = v. 2 Por lo tanto, las proporciones de los dos alelos no se afectan por la generaci´on inicial. Esto contin´ua de generaci´on en generaci´on. Concluimos que, despu´es de la generaci´on inicial, las proporciones de los tres genotipos AA, Aa y aa permanecen constantes en u2 , 2uv y v2 . Ejemplo 10.4. El color de la flor de ch´ıcharo est´a controlado por un par de genes. Los tres genotipos AA, Aa y aa se caracterizan por sus flores de color rojas, color rosa y blancas, respectivamente. Si se cultiva un campo al azar con 60 % de flores rojas y 40 % de flores blancas. ¿Qu´e proporciones de los tres genotipos estar´an presentes en la cuarta generaci´on?. Soluci´on En este ejemplo, u = 0,6 y v = 0,4. Por la Ley de Hardy–Weinberg, las proporciones de flores rojas, rosadas y blancas en la primera generaci´on y en todas las subsecuentes son de u2 , 2uv y v2 , o sea de 0,36, 0,48 y 0,16, respectivamente. N´otese que la suposici´on de cultivo aleatorio equivale a la suposici´on de polinizaci´on aleatoria. La ley de Hardy–Weinberg s´olo es v´alida cuando el apareamiento es aleatorio y cuando los tres genotipos son igualmente probables. En ciertos casos, es bastante dif´ıcil verificar que el apareo es aleatorio. Sin embargo, si las proporciones de los genotipos permanecen constantes durante varias generaciones y si satisfacen la ley de Hardy-Weinberg, esto se puede tomar como una fuerte evidencia de que el apareamiento es aleatorio. As´ı, el conocimiento de que el apareo es aleatorio para

´ 10.2. MODELOS GENETICOS

359

los tipos de sangre humana, as´ı como para muchas caracter´ısticas de las plantas y animales, se dedujo de observaciones de las proporciones de genotipos en cuanto cumplen esta ley.

10.2.2.

Los cuadros de Punnett

Un cuadro de Punnett es una gr´afica que muestra todas las combinaciones posibles de genes resultantes del cruce de dos organismos (de quienes los genes son conocidos). Se nombran cuadros de Punnett por el genetista ingl´es, Reginald Pun´ descubri´o algunos principios b´asicos de la Gen´etica, incluso la uni´on del nett. El sexo y determinaci´on del sexo. Adem´as, trabaj´o con las caracter´ısticas del color de las plumas de los pollos de manera separada para pollos machos y hembras. Para ilustrar como se construye un cuadro de Punnett, se debe tener en cuenta que si uno de los padres es del genotipo Aa, entonces es igualmente probable que el descendiente herede, de este progenitor el alelo A o el alelo a. Por otra parte, si uno de los padres es de genotipo aa y el otro es de Aa, el descendiente recibir´a siempre un alelo a del progenitor de genotipo aa y un alelo A o a, con igual probabilidad, del progenitor del genotipo Aa. As´ı, el descendiente tiene la misma probabilidad de ser de genotipo AA o´ Aa. En la siguiente tabla se ubican las probabilidades de los posibles genotipos de los descendientes para todas las combinaciones posibles de los genotipos de los padres. Genotipos de

los progenitores

los hijos

AA-AA

AA-Aa

AA-aa

Aa-Aa

Aa-aa

aa-aa

AA

1

1 2

0

1 4

0

0

Aa

0

1 2

1

1 2

1 2

0

aa

0

0

0

1 4

1 2

1

Tabla 10.1: Probabilidades de los posibles genotipos Situaciones en el que apareamiento no es aleatorio, se presentan frecuentemente en experimentos biol´ogicos controlados. Un ejemplo evidente se da en la cr´ıa de caballos de carreras, donde un ganador probado tiene gran demanda como semental. El ejemplo siguiente muestra una de las situaciones de apareamiento controlado.

´ CAPITULO 10. APLICACIONES

360

Ejemplo 10.5. Un agricultor tiene una gran poblaci´on de plantas con cierta distribuci´on de los tres posibles genotipos, AA, Aa y aa. Este hombre desea iniciar un programa de cultivos en el que todas las plantas de la poblaci´on sean fecundadas por una planta del genotipo AA. Se quiere obtener la f´ormula de la distribuci´on de los tres posibles genotipos de la poblaci´on, despu´es de un cierto n´umero de generaciones. Soluci´on Sean pn , qn y rn las proporciones de los tres genotipos en la generaci´on n. Luego, para n = 0, 1, 2, . . . , se tiene que 1 qn = qn−1 + rn−1 , 2

1 pn =pn−1 + qn−1 , 2

rn =0.

(10.6)

Estas ecuaciones determinan la distribuci´on de los genotipos en cada generaci´on a partir de la distribuci´on en la generaci´on anterior y se lograron establecer por medio de la Tabla 10.1. El sistema (10.6) se puede expresar en notaci´on matricial como X (n) =PX (n−1) donde

  pn X (n) =  qn  , rn

n =1, 2, . . . 

 pn−1 X (n−1) =  qn−1  rn−1

y

(10.7)

  1 21 0 P = 0 12 1 . 0 0 0

N´otese que las columnas de la matriz P son iguales a las tres primeras columnas dadas en la tabla 10.1 La ecuaci´on (10.7) implica X (1) =PX (0)

³ ´ X (2) =PX (1) = P PX (0) = P2 X (0) ³ ´ X (3) =PX (2) = P P2 X (0) = P3 X (0) y, en general,

X (n+1) = Pn X (0) .

(10.8)

As´ı las proporciones de los genotipos futuros est´an completamente determinados por el vector X (0) de las proporciones iniciales y por la matriz P.

´ 10.2. MODELOS GENETICOS

361

Ahora, es f´acil comprobar que los valores propios de P son λ1 = 1, λ2 = λ3 = 0, con vectores propios correspondientes      1  1 −1 2 ~v1 = 0 , ~v2 =  1  y ~v3 = −1 . 1 0 0 2

1 2

Luego, P ser´a diagonalizable por la matriz   1 −1 12 ya que C = 0 1 −1 1 0 0 2

y

  1 0 0 C−1 PC =D = 0 12 0 . 0 0 0

Por u´ ltimo, como P = CDC−1 , se tiene que Pn = (CDC−1 )n . Este hecho no es desconocido para nosotros, pues Pn = CDnC−1 . Determinar C−1 no tiene mayor inconveniente, despu´es de un breve c´alculo se llega a   1 1 1 C−1 = 0 1 2 0 0 2 y como ya se hallo C y C−1 y adem´as sabemos que la matriz D es la matriz diagonal que contiene los valores propios asociados a P, se tiene que   1 ¡ 0¢ 0 n Dn = 0 12 0 . 0 0 0 ¡ ¢n Como l´ım 12 → 0, se ve que Dn tiende a la matriz n→∞

  1 0 0 l´ım Dn = 0 0 0 . n→∞ 0 0 0 De donde se tiene que       1 1 1 1 0 0 1 1 1 1 −1 12 l´ım Pn = 0 1 −1 0 0 0 0 1 2 = 0 0 0 . n→∞ 1 0 0 0 0 0 0 0 0 2 0 0 2

´ CAPITULO 10. APLICACIONES

362

N´otese que como P es estoc´astica por columnas, entonces l´ım Pn dio como resuln→∞ tado una matriz con todas sus columnas iguales al vector de probabilidad correspondiente al vector propio asociado al valor propio λ = 1. Por otra parte,        1 1 1 p0 p0 + q0 + r0 1  = 0 0 l´ım X (n) = l´ım Pn X (0) = 0 0 0  q0  =  n→∞ n→∞ 0 0 0 r0 0 0 ya que p0 + q0 + r0 = 1. As´ı queda demostrado que a largo plazo, todas las plantas ser´an genotipo AA.

10.3. Modelo de regresi´on lineal El problema central de la inferencia estad´ıstica en una distribuci´on bivariada es determinar la relaci´on entre las variables y conocer de qu´e manera los cambios en una variable afectan la otra. La variable que es la base de estimaci´on es convencionalmente llamada variable independiente que se designa por X y la variable cuyo valor es estimado se llama variable dependiente la cual se designa por Y . La selecci´on de las variables dependiente e independiente se hacen de acuerdo con lo conocido y con lo que se desee estimar. En este caso de dependencias entre variables, Y es una variable aleatoria pero X no lo es. La naturaleza de la relaci´on entre variables se establece a trav´es del an´alisis de regresi´on. Esta es una t´ecnica con la cual se establece la relaci´on funcional entre las variables, de modo que permite predecir el valor que toma una variable en funci´on del valor determinado de la otra. La regresi´on es generalmente clasificada en dos tipos: regresi´on simple y regresi´on m´ultiple o general. La regresi´on simple se refiere al estudio de las relaciones entre dos variables de las cuales una es independiente (X) y la otra dependiente (Y ). La regresi´on m´ultiple comprende tres o m´as variables, una de las cuales es la variable dependiente que debe ser estimada con base en los valores de las otras variables que son las independientes. Definici´on 10.8. Modelo Es una relaci´on entre dos o m´as variables cuantitativas, de tal forma que se pueda predecir una variable en funci´on de otra u otras. En este punto es necesario

´ LINEAL 10.3. MODELO DE REGRESION

363

distinguir entre dos tipos de relaciones: 1. Una relaci´on determin´ıstica o funcional es de la forma Y = f (X), donde X es la variable independiente y Y es la variable dependiente. 2. Una relaci´on estoc´astica o estad´ıstica, no es una relaci´on perfecta, es decir, no proporciona valores u´ nicos de Y para valores determinados de X pero puede describirse con precisi´on en t´erminos probabil´ısticos. En el an´alisis de regresi´on se consideran relaciones del segundo tipo, no del primero. Ejemplo 10.6. La relaci´on entre la variable aleatoria Y y la variable no aleatoria X puede ser expresada por Y = β0 exp (β1 X) + ε.

(10.9)

La ecuaci´on (10.9) significa que para un valor dado de la variable X, el correspondiente de Y es la suma del valor β0 exp (β1 X) m´as una cantidad ε. Los par´ametros son β0 y β1 y ε es la diferencia entre Y y el valor esperado de Y condicionada a un valor de X, es decir ε = Y − E (Y |X) . Definici´on 10.9. Modelo Lineal Es una ecuaci´on matem´atica que involucra variables aleatorias ligadas por par´ametros y que es “lineal en los par´ametros” y en algunas ocasiones en las variables aleatorias. La frase lineal en los par´ametros significa que ning´un par´ametro en el modelo aparece como un exponente o es multiplicado (o dividido) por cualquier otro par´ametro.

´ CAPITULO 10. APLICACIONES

364

Ejemplo 10.7. Cu´ales de los siguientes modelos son lineales 1 (i) Y = β0 + β1 . X

√ (ii) Y = β0 + β1 X.

(iii) Y = β20 + β1 X. Soluci´on Los modelos dados en (i) y (ii) son lineales en los par´ametros y el modelo dado en (iii) no es lineal en los par´ametros ya que β0 no tiene exponente uno. Definici´on 10.10. Modelo de Regresi´on Lineal Simple El modelo de la forma yi =β0 + β1 xi + εi ,

i =1, 2, . . . , n,

(10.10)

donde yi : Es el valor de la variable respuesta en el i−´esimo ensayo. β0 , β1 :Son los coeficientes (o par´ametros) de regresi´on que corresponden al intercepto y a la pendiente, respectivamente. xi : Es un valor conocido, el valor de la variable independiente en el i−´esimo ensayo. εi : Es la componente aleatoria, se conoce como error o perturbaci´on. Se dice que es un modelo de regresi´on lineal simple. El nombre se debe al hecho de que es lineal tanto en los par´ametros como en la variable independiente y simple porque s´olo se tiene una variable independiente. La ecuaci´on (10.10) es una expresi´on abreviada para el siguiente conjunto de n

´ LINEAL 10.3. MODELO DE REGRESION

365

ecuaciones simult´aneas y1 =β0 + β1 x1 + ε1 y2 =β0 + β1 x2 + ε2 .. .. . = .

(10.11)

yn =β0 + β1 xn + εn . El sistema de ecuaciones (10.11) puede escribirse en forma matricial como sigue       y1 1 x1 ε1 y2  1 x2  · ¸ ε2        β0 + .  (10.12)  ..  =  .. ..   .   . .  β1  ..  yn 1 xn εn ~β + ~ε. ~Y = X Esta representaci´on permite formular la siguiente definici´on Definici´on 10.11. Modelo Lineal General Un modelo de la forma ~Y = X~β +~ε,

(10.13)

donde ~Y : Es un vector columna de tama˜no n × 1, de observaciones sobre la variable dependiente Y . X : Es una matriz de tama˜no n × p, p ≤ n de cantidades conocidas fijas, donde la primer columna es de unos y tiene rango igual a k ≤ p. ~β : Es un vector columna de tama˜no p × 1, de par´ametros desconocidos β0 , β1 , . . . , β p−1 . ~ε : Es un vector aleatorio o perturbado de tama˜no n × 1. Se dice que es un Modelo Lineal General. Este modelo es de rango completo si el rango de X es igual a p.

´ CAPITULO 10. APLICACIONES

366

10.3.1. M´etodos de estimaci´on de par´ametros del modelo Para el modelo dado en (10.13), existen varios m´etodos de estimaci´on de par´ametros, entre estos tenemos: M´ınimos Cuadrados Ordinarios (M.C.O.) M´ınimos Cuadrados generalizados o Ponderados (M.C.P.) M´axima Verosimilitud (M.V.) En este cap´ıtulo se desarrollar´a una parte del m´etodo de M.C.O., el lector que este interesado en complementar dicho m´etodo y en los otros m´etodos puede revisar el texto Searle (1971).

M´etodo de m´ınimos cuadrados ordinarios El m´etodo de m´ınimos cuadrados ordinarios se atribuye a Carl Friedrich Gauss. Bajo ciertos supuestos, este m´etodo tiene algunas propiedades estad´ısticas muy atractivas que lo han convertido en uno de los m´as eficaces y populares del an´alisis de regresi´on. Supuestos para su aplicaci´on: 1. E [~ε] = ~0. 2. E [~ε~εt ] = σ2 In . 3. La matriz X, es no estoc´astica, es decir, consta de n´umeros fijos. 4. El rango de X es ρ(X) = p. ³ ´ 5. ~ε tiene una distribuci´on normal multivariada, es decir, ~ε ∼ N ~0, σ2 In . El supuesto 1 significa que el valor esperado del vector de perturbaciones (desviaciones) ~ε, es decir, de cada uno de sus elementos, es cero. M´as expl´ıcitamente, E [~ε] = ~0 significa       0 E (ε1 ) ε1 ε2  E (ε2 ) 0       (10.14) E  .  =  .  = . . .  .   .   ..  0 E (εn ) εn El supuesto 2 establece que las perturbaciones εi y ε j no est´an correlacionadas y adem´as que la varianza de εi para cada Xi (esto es, la varianza condicional de εi )

´ LINEAL 10.3. MODELO DE REGRESION

367

es alg´un n´umero positivo constante igual a σ2 , es decir, representa el supuesto de homoscedasticidad, o igual (homo) dispersi´on (cedasticidad), o igual varianza. M´as expl´ıcitamente, E [~ε~εt ] = σ2 In significa    2  ε1 ε1 ε1 ε2 . . . ε1 εn ε2  £ ε2 ε1 ε2 . . . ε2 εn  £ ¤ ¤ 2     E ~ε~εt = E  .  ε1 ε2 . . . εn = E  . .. ..  . ..  ..   .. . . .  εn

εn ε1 εn ε2 . . .

ε2n

Al aplicar el operador de valor esperado E a cada elemento de la matriz anterior, se obtiene   ¡ 2¢ E ε1 E (ε¡1 ε¢2 ) . . . E (ε1 εn ) 2 . . . E (ε2 εn ) £ ¤   E (ε2 ε1 ) E ε2 (10.15) E ~ε~εt =  . .. .. .. ..   . . . . ¡ ¢ E (εn ε1 ) E (εn ε2 ) . . . E ε2n La matriz dada en (10.15) se denomina matriz de varianza-covarianza de las perturbaciones εi . Los elementos sobre la diagonal principal son las varianzas y los elementos por fuera de la diagonal principal son las covarianzas. Por definici´on h i Var (εi ) =E (εi − E (εi ))2 Cov (εi , ε j ) =E [(εi − E (εi )) (ε j − E (ε j ))] , pero debido a los supuestos E (εi ) = 0 para cada i y E (εi ε j ) = 0 si i 6= j, la matriz (10.15) se reduce a  2  σ 0 ... 0 0 σ2 . . . 0  £ t¤    E ~ε~ε =  . (10.16) .. . . ..  . . . . . . 0 0 . . . σ2 El supuesto 3 estipula que la matriz X, de tama˜no n × p es no-estoc´astica, es decir, consiste en un conjunto de n´umeros fijos. El supuesto 4 establece que la matriz X tiene rango columna completo igual a p, el n´umero de columnas en la matriz. Esto significa que las columnas de la matriz X son linealmente independientes, es decir, no hay relaci´on lineal exacta entre las variables X. En otras palabras, no hay multicolinealidad.

Forma operativa Se minimiza la Suma de Cuadrados del Error ³ ´t ³ ´ SCE =~εt~ε = ~Y − X~β ~Y − X~β ,

(10.17)

´ CAPITULO 10. APLICACIONES

368

con respecto a ~β. Las derivadas parciales de ~εt~ε con respecto a ~β dan δ(εt ε) = 2Xt Xβˆ − 2Xt~Y . ~ δβ Si se iguala al vector nulo, se llega a las ecuaciones normales de la teor´ıa de M.C.O. Xt Xβˆ = Xt~Y .

(10.18)

Cuando Xt X sea no singular, se puede premultiplicar (10.18) por (Xt X)−1 , luego ¡ ¢−1 t MCO(β) = b β = Xt X X ~Y = C~Y , (10.19) donde C = (Xt X)−1 Xt . Otras estimaciones para el modelo (10.13) mediante el m´etodo de M.C.O. son h ¡ ¢−1 t i Yb = Xβˆ = X Xt X X ~Y = H~Y bε = ~Y − Yˆ = ~Y − H~Y = (In − H)~Y h i0 0 SCE = bε bε = (In − H)~Y (In − H)~Y = ~Y 0 (In − H)~Y

(10.20)

SCT = ~Y 0 (In − J n )~Y

£ ¤ SCR = SCT − SCE = ~Y 0 (In − J n ) − (In − H) ~Y = ~Y 0 (H − J n )~Y

(10.21)

La pen´ultima expresi´on se tiene del Ejemplo 5.5. Obs´ervese que la matriz H = X (Xt X)−1 Xt la cual en la literatura estad´ıstica se conoce como “Matriz Hat”, determina muchos de los resultados de las estimaciones por M.C.O. Por ejemplo, cuando premultiplica al vector de respuestas ~Y se obtienen las predicciones de la variable dependiente, por eso en algunos textos de Estad´ıstica la denominan Matriz de Predicci´on y a la matriz In − H la llaman Matriz Residual, puesto que al antepon´ersele a la variable dependiente ~Y se obtienen los respectivos residuales.

Propiedades de las componentes de la matriz H La matriz H = [hi j ] de tama˜no n × n, cumple que n

a) hii = ∑ h2i j = h2ii + ∑ h2i j , j=1

b) c) d) e) f)

ya que Hes sim´etrica e idempotente.

j6=i

0 < hii ≤ 1, si i = 1, 2, . . . , n. −0,5 ≤ hi j ≤ 0,5, para i 6= j. (1 − hii )(1 − h j j ) − h2i j ≥ 0. hii h j j − h2i j ≥ 0. Si hii = 1, entonces hi j = 0, para todo j 6= i.

´ LINEAL 10.3. MODELO DE REGRESION

369

Si la matriz X de tama˜no n × r es de rango r, entonces n

g)

i=1 n

h)

n

n

∑ hii = ∑ ∑ h2i j = r = tr(H).

i=1 j=1 n ∑ hi j = ∑ hi j i=1 j=1

= 1,

Adem´as, como hi j = xi (Xt X)−1 x0j , hii est´a determinada por la localizaci´on de xi en el espacio X. Es decir, un peque˜no (grande) valor de hii indica que xi se encuentra cerca (lejos) de la masa de los otros puntos. Ejemplo 10.8. Ajuste el modelo de regresi´on yi = β0 + β1 x1i + εi

(10.22)

al conjunto de datos hipot´eticos de la siguiente tabla x1

y

x1

y

x1

y

1

-10

5

-2

9

6

2

-8

6

0

10

8 .

3

-6

7

2

11

10

4

-4

8

4

Soluci´on Si se expresa el modelo dado en (10.22) en la forma matricial dada en (10.13) se tiene ~Y = X~β +~ε,

(10.23)

donde X = [X0 X1 ] y X0 = 1 . Al calcular (Xt X) se tiene que · ¸ · ¸ ¡ t ¢ 11 66 1 6 XX = = 11 . 66 506 6 46 Si se reescribe (10.18) se llega a · ¸" # · ¸ 1 6 βˆ 0 0 11 = 6 46 βˆ 1 220 · ¸" # · ¸ 1 6 βˆ 0 0 = . 6 46 βˆ 1 20

(10.24)

´ CAPITULO 10. APLICACIONES

370

En el Ejemplo 7.8, se obtuv´o que el κ (A) ≈ 218. 9, luego, existe multicolinealidad moderada, es decir, variaciones muy peque˜nas en la varianza de la variable regresora X1 produce cambios dr´asticos en las estimaciones de los par´ametros. Por lo tanto, la soluci´on de (10.24) est´a dada por " # · ¸· ¸ · ¸ · ¸ 1 46 −6 0 1 −120 βˆ 0 −12 = = = . 20 2 10 −6 1 10 20 βˆ 1

(10.25)

10.4. Multicolinealidad La multicolinealidad se refiere a la existencia de m´as de una relaci´on lineal exacta. Inicialmente, este t´ermino signific´o la existencia de una relaci´on “perfecta” o exacta entre algunas o todas las variables explicativas de un modelo de regresi´on. Para la regresi´on con p variables que incluye las variables explicativas X0 , X1 , . . . , Xp (donde X0 = 1 para todas las observaciones que den cabida al t´ermino intercepto), se dice que existe una relaci´on lineal exacta si se satisface la siguiente condici´on α0 X0 + α1 X1 + . . . + α p Xp = ~0, (10.26) donde α0 , α1 , . . . , α p son constantes tales que no todas ellas son simult´aneamente iguales a cero. Sin embargo, el t´ermino multicolinealidad se utiliza tambi´en para el caso en el cual las variables X0 , X1 , . . . , Xp estan intercorrelacionadas pero no en forma perfecta, de la siguiente manera: α0 X0 + α1 X1 + . . . + α p Xp + νi = ~0,

(10.27)

donde νi es un t´ermino de error estoc´astico. En los textos de econometr´ıa se emplea como medida para detectar la multicolinealidad el ´ındice de condici´on, de la siguiente manera Si

¡ ¢ 0 ≤IC Xt X ≤ 10 ¡ ¢ 10