Álgebra lineal para estudiantes de Ingeniería y Ciencias [1 ed.]
 9701068858, 9789701068854

Table of contents :
Álgebra Lineal para estudiantes de Ingeniería y Ciencias
Contenido
Prólogo
I. Matrices, sistemas ydeterminantes
2. Matrices invertiblesy determinantes
II. Espacios vectoriales,producto interior, normas,valores y vectores propios
3. Espaciosvectoriales
4. Espacios con productointerior y espacios normados
5. Transformaciones lineales,valores y vectores propios
IIIAplicaciones,uso de tecnología,métodos numéricos
6. Aplicaciones
7. Uso de tecnología
8. Álgebra linealnumérica
A. Conjuntos, demostracionese inducción matemática
B. Números complejos, camposy espacios vectoriales
C. Demostraciones quefueron diferidas
D. Formas canónicasde Jordan
E. Respuestas a ejerciciosseleccionados
Lista de símbolos
Bibliografía
Índice analítico

Citation preview

PARA ESTUDIANTES DE INGENIERÍA Y CIENCIAS Juan Carlos Del Valle Sotelo Instituto Tecnológico y de Estudios Superiores de Monterrey, Campus Estado de México

˜

Director General México: Miguel Ángel Toledo Castellanos Editor sponsor: Pablo Eduardo Roig Vázquez Coordinadora editorial: Marcela I. Rocha Martínez Supervisor de producción: Zeferino García García

ÁLGEBRA LINEAL PARA ESTUDIANTES DE INGENIERÍA Y CIENCIAS Prohibida la reproducción total o parcial de esta obra, por cualquier medio, sin la autorización escrita del editor.

DERECHOS RESERVADOS © 2011 respecto a la primera edición por McGRAW-HILL/INTERAMERICANA EDITORES, S.A. DE C.V. A Subsidiary of The McGraw-Hill Companies, Inc. Edificio Punta Santa Fe Prolongación Paseo de la Reforma 1015, Torre A Piso 17, Colonia Desarrollo Santa Fe, Delegación Álvaro Obregón C.P. 01376, México, D. F. Miembro de la Cámara Nacional de la Industria Editorial Mexicana, Reg. Núm. 736 ISBN: 978-970-10-6885-4

1234567890

1098765432101

Impreso en México

Printed in Mexico

Page (PS/TeX): 1 / 4, COMPOSITE

A la memoria de Esther, mi amada madre; a mi hermano Manuel; a mis hijas Miriam y Samantha

En un universo quiz´a infinito inconcebiblemente antiguo es una dicha saber que tengo mi origen en una amorosa madre y en un hermano que me cuid´o como a un hijo y por eso es mi padre y percibir una infinit´esima parte de m´ı en la mirada de dos peque˜nos seres que en momentos dif´ıciles han sido tan grandes.

Page (PS/TeX): 5 / 5, COMPOSITE

Contenido

Agradecimientos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Prólogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

XIII XV

PARTE I MATRICES, SISTEMAS Y DETERMINANTES CAPÍTULO 1 Matrices y sistemas lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1

1.1 1.1 1.1 1.1 1.1 1.1 1.2 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.3 1.1 1.1

1 1 1 1 1 1 1 1 1 1 1 1 1 1 1

2.1 1.1 1.1 1.1 1.1 1.1 2.2 1.1 1.1 1.1 1.1 1.1 2.3 1.1 1.1

Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.1 Definiciones y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.2 Operaciones con matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.3 Matrices especiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.4 Propiedades de las operaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.5 Matrices con n´umeros complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Sistemas lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.1 Definiciones, soluciones y forma matricial de sistemas lineales . . . . . . . . . . . . . . . . . 1.2.2 Matrices escalonadas y sistemas escalonados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.3 Operaciones de rengl´on para matrices, equivalencia por filas y soluciones 1.2.3 de sistemas escalonados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.4 M´etodo de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.5 M´etodo de Gauss-Jordan y sistemas con soluci´on u´ nica . . . . . . . . . . . . . . . . . . . . . . . 1.2.6 Sistemas homog´eneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.7 Estructura de las soluciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.8 Sistemas lineales con n´umeros complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ejercicios resueltos y ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

CAPÍTULO 2 Matrices invertibles y determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Matrices invertibles y sus inversas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.1 Definici´on y propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.2 Matrices invertibles y sistemas lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.3 M´etodo de Gauss-Jordan para hallar la inversa de una matriz . . . . . . . . . . . . . . . . . . . 2.1.4 Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.5 Inversas de matrices con componentes complejas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.1 Desarrollo por cofactores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.2 Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.3 M´etodo de la adjunta para hallar la inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.4 Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.5 Determinantes de matrices con componentes complejas . . . . . . . . . . . . . . . . . . . . . . . Ejercicios resueltos y ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3 3 3 4 7 9 12 14 15 20 22 24 28 31 32 34 35 35 55

63 63 63 65 68 71 74 75 75 80 83 84 85 86 86 102 VII

Page (PS/TeX): 7 / 7, COMPOSITE

VIII CONTENIDO

PARTE II ESPACIOS VECTORIALES, PRODUCTO INTERIOR, NORMAS, VALORES Y VECTORES PROPIOS CAPÍTULO 3 Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..

113

1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1

3.1 1.1 1.1 1.1 1.1 3.2 1.1 1.1 1.1 1.1 3.3 1.1 3.4 1.1 1.1 1.1 3.5 3.6 1.1 1.1

113 113 117 119 123 131 131 138 139 143 151 156 158 158 160 169 173 175 175 207

CAPÍTULO 4 Espacios con producto interior y espacios normados . . . . . . . . . . . . . . . . . . . . . . . ..

235

1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1

4.1 1.1 1.1 1.1 1.1 1.1 4.2 1.1 1.1 1.1 1.1 1.1 1.1 1.1 4.3 1.1 1.1

235 236 247 252 263 283 303 303 309 317 324 334 337 341 347 347 383

CAPÍTULO 5 Transformaciones lineales, valores y vectores propios . . . . . . . . . . . . . . . . . . . . . . .

415

1 1 1 1 1 1 1 1

5.1 1.1 1.1 5.2 1.1 1.1 1.1 1.1

415 416 422 433 433 441 447 452

Geometr´ıa de los espacios Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.1 El plano cartesiano R2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.2 Interpretaci´on geom´etrica del determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.3 El espacio vectorial Rn , geometr´ıa y propiedades algebraicas . . . . . . . . . . . . . . . . . . 3.1.4 La desigualdad de Schwarz, a´ ngulos entre vectores y ortogonalidad . . . . . . . . . . . . Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.1 Definiciones y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.2 Propiedades elementales de los espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.3 Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.4 Combinaciones lineales y subespacios generados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Dependencia e independencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.1 Criterios de independencia lineal en Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Bases y dimensi´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4.1 Definiciones y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4.2 Dimensi´on, extracci´on de bases y compleci´on de un conjunto L.I. a una base . . . . 3.4.3 Rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Espacios vectoriales sobre los n´umeros complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ejercicios resueltos y ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Espacios con producto interior . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.1 Definiciones, ejemplos y propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.2 Ortogonalidad y norma inducida por el producto interior . . . . . . . . . . . . . . . . . . . . . . 4.1.3 Desigualdad de Schwarz y a´ ngulo entre vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.4 Proyecciones, proceso de ortogonalizaci´on, factorizaci´on QR . . . . . . . . . . . . . . . . . . 4.1.5 Aproximaci´on o´ ptima de un vector por elementos de un subespacio . . . . . . . . . . . . Espacios vectoriales normados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.1 Definiciones y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.2 Distancia en espacios vectoriales normados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.3 Normas que provienen de productos interiores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.4 Normas equivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.5 Construcci´on de normas en espacios de dimensi´on finita a partir de normas en Rn 4.2.6 Aproximaciones o´ ptimas en espacios normados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.7 ¿Qu´e norma utilizar? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Ejercicios resueltos y ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1.1 Definici´on, ejemplos y propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1.2 N´ucleo e imagen de una transformaci´on lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Representaciones matriciales de transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.1 Vectores de coordenadas, cambio de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.2 Representaciones matriciales de un operador lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.3 Representaciones matriciales de transformaciones lineales . . . . . . . . . . . . . . . . . . . . . 5.2.4 Isomorfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Page (PS/TeX): 8 / 8, COMPOSITE

CONTENIDO

1 1 1 1 1 1 1 1

5.3 1.1 1.1 1.1 1.1 5.4 1.1 1.1

Valores y vectores propios, diagonalizaci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3.1 Valores y vectores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3.2 Diagonalizaci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3.3 Valores propios complejos y diagonalizaci´on sobre C . . . . . . . . . . . . . . . . . . . . . . . . . 5.3.4 Operadores autoadjuntos y matrices sim´etricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ejercicios resueltos y ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

IX

457 457 471 482 491 497 497 539

PARTE III APLICACIONES, USO DE TECNOLOGÍA, MÉTODOS NUMÉRICOS 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1

CAPÍTULO 6 Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

581

6.1 6.2 1.1 1.1 1.1 6.3 1.1 1.1 1.1 1.1 1.1 6.4 1.1 1.1 1.1 1.1 6.5 1.1 1.1 1.1 1.1 1.1 1.1 1.1 6.6 6.7 6.8 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 6.9

581 589 590 591 595 596 596 602 604

Page (PS/TeX): 9 / 9, COMPOSITE

Matrices de incidencia y teor´ıa de grafos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Redes de conducci´on y principios de conservaci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2.1 Flujo vehicular . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2.2 Circuitos el´ectricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2.3 Balance qu´ımico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . An´alisis insumo-producto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3.1 Modelo para econom´ıa abierta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3.2 Modelo para econom´ıa cerrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3.3 Singularidad de la matriz de Leontief para el modelo de econom´ıa cerrada . . . . . . 6.3.4 Inversa de la matriz de Leontief para el modelo de econom´ıa abierta y m´etodo de 6.3.4 aproximaci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Programaci´on lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.4.1 Enfoque geom´etrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.4.2 M´etodo simplex para el problema est´andar de programaci´on lineal . . . . . . . . . . . . . 6.4.3 Restricciones generales y m´etodo simplex de dos fases . . . . . . . . . . . . . . . . . . . . . . . . 6.4.4 Dualidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Teor´ıa de juegos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.5.1 Juegos estrictamente determinados y puntos silla . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.5.2 Estrategias y pagos esperados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.5.3 Estrategias o´ ptimas y valor esperado para juegos matriciales con matriz de pagos 6.3.4 2 × 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.5.4 Estrategias o´ ptimas y valor esperado con programaci´on lineal para juegos 6.3.4 matriciales con matriz de pagos m × n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.5.5 Filas y columnas recesivas o dominantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Cadenas de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Sistemas lineales de ecuaciones diferenciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Optimizaci´on de funcionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.8.1 Problemas f´ısicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.8.2 C´alculo diferencial en espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.8.3 C´alculo diferencial para funcionales en Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.8.4 Extremos locales de funcionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.8.5 Extremos locales y valores propios de la matriz hessiana . . . . . . . . . . . . . . . . . . . . . . 6.8.6 Condiciones necesarias para que cierto tipo de funcionales en espacios de 6.3.4 dimensi´on infinita alcancen valores extremos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.8.7 Din´amica de un monopolista . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.8.8 Ep´ılogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

605 613 613 620 631 641 644 645 646 648 652 657 658 666 671 672 679 698 706 709 716 725 727 728

X CONTENIDO

CAPÍTULO 7 Uso de tecnología . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

761

La calculadora HP 50g y a´ lgebra lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.1.1 Teclado y sus funciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.1.2 La pantalla y comandos de decisi´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.1.3 Modos de operaci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.1.4 C´alculo simb´olico vs num´erico y almacenamiento de objetos algebraicos . . . . . . 17.1.5 Escritura de vectores y matrices en la Hp 50g . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.1.6 Operaciones con vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.1.7 Operaciones con matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.1.8 Factorizaci´on QR y ortogonalizaci´on, factorizaci´on LU . . . . . . . . . . . . . . . . . . . . . .. 17.1.9 Forma escalonada y forma escalonada reducida con la HP 50g, sistemas lineales 7.1.10 M´etodos de Gauss y Gauss-Jordan paso a paso en forma autom´atica con la 7.1.10 HP 50g . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.1.11 Inversa de una matriz paso a paso de manera autom´atica con la calculadora 7.1.10 HP 50g . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.1.12 M´etodos de Gauss y Gauss-Jordan con operaciones de rengl´on ejecutadas por el 7.1.10 usuario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.1.13 Inversa de una matriz por el m´etodo de Gauss-Jordan con operaciones de rengl´on 7.1.10 ejecutadas por el usuario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.1.14 Transformaciones lineales, n´ucleo e imagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.1.15 Valores y vectores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.1.16 N´umeros complejos con la HP 50g . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . M ATLAB y a´ lgebra lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.2.1 Interacci´on con M ATLAB y almacenamiento de informaci´on . . . . . . . . . . . . . . . . . . 17.2.2 Escritura de matrices y operaciones b´asicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.2.3 Formatos y modo simb´olico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.2.4 Matrices especiales, informaci´on b´asica y edici´on de matrices . . . . . . . . . . . . . . . . 17.2.5 Operaciones de rengl´on con M ATLAB . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.2.6 Funciones programadas por el usuario, programaci´on en M ATLAB y operaciones 7.1.10 de rengl´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.2.7 Traza, determinante, rango, inversa y transpuesta . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.2.8 Forma escalonada reducida, soluci´on de sistemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.2.9 Valores y vectores propios, polinomio caracter´ıstico . . . . . . . . . . . . . . . . . . . . . . . . . 7.2.10 Factorizaci´on QR y factorizaci´on LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Excel, la herramienta Solver y programaci´on lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.3.1 Activaci´on de Solver en Excel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.3.2 La funci´on SUMAPRODUCTO de Excel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.3.3 Resoluci´on de problemas de programaci´on lineal con Solver . . . . . . . . . . . . . . . . . Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

761 761 763 764 765 766 768 771 772 773

1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1

7.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 7.2 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 7.3 1.1 1.1 1.1 7.4

CAPÍTULO 8 Álgebra lineal numérica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

819

1 1 1 1 1 1 1 1 1 1

8.1 8.2 1.1 1.1 1.1 1.1 8.3 1.1 1.1 1.1

819 822 822 827 829 838 848 848 862 877

Aritm´etica de la computadora y errores de redondeo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . M´etodos directos para resolver sistemas lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18.2.1 M´etodo de Gauss para sistemas lineales de orden n con sustituci´on regresiva . . . 18.2.2 M´etodo de Gauss para hallar la inversa de una matriz . . . . . . . . . . . . . . . . . . . . . . . . 18.2.3 Factorizaci´on LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18.2.4 Estrategias para pivotar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . M´etodos iterativos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18.3.1 La teor´ıa de punto fijo y normas matriciales naturales . . . . . . . . . . . . . . . . . . . . . . . . 18.3.2 M´etodo iterativo de Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18.3.3 Planteamiento general para un m´etodo iterativo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Page (PS/TeX): 10 / 10, COMPOSITE

774 775 775 777 779 780 780 781 781 783 785 786 789 790 797 798 800 802 803 803 805 806 813

CONTENIDO

1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1

A 1 1 1 A 1 1 1 A

1.1 1.1 1.1 8.4 1.1 1.1 1.1 1.1 8.5 1.1 1.1 1.1 1.1 1.1 1.1 8.6

XI

8.3.4 M´etodo iterativo de Richardson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.3.5 M´etodo iterativo de Gauss-Seidel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.3.6 Series de Neumann y m´etodo iterativo para aproximar la inversa de una matriz . . Transformaciones de Householder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.4.1 Definiciones y transformaciones b´asicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.4.2 Factorizaci´on QR de Householder y sistemas lineales . . . . . . . . . . . . . . . . . . . . . . . . . 8.4.3 Reducci´on de Householder-Hessenberg . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.4.4 Rotaciones y reflexiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aproximaci´on de valores y vectores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.5.1 M´etodo de la potencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.5.2 Deflaci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.5.3 Iteraci´on inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.5.4 M´etodo QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.5.5 M´etodo QR con reducci´on de Hessenberg y desplazamientos . . . . . . . . . . . . . . . . . . 8.5.6 M´etodo de Jacobi para aproximar valores y vectores propios de matrices sim´etricas Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

880 887 896 901 902 908 913 917 923 923 931 937 939 946 950 956

A Conjuntos, demostraciones e inducción matemática . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

985

A.1 Conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 985 1.1 A.1.1 Conjuntos, elementos y subconjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 985 1.1 A.1.2 Operaciones con conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 988 1.1 A.1.3 Reuniones e intersecciones de familias de conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . 992 A.2 Demostraciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 993 1.1 A.2.1 El m´etodo deductivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 993 1.1 A.2.2 M´etodos de demostraci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 995 1.1 A.2.3 Bicondicional y definiciones, lemas y corolarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 999 A.3 Inducci´on matem´atica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1002

B Números complejos, campos y espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1011 B B B 1 1 B B

B.1 N´umeros complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. B.2 Campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . B.3 Polinomios sobre campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1 B.3.1 Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1 B.3.2 Ra´ıces y teorema fundamental del a´ lgebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . B.4 Espacios vectoriales sobre otros campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . B.5 Aplicaci´on a la teor´ıa de detecci´on y correcci´on de errores en c´odigos . . . . . . . . . . . . . . .

1011 1017 1021 1021 1025 1026 1030

C Demostraciones que fueron diferidas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1037 D Formas canónicas de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1055 E Respuestas a ejercicios seleccionados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1073 Lista de símbolos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1105 Alfabeto griego . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1108 Lista de aplicaciones adicionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1109 Lista de programas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1110

Bibliografía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1111 Índice analítico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1113

Page (PS/TeX): 11 / 11, COMPOSITE

Page (PS/TeX): 12 / 12, COMPOSITE

Agradecimientos

´ Deseo primeramente agradecer a Miguel Angel Toledo y a Ram´on Ordu˜na, quienes me invitaron a realizar este proyecto con McGraw-Hill, por el gran apoyo y paciencia que tuvieron desde el inicio hasta la culminaci´on de la obra, sin ellos hubiera sido imposible terminarla. Este libro lo escrib´ı en el procesador de texto matem´atico y cient´ıfico LATEX y el trabajo editorial para su formaci´on fue considerable; deseo dar las gracias a Marcela Rocha y a Pablo Roig por todo el esfuerzo que hicieron para que el proyecto pudiera editarse en ese formato y por toda la ayuda que me brindaron en el transcurso de su elaboraci´on. La mayor´ıa de la las figuras las constru´ı utilizando los programas LaTeXPiX, TeXCad, GNUPLOT, TeXCad32 o LaTeX-CAD; deseo dar cr´edito y reconocimiento a los autores de estos paquetes —de distribuci´on gratuita— por la magn´ıfica tarea que han realizado en esas herramientas de dibujo en el ambiente LATEX, las cuales facilitaron enormemente el trabajo gr´afico en este libro. Tambi´en quiero reconocer la excelente labor de maquetaci´on por parte de Merc`e Aicart Mart´ınez. Las im´agenes 3D —la m´aquina de la p´agina 416 y los dep´ositos interconectados de la figura 6-20—, fueron dise˜nadas por Ernesto Byas Lizardo y Ram´on Nu˜nez Serrania. Todos los dibujos de los circuitos el´ectricos y los digrafos del cap´ıtulo 6 los realizaron Miriam Del Valle y Samantha Del Valle. Los planos en tres dimensiones de la figura 1-2 los construy´o Eli´en Rodr´ıguez Del Valle. Ernesto y Miriam hicieron la revisi´on, en computadora, de las respuestas num´ericas de muchos de los ejercicios propuestos y Miriam ley´o el texto en su totalidad para localizar erratas. Mi m´as sincero agradecimiento a todos ellos por la desinteresada ayuda que me brindaron. Doy gracias a las autoridades del campus Estado de M´exico, del Instituto Tecnol´ogico y de Estudios Superiores de Monterrey, por las facilidades que me dieron para la realizaci´on de esta obra; y a Enrique Ortiz, de HP Calculators Latin America, por el soporte otorgado para la realizaci´on de la secci´on 7.1. El doctor Francisco Delgado Cepeda, profesor del campus Estado de M´exico, ley´o por completo el primer cap´ıtulo; le agradezco mucho su colaboraci´on y valiosos comentarios. El doctor Ferm´ın Acosta Magallanes, profesor del campus Estado de M´exico y de la UPIITA del IPN, sacrific´o mucho de su tiempo al leer casi en su totalidad el libro. Sus comentarios, observaciones y correcciones fueron de un enorme valor. Obviamente cualquier error t´ecnico en el texto es absolutamente mi responsabilidad. El inter´es constante que mantuvo Ferm´ın en la realizaci´on de esta obra fue un gran est´ımulo para su culminaci´on y estar´e siempre agradecido con e´ l. Cuando estaba escribiendo este trabajo, se presentaron algunos problemas serios en mi salud, y gracias a los cuidados y apoyo de mis hermanas Rosa Mar´ıa y Gabriela, mi hermano Manuel, mi cu˜nado Jos´e Manuel Lara, mi doctora de cabecera Daniela Lara Del Valle, mis sobrinos Emmanuel Lara, Etzel Rodr´ıguez, Rosa Mar´ıa Lara, Noem´ı Del Valle, Alejandro Urban, y mis hijas Samantha y Miriam, ahora estoy escribiendo estas u´ ltimas l´ıneas. Espero que ellos sepan que pueden contar siempre conmigo como yo cont´e con ellos.

XIII

Page (PS/TeX): 13 / 13, COMPOSITE

XIV AGRADECIMIENTOS

Escribir un libro, especialmente uno como e´ ste, es una labor en la que hay gran sacrificio no s´olo del autor, sino tambi´en de los que son m´as cercanos a e´ l: su familia; en este caso mis hijas Samantha y Miriam. Su paciencia, amor y comprensi´on fueron el principal incentivo para llegar al final de este proyecto. Finalmente quiero agradecer a Rub´en Dario Santiago Acosta, director del Departamento de Matem´aticas y F´ısica del campus Estado de M´exico, por su valiosa cooperaci´on para la realizaci´on de este libro. En la vida de todo ser humano existen periodos en que los avatares son m´as intensos y frecuentes; el lapso para realizar esta obra fue una de esas etapas para m´ı. Rub´en fue en todo momento un apoyo y, aunque la suerte no siempre est´a de mi lado, soy muy afortunado por tener a un gran amigo como e´ l.

Page (PS/TeX): 14 / 14, COMPOSITE

Prólogo

Este libro tiene su germen en las notas del curso semestral de a´ lgebra lineal que he impartido a lo largo de varios a˜nos en el Instituto Tecnol´ogico y de Estudios Superiores de Monterrey, campus Estado de M´exico, las cuales son el esqueleto de lo que ahora pretendo mostrar como un cuerpo ya con piel y completo, que se desarroll´o gracias a la experiencia adquirida a trav´es de todos esos a˜nos. El objetivo principal es presentar a detalle y profundidad los principales temas del a´ lgebra lineal, mostrando la utilidad de esta materia por medio de una gran variedad de aplicaciones a otros campos y a las propias matem´aticas. Integrando la teor´ıa, la pr´actica, el uso de tecnolog´ıa y los m´etodos n´umericos de esta disciplina. El libro est´a dise˜nado de tal manera que se puede usar para un curso de uno o dos semestres, dependiendo de los programas de estudio de cada instituci´on y de la profundidad con la que se desee tratar cada tema. En el primer caso conviene cubrir las partes I y II, exceptuando los apartados 4.2, 5.3.3 y 5.3.4. Para el segundo caso, se recomiendan todos los temas de las partes I y II, las formas can´onicas de Jordan del ap´endice D y el material adicional que se incluye en el sitio web del libro. En ambas modalidades se pueden incluir las secciones que se consideren adecuadas de la parte III, especialmente las aplicaciones del cap´ıtulo 6. ´ Como su nombre lo indica, Algebra lineal para estudiantes de ingenier´ıa y ciencias est´a orientado para ser utilizado tanto en escuelas de ingenier´ıa como en escuelas de ciencias, ya sea a nivel licenciatura o posgrado. Los requisitos acad´emicos para la comprensi´on del material son las matem´aticas elementales que se cubren a nivel medio superior (´algebra, geometr´ıa anal´ıtica y c´alculo diferencial e integral). La mayor´ıa de los estudiantes que toman un curso de a´ lgebra lineal, salvo los que cursan la carrera de matem´aticas, se enfrentan por primera vez a una materia en la que se tienen que hacer demostraciones de teoremas y proposiciones matem´aticas utilizando el m´etodo l´ogico-deductivo; es la principal dificultad que entra˜na un curso de esta naturaleza para el lector profano en el campo del rigor matem´atico. Sin embargo, en a´ lgebra lineal la mayor´ıa de las demostraciones son constructivas; es decir, la prueba de un teorema es en s´ı un algoritmo para resolver una serie de importantes problemas; lo cual representa una ventaja did´actica para poder iniciarse en el rigor l´ogico de las matem´aticas. Aun tomando en consideraci´on esa ventaja, aprender en qu´e consiste probar rigurosamente proposiciones matem´aticas no es f´acil. Para apoyar al estudiante en esta tarea, el ap´endice A.2 contiene una breve introducci´on al m´etodo deductivo y a los m´etodos de demostraci´on en matem´aticas —dise˜nada para que el lector pueda estudiarla por cuenta propia o con un poco de ayuda de su profesor—, a trav´es de casos concretos y con un m´ınimo de conocimientos previos que seguramente todo estudiante, a este nivel, posee. En estos tiempos, donde la credulidad y las pseudociencias son estimuladas medi´aticamente como instrumentos de mercadotecnia para vender productos que “curan” todos los males —incluyendo los pol´ıticos y sociales—, el escepticismo, como una cultura de lo que se afirma se demuestra, deber´ıa ser cultivado por el Homo sapiens moderno y el a´ lgebra lineal es una excelente oportunidad para iniciarse, al menos en la parte matem´atica, en esa cultura. XV

Page (PS/TeX): 15 / 15, COMPOSITE

´ XVI PROLOGO

He dividido el libro en tres partes que, desde mi punto de vista, conforman lo que es el a´ lgebra lineal. Las primeras dos contienen el n´ucleo te´orico de la materia. La parte I —matrices, sistemas lineales, determinantes e inversas de matrices— es la m´as elemental y es la columna vertebral en la que se apoya el resto del libro; mientras que la II —espacios vectoriales, producto interior, normas, valores y vectores propios— es el corpus de ese n´ucleo que incluye los temas m´as relevantes del a´ lgebra lineal. Estos dos segmentos constituyen los primeros cinco cap´ıtulos de la obra, y en ellos he intentado exponer el significado matem´atico del a´ lgebra lineal. En la parte III —que contiene los u´ ltimos tres cap´ıtulos del texto—, a trav´es de diversas aplicaciones en el cap´ıtulo 6, he tratado de hacer patente la utilidad pr´actica que tiene esta importante materia. Los c´alculos num´ericos en a´ lgebra lineal pueden llegar a ser muy complejos aritm´eticamente y tomar demasiado tiempo realizarlos; afortunadamente en esta e´ poca contamos con tecnolog´ıa para apoyarnos en esta tarea. En el cap´ıtulo 7, inclu´ı el uso de la tecnolog´ıa en el a´ lgebra lineal, espec´ıficamente con M ATLAB y la calculadora HP 50g; y EXCEL, para programaci´on lineal. Sin embargo, una exposici´on del a´ lgebra lineal que no muestra las dificultades inherentes que se presentan al hacer c´alculos num´ericos en esta materia y c´omo resolverlas matem´aticamente, es incompleta. Por esta raz´on, el cap´ıtulo final contiene una introducci´on relativamente profunda de los principales m´etodos num´ericos que se utilizan en a´ lgebra lineal; con m´as de 32 programas en M ATLAB de esos algoritmos para ser utilizados o modificados, en este u otro lenguaje, por el estudiante a su conveniencia. Al escribir esta obra intent´e tener siempre presentes los obst´aculos a los que se enfrentan la mayor´ıa de los estudiantes de a´ lgebra lineal, el principal es el alto nivel de abstracci´on de la materia. Para soslayar esta dificultad, el libro contiene m´as de 200 figuras con el prop´osito de crear im´agenes que puedan ayudar al lector a visualizar f´ısica y geom´etricamente entes abstractos y convertirlos en conceptos m´as concretos. Adem´as, a lo largo de sus 8 cap´ıtulos y 5 ap´endices, inclu´ı m´as de 450 ejemplos para apoyarlo a comprender la materia. Sin embargo, pens´e que esto no era suficiente, pues el estudiante necesita ver c´omo se resuelven ejercicios en a´ lgebra lineal, sobre todo aquellos que tienen contenidos altos de abstracci´on; por esta raz´on incorpor´e, en la u´ ltima secci´on de cada uno de los primeros cinco cap´ıtulos —que conforman el n´ucleo principal del libro— un grupo de ejercicios resueltos con detalle; en total forman un conjunto de m´as de 230 ejercicios de c´alculos directos, demostraciones, etc., que junto con los ejemplos del texto suman un total de m´as de 680 problemas completamente resueltos que el lector puede consultar seg´un lo necesite. Naturalmente, no basta con “ver”, se necesita “hacer” y, para ello, el libro contiene —al final de cada cap´ıtulo— una secci´on de ejercicios propuestos al estudiante —con respuestas a los ejercicios seleccionados en el ap´endice E— para que practique a discreci´on o de acuerdo con las instrucciones de su profesor; en total el libro cuenta con m´as de 2300 ejercicios propuestos. Con el prop´osito de no interrumpir la exposici´on de la teor´ıa en el texto y para facilitar su consulta, coloqu´e aparte, en el cap´ıtulo 6, las aplicaciones. Al principio de cada una de ellas se hacen expl´ıcitos los requisitos —del material del texto y de otras disciplinas— que se necesitan para su estudio. El nivel de las aplicaciones aumenta gradualmente desde el muy elemental hasta un nivel que demanda mucho m´as esfuerzo para su comprensi´on; sin embargo, conf´ıo que la utilidad final que el estudiante encuentre en ellas bien valdr´a la pena el tiempo invertido para su estudio. De hecho, este cap´ıtulo se puede abordar inmediatamente despu´es de que se cumplan los requisitos que se˜nala la aplicaci´on correspondiente; por ejemplo, las aplicaciones de las secciones 6.1, 6.2, 6.4, 6.5 y 6.6, se pueden tratar en seguida que se ha cubierto el material de matrices y sistemas lineales (o en forma simult´anea). Sin embargo, en el texto hay algunas aplicaciones que en realidad est´an concatenadas a la teor´ıa —por ejemplo, el tema de aproximaci´on o´ ptima en espacios normados, o la interesante teor´ıa de detecci´on y correcci´on de errores en c´odigos binarios que est´a al final del ap´endice B—, esas no las inclu´ı en el cap´ıtulo 6 y se encuentran dispersas a lo largo del libro; en la p´agina 1109 hay una lista de ellas con referencias al lugar donde se

Page (PS/TeX): 16 / 16, COMPOSITE

´ PROLOGO

XVII

localizan en el texto. Una funci´on semejante cumple el listado de la p´agina 1110, que es una descripci´on de los principales programas en M ATLAB que contiene el libro y se˜nala su ubicaci´on. Adem´as, esta obra cuenta con una p´agina donde el estudiante tendr´a acceso a diversos recursos: www.mhhe.com/uni/delvalleag1e. ´ Espero que Algebra lineal para estudiantes de ingenier´ıa y ciencias cumpla con los prop´ositos para los que fue creado, sirva de apoyo a la labor docente de los profesores que trabajan educando en esta materia y que vosotros, estudiantes, encuentren en e´ l no s´olo d´onde aprender a´ lgebra lineal, sino que tambi´en disfruten de ese proceso como yo lo hice al escribir cada una de las l´ıneas de este libro (tambi´en sufr´ı, ojal´a ustedes no). M´exico D.F., primavera de 2011 J UAN C ARLOS D EL VALLE S OTELO

Page (PS/TeX): 17 / 17, COMPOSITE

Page (PS/TeX): 18 / 18, COMPOSITE

I Matrices, sistemas y determinantes

Page (PS/TeX): 1 / 1, COMPOSITE

Page (PS/TeX): 2 / 2, COMPOSITE

1

Matrices y sistemas lineales

En este cap´ıtulo se introducen los conceptos b´asicos que se requieren para estudiar a´ lgebra lineal. Comenzamos en la primera secci´on con el tema fundamental de matrices. Las matrices se crearon para operar ciertos arreglos num´ericos que aparecen tanto en aplicaciones como en las propias matem´aticas. Continuamos en la segunda secci´on con el estudio general de sistemas de ecuaciones lineales. Los sistemas de ecuaciones lineales tienen una gran variedad de aplicaciones en ciencias e ingenier´ıa y seguramente el lector ya tuvo alg´un contacto con ellos en forma elemental en secundaria y bachillerato; aqu´ı nos abocamos a un estudio general y profundo de este importante tema. La tercera secci´on contiene un compendio de ejercicios resueltos de las dos secciones precedentes para que el lector consulte el mayor n´umero de ejemplos resueltos y un conjunto de ejercicios propuestos para que los resuelva el estudiante.

1.1 Matrices 1.1.1 Definiciones y ejemplos Definici´on 1.1 Una matriz A es un arreglo de reales: ⎡ a11 ⎢ a21 ⎢ A=⎢ . ⎣ .. am1

m-renglones o filas y n-columnas de m × n n´umeros a12 · · · a1n a22 · · · a2n . .. . . . .. . am2 · · · amn

⎤ ⎥ ⎥ ⎥. ⎦

Se dice entonces que A es una matriz de tama˜no m × n y simb´olicamente se escribe A = [ai j ] , i = 1, 2, ..., m; j = 1, 2, ..., n. Esto es, ai j representa el n´umero que se encuentra en la fila i y en la columna j. A los elementos ai j se les llaman las componentes (entradas) de la matriz A. P Nota 1.1 1. Los par´entesis rectangulares se pueden suplir por par´entesis circulares en notaciones matriciales. En este libro emplearemos par´entesis rectangulares. 3

Page (PS/TeX): 3 / 3, COMPOSITE

4 CAPI´TULO 1

Matrices y sistemas lineales

2. En el caso particular de que una matriz tenga tama˜no 1 × 1 escribiremos simplemente a en lugar de [a]; es decir, identificaremos toda matriz [a] con el n´umero real a.  Ejemplo 1.1 Si  A=

−2 3 5 −4 2 1

,

A es una matriz 2 × 3 y, para este caso, a11 = −2, a12 = 3, a13 = 5, a21 = −4, a22 = 2, a23 = 1. P Nota 1.2 Al conjunto de matrices de tama˜no m × n lo denotaremos, en este libro, por Mm×n .

Definici´on 1.2 Dos matrices A = [ai j ], B = [bi j ] son iguales (A = B) si y s´olo si: • A y B tienen el mismo tama˜no y • ai j = bi j ∀i , j. 





1 3 9  Ejemplo 1.2 De acuerdo con la definici´on precedente = . 5 6 2   a 1 2 1  Ejemplo 1.3 Determinar el valor de a para que las matrices A = yB= −1 2a −1 4 sean iguales. 1 3 9 5 7 2

´ Solucion Dado que ambas matrices tienen el mismo tama˜no ellas ser´an iguales si y s´olo si coinciden componente a componente; para lo cual es suficiente que a = 2 y 2a = 4; esto es, para a = 2.    a 0 1 0  Ejemplo 1.4 Resolver el ejemplo anterior si A = yB= . 3 3a 3 4

Para que las matrices sean iguales se requiere, en este caso, que a = 1 y 3a = 4, luego se debe tener simult´aneamente a = 1 y a = 4/3; lo cual es imposible. Por tanto A = B para cualquier valor de a.  ´ Solucion

1.1.2 Operaciones con matrices 1. Multiplicaci´on de un escalar1 con una matriz. Si λ ∈ R y A = [ai j ] ∈ Mm×n se define λA = [λai j ]. Es decir, el resultado de multiplicar una matriz con un escalar es la matriz que tiene como componentes cada una de las entradas de la matriz original multiplicada por dicho escalar. 2. Suma de matrices. Si A , B ∈ Mm×n , A = [ai j ], B = [bi j ]; se define la suma de A con B como A + B = [ci j ], con ci j = ai j + bi j ∀i , j. As´ı, la suma de dos matrices s´olo se puede realizar cuando e´ stas tienen el mismo tama˜no y el resultado es tambi´en una matriz m × n. 11 Diremos que todo n´umero real es un escalar.

Page (PS/TeX): 4 / 4, COMPOSITE

´ 1.1 SECCION

Matrices 5

3. Multiplicaci´on de una matriz fila por matriz columna.2 ⎡

a11

a12

···

a1n

⎢ ⎢ ⎢ ⎢ ⎢ ⎣

b11 b21 · · · bn1

⎤ ⎥ ⎥ ⎥ ⎥ = a11 b11 + a12 b21 + · · · a1n bn1 . ⎥ ⎦

De acuerdo con esta definici´on, el producto de una matriz fila con una matriz columna s´olo se puede llevar a cabo cuando la primera tiene tama˜no 1 × n y la segunda n × 1 (las dos tienen el mismo n´umero de componentes) y el resultado de la operaci´on ser´a una matriz 1 × 1 (un n´umero real). 4. Producto de una matriz m × n con una matriz n × p. Si A = [ai j ] ∈ Mm×n y B = [bi j ] ∈ Mn×p , el producto de A con B se define como AB = [ci j ] donde ci j =

n

∑ aik bk j ,

k=1

para i = 1, 2, . . . , m y j = 1, 2, . . . , p. Es decir, la componente ci j del producto AB es el resultado de multiplicar la i-´esima fila de A con la j-´esima columna de B. Adem´as, para poder efectuar el producto, la primera matriz debe tener el mismo n´umero de columnas que de filas la segunda y la matriz AB tiene entonces tama˜no m × p. En forma equivalente, si Fi , i = 1, . . . , m, son las filas de A y C j , j = 1, . . . , p, son las columnas de B, entonces ⎡ ⎢ ⎢ AB = ⎢ ⎣

 Ejemplo 1.5 Hola ⎡ −1 0 −1 √ 1 • 2 ⎣ √2 −4 2 −4 0  • Si A =

−2 −4 5 −2



−1 0 −2

4

F1C2 F2C2 .. .

··· ··· .. .

F1Cp F1Cp .. .

FmC1

F2C2

···

FmCp

⎤ ⎥ ⎥ ⎥ ⎦

(1.1)

√ √ ⎤ ⎤ ⎡ √ 2 −√2 √0 −√ 2 2√ 2 3 ⎦ = ⎣ 2 2 −4 2 2 3√2 ⎦ √ 5 0 5 2 2 −4 2 −1 0



5

 y

⎡ •

F1C1 F2C1 .. .

⎢ ⎢ ⎢ ⎢ ⎣

2 −1 0 0 −4

B=

−4 −1

−5 2 0 −1



 , entonces A + B =

−6 4

−9 −2

1 −1

.

⎤ ⎥ ⎥ ⎥ = (−1)(2) + (0)(−1) + (−2)(0) ⎥ ⎦ + (4)(0) + (5)(−4) = −22.

Note que en este caso la matriz fila tiene tama˜no 1 × 5 y la columna 5 × 1 (las dos tienen el mismo n´umero de componentes). 12 Una matriz fila es una matriz que tiene solamente un rengl´on y una matriz columna es una matriz que tiene una sola columna (cfr. inciso 3 de la p´ag. 8).

Page (PS/TeX): 5 / 5, COMPOSITE

6 CAPI´TULO 1

Matrices y sistemas lineales

 Ejemplo 1.6 Si  A=

−1 −2 0 2

4 1



y

1 B=⎣ 0 −1

⎤ −2 4 5 −1 0 2 ⎦ , 0 0 1

A ∈ M2×3 , B ∈ M3×4 ; el producto AB est´a definido (el n´umero de columnas de A es igual al n´umero de filas de B, en este caso 3) y el producto AB ser´a una matriz 2 × 4, dos filas y cuatro columnas (tantas filas como A y tantas columnas como B). Para obtener las componentes ci j de las filas de la matriz producto AB procedemos de la manera siguiente. La primera fila de AB: Los elementos de la primera fila de AB se obtienen multiplicando, sucesivamente, la primera fila de A con la primera, segunda, tercera y cuarta columas de B: c11 =

c12 =

c13 =

c14 =









−1

−2 4

−1

−2 4

−1

−2 4

−1

−2 4

⎤ 1 ⎣ 0 ⎦ = −5, −1 ⎤ ⎡ −2 ⎣ −1 ⎦ = 4, 0 ⎡ ⎤ 4 ⎣ 0 ⎦ = −4, 0 ⎡ ⎤ 5 ⎣ 2 ⎦ = −5. 1



La segunda fila de AB: Los elementos de la segunda fila de AB se obtienen multiplicando, sucesivamente, la segunda fila de A con la primera, segunda, tercera y cuarta columas de B: c21 =

c22 =

c23 =

c24 =









0

2

1

0

2

1

0

2

1

0

2

1

⎤ 1 ⎣ 0 ⎦ = −1, −1 ⎤ ⎡ −2 ⎣ −1 ⎦ = −2, 0 ⎡ ⎤ 4 ⎣ 0 ⎦ = 0, 0 ⎡ ⎤ 5 ⎣ 2 ⎦ = 5. 1



Luego,  AB =

Page (PS/TeX): 6 / 6, COMPOSITE

−5 −1

4 −2

−4 −5 0 5

.

´ 1.1 SECCION

Matrices 7

En realidad, la notaci´on matricial est´a dise˜nada para ejecutar mec´anica y mentalmente los c´alculos cuando el tama˜no de las matrices no es muy grande; por eso el lector debe procurar, en la medida de lo posible, aprovechar esta ventaja para efectuar las operaciones de esta manera. De hecho, a partir de aqu´ı, el lector ya no encontrar´a un producto de matrices realizado con el detalle con el que se hizo en el ejemplo precedente; pues utilizaremos sistem´aticamente (1.1) para producto de matrices y haremos los c´alculos sin hacer expl´ıcitas las operaciones.  Ejemplo 1.7 ⎡

−1 ⎣ 2 3

⎤ ⎤⎡ 0 −1 1 0 1 1 −1 ⎦ = 1 1 ⎦⎣ 1 0 1 2 −2 0



F1C1 F1C2 ⎣ F2C1 F2C2 F3C1 F3C2 ⎡ 0 2 1 0 3 = ⎣ 1 −2 −5 5

⎤ F1C3 F2C3 ⎦ F3C3 ⎤ ⎦ .

1.1.3 Matrices especiales 1. Matriz cero. La matriz cero de tama˜no m × n se define como aquella que tiene las m × n componentes nulas; esto es, O = [ai j ] donde ai j = 0 ∀i , j. As´ı, por ejemplo, 

0 0 0 O= 0 0 0 es la matriz cero 2 × 3. 2. Matriz identidad n × n: ⎡ ⎢ ⎢ In = ⎢ ⎣

1 0 .. . 0

0 ··· 1 ··· .. . . . . 0 ···

0 0 .. . 1

es decir, In = [ai j ], donde ai j =

1, si i = j; 0, si i = j.

As´ı, por ejemplo, ⎤ ⎡ 1 0 0 I3 = ⎣0 1 0⎦ 0 0 1 es la matriz identidad 3 × 3.

Page (PS/TeX): 7 / 7, COMPOSITE

⎤ ⎥ ⎥ ⎥; ⎦

8 CAPI´TULO 1

Matrices y sistemas lineales

3. Como mencionamos en el inciso 3 de la subsecci´on 1.1.2, a las matrices que tienen s´olo una fila o s´olo una columna les llamaremos, respectivamente, matrices fila y matrices columna. Adem´as, en este libro utilizaremos una notaci´on especial en el caso de las matrices columna (cuando tengan m´as de un elemento) an´aloga a la notaci´on vectorial ⎡ ⎢ b = ⎢ ⎢ ⎣

a11 a21 .. .

⎤ ⎥ ⎥ ⎥. ⎦

an1 La raz´on de esta notaci´on se ver´a m´as adelante cuando se estudie el espacio vectorial Rn en el cap´ıtulo 3. A las matrices de tama˜no n × n les llamaremos matrices cuadradas de orden n y al conjunto formado por e´ stas lo denotaremos por Mn . Si A = [ai j ] es una matriz cuadrada de orden n se dice que los elementos a11 , a22 , a33 ,..., ann forman o est´an en la diagonal de la matriz A. Y si A = [ai j ] ∈ Mm×n , diremos que los elementos ai j con i = j forman la diagonal principal de la matriz A.  Ejemplo 1.8 Si ⎡

−1 ⎢ 7 M=⎢ ⎣ 3 1

⎤ 5 0 2 3 −1 1 ⎥ ⎥ 0 4 2 ⎦ −5 9 7

entonces m11 = −1, m22 = 3, m33 = 4, m44 = 7 son los elementos de la diagonal de la matriz cuadrada M. Definici´on 1.3 Una matriz cuadrada A de orden n es triangular superior si las componentes que est´an por debajo de la diagonal son todas nulas. La matriz es triangular inferior si las componentes que est´an por arriba de la diagonal son todas iguales a cero.  Ejemplo 1.9 Si ⎡

−1 ⎢ 0 ⎢ A=⎣ 0 0

⎤ 5 0 2 3 −1 1 ⎥ ⎥ 0 4 2 ⎦ 0 0 7



y

−1 ⎢ −5 ⎢ B=⎣ 2 6

0 3 0 0

0 0 4 4

⎤ 0 0 ⎥ ⎥, 0 ⎦ 0

entonces A es una matriz triangular superior y B es una matriz triangular inferior. Definici´on 1.4 Sea A una matriz cuadrada de orden n. Se dice que A es una matriz diagonal si todas las componentes fuera de su diagonal son nulas. Si aii = λi , i = 1, 2, . . . , n, son las componentes de la diagonal de esta matriz se escribe A = diag(λ1 , λ2 , . . . , λn ) para representar a la matriz diagonal A.

Page (PS/TeX): 8 / 8, COMPOSITE

´ 1.1 SECCION

Matrices 9

⎤ 4 0 0  Ejemplo 1.10 La matriz cuadrada ⎣ 0 3 0 ⎦ es diagonal. Esto es, 0 0 8 ⎡

A = diag(4, 3, 8).

Definici´on 1.5 Si A = [ai j ] ∈ Mm×n se define la matriz transpuesta de A como At = [bi j ], donde bi j = a ji para i = 1, 2, ..., n y j = 1, 2, ..., m. De la definici´on 1.5 se desprende que At tiene tama˜no n × m y que en la matriz transpuesta la primera columna es la primera fila de A, la segunda columna es la segunda fila de A, etc´etera. Definici´on 1.6 Una matriz A es sim´etrica cuando At = A. La definici´on 1.6 entra˜na que una matriz sim´etrica es necesariamente cuadrada; pues si A ∈ Mm×n y A es sim´etrica, entonces A = At ∈ Mn×m , de donde m = n; ya que dos matrices que son iguales deben tener el mismo tama˜no.  Ejemplo 1.11 Si

 A=

1 2 3 4 , 5 6 7 8

⎡ 1 ⎢ 2 At = ⎢ ⎣3 4

⎤ 5 6⎥ ⎥ . 7⎦ 8

 Ejemplo 1.12 La matriz  A=

−1 2

2 3



es sim´etrica pues claramente A = At .

1.1.4 Propiedades de las operaciones A continuaci´on enunciamos las principales propiedades de las operaciones con matrices, las cuales son, en general, f´aciles de probar y su comprobaci´on se deja como ejercicio al lector. 1. Si A , B ,C ∈ Mm×n y λ , β ∈ R: (a) A + B ∈ Mm×n . (b) A + (B +C) = (A + B) +C.

Page (PS/TeX): 9 / 9, COMPOSITE

10 CAPI´TULO 1

Matrices y sistemas lineales

(c) A + B = B + A. (d) A + O = A, donde O es la matriz cero m × n. (e) Existe una matriz −A ∈ Mm×n tal que A + (−A) = O. De hecho, si A = [ai j ], −A = [−ai j ]. (f) λA ∈ Mm×n . (g) λ(βA) = (λβ)A. (h) (λ + β)A = λA + βA. (i) λ(A + B) = λA + λB. (j)3 1A = A. 2. (a) Si A, B, C son matrices tales que los productos A(BC) y (AB)C est´an definidos, entonces A(BC) = (AB)C. (b) Si AB est´a definido se tiene: λ(AB) = (λA)B = A(λB). (c) Si A ∈ Mm×n , AIn = Im A = A. (d) En general AB = BA. (e) Si A ∈ Mm×n y B,C ∈ Mn×p , entonces A(B +C) = AB + AC. 3. (a) Si A y B son matrices del mismo tama˜no (A + B)t = At + B t . (b) Si A, B son matrices tales que el producto AB est´a definido, entonces (AB)t = B t At . (c) (At )t = A ∀A ∈ Mm×n . Es conveniente que el lector tenga siempre presente la propiedad 2(d); es decir, la no conmutatividad del producto de matrices. Pues es claro que en principio el hecho de que el producto AB est´e definido, no garantiza que ni siquiera el producto BA est´e definido; por ejemplo, si A es una matriz 2 × 3 y B es una matriz 3 × 4, el producto AB est´a definido y el producto BA no. M´as a´un, aunque los productos AB y BA est´en definidos e´ stos, en general, ser´an distintos como ilustramos en el siguiente ejemplo.  Ejemplo 1.13 



1 1 3 2

1 0 2 4





1 0 2 4

1 1 3 2



 =



 =

3 4 7 8

1 1 14 10

, ;

esto es, 

1 1 3 2



1 0 2 4



 =

1 0 2 4



1 1 3 2



Finalizamos este apartado con las demostraciones, en los siguientes dos ejemplos, de un par de propiedades simples del producto de matrices que ser´an utilizadas m´as adelante. 13 M´as adelante, en el tema de espacios vectoriales, se ver´a la importancia de esta aparentemente inocua propiedad.

Page (PS/TeX): 10 / 10, COMPOSITE

´ 1.1 SECCION

⎡ ⎢ ⎢  Ejemplo 1.14 Sean A = [ai j ] ∈ Mm×n y C = [bi j ] ∈ Mn×p . Si ck = ⎢ ⎣

Esto es,

´ DEMOSTRACION



AC =

Ac1

Ac2

⎤ ⎥ ⎥ ⎥ es la columna k de C y ⎦

bnk

dk es la columna k de AC, k = 1, 2, . . . , p, demostrar que dk = Ack

b1k b2k .. .

Matrices 11

∀k. ···

Ac p 

(1.2)

Q Sean αi j las componentes del producto AC, entonces, para cada k = 1, 2, . . . , p, ⎡ ⎤ α1k ⎢ α2k ⎥ ⎢ ⎥ dk = ⎢ . ⎥ ; ⎣ .. ⎦ αmk ⎡

pero

⎤ b1k ⎥ ⎢

⎢ b2k ⎥ αik = ai1 ai2 · · · ain ⎢ . ⎥ ⎣ .. ⎦ bnk =

n

∑ ai j b jk ; j=1

por tanto, ⎡

n

∑ a1 j b jk

⎢ j=1 ⎢ n ⎢ ∑a b 2 j jk ⎢ j=1  dk = ⎢ ⎢ .. ⎢ . ⎢ ⎣ n ∑ am j b jk

⎤ ⎥ ⎥ ⎥ ⎥ ⎥. ⎥ ⎥ ⎥ ⎦

(1.3)

j=1

Por otra parte, ⎡

⎤⎡ ⎤ a11 a12 · · · a1n b1k ⎢ a21 a22 · · · a2n ⎥ ⎢ b2k ⎥ ⎢ ⎥⎢ ⎥ Ack = ⎢ . .. . . .. ⎥ ⎢ .. ⎥ ⎣ .. . . ⎦⎣ . ⎦ . am1 am2 · · · amn bnk ⎤ ⎡ n ∑ a1 j b jk ⎥ ⎢ j=1 ⎥ ⎢ n ⎢ ∑a b ⎥ 2 j jk ⎥ ⎢ j=1 ⎥. = ⎢ ⎥ ⎢ .. ⎥ ⎢ . ⎥ ⎢ ⎦ ⎣ n ∑ am j b jk j=1

De (1.3) y (1.4) se tiene Ack = dk ∀k.

Page (PS/TeX): 11 / 11, COMPOSITE

Q

(1.4)

12 CAPI´TULO 1

Matrices y sistemas lineales

⎡ ⎢ ⎢  Ejemplo 1.15 Supongamos ahora que A = [ai j ] ∈ Mm×n y c = ⎢ ⎣

x1 x2 .. .

⎤ ⎥ ⎥ ⎥, entonces, ⎦

xn ⎡ ⎢ ⎢ x1 ⎢ ⎣

a11 a21 .. .





⎥ ⎢ ⎥ ⎢ ⎥ + x2 ⎢ ⎦ ⎣

am1

a12 a22 .. .





⎥ ⎢ ⎥ ⎢ ⎥ + · · · + xn ⎢ ⎦ ⎣

am2

a1n a2n .. .





⎥ ⎢ ⎥ ⎢ ⎥=⎢ ⎦ ⎣

amn

a11 a21 .. .

a12 a22 .. .

··· ··· .. .

a1n a2n .. .

am1

am2

···

amn

⎤⎡ ⎥⎢ ⎥⎢ ⎥⎢ ⎦⎣

x1 x2 .. .

⎤ ⎥ ⎥ ⎥. ⎦

(1.5)

xn

En efecto: ⎡

a11 ⎢ a21 ⎢ x1 ⎢ . ⎣ .. am1





a12 ⎥ ⎢ a22 ⎥ ⎢ ⎥ + x2 ⎢ .. ⎦ ⎣ . am2





⎡ ⎤ ⎡ ⎤ ⎤ x1 a11 x2 a12 xn a1n ⎢ x1 a21 ⎥ ⎢ x2 a22 ⎥ ⎢ xn a2n ⎥ ⎥ ⎢ ⎢ ⎥ ⎥ ⎢ ⎥ ⎥ ⎥ = ⎢ .. ⎥ + ⎢ .. ⎥ + · · · + ⎢ .. ⎥ ⎣ . ⎦ ⎣ . ⎦ ⎣ . ⎦ ⎦ amn x1 am1 x2 am2 xn amn

a1n ⎥ ⎢ a2n ⎥ ⎢ ⎥ + · · · + xn ⎢ .. ⎦ ⎣ .





⎡ ⎢ ⎢ =⎢ ⎣

a11 x1 + a12 x2 + · · · + a1n xn a21 x1 + a22 x2 + · · · + a2n xn .. .

⎤ ⎥ ⎥ ⎥ ⎦

am1 x1 + am2 x2 + · · · + amn xn = Ac.

´ 1.1.5 Matrices con numeros complejos En este apartado se introduce, por primera vez en este libro, el uso de n´umeros complejos en a´ lgebra lineal; espec´ıficamente en el tema de matrices con componentes complejas. El a´ pendice B contiene un breve estudio de este importante campo num´erico y de sus principales propiedades, y el lector que no est´e habituado a trabajar con n´umeros complejos, o necesite repasar este tema, deber´ıa consultar la secci´on B.1 de este ap´endice cuanto antes. A lo largo de este texto se incluyen apartados que contienen el uso de n´umeros complejos en temas que ya se han tratado con n´umeros reales. En general, la transici´on en cada caso ser´a muy sencilla, pues una vez que se dominan los temas de a´ lgebra lineal con n´umeros reales los cambios para tratar e´ stos con n´umeros complejos son m´ınimos y, en realidad, las dificultades tienen que ver m´as con la familiaridad que tenga el lector con el uso de n´umeros complejos que con aspectos a´ ridos de generalizaci´on. De hecho, el uso de este campo num´erico en a´ lgebra lineal se va haciendo cada vez m´as necesario en la medida que se avanza en la materia, tanto en la teor´ıa como en las aplicaciones. Se han incluido este tipo de subsecciones para ir acostumbrando al lector al uso de los n´umeros complejos en a´ lgebra lineal. Obviamente, el lector que no desee en este momento abordar estos temas puede omitirlos y regresar a ellos cuando lo juzgue pertinente. Recordemos (cfr. ap´endice B) que los n´umeros complejos tienen la forma a + bi

Page (PS/TeX): 12 / 12, COMPOSITE

´ 1.1 SECCION

Matrices 13

donde a, b son n´umeros reales e i es la unidad imaginaria. Al conjunto de estos n´umeros se les representa por C y este campo incluye de manera natural a los n´umeros reales mediante la identificaci´on del n´umero real a con el n´umero complejo a + 0i. Estos n´umeros se operan algebraicamente de manera an´aloga a los n´umeros reales, utilizando todas las propiedades de e´ stos y conviniendo en que la unidad imaginaria en este sistema satisface4 i2 = −1. De esta manera, operar algebraicamente matrices con componentes complejas es un proceso completamente an´alogo al que se utiliza cuando e´ stas tienen entradas que son n´umeros reales. Es decir, se suman, restan, multiplican, etc., en la misma forma que las matrices reales, pero operando sus componentes con las reglas algebraicas de los n´umeros complejos. Al conjunto de matrices de tama˜no m × n con componentes complejas lo denotaremos por Mm×n (C). Todas las propiedades acerca de matrices con componentes reales que vimos en esta secci´on siguen siendo v´alidas para las matrices con entradas complejas.  Ejemplo 1.16 Sean A, B ∈ M2×3 (C) las matrices definidas por  A= Entonces 1.

1 − 2i 3 − 5i

−4i 4 + 6i

2 −9i

B=

3 − 7i 5i

5 − 4i 2 − 9i 7 − 6i 1 + i

 3 − 7i 5 − 4i 2 − 9i 1 − 2i −4i 2 + A+B = 5i 7 − 6i 1 + i 3 − 5i 4 + 6i −9i  4 − 9i 5 − 8i 4 − 9i = . 3 11 1 − 8i 

 2.

 y

5A = 5  =

1 − 2i −4i 2 3 − 5i 4 + 6i −9i



5 − 10i −20i 10 . 15 − 25i 20 + 30i −45i

1 − 2i −4i 2 3. (3 + 2i)B = (3 + 2i) 3 − 5i 4 + 6i −9i  7 − 4i 8 − 12i 6 + 4i . = 19 − 9i 26i 18 − 27i Aqu´ı hemos realizado las operaciones 

(3 + 2i)(1 − 2i) = 3 − 6i + 2i − 4i2 = 3 − 4i − 4(−1) = 3 − 4i + 4 = 7 − 4i,

14 En la secci´on B.1 del ap´endice B se hace un estudio m´as detallado y formal de los n´umeros complejos.

Page (PS/TeX): 13 / 13, COMPOSITE

.

14 CAPI´TULO 1

Matrices y sistemas lineales

para obtener la componente c11 de (3 + 2i)B; (3 + 2i)(−4i) = −12i − 8i2 = −12i − 8(−1) = 8 − 12i, para obtener la componente c12 de (3 + 2i)B; etc´etera.  Ejemplo 1.17 Sean  A=

1+i −i

2 2 − 3i



 y

B=

−i 2i

3 1−i

2 + 5i 0

,

entonces  AB = 

1+i 2 −i 2 − 3i



−i 3 2 + 5i 2i 1 − i 0



(1 + i)(−i) + 2(2i) (1 + i)(3) + 2(1 − i) (1 + i)(2 + 5i) + 2(0) = (−i)(−i) + (2 − 3i)(2i) (−i)(3) + (2 − 3i)(1 − i) (−i)(2 + 5i) + (2 − 3i)(0)  1 + 3i 5 + i −3 + 7i . = 5 + 4i −1 − 8i 5 − 2i



1.2 Sistemas lineales y x−y = 1

x x+y = 3

Page (PS/TeX): 14 / 14, COMPOSITE

Seguramente el lector est´a familiarizado, por cursos m´as elementales, con sistemas simult´aneos de dos o tres ecuaciones lineales con dos o tres inc´ognitas. Se les llama sistemas lineales porque, para el caso de dos inc´ognitas, digamos x, y, las ecuaciones tienen la forma ax +by = c, cuyos lugares geom´etricos corresponden a l´ıneas rectas en el plano. Cuando se resuelve un sistema lineal de dos ecuaciones con dos inc´ognitas, se busca el punto de intersecci´on de dos l´ıneas rectas (si es que e´ stas no son paralelas). Aqu´ı estudiaremos sistemas lineales generales de m ecuaciones con n inc´ognitas siendo m y n cualquier par de n´umeros enteros no negativos. Los sistemas lineales tienen una gran variedad de aplicaciones en ingenier´ıa y ciencias; veremos algunas de estas aplicaciones en el cap´ıtulo seis.

´ 1.2 SECCION

Sistemas lineales 15

1.2.1 Definiciones, soluciones y forma matricial de sistemas lineales Definici´on 1.7 Un sistema de m-ecuaciones con n-inc´ognitas que tiene la forma a11 x1 a21 x1 · · · am1 x1

+ + · · · +

+ ··· + ··· · ··· · ··· · ··· + ···

a12 x2 a22 x2 · · · am2 x2

+ + · · · +

a1n xn a2n xn · · · amn xn

= = · · · =

b1 b2 · · · bm

(1.6)

donde los ai j , bi ∈ R, i = 1, 2, . . . , m, j = 1, 2, . . . , n, est´an dados, es lineal. Una soluci´on de este sistema de ecuaciones es una n-ada ordenada (α1 , α2 , . . . , αn ) de n´umeros reales, tales que al hacer las sustituciones x1 = α1 x2 = α2 .. . xn = αn en cada una de las m-ecuaciones las convierte en identidades.

 Ejemplo 1.18 El sistema de dos ecuaciones con tres inc´ognitas 2x1 − 3x2 − x3 = −4

(1.7)

x1 + x2 + x3 = −3

(1.8)

es lineal y (−1, 2, −4) es una soluci´on del mismo. En efecto, al sustituir x1 = −1, x2 = 2 y x3 = −4 en la primera ecuaci´on (1.7) se tiene 2(−1) − 3(2) − (−4) = −4 y al hacer las mismas sustituciones en la segunda ecuaci´on (1.8), (−1) + (2) + (−4) = −3.  Ejemplo 1.19 El sistema de dos ecuaciones con dos inc´ognitas x12 − 3x2 = 1 1/2

x1

+ x2 = π

no es lineal (¿por qu´e?). Si se tiene el sistema lineal (1.6) a

⎡ ⎢ ⎢ A=⎢ ⎣

Page (PS/TeX): 15 / 15, COMPOSITE

a11 a21 .. .

a12 a22 .. .

··· ··· .. .

a1n a2n .. .

am1

am2

···

amn

⎤ ⎥ ⎥ ⎥ ⎦

16 CAPI´TULO 1

Matrices y sistemas lineales

se le llama la matriz de coeficientes del sistema. En tal caso, si ponemos ⎡ ⎢ ⎢ ⎢ x = ⎢ ⎢ ⎣

x1 x2 · · · xn





⎢ ⎥ ⎢ ⎥ ⎥  ⎢ ⎥yb=⎢ ⎢ ⎥ ⎣ ⎦



b1 b2 · · · bm

⎥ ⎥ ⎥ ⎥, ⎥ ⎦

entonces el sistema lineal se puede escribir en forma matricial como Ax = b , pues al hacer el producto se obtiene ⎡ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣

a11 x1 a21 x1 · · · am1 x1

+ + · · · +

a12 x2 a22 x2 · · · am2 x2

+ + · · · +

··· ··· · ···

+ + · · · +

a1n xn a2n xn · · · amn xn





⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥=⎢ ⎥ ⎢ ⎦ ⎣

b1 b2 · · · bm

⎤ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦

que equivale, por definici´on de igualdad de matrices, al sistema (1.6).  Ejemplo 1.20 Para el sistema 3 × 3 x1 2x1 3x1

+ + +

x2 4x2 6x2

+ − −

2x3 3x3 5x3

= = =

9 1 0

la matriz de coeficientes es ⎤ 1 1 2 A = ⎣ 2 4 −3 ⎦ 3 6 −5 ⎡

y la ecuaci´on matricial correspondiente es ⎤⎡ ⎤ ⎡ ⎤ x1 1 1 2 9 ⎣ 2 4 −3 ⎦ ⎣ x2 ⎦ = ⎣ 1 ⎦ . 3 6 −5 0 x3 ⎡

Definici´on 1.8 El sistema m × n Ax = b es: • Consistente: si tiene al menos una soluci´on. • Inconsistente: si no tiene soluciones.

En la figura 1-1 se ilustran los lugares geom´etricos de cuatro sistemas lineales en el plano: con soluci´on u´ nica (a), inconsistentes (b) y (c) y con una infinidad de soluciones (d).

Page (PS/TeX): 16 / 16, COMPOSITE

´ 1.2 SECCION

(a)

(b)

(c)

(d)

Sistemas lineales 17

Figura 1-1 • (a) dos l´ıneas que se intersecan en un solo punto, (b) dos l´ıneas paralelas que no se intersecan, (c) tres l´ıneas que no se intersecan simult´aneamente y (d) dos l´ıneas que coinciden.

De manera an´aloga, una ecuaci´on lineal con tres inc´ognitas, ax + by + cz = d, corresponde al lugar geom´etrico de puntos que est´an en un plano en el espacio tridimensional. Tambi´en en este caso, cuando se resuelven sistemas lineales con tres inc´ognitas, se buscan intersecciones de los correspondientes planos. Nuevamente los planos pueden no intersecarse, intersecarse en una infinidad de puntos o intersecarse en un u´ nico punto. La figura 1-2 ilustra estas posibilidades.

Figura 1-2 • Planos que se intersecan, respectivamente, en una l´ınea recta, en un u´ nico punto y que no tienen intersecci´on simult´anea.

Definici´on 1.9 Dos sistemas lineales del mismo tama˜no, Ax = b, Hx =c, son equivalentes si tienen el mismo conjunto de soluciones.

En el siguiente ejemplo resolveremos un sistema lineal de manera an´aloga a como el lector, seguramente, ya lo ha hecho en cursos de bachillerato; sin embargo, lo haremos con un m´etodo que introducir´a el importante algoritmo de Gauss; el cual consiste, esencialmente, en ir haciendo “pivotes” para eliminar variables (inc´ognitas) y obtener un sistema equivalente en forma “escalonada” y finalmente resolverlo por sustituci´on regresiva.

Page (PS/TeX): 17 / 17, COMPOSITE

18 CAPI´TULO 1

Matrices y sistemas lineales

 Ejemplo 1.21 Resolvamos el sistema lineal x1 + x2 + 2x3 = 9

(1.9)

2x1 + 4x2 − 3x3 = 1

(1.10)

3x1 + 6x2 − 5x3 = 0

(1.11)

Para ello, con la ecuaci´on (1.9), eliminemos la variable x1 de las ecuaciones (1.10) y (1.11) multiplicando5 (1.9) por −2 y sumando con (1.10); luego multiplicando (1.9) por −3 y sumando con (1.11); obteniendo el sistema equivalente: x1 + x2 + 2x3 = −19 2x2 − 7x3 = −17

(1.12)

3x2 − 11x3 = −27

(1.13)

De manera an´aloga, multiplicando (1.12) por −3, (1.13) por 2 y sumando los resultados, habremos hecho un “pivote” con la variable x2 de la ecuaci´on (1.12) para eliminar la variable x2 de la ecuaci´on (1.13), produciendo el sistema equivalente “escalonado” x1

+

x2 2x2

+ − −

x3 7x3 x3

= = =

9 −17 −27

Finalmente, haciendo sustituci´on regresiva, es decir, despejando y sustituyendo variables de este u´ ltimo sistema de abajo hacia arriba, tenemos x3 = 3; −17 + 7(x3 ) x2 = 2 −17 + 7(3) = 2 = 2; x1 = 9 − x2 − 2x3 = 9 − (2) − 2(3) = 1. As´ı, el sistema es consistente con soluci´on u´ nica ⎡ ⎤ 1 x = ⎣ 2 ⎦ . 3 Podemos sintetizar el m´etodo del ejemplo precedente de la siguiente manera. Denotemos por Ri la i-´esima ecuaci´on de un sistema lineal; la notaci´on Ri ↔ αRi + βR j significa que la ecuaci´on Ri se sustituye por la ecuaci´on que se obtiene de sumar α veces la ecuaci´on Ri con β veces la ecuaci´on R j . Las operaciones algebraicas que hicimos en el ejemplo anterior se resumen en el siguiente esquema. 15 Cuando se multiplica una ecuaci´on por un n´umero, significa que ambos lados de la igualdad en dicha ecuaci´on se multiplican por ese n´umero; y cuando se suman dos ecuaciones, quiere decir que se suman miembro a miembro los correspondientes lados de la igualdad.

Page (PS/TeX): 18 / 18, COMPOSITE

´ 1.2 SECCION

Sistemas lineales 19

x1 + x2 + 2x3 = 9 x1 + x2 + 2x3 = 9 −−−−−−→ 2x1 + 4x2 − 3x3 = 1 ← 2x2 − 7x3 = −17 R2 ↔ −2R1 + R2 3x1 + 6x2 − 5x3 = 0 R3 ↔ −3R1 + R3 3x2 − 11x3 = −27 x1 + x2 + 2x3 = 9 2x2 − 7x3 = −17 −x3 = −3

←−−−−−−−→ R3 ↔ −3R2 + 2R3

En cada paso del proceso anterior se obtiene un sistema equivalente; es decir, con las mismas soluciones pero m´as sencillo, hasta que el u´ ltimo sistema equivalente est´a escalonado y se puede resolver haciendo sustituci´on regresiva. Es claro que en el ejemplo 1.21 y en la discusi´on anterior s´olo se trabaj´o con los coeficientes, y que de las variables x1 , x2 y x3 u´ nicamente se utiliza la posici´on que tienen en el arreglo. Se ve entonces que para resolver un sistema lineal Ax = b, basta trabajar con la matriz de coeficientes A y el t´ermino independiente b.6 Para ello, a continuaci´on damos el siguiente concepto. Definici´on 1.10 Para el sistema lineal a11 x1 a21 x1 · · · am1 x1

+ + · · · +

a12 x2 a22 x2 · · · am2 x2

o, en forma matricial, Ax = b con

⎡ ⎢ ⎢ ⎢ x = ⎢ ⎢ ⎣

x1 x2 · · · xn

+ ··· + ··· · ··· · ··· · ··· + ···

a1n xn a2n xn · · · amn xn



⎤ ⎥ ⎥ ⎥ ⎥y ⎥ ⎦

+ + · · · +

⎢ ⎢ b = ⎢ ⎢ ⎢ ⎣

b1 b2 · · · bm

= = · · · =

b1 b2 · · · bm

⎤ ⎥ ⎥ ⎥ ⎥, ⎥ ⎦

se define la matriz aumentada (tambi´en se le llama matriz ampliada) del mismo como ⎡ ⎢ ⎢ ⎢ [ A |b ] = ⎢ ⎢ ⎣

a11 a21 · · · am1

a12 a22 · · · am2

··· ··· ··· ··· ··· ···

a1n a2n · · · amn

b1

b2

·

·

·

b m

⎤ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦

El lado izquierdo en la partici´on [ A |b ] contiene la matriz de coeficientes [ai j ] y el lado derecho contiene los t´erminos independientes bi del sistema lineal. La definici´on anterior provee una notaci´on muy simple para evitar, en un sistema lineal, escribir las variables y u´ nicamente trabajar con los coeficientes. La primera fila de la matriz ampliada equivale a la ecuaci´on a11 x1 + a12 x2 + · · · + a1n xn = b1 , la segunda 16 Llamaremos t´ermino independiente en un sistema lineal Ax = b, a la matriz columna b y t´erminos independientes del mismo sistema a las respectivas componentes de este vector.

Page (PS/TeX): 19 / 19, COMPOSITE

20 CAPI´TULO 1

Matrices y sistemas lineales

fila equivale a la ecuaci´on a21 x1 + a22 x2 + · · · + a2n xn = b2 , etc., y la u´ ltima fila equivale a la ecuaci´on am1 x1 + am2 x2 + · · · + amn xn = bm . La l´ınea vertical en la partici´on [ A |b ] u´ nicamente sirve para hacer notoria la columna que contiene los t´erminos independientes bi del sistema lineal; y de hecho se puede omitir, si as´ı se desea, cuando se conviene en que la u´ ltima columna de la matriz aumentada contenga el t´ermino independiente b del sistema. Resolveremos ahora, en el siguiente ejercicio, el ejemplo 1.21 utilizando la matriz aumentada.  Ejemplo 1.22 Para este caso, haciendo las mismas operaciones que en la discusi´on posterior al ejemplo 1.21, pero esta vez a los renglones de la matriz ampliada se tiene:

⎤ 1 1 2

9 ⎣ 2 4 −3 1 ⎦

3 6 −5 0 ⎡

⎡ ←−−−−−−→

R2 ↔ −2R1 + R2 R3 ↔ −3R1 + R3

←−−−−−−−→ R3 ↔ −3R2 + 2R3

1 1 ⎣ 0 2 0 3 ⎡ 1 1 ⎣ 0 2 0 0



9

−17 ⎦

−27

⎤ 9 2

−7

−17 ⎦ −1 −3 2 −7 −11

y, al hacer sustituci´on regresiva como se hizo en ese ejemplo (cfr. p´ag. 18), ⎡ ⎤ ⎡ ⎤ x1 1 ⎣x2 ⎦ = ⎣2⎦ . 3 x3 Hasta aqu´ı, aunque se ha utilizado en forma intuitiva el significado de sistema escalonado, no se ha precisado con exactitud. En la siguiente subsecci´on nos abocamos a ello.

1.2.2 Matrices escalonadas y sistemas escalonados Definici´on 1.11 La matriz A ∈ Mm×n est´a en forma escalonada si se cumplen las siguientes dos condiciones. • Las filas nulas (si existen)7 est´an por debajo de las filas no nulas. • El primer elemento distinto de cero de cada fila no nula est´a a la derecha del primer elemento diferente de cero de las filas precedentes.8  Ejemplo 1.23 Si ⎡ ⎢ ⎢ A=⎢ ⎢ ⎣

0 −1 2 0 0 −1 0 0 0 0 0 0 0 0 0

⎤ 3 −5 3 0 2 4 ⎥ ⎥ 0 0 1 ⎥ ⎥ 0 0 0 ⎦ 0 0 0

⎡ y

⎢ ⎢ B=⎢ ⎢ ⎣

−1 0 0 0 0

2 1 0 0 0

⎤ 4 0 3 2 −3 4 ⎥ ⎥ 1 0 2 ⎥ ⎥, 2 −3 0 ⎦ 0 0 0

A est´a en forma escalonada pero B no. 17 Una fila es nula si todas sus entradas son ceros; una fila es no nula si por lo menos una de sus componentes es distinta de cero. 18 En el caso que el primer elemento distinto de cero est´e en la primera fila, se sobreentiende que la condici´on se cumple por vacuidad.

Page (PS/TeX): 20 / 20, COMPOSITE

´ 1.2 SECCION

Sistemas lineales 21

Definici´on 1.12 Al primer elemento distinto de cero de cada fila no nula, de una matriz en forma escalonada, se le llama pivote.

Definici´on 1.13 Un sistema Hx = c est´a escalonado si la matriz ampliada [ H |c ] es una matriz escalonada. A las variables que correspondan a pivotes en un sistema escalonado se les llamar´an variables ligadas (o principales o b´asicas) y a las restantes variables libres (o no b´asicas).

 Ejemplo 1.24 En el sistema escalonado 4 × 6 ⎡ ⎢ ⎢ ⎢ ⎣

1 0 0 0

0 0 0 0

3 5 0 0

−2 0 0 0

1 1 7 0

5 1 6 5



−2

3 ⎥ ⎥

7 ⎦,

0

hay pivotes en las columnas 1, 3, 5 y 6; que corresponden, respectivamente, a las variables x1 , x3 , x5 y x6 . As´ı que estas variables son ligadas y x2 , x4 son variables libres. Entonces, para resolver un sistema escalonado al hacer sustituci´on regresiva, se despejan las variables ligadas dej´andolas en funci´on de las variables libres procediendo de abajo hacia arriba, en el caso que el sistema tenga variables libres; en caso contrario, simplemente se despejan las variables ligadas actuando tambi´en de abajo hacia arriba.  Ejemplo 1.25 Resolver los siguientes sistemas lineales escalonados.

⎤ −5 −1 3

3 3 5

8 ⎦ 1. ⎣ 0 0 0 2 −4

⎡ 1 −3 0 5 0

4 ⎢ 0 0 1 2 0

−7 2. ⎢ ⎣ 0 0 0 0 1

1 0 0 0 0 0 0

⎤ ⎡ 1 −3 5

3 1 2

2 ⎦  3. ⎣ 0 0 0 0 −1 ⎡

⎤ ⎥ ⎥ ⎦

´ Solucion 1. En este caso, x1 , x2 y x3 son todas variables ligadas, el sistema no tiene variables libres y 2 −3x3 2 x3 = −4/2 = −2; x2 = 8−5x = 6; x1 = 3+x−5 = −3. Es decir, 3 ⎤ ⎡ ⎤ ⎡ x1 −3 ⎣ x2 ⎦ = ⎣ 6 ⎦ −2 x3

es la u´ nica soluci´on.

Page (PS/TeX): 21 / 21, COMPOSITE

22 CAPI´TULO 1

Matrices y sistemas lineales

2. Para este sistema escalonado x1 , x3 y x5 son las variables ligadas; mientras que x2 y x4 son las variables libres. Entonces x5 = 1, x3 = −7 − 2x4 , x1 = 4 + 3x2 − 5x4 ; lo cual indica que al dar valores concretos arbitrarios a las variables libres x2 y x4 se obtiene una soluci´on. As´ı, el conjunto de soluciones de este sistema es infinito y est´a dado por: {(x1 , x2 , x3 , x4 , x5 ) | x5 = 1, x3 = −7 − 2x4 , x1 = 4 + 3x2 − 5x4 ; x2 , x4 ∈ R} . Una manera m´as compacta de expresar las soluciones es: ⎤ ⎡ ⎤ ⎡ 4 + 3s − 5r x1 ⎥ ⎢ x2 ⎥ ⎢ s ⎥ ⎢ ⎥ ⎢ ⎢ x3 ⎥ = ⎢ −7 − 2r ⎥; ⎥ ⎢ ⎥ ⎢ ⎦ ⎣ x4 ⎦ ⎣ r 1 x5

r, s ∈ R.

Al dar valores concretos a r y s se obtendr´a una soluci´on particular; por ejemplo, si r = 0 y s = 0, es f´acil darse cuenta que ⎡ ⎤ ⎤ ⎡ x1 4 ⎢ x2 ⎥ ⎢ 0 ⎥ ⎢ ⎥ ⎥ ⎢ ⎢ x3 ⎥ = ⎢ −7 ⎥ ⎢ ⎥ ⎥ ⎢ ⎣ x4 ⎦ ⎣ 0 ⎦ 1 x5 resuelve el sistema de ecuaciones. 3. Para este sistema no pueden existir n´umeros reales x1 , x2 , x3 tales que 0x1 + 0x2 + 0x3 = −1; es decir, el sistema no tiene soluci´on, es inconsistente. 

´ para matrices, equivalencia por filas y soluciones 1.2.3 Operaciones de renglon 1.2.3 de sistemas escalonados Motivados en los m´etodos de la subsecci´on precedente para resolver sistemas lineales, definimos las siguientes operaciones de rengl´on (fila) para matrices.

´ para matrices Operaciones elementales de renglon 1. Intercambio de filas: Ri ←→ R j . 2. Cambio de escala: Ri ←→ αRi (α = 0). 3. Suma de filas: Ri ←→ αRi + βR j (α = 0). Las cuales significan, respectivamente: • La fila i se intercambia con la fila j. • La fila i se cambia por la misma fila multiplicada por α. • La fila i se cambia por la suma de α-veces la fila i con β-veces la fila j.

Page (PS/TeX): 22 / 22, COMPOSITE

´ 1.2 SECCION

Sistemas lineales 23

Matrices equivalentes

Definici´on 1.14 Sean A , B ∈ Mm×n . B es equivalente por filas a la matriz A (o simplemente equivalente a A), si B se puede obtener de la matriz A al aplicarle una sucesi´on finita de operaciones elementales de rengl´on. Si B es equivalente a A escribiremos B ∼ A o B ↔ A.

 Ejemplo 1.26 Si

 A=

y



1 2

1 0

B=

2 −3

3 −1

2 3 −7 −7

4 5 0 1

4 −8



5 −9

,

B ∼ A; pues B se obtiene de A mediante la operaci´on de rengl´on R2 ←→ −2R1 + R2  No es dif´ıcil probar el siguiente teorema. Teorema 1.1 Si A, B ∈ Mm×n , entonces 1. A ∼ A. (Reflexividad) 2. A ∼ B ⇒ B ∼ A. (Simetr´ıa) 3. A ∼ B y B ∼ C ⇒ A ∼ C. (Transitividad)

Del teorema precedente inciso 2, se ve que ya no es necesario decir que B es equivalente a A, pues en tal caso simplemente podremos enunciar que A y B son equivalentes. Al aplicar operaciones de rengl´on a un sistema se obtiene un sistema equivalente. Es decir:

Teorema 1.2 Si [ A |b ] ∼ [ H |c ], entonces los sistemas Ax =b y Hx =c tienen las mismas soluciones.

Es claro que siempre se pueden aplicar operaciones de fila a una matriz A, de manera adecuada, para obtener una matriz escalonada equivalente a ella. Lo cual hacemos patente en la siguiente proposici´on.

Teorema 1.3 Toda matriz es equivalente por filas al menos a una matriz en forma escalonada.

Soluciones de sistemas escalonados Del ejemplo 1.25 (cfr. p´ag. 21) se conjetura el siguiente teorema, cuya demostraci´on es sencilla y se deja como ejercicio al lector.

Page (PS/TeX): 23 / 23, COMPOSITE

24 CAPI´TULO 1

Matrices y sistemas lineales

Teorema 1.4 Sea un sistema Ax = b y supongamos que [ H |c ] es un sistema (cualquier sistema) escalonado equivalente; es decir, [A |b ] ∼ [ H |c ], entonces 1. Ax = b es inconsistente si y s´olo si [ H |c ] tiene una fila de ceros en el lado izquierdo y un elemento no nulo en el lado derecho de la partici´on (ejemplo 1.25 inciso 3). ´ 2. Ax = b tiene soluci´on unica si y s´olo si es consistente y [ H |c ] tiene pivote en todas las columnas en el lado izquierdo de la partici´on (ejemplo 1.25 inciso 1). 3. Ax = b tiene infinidad de soluciones si y s´olo si es consistente y [ H |c ] no tiene pivote en alguna columna en el lado izquierdo de la partici´on (ejemplo 1.25 inciso 2).

P Nota 1.3 Es claro, del teorema anterior, que • un sistema consistente tiene soluci´on u´ nica cuando una forma escalonada equivalente no tiene variables libres. • un sistema consistente tiene una infinidad de soluciones cuando una forma escalonada equivalente tiene variables libres.

´ 1.2.4 Metodo de Gauss El m´etodo de Gauss sirve para “llevar” una matriz a una forma escalonada equivalente aplicando operaciones de rengl´on. Bosquejamos el m´etodo por medio del siguiente algoritmo: Supongamos que A es una matriz m × n no nula (si A es la matriz cero, A est´a en forma escalonada). G1: Se busca una fila en A que tenga su primer elemento distinto de cero y se intercambia (si es necesario) con la primera fila de la matriz A; si no existe una fila de A que tenga su primer elemento no nulo, entonces se busca una fila de la matriz A que tenga el segundo elemento distinto de cero y se intercambia (si es necesario) con la primera fila de la matriz A; de no suceder as´ı, se busca una fila de A que tenga el tercer elemento distinto de cero y se intercambia (si es necesario) con la primera fila de A, etc.; obteniendo finalmente una matriz B1 ∼ A con un primer elemento no nulo en la primera fila que llamaremos pivote (en este caso de la primera fila). Por ejemplo, si ⎤ ⎡ 0 −4 −1 3 4 0 7 ⎦, A=⎣ 3 1 1 3 5 entonces una operaci´on de rengl´on para llevar a cabo este paso puede ser R1 ↔ R3 , resultando la equivalencia de matrices  ⎡

A



0 −4 −1 ⎣ 3 4 0 1 1 3

 ⎤ ⎡

3 1 7 ⎦∼⎣ 3 5 0

B1

1 4 −4

El pivote de la primera fila de la matriz B1 es b111 = 1.

Page (PS/TeX): 24 / 24, COMPOSITE



⎤ 3 5 0 7 ⎦. −1 3

´ 1.2 SECCION

Sistemas lineales 25

G2: Con el pivote de la primera fila de B1 se transforman en ceros los elementos que est´an por debajo de e´ l mediante la operaci´on suma de filas, obteniendo una matriz B2 ∼ B1 ∼ A, que tendr´a todas las componentes nulas debajo del pivote de la primera fila. Por ejemplo, con el caso particular ilustrado en el paso anterior podemos hacer ceros los elementos debajo del pivote 1 de la primera fila de la matriz B1 mediante la operaci´on R2 ↔ −3R1 +R2 para obtener la matriz B2 ; es decir, ⎡

1 ⎣ 3 0

B1

 ⎤ ⎡ 1 1 3 5 ⎦ ⎣ 0 ∼ 4 0 7 0 −4 −1 3

B2



⎤ 1 3 5 1 −9 −8 ⎦ −4 −1 3

G3: Ahora se repiten los pasos G1 y G2 con la segunda fila de la matriz B2 , produciendo una matriz B3 ∼ B2 ∼ B1 ∼ A cuyas componentes ser´an nulas debajo del pivote de su segunda fila. Para el caso particular ilustrado, el pivote de la segunda fila de la matriz9 B2 es b222 = 1. Se pueden hacer ceros los elementos debajo del mismo mediante la operaci´on R3 ↔ 4R2 + R3 , esto es ⎡

1 ⎣ 0 0

B2



⎤ ⎡

B3



⎤ 1 3 5 1 1 3 5 1 −9 −8 ⎦∼⎣ 0 1 −9 −8 ⎦ 0 0 −37 −29 −4 −1 3

G4: Se repiten los pasos G1, G2 y G3 con las filas subsecuentes de las matrices equivalentes que resulten, hasta obtener una matriz H en forma escalonada de acuerdo a la definici´on 1.11. Para el caso ilustrado previamente, la matriz B3 ya est´a en forma escalonada; con lo que  ⎡

A



⎤ ⎡

B3 =H

 ⎤ 0 −4 −1 3 1 1 3 5 ⎣ 3 4 0 7 ⎦∼⎣ 0 1 −9 −8 ⎦ 1 1 3 5 0 0 −37 −29 terminar´ıa el proceso para este ejemplo particular. P Nota 1.4 1. El lector debe tener en mente que el prop´osito fundamental del m´etodo de Gauss es obtener una matriz en forma escalonada equivalente a una matriz dada, mediante el uso de las operaciones elementales de rengl´on en cualquier combinaci´on. As´ı que el algoritmo anterior s´olo es una gu´ıa para este prop´osito. Cualquier modificaci´on es v´alida siempre y cuando se empleen u´ nicamente las operaciones de rengl´on para matrices y se alcance el objetivo de obtener una matriz en forma escalonada equivalente por filas a la matriz inicial. 2. A lo largo de este texto haremos uso de oraciones informales como “llevar la matriz A a forma escalonada”. Este tipo de oraciones en realidad deben interpretarse como “obtener una forma 19 El n´umero 2 en b222 de esta notaci´on juega el papel de un supra´ındice, haciendo referencia a la matriz B2 y no de un exponente.

Page (PS/TeX): 25 / 25, COMPOSITE

26 CAPI´TULO 1

Matrices y sistemas lineales

escalonada equivalente a la matriz A”, que ser´ıa la manera apropiada de expresar este tipo de instrucciones; pero, ya que esa forma escalonada equivalente se obtiene a partir de la matriz A, nos permitiremos ese tipo de frases sacrificando rigor en aras de brevedad en el lenguaje. Sin embargo, es conveniente que el lector tenga siempre presente el significado preciso de esas oraciones coloquiales.  Ejemplo 1.27 Obtener una matriz equivalente por filas a la matriz ⎤ ⎡ 2 −4 2 −2 ⎢ 2 −4 3 −4 ⎥ ⎥ A=⎢ ⎣ 4 −8 3 −2 ⎦ 0 0 −1 2 que est´e en forma escalonada.10  ⎤ 2 −4 2 −2 ⎢ 2 −4 3 −4 ⎥ ⎥ A= ⎢ ⎣ 4 −8 3 −2 ⎦ 0 0 −1 2 ⎡

´ Solucion

⎤ 1 −2 1 −1 ⎢ 2 −4 3 −4 ⎥ ⎥ ⎢ ⎣ 4 −8 3 −2 ⎦ 0 0 −1 2 ⎡

←−−−−−−−−→ R1 ↔ (1/2)R1

⎤ 1 −2 1 −1 ⎢ 0 0 1 −2 ⎥ ⎥ ⎢ ⎣ 0 0 −1 2 ⎦ 0 0 −1 2 ⎡

←−−−−−−−−−−→ R2 ↔ −2R1 + R2 R3 ↔ −4R1 + R3

⎤ 1 −2 1 −1 ⎢ 0 0 1 −2 ⎥ ⎥ ⎢ ⎣0 0 0 0⎦ 0 00 0 ⎡

←−−−−−−−→ R3 ↔ R2 + R3 R4 ↔ R2 + R4

=

H

La matriz resultante, H, est´a en forma escalonada y es equivalente a la matriz A.



´ Metodo de Gauss para resolver sistemas lineales  Ejemplo 1.28 Resolver el siguiente sistema de ecuaciones por el m´etodo de Gauss. x1 2x1 3x1 −x1

− − − +

2x2 3x2 5x2 x2

+ + + −

x3 2x3 3x3 x3

− − − +

x4 3x4 4x4 2x4

= = = =

4 −1  3 5

´ Solucion Para resolver el problema llevaremos la matriz aumentada a una forma escalonada y haremos sustituci´on regresiva.11

1Hemos marcado en color rojo los pivotes en cada paso para que el lector recuerde que el prop´osito es ir haciendo ceros, mediante las operaciones de rengl´on indicadas, los elementos debajo de ellos. 11 1De aqu´ı en adelante, salvo algunas excepciones, ya no indicaremos las operaciones de rengl´on que se requieren para obtener una forma escalonada equivalente a una matriz, pues el objetivo es utilizar la notaci´on matricial para auxiliarse y hacer todos los c´alculos mec´anica y mentalmente. 10

Page (PS/TeX): 26 / 26, COMPOSITE

´ 1.2 SECCION

⎤ ⎡ 1 1 −2 1 −1

4 ⎢ 0

−1 ⎥ ⎢ 2 −3 2 −3 ⎥ ←→ ⎢

⎢ ⎣ 0 ⎣ 3 −5 3 −4

3 ⎦

0 5 −1 1 −1 2 ⎡ 1 ⎢ 0 ⎢ ←→ ⎣ 0 0 ⎡

Sistemas lineales 27

⎤ 1 −1

4 0 −1

−9 ⎥ ⎥ 0 −1

−9 ⎦ 0 1 9

⎤ −2 1 −1

4 1 0 −1

−9 ⎥ ⎥. 0 0 0

0 ⎦ 0 0 0 0 −2 1 1 −1

As´ı, las variables ligadas son x1 , x2 y las libres x3 , x4 . Y x2 = −9 + x4 ; x1 = 4 + 2x2 − x3 + x4 = −14 + 3x4 − x3 . La soluci´on est´a dada entonces por: ⎤ ⎡ ⎤ ⎡ −14 + 3r − s x1 ⎢x2 ⎥ ⎢ −9 + r ⎥ ⎥; r, s ∈ R.  ⎢ ⎥=⎢ ⎦ ⎣x3 ⎦ ⎣ s r x4

Sistemas con la misma matriz de coeficientes Es frecuente en la pr´actica tener que resolver sistemas con la misma matriz de coeficientes pero con distintos t´erminos independientes; por ejemplo, los sistemas x − 2y + 3z −x + 4y + 5z

= =

−2 7

(1.14)

y r − 2s + 3t −r + 4s + 5t

= 1 (1.15) = −4    1 −2 3 −2 1 tienen la misma matriz de coeficientes, , y t´erminos independientes y , −1 4 5 7 −4 respectivamente. En lugar de resolverlos cada uno por separado, podemos solucionarlos simult´aneamente colocando en el lado derecho de la partici´on de la matriz ampliada las dos columnas que contienen los dos t´erminos independientes, llevar a forma escalonada y resolver por sustituci´on regresiva para la primera columna y despu´es para la segunda:

  1 1 −2 3

−2 1 −2 3

−2 1 ↔ . (1.16) 0 2 8 5 −3 −1 4 5 7 −4 Resolviendo para la primera columna tenemos y = 52 − 4z, x = −2 + 2y − 3z = 3 − 11z; as´ı que ⎤ ⎡ ⎤ ⎡ 3 − 11α x ⎣ y ⎦ = ⎣ 5 − 4α ⎦, 2 z α α ∈ R, es la soluci´on para el sistema (1.14). Resolviendo ahora para la segunda columna de (1.16) obtenemos s = − 23 − 4t, r = 1 + 2s − 3t = −2 − 11t; es decir, ⎤ ⎡ ⎤ ⎡ −2 − 11β r ⎣ s ⎦ = ⎣ − 3 − 4β ⎦, 2 t β β ∈ R, es la soluci´on del sistema (1.15).

Page (PS/TeX): 27 / 27, COMPOSITE

28 CAPI´TULO 1

Matrices y sistemas lineales

´ ´ unica ´ 1.2.5 Metodo de Gauss-Jordan y sistemas con solucion Definici´on 1.15 Una matriz est´a en forma escalonada reducida si: 1. Est´a en forma escalonada. 2. Arriba de cada pivote las componentes (si hay) son nulas. 3. Todos los pivotes son unos.



1 ⎢ 0  Ejemplo 1.29 La matriz ⎢ ⎣ 0 0

0 1 0 0

2 8 0 0

⎤ 0 0 ⎥ ⎥ est´a en forma escalonada reducida. 1 ⎦ 0

´ Metodo de Gauss-Jordan Para llevar una matriz a forma escalonada reducida se procede de la manera siguiente: 1. Se lleva la matriz a forma escalonada mediante el m´etodo de Gauss. 2. Se hacen ceros todos los elementos arriba de cada pivote utilizando el m´etodo de Gauss de abajo hacia arriba. 3. Se convierten en unos todos los pivotes mediante la operaci´on de rengl´on cambio de escala. Empleando el m´etodo de Gauss-Jordan se puede probar el teorema que enunciamos a continuaci´on. Teorema 1.5 Toda matriz es equivalente por filas a una y s´olo una matriz en forma escalonada reducida.12  Ejemplo 1.30 Obtener la forma escalonada reducida equivalente a la matriz A por el m´etodo de Gauss-Jordan si ⎤ ⎡ −2 −1 0 3 −4 0 3 ⎦ . A = ⎣ 3 −1 2 5 −4 0 −1 2

´ Solucion

⎤ ⎤ ⎡ −2 −1 0 3 −4 −2 −1 0 3 −4 (1) ⎣ 3 −1 2 0 3 ⎦ ←→ ⎣ 0 −5 4 9 −6 ⎦ 0 −13 0 13 −16 5 −4 0 −1 2 ⎤ ⎡ −2 −1 0 3 −4 (2) 4 9 −6 ⎦ ←→ ⎣ 0 −5 0 0 −52 −52 −2 ⎡

1Compare con el teorema 1.3, p´agina 23.

12

Page (PS/TeX): 28 / 28, COMPOSITE

´ 1.2 SECCION

Sistemas lineales 29

⎤ −2 −1 0 3 −4 4 9 −6 ⎦ ←→ ⎣ 0 −5 0 0 −26 −26 −1 ⎡

(3)

⎤ −2 −1 0 3 −4 0 65 −80 ⎦ ←→ ⎣ 0 −65 0 0 −26 −26 −1 ⎡

(4)

⎤ −2 −1 0 3 −4 0 13 −16 ⎦ ←→ ⎣ 0 −13 0 0 −26 −26 −1 ⎡

(5)

⎤ −26 0 0 26 −36 0 13 −16 ⎦ ←→ ⎣ 0 −13 0 0 −26 −26 −1 ⎡

(6)

⎤ 1 0 0 −1 18/13 ←→ ⎣ 0 1 0 −1 16/13 ⎦. 0 0 1 1 1/26 ⎡

(7)

Donde, para facilitar su comprensi´on, esta vez hemos indicado las operaciones de rengl´on en cada paso del (1) al (7), se˜nalando los pivotes en azul m´as claro cuando se hacen ceros los elementos por debajo de los mismos y en rojo cuando se hacen ceros los elementos por encima de los pivotes. (1): R2 ↔ 3R1 + 2R2 , R3 ↔ 5R1 + 2R3 ; (2): R3 ↔ −13R2 + 5R3 ; (3): R3 ↔ (1/2)R3 ; (4): R2 ↔ 2R3 + 13R2 ; (5): R2 ↔ (1/5)R2 ; (6): R1 ↔ 13R1 − R2 ; (7): R1 ↔ (−1/26)R1 , R2 ↔ (−1/13)R2 , R3 ↔ (−1/26)R3 .  P Nota 1.5 A diferencia de la forma escalonada reducida de una matriz, que es u´ nica, es claro que al hacer operaciones de rengl´on a una matriz A para obtener una matriz en forma escalonada equivalente, se pueden obtener diferentes matrices. Sin embargo, para cualquier par de matrices en forma escalonada equivalentes a la matriz A se cumple: 1. Las dos matrices tienen el mismo n´umero de pivotes. 2. Los pivotes se encuentran en las mismas posiciones en ambas matrices; es decir, si una matriz tiene un pivote en la componente i j la otra tambi´en tiene un pivote en esta componente. Ilustramos la nota 1.5 en el siguiente ejemplo. ⎡

2  Ejemplo 1.31 Sea A = ⎣ 4 1 ⎡

2 ⎣ 4 1

Page (PS/TeX): 29 / 29, COMPOSITE

−3 −1 −2

1 0 3

⎤ −3 1 1 5 −1 0 1 2 ⎦, entonces −2 3 1 1 1 1 1

⎤ 5 2 ⎦ ∼ 1



2 ⎣ 0 0 ⎡ 2 ∼ ⎣ 0 0

⎤ −3 1 1 5 5 −2 −1 −8 ⎦ 1 −5 −1 3 ⎤ −3 1 1 5 5 −2 −1 −8 ⎦ = H1 0 23 4 −23

30 CAPI´TULO 1

Matrices y sistemas lineales

y

⎤ 2 −3 1 1 5 ⎣ 4 −1 0 1 2 ⎦ 1 −2 3 1 1







1 ⎣ 4 2

⎤ ⎤ ⎡ 1 −2 3 1 1 −2 3 1 1 7 −12 −3 −2 ⎦ −1 0 1 2 ⎦ ∼ ⎣ 0 0 1 −5 −1 3 −3 1 1 5 ⎤ 1 3 ⎦ −2

⎡ ∼

1 −2 3 1 ⎣ 0 1 −5 −1 0 7 −12 −3 ⎡



1 ⎣ 0 0

−2 3 1 1 −5 −1 0 23 4

⎤ 1 3 ⎦ = H2 . −23

As´ı A ∼ H1 , A ∼ H2 ; H1 y H2 est´an en forma escalonada, H1 = H2 ; ambas matrices tienen el mismo n´umero de pivotes y se encuentran en las mismas posiciones en las dos matrices.

´ Sistemas lineales y metodo de Gauss-Jordan Los sistemas lineales tambi´en se pueden resolver utilizando el m´etodo de Gauss-Jordan para llevar la matriz ampliada a forma escalonada reducida y realizar sustituci´on regresiva, como hacemos patente en el siguiente ejemplo.  Ejemplo 1.32 Resolver el siguiente sistema mediante el m´etodo de Gauss-Jordan x1 −x1 2x1 ´ Solucion

− + −

2x2 x2 x2

+

x3

+

x3

+ + +

3x4 2x4 5x4

= = =

−1 2 1 

Llevemos la matriz ampliada a la forma escalonada reducida: ⎡

1 ⎣ −1 2

⎤ −2 1 3

−1 1 0 2

2 ⎦ ∼ −1 1 5 1



1 ⎣ 0 0 ⎡







Page (PS/TeX): 30 / 30, COMPOSITE



−1

1 ⎦

3



−1

1 ⎦

6

1 ⎣ 0 0

−2 1 3 −1 1 5 0 2 14



⎤ −2 1 3

−1 1 −1 −5

−1 ⎦ 0 1 7 3



⎤ −2 0 −4

−4 1 0 2

2 ⎦ 0 1 7 3

1 ⎣ 0 0 1 ⎣ 0 0 ⎡



−2 1 3 −1 1 5 3 −1 −1

1 0 0 0 ⎣ 0 1 0 2 0 0 1 7



0

2 ⎦.

3

´ 1.2 SECCION

Sistemas lineales 31

Al hacer sustituci´on regresiva tenemos x3 = 3 − 7x4 , x2 = 2 − 2x4 y x1 = 0; luego la soluci´on viene dada por ⎤ ⎡ ⎤ ⎡ 0 x1 ⎢ x2 ⎥ ⎢ 2 − 2r ⎥ ⎥ ⎢ ⎥ ⎢ ⎣ x3 ⎦ = ⎣ 3 − 7r ⎦; r ∈ R.  r x4

´ unica ´ Sistemas con solucion En este breve apartado damos criterios para determinar cu´ando hay soluci´on u´ nica en un sistema utilizando la forma escalonada reducida, los cuales son f´aciles de probar utilizando el teorema 1.4. Sea A ∈ Mm×n : 1. Caso m > n. Sea Ax = b un sistema lineal consistente, entonces las dos condiciones siguientes son equivalentes ((a) ⇔ (b)): (a) El sistema Ax = b tiene soluci´on u´ nica. (b) La forma escalonada reducida equivalente a A consiste de la identidad n × n seguida de (b) m − n filas nulas. 2. Caso m < n. Supongamos que el sistema Ax = b es consistente y tiene menos ecuaciones que inc´ognitas. Entonces tiene una infinidad de soluciones. 3. Caso m = n. Ax = b tiene soluci´on u´ nica para todo b si y s´olo si A es equivalente a la identidad; es decir, la forma escalonada reducida equivalente a A es In . P Nota 1.6 Para determinar que una matriz cuadrada sea equivalente a la identidad, basta revisar que al llevarla a una forma escalonada toda columna en e´ sta tenga pivote (por su definici´on, e´ ste debe ser distinto de cero); ya que entonces, por el m´etodo de Gauss-Jordan, su forma escalonada reducida equivalente ser´a la identidad.

´ 1.2.6 Sistemas homogeneos ⎡ ⎢ ⎢ Definici´on 1.16 Un sistema lineal con la forma Ax = 0, donde 0 = ⎢ ⎣

0 0 .. .

⎤ ⎥ ⎥ ⎥, se llama homog´eneo. ⎦

0

Todo sistema homog´eneo es consistente pues x = 0 es soluci´on del mismo; la llamada soluci´on trivial. De los casos 1 y 2, de criterios de soluci´on u´ nica de la subsecci´on precedente, deducimos el siguiente teorema.

Page (PS/TeX): 31 / 31, COMPOSITE

32 CAPI´TULO 1

Matrices y sistemas lineales

Teorema 1.6 Sea A ∈ Mm×n . Entonces 1. Si m = n, el sistema homog´eneo cuadrado Ax = 0 tiene soluci´on no trivial si y s´olo si A no es equivalente a la identidad. 2. Todo sistema homog´eneo Ax =0 con menos ecuaciones que inc´ognitas (m < n) tiene soluciones no triviales.

Observemos que para resolver un sistema homog´eneo Ax = 0, no es necesario poner ceros en la u´ ltima columna de la ampliaci´on; pues todos los t´erminos independientes son nulos y al hacer las operaciones de rengl´on no se ver´an afectados. As´ı que bastar´a llevar a forma escalonada la matriz A y hacer sustituci´on regresiva recordando que los t´erminos independientes son nulos.  Ejemplo 1.33 Para el sistema homog´eneo



1 1 −1 1 −1 −3

de aqu´ı,

x1 + x2 − x3

=

0

x1 − x2 − 3x3

=

0,



 ↔

1 0

1 −1 −2 −2

⎤ ⎤ ⎡ x1 2r ⎣ x2 ⎦ = ⎣ −r ⎦; r x3



 ↔

1 1 −1 ; 0 1 1



r ∈ R.

1.2.7 Estructura de las soluciones El teorema a continuaci´on describe la estructura de las soluciones de los sistemas no homog´eneos en relaci´on con los homog´eneos y, de paso, nos muestra que es posible resolver al mismo tiempo el sistema no homog´eneo Ax = b y el sistema homog´eneo asociado Ax = 0.

Teorema 1.7 Sea A ∈ Mm×n . 1. Si h1 , h2 son soluciones particulares del sistema homog´eneo Ax = 0 y α ∈ R, entonces (a) h1 +h2 es tambi´en soluci´on. (b) αh1 es soluci´on del sistema. 2. Sea p una soluci´on particular del sistema no homog´eneo Ax = b. (a) Si h es cualquier soluci´on del sistema homog´eneo asociado Ax = 0, entonces p +h es soluci´on del sistema no homog´eneo Ax = b. (b) Si p es una soluci´on particular del no homog´eneo Ax = b, entonces toda soluci´on u de este sistema tiene la forma p +h, para alguna soluci´on h del sistema lineal homog´eneo asociado Ax = 0.

Page (PS/TeX): 32 / 32, COMPOSITE

´ 1.2 SECCION

´ DEMOSTRACION

Sistemas lineales 33

Q 1. (a) Como h1 , h2 son soluciones, Ah1 = 0 y Ah2 = 0. Luego, A(h1 +h2 ) = Ah1 + Ah2 = 0. (a) Por tanto, h1 +h2 es tambi´en soluci´on. (b) A(αh1 ) = α(Ah1 ) = α0 = 0; lo cual nos dice que αh es soluci´on. 2. (a) A(p +h) = Ap + Ah =b +0 = b; pues p es soluci´on de Ax = b y h es soluci´on del homog´eneo. (b) Sea u una soluci´on de Ax = b. Entonces, si h = u − p, Ah = A(u − p) = Au − Ap = b −b = 0; y u = p +h. Q  Ejemplo 1.34 Resolver el sistema x1 2x1 3x1 −x1

− − − +

2x2 3x2 5x2 x2

+ + + −

x3 2x3 3x3 x3

− − − +

x4 3x4 4x4 2x4

= = = =

4 −1 3 5

y encontrar la soluci´on del sistema homog´eneo asociado. ´ Solucion

⎤ 1 −2 1 −1

4 ⎢ 2 −3 2 −3

−1 ⎥ ⎥ ⎢ ⎣ 3 −5 3 −4

3 ⎦ −1 1 −1 2 5







1 −2 1 ⎢ 0 1 0 ⎢ ⎣ 0 1 0 0 −1 0 ⎡

1 −2 1 ⎢ 0 1 0 ⎢ ↔ ⎣ 0 0 0 0 0 0

−1 −1 −1 1



4

−9 ⎥ ⎥

−9 ⎦

9

−1 −1 0 0



4

−9 ⎥ ⎥

0 ⎦.

0

As´ı, la soluci´on del sistema es ⎤ ⎤ ⎡ ⎤ ⎡ ⎡ ⎤ ⎡ 3r − s −14 3r − s − 14 x1 ⎢x2 ⎥ ⎢ r − 9 ⎥ ⎢ −9 ⎥ ⎢ r ⎥ ⎥; ⎥+⎢ ⎥=⎢ ⎢ ⎥=⎢ ⎦ ⎣ ⎣x3 ⎦ ⎣ 0 ⎦ ⎣ s ⎦ s r 0 r x4

r, s ∈ R.

De donde observamos que para este caso ⎤ ⎤ ⎡ 3r − s −14 ⎢ −9 ⎥ ⎢ r ⎥ ⎥; ⎥y⎢ ⎢ ⎣ 0 ⎦ ⎣ s ⎦ r 0 ⎡

r, s ∈ R

son, respectivamente, una soluci´on particular del no homog´eneo y la soluci´on del homog´eneo asociado. 

Page (PS/TeX): 33 / 33, COMPOSITE

34 CAPI´TULO 1

Matrices y sistemas lineales

´ 1.2.8 Sistemas lineales con numeros complejos Nuevamente, como en la secci´on 1.1.5 (cfr. p´ag. 12), haremos uso de n´umeros complejos en a´ lgebra lineal; esta vez en sistemas lineales. Para resolver sistemas lineales con coeficientes complejos simplemente aplicaremos las mismas t´ecnicas que hemos desarrollado en esta secci´on, pero realizando las operaciones con n´umeros complejos. Todas las propiedades y teoremas relativos a sistemas lineales sobre el campo de los n´umeros reales de esta secci´on siguen siendo v´alidos cuando los coeficientes y t´erminos independientes son n´umeros complejos.13  Ejemplo 1.35 Resolvamos el sistema x1 ix1 x1

+ (1 + i)x2 − 2ix2 + (1 − i)x2

− + +

ix3 x3 2ix3

= = =

2i 1 − 2i 1 + i.

Para ello aplicamos el m´etodo de Gauss empleando el a´ lgebra de n´umeros complejos en las operaciones.14

⎤ ⎤ ⎡ ⎡ 2i 2i 1 1 + i −i

1 1 + i −i

(1) ⎣ i −2i 1 1 − 2i ⎦ ←→ ⎣ 0 1 − 3i 0 3 − 2i ⎦

0 −2i 3i 1 − i 1 1 − i 2i 1 + i

⎤ ⎡ 2i 1 1 + i −i

(2) 3i

1 − i ⎦ ←→ ⎣ 0 −2i 0 1 − 3i 0 3 − 2i

⎤ ⎡ 2i 1 1+i −i

(3) 1 −3/2

1/2 + 1/2i ⎦ ←→ ⎣ 0 3 − 2i 0 1 − 3i 0

⎤ ⎡

2i 1 1+i −i

(4)

1/2 + 1/2i ⎦. 1 −3/2 ←→ ⎣ 0

1−i 0 0 3/2 − 9i/2 De donde, al hacer sustituci´on regresiva, x3 = = x2 = = =

1−i 3 9 2 − 2i 4 2 15 + 15 i , 1 1 3 2 + 2 i + 2 x3 1 1 2 1 2 + 2i+ 5 + 5i 9 7 10 + 10 i ,

y x1 = 2i − (1 + i)x2 + ix3 9 7 4 2 = 2i − (1 + i)( 10 + 10 i) + i( 15 + 15 i)

= − 13 + 23 i . 1Cfr. B.1 del ap´endice B y la subsecci´on 1.1.5. 1(1): R2 ↔ −iR1 + R2 , R3 ↔ −R1 + R2 ; (2): R2 ↔ R3 ; (3): R2 ↔ (−1/2i)R2 ; (4): R3 ↔ −(1 − 3i)R2 + R3 .

13 14

Page (PS/TeX): 34 / 34, COMPOSITE

´ 1.3 SECCION

Ejercicios resueltos y ejercicios propuestos 35

 Ejemplo 1.36 Resolver el sistema x1 + ix2 − x3 = 5 x1 − 2ix2 + 5x3 = 5 + 6i .  ´ Solucion

y al hacer sustituci´on regresiva

Finalmente, dado que

1 1

 5 1 i −1

∼ 0 −2i 5 5 + 6i

i −1

5 −3i 6 6i



⎤ ⎤ ⎡ x1 5 + 2i − α ⎣ x2 ⎦ = ⎣ −2 − 2iα ⎦ ; α x3

α ∈ C.

⎤ ⎤ ⎡ ⎤ ⎡ −α x1 5 + 2i ⎣ x2 ⎦ = ⎣ −2 ⎦ + ⎣ −2iα ⎦ , α 0 x3 ⎡

se desprende que la soluci´on del sistema homog´eneo asociado est´a dada por ⎤ ⎡ −α ⎣ −2iα ⎦, α ∈ C.  α

1.3 Ejercicios resueltos y ejercicios propuestos 1.3.1 Ejercicios resueltos

11 Determinar los



1 −2 a B=⎣ 3 4 −5 ´ Solucion

⎤ 1 −2 a 2 2 ⎦ y valores de a y b, si es que existen, para que las matrices A = ⎣ 3 4 −5 1 ⎤ 2b 2 ⎦ sean iguales. 1 ⎡

Matrices

Las matrices A y B ser´an iguales si a = 2b y a = 2, y esto sucede si a = 2 y b = 1.



12 Calcular

 (a)

−1 0 1 2 3 −4



 +

2 −5

−3 −3

1 8



(c) −4

.

−2 0

3 −1 1 −1 1 2

.

⎤  −1 1 0 −2 3 −1 ⎦ ⎣ 0 1 1 + . (b) 2 6 −5 2 3 −1 ⎡

´ Solucion



(a)

−1 0 1 2 3 −4

Page (PS/TeX): 35 / 35, COMPOSITE



 +

2 −5

−3 −3

1 8



 =

−1 + 2 2−5

0−3 1+1 3 − 3 −4 + 8



 =

1 −3

−3 2 0 4

.

36 CAPI´TULO 1

Matrices y sistemas lineales

(b) La suma de estas matrices no est´a definida porque tienen distintos tama˜nos; la primera tiene tama˜no 3 × 3 mientras que la segunda tiene tama˜no 2 × 3.  −4

(c)

−2 3 −1 1 0 −1 1 2





(−4)(−2) (−4)(3) (−4)(−1) (−4)(1) (−4)(0) (−4)(−1) (−4)(1) (−4)(2)  8 −12 4 −4 =  0 4 −4 −8



=

13 Calcular

⎤ ⎤ −1 2 0 ⎡ 2 −3 ⎥ ⎢ 1 2 1 ⎥⎣ 1 2 ⎦. (a) ⎢ ⎣ −2 2 −3 ⎦ −3 2 1 −2 4 ⎡

⎡ (b) ⎣

2 1 −3





−1 −3 ⎢ 1 2 ⎦⎢ ⎣ −2 2 1

⎤ 2 0 2 1 ⎥ ⎥. 2 −3 ⎦ −2 4

Recordemos que el producto de dos matrices, A ∈ Mm×n y B ∈ Mr×s , est´a definido s´olo si n = r; en tal caso la matriz producto, AB, tiene entonces tama˜no m × s. Una forma de recordar esto es que en el “producto” (m × n)(r × s) los “medios” deben ser iguales; esto es, n = r; y la matriz producto tiene tama˜no el producto de los “extremos”: m × s. Finalmente, si el producto est´a definido, la i-´esima fila del mismo se obtiene multiplicando la fila Fi de la matriz A con cada una de las columnas C j de la matriz B como se indica en (1.1) de la p´agina 5. ´ Solucion

(a) En este caso se tiene (4 × 3) (3 × 2), los “medios” son iguales as´ı que el producto est´a definido y el tama˜no de la matriz producto es (4 × 2), el producto de los “extremos”. ⎡ ⎤ ⎡ ⎤ ⎤ F1C1 F1C2 −1 2 0 ⎡ 2 −3 ⎢ F2C1 F2C1 ⎥ ⎢ 1 2 1 ⎥ ⎥⎣ 1 ⎢ ⎥ 2 ⎦ = ⎢ ⎣ F3C1 F3C1 ⎦ ⎦ ⎣ −2 2 −3 −3 2 1 −2 4 F3C1 F3C1 ⎤ −2 + 2 + 0 3+4+0 ⎢ 2 + 2 − 3 −3 + 4 + 2 ⎥ ⎥ ⎢ ⎣ −4 + 2 + 9 6+4−6 ⎦ 2 − 2 − 12 −3 − 4 + 8 ⎡ =



0 ⎢ 1 = ⎢ ⎣ 7 −12

⎤ 7 3 ⎥ ⎥. 4 ⎦ 1

(b) En este caso se tiene (3×2)(4×3), que tiene “medios” distintos, as´ı que el producto no est´a definido.  En los ejercicios 4 a 13 sean  A=

−5 −3 ⎡

−1 3 7 0

4 C=⎣ 2 −1



⎤ −1 3 ⎦ 3



y

Efectuar la operaci´on indicada si es que est´a definida.

Page (PS/TeX): 36 / 36, COMPOSITE

−2 1 1 1 ⎡ −1 D=⎣ 2 −2

B=

,

4 , −1 ⎤ 1 3 ⎦. 5

´ 1.3 SECCION

14 4A. ´ Solucion

 4A = 4

−5 −3

−1 3 7 0

15 −5A + 2B.

 =

(4)(−5) (4)(−3)

(4)(−1) (4)(7)

(4)(3) (4)(0)



 =

−20 −4 12 −12 28 0

.





 −5 −1 3 −2 1 4 −5A + 2B = −5 +2 −3 7 0 1 1 −1   25 5 −15 −4 2 8 = + 15 −35 0 2 2 −2  21 7 −7 = .  17 −33 −2

´ Solucion

16 3C − 4D.

⎤ ⎤ ⎡ −1 1 4 −1 3C − 4D = 3 ⎣ 2 3 ⎦ − 4 ⎣ 2 3 ⎦ −2 5 −1 3 ⎤ ⎤ ⎡ ⎡ 4 −4 12 −3 = ⎣ 6 9 ⎦ + ⎣ −8 −12 ⎦ 8 −20 −3 9 ⎤ ⎡ 16 −7 = ⎣ −2 −3 ⎦ .  5 −11 ⎡

´ Solucion

17 AC.

 ´ Solucion



Ejercicios resueltos y ejercicios propuestos 37

AC = 

⎤ ⎡  4 −1 −5 −1 3 ⎣ FC FC 2 3⎦= 1 1 1 2 −3 7 0 F2C1 F2C2 −1 3

(−5)(4) + (−1)(2) + (3)(−1) (−5)(−1) + (−1)(3) + (3)(3) (−3)(4) + (7)(2) + (0)(−1) (−3)(−1) + (7)(3) + (0)(3)  −25 11 = .  2 24



=

18 (3B)(5C).

´ Solucion

⎤⎞ ⎛ ⎡    4 −1 −2 1 4 ⎝5 ⎣ 2 3 ⎦⎠ (3B)(5C) = 3 1 1 −1 −1 3 ⎤ ⎡  4 −1 −2 1 4 ⎣ 2 3⎦ = 15 1 1 −1 −1 3   −10 17 −150 255 = 15 = .  7 −1 105 −15

19 CD.

El producto CD no est´a definido porque la matriz C tiene tama˜no 2 × 3 y la matriz D tiene tama˜no 2 × 3; el n´umero de columnas de C (tres) es distinto del n´umero de filas de D (dos).  ´ Solucion

Page (PS/TeX): 37 / 37, COMPOSITE

38 CAPI´TULO 1

Matrices y sistemas lineales

10 At A.

⎤ ⎡ −5 −3  −5 −1 3 −5 −1 3 t ⎦ ⎣ = −1 7 AA = −3 7 0 −3 7 0 3 0 ⎤ ⎡ 34 −16 −15 = ⎣ −16 50 −3 ⎦ .  −15 −3 9 

´ Solucion

11 (2B − 3A)D.

t 

⎤ ⎡     −1 1 −2 1 4 −5 −1 3 ⎣ 2 3⎦ (2B − 3A)D = 2 −3 1 1 −1 −3 7 0 −2 5 ⎤ ⎡    −1 1 −4 2 8 15 3 −9 ⎣ 2 3⎦ = + 2 2 −2 9 −21 0 −2 5 ⎤ ⎡  −1 1 11 5 −1 ⎣ 2 3⎦ = 11 −19 −2 −2 5  1 21 = .  −45 −56

´ Solucion

12 (AD)B.



⎤⎞ ⎡ −1 1  −5 −1 3 −2 1 4 ⎝ ⎦ ⎠ ⎣ 2 3 (AD)B = −3 7 0 1 1 −1 −2 5   −3 7 −2 1 4 = 17 18 1 1 −1  13 4 −19 = .  −16 35 50

´ Solucion

13 CC t .



⎤t ⎡ ⎤⎡ ⎤ 4 −1 4 −1 4 −1  4 2 −1 ⎣ 2 3 ⎦⎣ 2 3 ⎦ = ⎣ 2 3 ⎦ −1 3 3 −1 3 −1 3 −1 3 ⎤ ⎡ 17 5 −7 ⎣ 5 13 7 ⎦ .  −7 7 10 ⎤ −1 1 ⎦. Calcular: 2 ⎡

CC t =

´ Solucion

=

14 Sean A =

−5 −1 3 −3 7 0



−1

2

3



⎡ y b = ⎣

(a) Ab. (b) bA.

´ Solucion

(a) Ab =

Page (PS/TeX): 38 / 38, COMPOSITE



−1 2 3



⎤ −1 ⎣ 1 ⎦ = 9. 2 ⎡

´ 1.3 SECCION

Ejercicios resueltos y ejercicios propuestos 39

⎤ ⎤ ⎡ (−1)(−1) (−1)(2) (−1)(3) −1

bA = ⎣ 1 ⎦ −1 2 3 = ⎣ (1)(−1) (1)(2) (1)(3) ⎦ (2)(−1) (2)(2) (2)(3) 2 ⎤ ⎡ 1 −2 −3 = ⎣ −1 2 3 ⎦ .  −2 4 6 ⎡

(b)

2

n

2

15 Sea A una matriz cuadrada; se define A = AA y en general A = AA · · · A. Calcular A si A =   n factores

 ´ Solucion

2

A = AA =

1 1 1 1



1 1

1 1



 =

2 2 2 2



1 1 1 1

.

.



16 Demostrar que la suma de matrices es una operaci´on conmutativa; esto es, si A, B ∈ Mm×n , entonces

A + B = B + A. ´ DEMOSTRACION

Q Si A = [ai j ] y B = [bi j ] , entonces A + B = [ai j + bi j ] = [bi j + ai j ] = B + A (porque la suma de n´umeros reales es una operaci´on conmutativa). Q

17 Probar que si X es una matriz fila con n componentes y Y es una matriz columna con igual n´umero de

componentes, entonces XY = Y t X t . ⎡

´ DEMOSTRACION

Q Sean X = [ a1

···

⎤ b1 ⎢ ⎥ an ] y Y = ⎣ ... ⎦. Entonces XY = ∑ni=1 ai bi y bn ⎡ ⎤ a1 n ⎢ ⎥ Y t X t = [ b1 · · · bn ] ⎣ ... ⎦ = ∑ bi ai an

=

i=1

n

∑ ai bi = XY.

Q

i=1

18 Demostrar la propiedad 3(b) de la secci´on 1.1.4; es decir, que (AB) t = B t At ∀A ∈ Mm×n , ∀B ∈ Mn×p .

´ DEMOSTRACION

Q Sean Ai , i = 1, . . . , m, las filas de la matriz A; B j , j = 1, . . . , p, las columnas de la matriz B. Entonces ⎡ ⎤t A 1 B 1 A 1 B 2 · · · A1 B p ⎢ A 2 B 1 A 2 B 2 · · · A2 B p ⎥ ⎢ ⎥ (AB)t = ⎢ . ⎥ ⎣ .. ⎦ A m B1 Am B2 · · · A m B p ⎡

⎤ A1 B1 A2 B1 · · · Am B1 ⎢ A1 B2 A2 B2 · · · Am B2 ⎥ ⎢ ⎥ =⎢ . . ⎥ .. . . ⎣ .. . .. ⎦ . A 1 B p A2 B p · · · A m B p

Page (PS/TeX): 39 / 39, COMPOSITE

40 CAPI´TULO 1

Matrices y sistemas lineales

y ⎡ B t At

=

⎤ B1t ⎢ B2t ⎥

⎢ ⎥ t t ⎢ .. ⎥ A1 A2 · · · Atm ⎣ . ⎦ B pt



B1t At1 B1t At2 · · · ⎢ B2t At1 B2t At2 · · · ⎢ = ⎢ .. .. . . ⎣ . . . B pt At1 B pt At2 · · · ⎡ A 1 B1 A2 B1 · · · ⎢ (ejercicio anterior) ⎢ A1 B2 A2 B2 · · · = ⎢ .. .. . . ⎣ . . .

⎤ B1t Atm B2t Atm ⎥ ⎥ .. ⎥ . ⎦

B pt Atm

⎤ Am B1 Am B2 ⎥ ⎥ .. ⎥ . . ⎦

A 1 B p A2 B p · · · A m B p Con lo que se tiene (AB)t = B t At .

Q

19 Suponer que A y B son matrices cuadradas del mismo orden, ¿es cierto que (A + B)2 = A2 + 2AB + B2

para todo par de matrices A y B? 

´ Solucion

   10 0 1 1 1 2 2 2 Si A = yB= , entonces (A + B) = = y 01 1 0 1 1 2 2  A2 + 2AB + B2 =

    1 0 1 0 0 1 1 0 2 2 +2 + = . 0 1 0 1 1 0 0 1 2 2

 2  0 −1 −2 −2 −1 0 2 = , pero Sin embargo, si A = y B= , entonces (A + B) = 2 2 4 2 1 1  2    2  1 −1 1 −1 −1 0 −1 0 −3 −4 +2 + = . A2 + 2AB + B2 = 1 1 1 1 1 1 1 1 2 3 

1 −1 1 1





Es decir, en general A2 + 2AB + B2 = (A + B)2 .



20 ¿Qu´e condici´on deben cumplir dos matrices cuadradas del mismo orden, A y B, para que (A + B)2 =

A2 + 2AB + B2 ? Del ejercicio precedente se puede inferir que la condici´on que se requiere es que las matrices conmuten; es decir, que AB = BA. En efecto, si e´ ste es el caso, entonces ´ Solucion

(A + B)2 = (A + B)(A + B) = A(A + B) + B(A + B) = A2 + AB + BA + B2 = A2 + AB + AB + B2 = A2 + 2AB + B2 .

 

21 Determinar, si es que existe, el valor que debe tener x para que las matrices A =



B=



3 −4 conmuten; esto es, para que AB = BA. −2 x

Page (PS/TeX): 40 / 40, COMPOSITE

−3 2 1 4

y

´ 1.3 SECCION

´ Solucion

Ejercicios resueltos y ejercicios propuestos 41

Para que AB = BA se debe tener 

−3 2 1 4



  3 −4 3 −4 −3 2 = ; −2 x −2 x 14

es decir, 

 −13 12 + 2x −13 −10 = ; −5 −4 + 4x 6 + x −4 + 4x

por tanto, se debe cumplir 12 + 2x = −10

y

6 + x = −5. Lo cual sucede u´ nicamente si x = −11.  

a b 22 ¿Qu´e condici´on debe cumplir una matriz cuadrada A = para que sea sim´etrica? cd ´ Solucion

Para que A sea sim´etrica se debe tener A = At ; esto es, 

y esto sucede si y s´olo si b = c.

 a b a c = c d b d



23 Demostrar que si A ∈ Mm×n , entonces la matriz B = AAt es sim´etrica. ´ DEMOSTRACION

Q B t = (AAt )t = (At )t At = AAt = B. Por tanto, B es sim´etrica (cfr. propiedades de la p´ag. 10). Q En los ejercicios 24 a 26 sean 

−i 1 + i 2 A= , 1 − i 2i 4 + i

⎤ −1 + i 3i B = ⎣ −5 + 3i 8 ⎦ , 7 − 2i 9i ⎡

⎤ −1 3 + 2i −5i C = ⎣ 3 −4i 0 ⎦ 2 −1 1 ⎡

⎤ −1 y u = ⎣ 2 − 2i ⎦ . 0

24 Calcular

(a) 2iA, (b) A − 3B t , (c) −3iB t + 2A. 

´ Solucion

Page (PS/TeX): 41 / 41, COMPOSITE

(a)

−i 1 + i 2 2iA = 2i 1 − i 2i 4 + i  (2i)(−i) (2i)(1 + i) (2i)(2) = (2i)(1 − i) (2i)(2i) (2i)(4 + i)  2 −2 + 2i 4i = . 2 + 2i −4 −2 + 8i



42 CAPI´TULO 1

Matrices y sistemas lineales

⎤t −1 + i 3i −i 1 + i 2 − 3 ⎣ −5 + 3i 8 ⎦ 1 − i 2i 4 + i 7 − 2i 9i  −i 1 + i 2 1 − i 2i 4 + i  −1 + i −5 + 3i 7 − 2i −3 3i 8 9i  −i 1 + i 2 1 − i 2i 4 + i  3 − 3i 15 − 9i −21 + 6i + −9i −24 −27i  3 − 4i 16 − 8i −19 + 6i . 1 − 10i −24 + 2i 4 − 26i 

A − 3B t =

(b)

=

=

=





⎤t  −1 + i 3i −i 1 + i 2 −3iB t + 2A = −3i ⎣ −5 + 3i 8 ⎦ + 2 1 − i 2i 4 + i 7 − 2i 9i   −1 + i −5 + 3i 7 − 2i −i 1 + i 2 = −3i +2 3i 8 9i 1 − i 2i 4 + i   3 + 3i 9 + 15i −6 − 21i −2i 2 + 2i 4 = + 9 −24i 27 2 − 2i 4i 8 + 2i  3 + i 11 + 17i −2 − 21i = .  11 − 2i −20i 35 + 2i ⎡

(c)

25 Encontrar

(a) Au, (b) Bu, (c) Cu.  ´ Solucion

Au =

(a)



⎤ −1 −i 1 + i 2 ⎣ 2 − 2i ⎦ 1 − i 2i 4 + i 0



(−i)(−1) + (1 + i)(2 − 2i) + (2)(0) (1 − i)(−1) + (2i)(2 − 2i) + (4 + i)(0)  4+i = . 3 + 5i



=

(b) La matriz B tiene tama˜no 3 × 2 y la matriz u tiene tama˜no 3 × 1, as´ı que el producto Bu no est´a definido; pues el n´umero de columnas de B es distinto al n´umero de filas de A. (Los “medios” en (3 × 2)(3 × 1) son distintos.) ⎤ ⎤⎡ −1 −1 3 + 2i −5i Cu = ⎣ 3 −4i 0 ⎦ ⎣ 2 − 2i ⎦ 0 2 −1 1 ⎤ ⎤ ⎡ ⎡ 11 − 2i (−1)(−1) + (3 + 2i)(2 − 2i) + (−5i)(0) ⎦ = ⎣ −11 − 8i ⎦ . (3)(−1) + (−4i)(2 − 2i) + (0)(0) =⎣ −4 + 2i (2)(−1) + (−1)(2 − 2i) + (1)(0) ⎡

(c)

Page (PS/TeX): 42 / 42, COMPOSITE



´ 1.3 SECCION

Ejercicios resueltos y ejercicios propuestos 43

26 Hallar

(a) AB,

(b) AC,

´ Solucion

(c) BC.

(a) De acuerdo con (1.1) (cfr. p´ag. 5)  AB =  =  =

⎤ −1 + i 3i −i 1 + i 2 ⎣ −5 + 3i 8 ⎦ 1 − i 2i 4 + i 7 − 2i 9i

F1C1 F1C2 F2C1 F2C2





7 − 5i 11 + 26i . 24 − 9i −6 + 55i

⎤ ⎡ −1 3 + 2i −5i −i 1 + i 2 ⎣ 3 −4i 0 ⎦ AC = 1 − i 2i 4 + i 2 −1 1  F1C1 F1C2 F1C3 = F2C1 F2C2 F2C3  7 + 4i 4 − 7i −3 = . 7 + 9i 9 − 2i −1 − 4i 

(b) Por (1.1)

(c) El producto no est´a definido; pues en (3 × 2)(3 × 3) los “medios” son distintos (el n´umero de columnas de B es distinto al n´umero de filas de C). 

Sistemas lineales 27 Indicar si el sistema dado es lineal o no.

(a)

x1 − 3x2 + x3 = −3 x1 − 4x2 − 3x32 = 5

(b) x1 − cos(x2 )x2 = 0 x1 + x2 = 1

(c) x1 + x2 + x3 = 3 x1 − x2 + x3 = 2

´ Solucion (a) El sistema no es lineal porque no tiene la forma (1.6) (cfr. p´ag. 15) al estar la variable x3 en la segunda ecuaci´on elevada al cuadrado.

(b) El sistema no es lineal porque no tiene la forma (1.6) pues en la primera ecuaci´on el segundo t´ermino contiene la evaluaci´on de cos(x2 ). (c) El sistema s´ı es lineal pues tiene la forma (1.6); con a11 = a12 = a13 = 1, a21 = a23 = 1, a22 = −1, b1 = 3 y b2 = 2 (un sistema de dos ecuaciones con tres inc´ognitas).  28 Determinar si u = (−1, 2, 1, −2) es soluci´on del sistema

−8x1 + 5x2 − 3x3 − 3x4 = 21 7x1 + 5x2 + 7x3 + 6x4 = −2 4x1 + 3x2 + 7x3 − 5x4 = 19 ´ Solucion

Al sustituir u en la primera, segunda y tercera ecuaci´on se obtiene:

−8(−1) + 5(2) − 3(1) − 3(−2) = 21 7(−1) + 5(2) + 7(1) + 6(−2) = −2 4(−1) + 3(2) + 7(1) − 5(−2) = 19

Page (PS/TeX): 43 / 43, COMPOSITE

por lo que u s´ı es soluci´on del sistema.



44 CAPI´TULO 1

Matrices y sistemas lineales

29 Determinar si v = (−3, 0, 0, 1) es soluci´on del sistema del ejemplo anterior. ´ Solucion

Al sustituir v en la primera y segunda ecuaci´on se obtiene: −8(−3) + 5(0) − 3(0) − 3(1) = 21 7(−3) + 5(0) + 7(0) + 6(1) = −15.

Puesto que −15 = −2, v no es soluci´on del sistema.



30 Escribir el sistema del ejercicio 28 en la forma matricial Ax =b y resolver los ejercicios 28 y 29 mediante

multiplicaci´on de matrices. ⎡

⎤ x1 −8 5 −3 −3 ⎢ x2 ⎥ ⎥ ´ Solucion La matriz de coeficientes (cfr. p´ag. 15) de este sistema es A = ⎣ 7 5 7 6 ⎦, x = ⎢ ⎣ x3 ⎦ 4 3 7 −5 x4 ⎤ ⎡ 21 y el t´ermino independiente es ⎣ −2 ⎦; as´ı que el sistema en forma matricial est´a dado por 19 ⎡ ⎤ ⎤ ⎤ x ⎡ ⎡ 21 −8 5 −3 −3 ⎢ 1 ⎥ ⎣ 7 5 7 6 ⎦ ⎢ x2 ⎥ = ⎣ −2 ⎦ . ⎣ x3 ⎦ 19 4 3 7 −5 x4 ⎤



Puesto que

⎤ ⎡ ⎤ ⎡ ⎤ −1 21 −8 5 −3 −3 ⎢ ⎥ 2 ⎥ ⎣ ⎦ ⎣ 7 5 7 6 ⎦⎢ ⎣ 1 ⎦ = −2 19 4 3 7 −5 −2 ⎡

y

⎤ ⎡ ⎤ ⎡ ⎤ −3 21 −8 5 −3 −3 ⎢ ⎥ ⎣ 7 5 7 6 ⎦ ⎢ 0 ⎥ = ⎣ −15 ⎦ = b, ⎣ 0⎦ −17 4 3 7 −5 1 ⎡

u = (−1, 2, 1, −2) es soluci´on del sistema Ax = b, mientras que v = (−3, 0, 0, 1) no es soluci´on del sistema Ax = b.  31 Indicar las matrices que est´an en forma escalonada. Para las que est´en en forma escalonada, determinar

los pivotes de cada fila, y para las que no est´an en forma escalonada, mencionar la propiedad que no cumplen para este efecto. ⎤ −1 2 1 5 0 (a) ⎣ 0 2 −3 1 2 ⎦, 0 0 0 1 0 ⎡

⎤ 0 1 −3 2 1 (b) ⎣ 0 0 0 0 2 ⎦, 0 0 0 00 ⎡

⎤ 1 2 −2 7 9 (c) ⎣ 0 0 1 −1 3 ⎦ 0 1 −1 0 1

⎤ −7 2 3 −5 9 (d) ⎣ 0 0 0 0 0 ⎦. 0 2 −3 1 1 ⎡



y

´ Solucion (a) La matriz est´a en forma escalonada; los pivotes para la primera, segunda y tercera fila son, respectivamente, −1, 2 y 1.

(b) La matriz est´a en forma escalonada; el pivote para la primera fila es 1 y para la segunda es 2.

Page (PS/TeX): 44 / 44, COMPOSITE

´ 1.3 SECCION

Ejercicios resueltos y ejercicios propuestos 45

(c) La matriz no est´a en forma escalonada; el primer elemento distinto de cero de la tercera fila no est´a a la derecha del primer elemento distinto de cero de la segunda fila. (d) La fila nula en esta matriz no est´a por debajo de las filas no nulas; por lo que no est´a en forma escalonada.  Para cada uno de los sistemas de los ejercicios 32 y 33: (a) Escribir la matriz aumentada correspondiente. (b) Utilizar el inciso (a) para determinar si el sistema est´a en forma escalonada. x1 − 3x2 + x4 − 5x5 = −5 −5x2 + 4x3 + x5 = −3 −x3 + x4 = −7

32

´ Solucion

(a) La matriz ampliada es en este caso

⎤ ⎡ 1 −3 0 1 −5

−5 ⎣ 0 −5 4 0 1 −3 ⎦ .

0 0 −1 1 0 −7

(b) Puesto que la matriz aumentada est´a en forma escalonada, el sistema est´a escalonado.



2x1 − x2 + 3x4 − 5x5 = 2 x2 + 4x3 − x5 = −4 −2x1 + 3x4 = −3

33

´ Solucion

(a) Para este sistema la matriz ampliada correspondiente es

⎤ ⎡ 2 −1 0 3 −5

2 ⎣ 0 1 4 0 −1 −4 ⎦ .

−2 0 0 3 0 −3

(b) Dado que en este sistema la matriz aumentada no est´a en forma escalonada, el sistema no est´a escalonado.  En los ejercicios 34 a 36, determinar si el sistema escalonado dado tiene soluci´on u´ nica, tiene una infinidad de soluciones o es inconsistente, sin resolver dicho sistema; y en los sistemas que sean consistentes indicar las variables libres y las variables ligadas.

⎤ 3 −1 −1 −3 5

1 ⎣ 0 2 −4 0 2 −2 ⎦

0 0 0 3 0 −3 ⎡ 34

El sistema es consistente porque no tiene una fila nula a la izquierda de la partici´on con un correspondiente registro distinto de cero a la derecha. Variables libres: x3 y x5 (que corresponden a las columnas sin pivote). Variables ligadas x1 , x2 y x4 (que corresponden a columnas con pivote). Como el sistema es consistente y tiene variables libres (equivalentemente columnas con pivote), tiene entonces una infinidad de soluciones. 

⎤ ⎡ 1 −1 2 4 −5

8 ⎣ 0 1 −2 0 3 −5 ⎦ 35

0 0 0 0 0 4 ´ Solucion

Page (PS/TeX): 45 / 45, COMPOSITE

46 CAPI´TULO 1

Matrices y sistemas lineales

El sistema es inconsistente porque tiene una fila nula a la izquierda de la partici´on con un registro correspondiente distinto de cero a la derecha.  ´ Solucion

⎡ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣

36

1 0 0 0 0 0

−1 −3 0 0 0 0

0 2 2 0 0 0

2 4 −3 1 0 0

2 6 5 0 1 0









8 9 9 2 1 0

⎤ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦

´ Solucion El sistema es consistente porque la fila nula a la izquierda de la partici´on tiene registro tambi´en nulo a la derecha de la partici´on. Variables ligadas: x1 , x2 , x3 , x4 y x5 (las que corresponden a columnas con pivote). No tiene variables libres. Puesto que el sistema es consistente y no tiene variables libres tiene soluci´on u´ nica. 

37 Resolver el sistema escalonado del ejercicio 34 haciendo sustituci´on regresiva.

La u´ ltima fila de la matriz ampliada equivale a 3x4 = −3; por tanto, x4 = −1. La segunda fila de la matriz ampliada equivale a 2x2 − 4x3 + 2x5 = −2 (con x3 y x5 variables libres), que al despejar la variable ligada x2 produce x2 = −1 − x5 + 2x3 . La primera fila de la matriz ampliada equivale a 3x1 − x2 − x3 − 3x4 + 5x5 = 1, con x3 y x5 variables libres; que al despejar la variable ligada x1 produce x1 = (1+x2 +x3 +3x4 −5x5 )/3 = (1−1−x5 +2x3 +x3 −3−5x5 )/3 = x3 −2x5 −1. Entonces la soluci´on est´a dada por ´ Solucion

⎤ ⎤ ⎡ s − 2r − 1 x1 ⎢ x2 ⎥ ⎢ −1 − r + 2s ⎥ ⎥ ⎢ ⎥ ⎢ ⎥; ⎢ x3 ⎥ = ⎢ s ⎥ ⎢ ⎥ ⎢ ⎦ ⎣ x4 ⎦ ⎣ −1 r x5 ⎡

r, s ∈ R.



38 Resolver el sistema escalonado del ejercicio 36 haciendo sustituci´on regresiva. ´ Solucion La quinta fila de la ampliaci´on equivale a x5 = 1; la cuarta fila de la ampliaci´on equivale a x4 = 2; la tercera fila de la ampliaci´on equivale a 2x3 − 3x4 + 6x5 = 9, que al despejar la variable ligada x3 produce x3 = (9 + 3x4 − 5x5 )/2 = (9 + 6 − 5)/2 = 5; la segunda fila de la matriz ampliada equivale a −3x2 + 2x3 + 4x4 + 6x5 = 9, que al despejar la variable ligada x2 produce x2 = (9 − 2x3 − 4x4 − 6x5 )/(−3) = (9 − 10 − 8 − 6)/(−3) = 5; la primera fila de la matriz ampliada equivale a x1 − x2 + 2x4 + 2x5 = 8, que⎡al despejar ⎤ ⎡ la⎤variable ligada x1 produce x1 = 8 + x2 − 2x4 − 2x5 = 8 + 5 − 4 − 2 = 7. 7 x1 ⎢ x2 ⎥ ⎢ 5 ⎥ ⎢ ⎥ ⎢ ⎥ ⎥ ⎢ ⎥ As´ı la soluci´on es ⎢ ⎢ x3 ⎥ = ⎢ 5 ⎥.  ⎣ x4 ⎦ ⎣ 2 ⎦ 1 x5

39 Encontrar una matriz H que est´e en forma escalonada y que sea equivalente por filas a la matriz



−3 ⎢ 2 A=⎢ ⎣ 7 1

Page (PS/TeX): 46 / 46, COMPOSITE

2 −1 2 −1

1 5 1 2

4 6 −1 3

⎤ 4 −3 ⎥ ⎥ 5 ⎦ 4

por medio del m´etodo de Gauss.

´ 1.3 SECCION

⎡ ´ Solucion

−3 ⎢ 2 ⎢ ⎣ 7 1

2 −1 2 −1

1 5 1 2

4 6 −1 3

⎤ 4 −3 ⎥ ⎥ 5 ⎦ 4

Ejercicios resueltos y ejercicios propuestos 47



1 ⎢ 2 ←−−−−→ ⎢ R1 ↔ R4 ⎣ 7 −3 ⎡ 1 ⎢ 0 ←−−−−−−−−−−→ ⎢ R2 ↔ −2R1 + R2 ⎣ 0 R3 ↔ −7R1 + R3 0 R4 ↔ 3R1 + R4 ⎡ 1 ⎢ 0 ←−−−−−−−−−−→ ⎢ R3 ↔ −9R2 + R3 ⎣ 0 R4 ↔ R2 + R4 0 ⎡ 1 ⎢ 0 ←−−−−−−−−−→ ⎢ R3 ↔ (1/22)R3 ⎣ 0 0 ⎡ 1 ⎢ 0 ←−−−−−−−−−−−→ ⎢ R4 ↔ 8R3 + R4 ⎣ 0 0

−1 −1 2 2

2 5 1 1

−1 1 9 −1

2 1 −13 7

−1 1 0 0

2 1 −22 8

−1 1 0 0

2 1 −1 8

−1 1 0 0

2 1 −1 0

La matriz H est´a en forma escalonada y es equivalente a la matriz A.

⎤ 4 −3 ⎥ ⎥ 5 ⎦ 4

3 6 −1 4

⎤ 4 −11 ⎥ ⎥ −23 ⎦ 16 ⎤ 3 4 0 −11 ⎥ ⎥ −22 76 ⎦ 13 5 ⎤ 3 4 0 −11 ⎥ ⎥ −1 38/11 ⎦ 13 5 ⎤ 3 4 0 −11 ⎥ ⎥ =H −1 38/11 ⎦ 5 359/11 3 0 −22 13



40 Resolver por el m´etodo de Gauss el sistema

x1 − x2 + 3x3 + 5x4 − 6x5 3x1 − 4x2 + 5x3 − 2x4 + x5 −2x1 + 3x2 − x3 + 3x4 − 5x5 −x1 − x2 + 2x3 − 2x4 + 3x5 5x1 − 3x2 + x3 − 4x4 + 7x5 4x1 − 5x2 + 8x3 + 3x4 − 5x5 ´ Solucion

⎡ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣

1 3 −2 −1 5 4

Page (PS/TeX): 47 / 47, COMPOSITE

= = = = = =

−15 −43 17 −13 −20 −58

Primero se lleva la matriz ampliada del sistema a forma escalonada.

⎡ ⎤ 1 −1 3 5 −1 3 5 −6 −15

−4 −17 −4 5 −2 1 −43 ⎥ ⎢ 0 −1 ⎢ ⎥

1 5 13 3 −1 3 −5 17 ⎥ ⎢ 0 ⎥ ∼ ⎢

5 3 −1 2 −2 3 −13 ⎥ ⎢ 0 −2

⎣ 0 2 −14 −29 −3 1 −4 7 −20 ⎦ 0 −1 −4 −17 −5 8 3 −5 −58 ⎡ 1 −1 3 5 −4 −17 ⎢ 0 −1 ⎢ 0 1 −4 ⎢ 0 ∼ ⎢ 0 13 37 ⎢ 0 ⎣ 0 0 −22 −63 0 0 0 0 ⎡ 1 −1 3 5 −17 ⎢ 0 −1 −4 ⎢ 0 1 −4 ⎢ 0 ∼ ⎢ 0 0 89 ⎢ 0 ⎣ 0 0 0 −151 0 0 0 0

−6 19 −17 −3 37 19 −6 19 2 −41 75 0 −6 19 2 −67 119 0























⎤ −15 2 ⎥ ⎥ −13 ⎥ ⎥ −28 ⎥ 55 ⎦ 2 ⎤ −15 2 ⎥ ⎥ −11 ⎥ ⎥ −32 ⎥ 59 ⎦ 0 ⎤ −15 2 ⎥ ⎥ −11 ⎥ ⎥ 111 ⎥ −183 ⎦ 0

48 CAPI´TULO 1

Matrices y sistemas lineales

⎡ ∼

⎢ ⎢ ⎢ ⎢ ⎢ ⎣

1 0 0 0 0 0

−1 −1 0 0 0 0

3 −4 1 0 0 0

5 −17 −4 89 0 0

−6 19 2 −67 474 0









−15 2 −11 111 474 0

⎤ ⎥ ⎥ ⎥ ⎥. ⎥ ⎦

Despu´es se hace sustituci´on regresiva: x5 = 1; x4 = (111 + 67x5 )/89 = 2;

x3 = −11 + 4x4 − 2x5 = −5;

x2 = −2 − 4x3 − 17x4 + 19x5 = 3; x1 = −15 + x2 − 3x3 − 5x4 + 6x5 = −1 ⎤ ⎡ ⎤ ⎡ −1 x1 ⎢ x2 ⎥ ⎢ 3 ⎥ ⎥ ⎢ ⎥ ⎢ ⎥ ⎥ ⎢ El sistema tiene soluci´on u´ nica: ⎢ ⎢ x3 ⎥ = ⎢ −5 ⎥.  ⎣ x4 ⎦ ⎣ 2 ⎦ 1 x5 41 Resolver el sistema

x1 + x2 + 2x3 − x4 x1 − x2 + x3 − x4 x1 + x2 − x3 − x4 −x1 − 2x2 + x3 + x4 ´ Solucion

= = = =

10 9 1 2

por el m´etodo de Gauss.

Se lleva la matriz aumentada del sistema a forma escalonada

⎤ ⎤ ⎡ ⎡ 1 1 2 −1

−10 1 1 2 −1

10 ⎥

⎢ ⎢ 1 −1 1 −1 9 ⎥

⎥ ∼ ⎢ 0 −2 −1 0 −1 ⎥ ⎢

⎣ 0 0 −3 0 −9 ⎦ ⎣ 1 1 −1 −1 1 ⎦

0 −1 3 0 12 −1 −2 1 1 2

⎤ ⎡ 1 1 2 −1

10 ⎢ 0 −2 −1 0 −1 ⎥ ⎥

∼⎢ ⎣ 0 0 −3 0 −9 ⎦

0 0 −7 0 −25

⎤ ⎡ 1 1 2 −1

10 ⎢ 0 −2 −1 0 −1 ⎥ ⎥

∼⎢ ⎣0 0 1 0 3⎦

0 0 −7 0 −25

⎤ ⎡ 1 1 2 −1

−10 ⎢ 0 −2 −1 0 −1 ⎥ ⎥

∼ ⎢ ⎣0 0 1 0 3⎦

0 0 0 0 −4

y se observa que el sistema es inconsistente porque, en la forma escalonada equivalente, la u´ ltima fila del lado izquierdo de la partici´on es nula y el registro correspondiente del lado derecho es distinto de cero.  42 Resolver el sistema

x1 + 2x2 − 3x3 + x4 −3x1 + 5x2 − x3 + 2x4 4x1 + 3x2 + −5x3 − x4 −7x1 + 19x2 − 9x3 + 8x4

Page (PS/TeX): 48 / 48, COMPOSITE

= = = =

1−2 −16 −11 −14

mediante el m´etodo de Gauss.

´ 1.3 SECCION

´ Solucion

Ejercicios resueltos y ejercicios propuestos 49

Primero se obtiene una forma escalonada de la matriz ampliada del sistema.

⎤ ⎡ ⎤ ⎡ 1 2 −3 1

−2 1 2 −3 1

−2 ⎢ ⎢ −3 5

0 ⎥ 6 ⎥ 5 −1 2

⎥ ⎥ ∼ ⎢ 0 11 −10 ⎢

⎣ ⎦ ⎣ 4 0 −5 7 −5

−3 ⎦ 3 −5 −1 −11 0 33 −30 15 0 −7 19 −9 8 14

⎤ ⎡ 1 2 −3 1

−2 ⎢ 0 1 4 −5

−6 ⎥ ⎥ ∼ ⎢ ⎣ 0 −5 7 −5

−3 ⎦ 0 11 −10 5 0

⎡ ⎤ 1 2 −3 1

−2 ⎢ 0 1 4 −5

−6 ⎥ ⎥ ∼ ⎢ ⎣ 0 0 27 −30

−33 ⎦ 0 0 −54 60 66

⎤ ⎡ 1 2 −3 1

−2 ⎢ 0 1 4 −5

−6 ⎥ ⎥ ∼ ⎢ ⎣ 0 0 27 −30

−33 ⎦ 0 0 −54 60 66

⎤ ⎡ 1 2 −3 1

−2 ⎢ 0 1 4 −5

−6 ⎥ ⎥ ∼ ⎢ ⎣ 0 0 27 −30 −33 ⎦

0 0 0 0 0

⎡ ⎤ 1 2 −3 1

−2 ⎢ 0 1 4 −5

−6 ⎥ ⎥ ∼ ⎢ ⎣ 0 0 9 −10

−11 ⎦ 0 0 0 0 0

Despu´es se hace sustituci´on regresiva: x3 = (−11/9) + (10/9)x4 ; es decir,

x2 = −6 − 4x3 + 5x4 = (−10/9) + (5/9)x4 ; ⎡





11 − 31 9 + 9 r



x1 ⎢ ⎥ ⎢ x2 ⎥ ⎢ − 10 + 5r ⎥ ⎢ ⎥ = ⎢ 9 9 ⎥, ⎣ x3 ⎦ ⎢ − 11 + 10 r ⎥ ⎣ 9 9 ⎦ x4 r

r ∈ R.



43 Resolver los siguientes sistemas que tienen la misma matriz de coeficientes.

(a)

3x1 − x2 + 5x3 + 2x4 + x5 = 17 −x1 + x2 − 2x3 − x4 + 3x5 = −2 2x1 + 2x2 + 4x3 + x4 − 4x5 = −4

(b)

3y1 − y2 + 5y3 + 2y4 + y5 = 7 −y1 + y2 − 2y3 − y4 + y5 = −6 2y1 + 2y2 + 4y3 + y4 − 4y5 = 10

(c)

3z1 − z2 + 5z3 + 2z4 + z5 = 6 −z1 + z2 − 2z3 − z4 + 3z5 = −5 2z1 + 2z2 + 4z3 + z4 − 4z5 = 12

´ Solucion

Page (PS/TeX): 49 / 49, COMPOSITE

Se lleva a forma escalonada la matriz ampliada del sistema.

x1 = (−31/9) + (11/9)x4 ;

50 CAPI´TULO 1

Matrices y sistemas lineales



3 ⎣ −1 2 ⎡ −1 ⎣ 3 2 ⎡ −1 ⎣ 0 0 ⎡ −1 ⎣ 0 0



17 7 6

−2 −6 −5 ⎦ ∼

−4 10 12

⎤ 1 −2 −1 3

−2 −6 −5 −1 5 2 1

17 7 6 ⎦ ∼ 2 4 1 −4 −4 10 12

⎤ 1 −2 −1 3

−2 −6 −5 2 −1 −1 10

11 −11 −9 ⎦ ∼ 4 0 −1 2 −8 −2 2

⎤ 1 −2 −1 3

−2 −6 −5 2 −1 −1 10

11 −11 −9 ⎦ . 0 2 1 −18 −30 20 20 −1 5 2 1 1 −2 −1 3 2 4 1 −4

Se hace sustituci´on regresiva de cada t´ermino independiente. (a) x3 = (−30 − x4 + 18x5 )/2 = −15 − (1/2)x4 + 9x5 ; x2 = (11 + x3 + x4 − 10x5 )/2 = −2 + (1/4)x4 − (1/2)x5 ; x1 = 2 + x2 − 2x3 − x4 + 3x5 = (1/4)x4 − (31/2)x5 . Con lo que ⎤ ⎡ ⎡ ⎤ 30 + 14 s − 31 2 s x1 ⎥ ⎢ ⎢ x2 ⎥ ⎢ −2 + 14 s − 12 r ⎥ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ x3 ⎥ = ⎢ ⎢ ⎥ ⎢ −15 − 12 s + 9r ⎥; r, s ∈ R. ⎥ ⎣ x4 ⎦ ⎢ ⎦ ⎣ s x5 r (b) y3 = (20 − y4 + 18y5 )/2 = 10 − 12 s + 9r; y2 = (−11 + y3 + y4 − 10y5 )/2 = − 12 + 14 s − 12 r; 1 31 y1 = 6 + y2 − 2y3 − y4 + 3y5 = − 29 2 + 4 s − 2 r. Por lo que ⎤ ⎡ 29 1 ⎡ ⎤ − 2 + 4 s − 31 r 2 y1 ⎥ ⎢ ⎢ y2 ⎥ ⎢ − 21 + 14 s − 12 r ⎥ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ y3 ⎥ = ⎢ ⎢ ⎥ ⎢ 10 − 12 s + 9r ⎥; r, s ∈ R. ⎥ ⎣ y4 ⎦ ⎢ ⎦ ⎣ s y5 r (c) z3 = (20 − z4 + 18z5 )/2 = 10 − 12 s + 9r; z2 = (−9 + z3 + z4 − 10z5 )/2 = 12 + 14 s − 12 r; z1 = 5 + z2 − 1 31 2z3 − z4 + 3z5 = − 29 2 + 4 s − 2 r. Por tanto ⎤ ⎡ 29 1 ⎡ ⎤ − 2 + 4 s − 31 2 r z1 ⎥ ⎢ ⎢ z2 ⎥ ⎢ 12 + 14 s − 12 r ⎥ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ z3 ⎥ = ⎢ ⎢ ⎥ ⎢ 10 − 12 s + 9r ⎥; r, s ∈ R.  ⎥ ⎣ z4 ⎦ ⎢ ⎦ ⎣ s z5 r 44 Encontrar la matriz en forma escalonada reducida equivalente a la matriz



1 −1 2 ⎢ 2 −1 3 A=⎢ ⎣ −1 1 2 3 2 −1 por el m´etodo de Gauss-Jordan.

Page (PS/TeX): 50 / 50, COMPOSITE

⎤ 3 1 4 −1 ⎥ ⎥ 5 3⎦ 1 2

´ 1.3 SECCION

⎡ ´ Solucion

1 −1 2 ⎢ 2 −1 3 ⎢ ⎣ −1 1 2 3 2 −1

⎤ 3 1 4 −1 ⎥ ⎥ 5 3⎦ 1 2

Ejercicios resueltos y ejercicios propuestos 51

⎡ ←−−−−−−−−−−→ R2 ↔ −2R1 + R2 R3 ↔ R1 + R3 R2 ↔ −3R1 + R3

←−−−−−−−−−−→ R4 ↔ −5R2 + R4

←−−−−−−−−→ R3 ↔ (1/4)R3

←−−−−−−−−→ R4 ↔ 2R3 + R4

←−−−−−−−−→ R4 ↔ (1/6)R4

←−−−−−−−−−−→ R3 ↔ −2R4 + R3 R2 ↔ 2R4 + R2 R1 ↔ −3R4 + R1

1 ⎢0 ⎢ ⎢ ⎣0 0 ⎡ 1 ⎢0 ⎢ ⎢ ⎣0 0 ⎡ 1 ⎢0 ⎢ ⎢ ⎣0 0 ⎡ 1 ⎢0 ⎢ ⎢ ⎣0 0 ⎡ 1 ⎢0 ⎢ ⎢ ⎣0 0 ⎡ 1 ⎢0 ⎢ ⎢ ⎣0 ⎡

←−−−−−−−−−−→ R2 ↔ R3 + R2 R1 ↔ −2R3 + R1

0

0

0

0 0 1

8 3

0 1

5 ⎤ 1 −1 0 0 3 ⎢ 0 1 0 0 −2 ⎥ ⎢ ⎥ ⎢ ⎥ 13 ⎣0 0 1 0 − 3 ⎦

⎡ ←−−−−−−−→ R1 ↔ R2 + R1

⎤ −1 2 3 1 1 −1 −2 −3 ⎥ ⎥ ⎥ 0 4 8 4⎦ 5 −7 −8 −1 ⎤ −1 2 3 1 1 −1 −2 −3 ⎥ ⎥ ⎥ 0 4 8 4⎦ 0 −2 2 14 ⎤ −1 2 3 1 1 −1 −2 −3 ⎥ ⎥ ⎥ 0 1 2 1⎦ 0 −2 2 14 ⎤ −1 2 3 1 1 −1 −2 −3 ⎥ ⎥ ⎥ 0 1 2 1⎦ 0 0 6 16 ⎤ −1 2 3 1 1 −1 −2 −3 ⎥ ⎥ ⎥ 0 1 2 1⎦ 0 0 1 83 ⎤ −1 2 0 −7 7 ⎥ 1 −1 0 3 ⎥ ⎥ ⎦ 0 1 0 − 13 3

8 3

⎤ 1 0 0 0 − 13 ⎢ 0 1 0 0 −2 ⎥ ⎢ ⎥ ⎢ ⎥ = H. ⎣ 0 0 1 0 − 13 ⎦ 3 0 0 0 1

8 3

La matriz H est´a en forma escalonada reducida y A ∼ H.  45 Resolver el siguiente sistema por el m´etodo de Gauss-Jordan.

x1 − x2 + 2x3 2x1 − x2 + x3 −x1 + 3x2 − 2x3 x1 + x2 + 2x3

= = = =

−0 −2 −2 −2

´ Solucion Se lleva primero la matriz ampliada del sistema a forma escalonada reducida mediante el m´etodo de Gauss-Jordan:

Page (PS/TeX): 51 / 51, COMPOSITE

52 CAPI´TULO 1

Matrices y sistemas lineales



⎤ ⎤ ⎡ ⎤ ⎡ 1 −1 2

0 1 −1 2

0 1 −1 2

0 ⎥

⎥ ⎢

⎢ ⎢ 2 −1 1 −2 ⎥ ⎥ ∼ ⎢ 0 1 −3 −2 ⎥ ∼ ⎢ 0 1 −3 −2 ⎥



⎦ ⎦ ⎣0 0 6 ⎦ ⎣0 2 0 ⎣ −1 3 −2

6

2

2 0 0 6 6 0 2 0 2 1 1 2 2

⎤ ⎤ ⎡ ⎡ 1 −1 2

0 1 −1 2

0 ⎢ 0 1 −3 −2 ⎥ ⎢ 0 1 −3 −2 ⎥ ⎥

⎥ ⎢ ∼⎢ ⎣0 0 6 6⎦∼⎣0 0 1 1⎦

0 0 0 0 0 0 0 0

⎡ ⎤ ⎤ ⎡ 1 −1 0

−2 1 0 0

−1 ⎢0 1 0 1⎥ ⎢0 1 0 1⎥ ⎥

⎥ ⎢

∼⎢ ⎣ 0 0 1 1 ⎦ ∼ ⎣ 0 0 1 1 ⎦.

0 0 0 0 0 0 0 0 ⎡

Despu´es se hace sustituci´on regresiva.



⎤ ⎤ ⎡ x1 −1 ⎣ x2 ⎦ = ⎣ 1 ⎦ . 0 x3



46 Resolver el siguiente sistema homog´eneo por el m´etodo de Gauss.

7x1 − x2 + x3 − x4 = 0 15x1 + 3x2 − x3 + x4 = 0 4x1 − 2x2 + 7x3 − 5x4 = 0 ´ Solucion

Se lleva la matriz de coeficientes del sistema a forma escalonada utilizando el m´etodo de

Gauss:

⎤ ⎤ ⎡ ⎤ ⎡ 1 5 −3 3 7 −1 1 −1 7 −1 1 −1 ⎣ 15 3 −1 1 ⎦ ∼ ⎣ 1 5 −3 3 ⎦ ∼ ⎣ 7 −1 1 −1 ⎦ 4 −2 7 −5 4 −2 7 −5 4 −2 7 −5 ⎡ ⎤ ⎡ 1 5 −3 1 5 −3 3 ⎢ ⎥ ⎢ ∼ ⎣ 0 −36 22 −22 ⎦ ∼ ⎣ 0 1 − 11 18 ⎡

0 −22 19 −17

3 11 18

⎤ ⎥ ⎦

0 −22 19 −17 ⎤ ⎡ 1 5 −3 3 1 5 −3 3 ⎢ ⎢ 11 ⎥ 11 ⎥ 0 1 − 11 ∼ ⎣0 1 − 11 18 18 ⎦ 18 18 ⎦ ∼ ⎣ 32 0 −22 19 −17 0 0 50 − 9 9 ⎡



Se hace sustituci´on regresiva (igualando las ecuaciones a 0 porque el sistema es homog´eneo): x3 = Por tanto,

Page (PS/TeX): 52 / 52, COMPOSITE

16 x4 ; 25

11 11 11 1 x3 − x4 = − x4 ; x1 = −5x2 + 3x3 − 3x4 = x4 . 18 18 50 50 ⎡ 1 ⎤ ⎡ ⎤ 50 r x1 ⎢ 11 ⎥ ⎢− r⎥ ⎢ x2 ⎥ ⎢ ⎥ = ⎢ 50 ⎥; r ∈ R. O, equivalentemente, ⎢ 16 ⎥ ⎣ x3 ⎦ ⎣ 25 r ⎦ x4 r ⎤ ⎡ ⎤ ⎡ x1 s ⎥ ⎢ x2 ⎥ ⎢ ⎢ ⎥ = ⎢ −11s ⎥; s ∈ R.  ⎣ x3 ⎦ ⎣ 32s ⎦ 50s x4 x2 =

´ 1.3 SECCION

Ejercicios resueltos y ejercicios propuestos 53

47 Resolver el siguiente sistema y de manera simult´anea encontrar la soluci´on del sistema homog´eneo

asociado. x1 − 2x2 + 3x3 − 4x4 −x1 + 3x2 − 5x3 + x4 2x1 − x2 + 2x3 − 3x4 4x1 − 5x2 + 8x3 − 11x4

= −1 = 2 = 3 = 1

Se resuelve el sistema no homog´eneo por el m´etodo de Gauss llevando la matriz ampliada a forma escalonada.

⎤ ⎡ ⎤ ⎡ 1 −2 3 −4

−1 1 −2 3 −4

−1 ⎢ 0 1 −2 −3 1 ⎥ ⎢ −1 3 −5 1

2 ⎥ ⎥

⎢ ⎥ ⎢ ⎣ 2 −1 2 −3 3 ⎦ ∼ ⎣ 0 3 −4 5 5 ⎦

0 3 −4 5 5 4 −5 8 −11 1

⎤ ⎡ 1 −2 3 −4

−1 ⎢ 0 1 −2 −3 1 ⎥

⎥ ∼⎢ ⎣ 0 3 −4 5 5 ⎦

0 0 0 0 0

⎡ ⎤ 1 −2 3 −4

−1 ⎢ 0 1 −2 −3 1 ⎥ ⎥

∼⎢ ⎣ 0 0 2 14 2 ⎦

0 0 0 0 0 ´ Solucion

Se hace sustituci´on regresiva: x3 = 1 − 7x4 ; x2 = 1 + 2x3 + 3x4 = 3 − 11x4 ; x1 = −1 + 2x2 − 3x3 + 4x4 = 2 + 3x4 . Por tanto, ⎤ ⎡ ⎤ ⎡ 2 + 3r x1 ⎢ x2 ⎥ ⎢ 3 − 11r ⎥ ⎥ ⎢ ⎥=⎢ ⎣ x3 ⎦ ⎣ 1 − 7r ⎦; r ∈ R, r x4 es la soluci´on para el sistema Ax =0. Para encontrar la soluci´on del sistema homog´eneo asociado Ax =0 se escribe la soluci´on precedente como (cfr. 1.2.7, p´ag. 32) ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ 3r x1 2 ⎢ x2 ⎥ ⎢ 3 ⎥ ⎢ −11r ⎥ ⎥ ⎢ ⎥ = ⎢ ⎥+⎢ ⎣ x3 ⎦ ⎣ 1 ⎦ ⎣ −7r ⎦; r ∈ R, r 0 x4 y se obtiene una soluci´on particular del sistema no homog´eneo y la soluci´on del sistema homog´eneo asociado ⎡ ⎤ ⎡ ⎤ x1 3r ⎢ x2 ⎥ ⎢ −11r ⎥ ⎢ ⎥=⎢ ⎥ ⎣ x3 ⎦ ⎣ −7r ⎦; r ∈ R.  r x4 48 Determinar los valores de α para que el sistema

x1 − x2 + αx3 = −2 −x1 + 2x2 − αx3 = 3 αx1 + x2 + x3 = 2 tenga soluci´on u´ nica.

Page (PS/TeX): 53 / 53, COMPOSITE

54 CAPI´TULO 1

Matrices y sistemas lineales

´ Solucion

Al llevar la matriz ampliada del sistema a forma escalonada se obtiene

⎤ ⎡ ⎤ ⎡ 1 −1 α

−2 1 −1 α

−2 ⎣ −1 2 −α 3 ⎦ ∼ ⎣ 0 1 0

1 ⎦

2 α 1 1 0 α + 1 1 − α2 2 + 2α

⎡ ⎤ 1 −1 α

−2 0

1 ⎦ ∼ ⎣0 1 0 0 1 − α2 1 + α

as´ı que el sistema tiene soluci´on u´ nica para toda α = ±1. (Si α = 1, el sistema es inconsistente; y si α = −1, el sistema tiene una infinidad de soluciones.)  49 Determine los valores de α para que el sistema homog´eneo

αx − y + z = 0 x + 2y − αz = 0 x + 2y − z = 0 tenga soluciones distintas de cero. ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ 1 2 −α 1 2 −α α −1 1 ⎣ 1 2 −α ⎦ ∼ ⎣ α −1 1 ⎦ ∼ ⎣ 0 −2α − 1 α2 + 1 ⎦. ´ Solucion 1 2 −1 1 2 −1 0 0 α−1 Dado que el sistema homog´eneo es cuadrado, tiene soluci´on no trivial si la matriz de coeficientes no es equivalente a la identidad (cfr. teorema 1.6); y esto sucede si α = 1 o α = −1/2.  50 Resolver el sistema

´ Solucion

iz1 − iz2 + (3 + i)z3 = 4 + 2i (1 + i)z1 − z2 + z3 = 2 3iz1 + z2 − 3z3 = −3 + 4i

⎤ ⎤ ⎡ ⎡ 1 −1 1 − 3i

2 − 4i i −i 3 + i

4 + 2i ⎦ ⎦ ∼ ⎣ 1 + i −1 1 ⎣ 1 + i −1 1 2 2

3i 1 −3 −3 + 4i 3i 1 −3 −3 + 4i

⎤ ⎡ 1 −1 1 − 3i

2 − 4i −3 + 2i

−4 + 2i ⎦ ∼ ⎣0 i 0 1 + 3i −12 − 3i −15 − 2i

⎡ ⎤ 1 −1 1 − 3i

2 − 4i 2 + 3i

2 + 4i ⎦ ∼ ⎣0 1 0 1 + 3i −12 − 3i −15 − 2i

⎤ ⎡ 1 −1 1 − 3i

2 − 4i ∼ ⎣ 0 1 2 + 3i

2 + 4i ⎦ 0 0 −5 − 12i −5 − 12i

de donde, al hacer sustituci´on regresiva, ⎡

⎤ ⎡ ⎤ z1 1 ⎣ z2 ⎦ = ⎣ i ⎦ 1 z3 es la soluci´on del sistema.

Page (PS/TeX): 54 / 54, COMPOSITE



´ 1.3 SECCION

Ejercicios resueltos y ejercicios propuestos 55

1.3.2 Ejercicios propuestos El lector encontrar´a la respuesta a los ejercicios en cursiva en el ap´endice E al final del libro.

Matrices (respuestas en p´aginas 1073-1074) En los ejercicios 1 a 3 sean  A=

−1 2 2 5



(a) AB,

3 Encontrar

B=

,

(a) A + B,

1 Calcular 2 Hallar



−3 −4

(b) A +C,

(b) AC, t

,

(d) BC, t t

(b) A C,

⎤ −1 0 −2 4 7 −3 2 ⎦ C=⎣ 3 4 −6 −3 2 (e) BD,

(f) CD.

(e) D t D,

(d) B A,

(f) DD t .

En los ejercicios 4 a 7 sean    −8 −5 −7 7 5 4 4 A= , B= , C= −3 9 5 3 5 −5 −3   3 −6 −2 D= y E= . 7 6 4 4 Hallar

(a) −2A,

(b) A + B,

(a) 3C − E,

5 Calcular 6 Encontrar

(a) At B,

7 Calcular

(b) AC,

(c) E t B,

(d) AAt .

(b) B t A,

(c) BB t ,

(e) At A.

(a) D + E,

9 Encontrar 10 Hallar

(b) D − E,

(a) B − 2C, t

(b) E − D ,

11 Calcular

(a) 14 C t − 12 A,

12 Calcular

(a) AB,

13 Hallar

(a) A(BC),

14 Encontrar

t

(b) B t − B,

(b) BA, (b) CC t ,

(a) (3D t − E)A,



3 −2

 C=

,

⎤ 9 0 8 E = ⎣ −3 8 4 ⎦. 7 1 7 ⎡

y

(c) −4(D + 3E), t

(c) (D − E) , (c) 4E t − 3D t ,

(c) (2E)D, (c) (DA)t ,

−1 4 8 −6 2 −4

(d) −8C.

(c) 4A,

(b) 3E − 5D, t

(a) −A + 3C,

(d) C −C. t

(d) B + 4C t . (d) (3E t − 2D t )t .

(d) (AB)C. (d) (C t B)At .

(b) (5B)C + 3B,

(c) (−AC)t + 5D t .

(a) (BAt − 4C)t , (b) B t (CC t − At A), (c) D t E t − (ED)t . ⎤ 0 0 −3 0 ⎦: (a) Hallar A2 ; (b) Calcular A8 . 16 Sea A = ⎣ 0 2 4 0 0 15 Calcular

Page (PS/TeX): 55 / 55, COMPOSITE



,

(c) CB.

En los ejercicios 8 a 15 sean ⎤ ⎡  5 −5 −8 ⎦ ⎣ , B= A = 9 −1 −6 0 −12 ⎤ ⎡ 1 −4 −1 4 ⎦ D = ⎣ −4 1 −8 −9 5 8 Calcular

−8 2

(c) B − 2A.

(b) EB,

(a) CD,

y

(d) 6D. t

(c) D A ,

⎤ 2 D = ⎣ 3 ⎦. −6 ⎡





(c) 3A − 5B,

(c) AD, t

(a) A ,

5 0 −1 −2 3 −4

,

56 CAPI´TULO 1

Matrices y sistemas lineales



−1 17 Sea A = ⎣ 0 0 18 Sean A =



−1

0 3 0 0

⎤ 0 0 ⎦: 2 5





(a) Calcular A2 ;

(b) Encontrar A7 .

⎤ 2 y x = ⎣ −3 ⎦. Calcular 4 ⎡

(b) xA.

(a) Ax,

0 1 , encontrar todas las matrices B ∈ M2×2 tales que 0 −2 (c) AB = O y BA = O.

19 Si A =

20 Encontrar los valores de α, β, γ y δ tales que



1 0 2 α β γ δ ⎢ ⎢ 0 0 1 1 4 9 2 ⎣ 0 1 0 0 0 1 21 Encontrar los valores de α y β tales que las matrices ⎤ ⎡ −2 0 0 A=⎣ 0 1 0 ⎦ y α 0 β 



⎤ 0  1 ⎥ ⎥= 1 0 ⎦ 1 0

0 4

(a) AB = O;

3 9

3 2

(b) BA = O;

.

⎤ 3 0 3 B=⎣ 0 1 0 ⎦ 3 0 3 ⎡

conmuten; es decir, AB = BA.  1 1 22 Sea A = : (a) Calcular A2 . (b) Encontrar A3 . (c) Determinar An para todo n ∈ N. 0 1  cos θ − sen θ 23 Si A = , hallar A2 y calcular An para todo n ∈ N. sen θ cos θ 24 Sea ⎤ ⎡ 1 1 1 A=⎣ 0 1 1 ⎦: 0 0 1 (a) Calcular A2 . (b) Encontrar A3 . demostrarla por inducci´on.

(c) Hallar A4 .

(d) Conjeturar una f´ormula para An , n ∈ N, y

25 Encontrar todas las matrices A ∈ M2×2 tales A2 = O. 26 Probar que una matriz A de tama˜no 2 × 2 conmuta con toda matriz B del mismo tama˜no (AB = BA) si y

s´olo si A conmuta con las matrices  1 0 , 0 0



0 1 0 0



 ,

0 0 1 0



 y

0 0

0 . 1

Encontrar todas esas matrices A. 27 Encontrar todas las matrices A de tama˜no 2 × 2 tales que A2 = I2 , donde I2 es la matriz identidad de

orden 2. 28 Llenar las entradas vac´ıas de la matriz 4 × 4



2

−3

⎢ ⎢ 1 −2 ⎢ ⎢ ⎢ −1 4 ⎣ 1

1

de tal manera que se obtenga una matriz sim´etrica.

Page (PS/TeX): 56 / 56, COMPOSITE

1 1 −2 5

4



⎥ 5 ⎥ ⎥ ⎥ 1 ⎥ ⎦ 7

´ 1.3 SECCION

Ejercicios resueltos y ejercicios propuestos 57

29 Llenar las entradas vac´ıas de la matriz 4 × 4



1

⎢ ⎢ 1 ⎢ ⎢ ⎢ 1 ⎣ 1

−2

1

3

1

−2

4

1

1

3



⎥ 6 ⎥ ⎥ ⎥ 1 ⎥ ⎦ 5

de tal manera que se obtenga una matriz sim´etrica. 30 Probar que si A ∈ Mm×n , entonces B = A + At es una matriz sim´etrica. 31 Demostrar que si A es una matriz cuadrada, entonces (A2 )t = (At )2 y (A3 )t = (At )3 . (Indicaci´on: Utilizar

la propiedad 3(b) de la p´ag. 10.) En los ejercicios 32 a 39 las afirmaciones dadas son falsas o verdaderas; si la afirmaci´on es verdadera se debe demostrar con rigor su validez y si es falsa se debe dar un contraejemplo para mostrar que no es cierta. En cada caso se supone que las matrices involucradas A, B y C tienen los tama˜nos adecuados para efectuar las correspondientes operaciones. 32 A = B ⇒ AC = BC. 33 A = B ⇒ CA = BC. 34 A = B ⇒ CA = CB. 35 A2 = In ⇒ A = In o A = −In . 36 AB = O ⇒ A = O o B = O. 37 C + A = B + A ⇒ C = B. 38 A2 = In ⇒ Am = In ∀n ≥ 2 (n entero). 39 Si A es una matriz cuadrada sim´etrica, B = [bi j ] y B = A2 , entonces bii ≥ 0 ∀i.

Sistemas lineales (respuestas en p´aginas 1072-1075) 40 Determinar cu´ales de los siguientes sistemas de ecuaciones son lineales.

√ (a) x1 − x2 + 2x3 = π −x1 + x2 + ex3 = e

(b) cos(x1 ) + x1 x2 − x3 = 5 x1 + x2 − x3 = 6 cos(x1 ) + x1 x2 − x3 41 Sea el sistema

(c) x1 + 3x2 − 5x3 = 1 2x1 + x2 − x3 = 7 −3x12 + x2 − x3 = 2 (d)

x1 − 3x2 − 4x4 = 2 2x1 − 3x2 − 2x3 = 3 x1 + x2 − x3 = −5

x1 − x2 + 2x3 + x4 + x5 + 3x6 = −1 −3x1 + 2x2 + 4x3 − x4 + x5 + 2x6 = −2 −2x1 + x2 + x3 + 2x4 − x5 + x6 = −1 x1 − x2 + x3 − x4 + x5 − x6 = −1 Determinar si (a) (−1, −1, 0, −1, 0, 0); (b) (−10, −14, −2, −6, −4, 3); (c) (−13, −16, −4, −5, 0, 3); (d) (1, 1, 2, 1, 1, −2) son soluciones.

Page (PS/TeX): 57 / 57, COMPOSITE

58 CAPI´TULO 1

Matrices y sistemas lineales

42 Indicar las matrices que est´an en forma escalonada. Para las que s´ı lo est´an, se˜nalar los pivotes de cada

fila; y para las que no, mencionar las propiedades que no se cumplen para ese fin. ⎤ ⎡ −1 1 2 ⎤ ⎡ ⎢ 0 1 2 ⎥ 2 0 −2 1 2 ⎥ ⎢ ⎥ ⎦ ⎣ 0 0 0 −1 1 (c) ⎢ (a) ⎢ 0 0 0 ⎥ ⎣ 0 0 0 ⎦ 0 0 0 0 2 0 0 0 ⎤ ⎡ −1 1 0 0 0 ⎤ ⎡ (b) ⎣ 0 0 2 −1 3 ⎦ 0 1 2 ⎢ 0 1 0 ⎥ 0 3 0 0 0 ⎥ ⎢ ⎥ (d) ⎢ ⎢ 0 0 0 ⎥ ⎣ 0 0 0 ⎦ 0 0 0 De los ejercicios 43 a 46: (a) Escribir la matriz aumentada correspondiente. (b) Utilizar el inciso (a) para determinar si el sistema est´a en forma escalonada. (c) Para los sistemas que est´en en forma escalonada indicar cu´ales son las variables libres y cu´ales las ligadas. 43

44

x1 + 2x2 − x3 + x4 + 2x5 = −8 x1 − x3 + x5 = −8 x3 + 2x4 = 4

45 x1 − x2 + x3 − x4 − x5 = −6

3x1 − x2 + x3 = 14 x2 − x3 = 16 x3 = −4

46 x1 − 4x2 + 5x3 − x4 + x5 = −7

x2 − x3 + x5 = −3 2x5 = −8 x4 − 5x5 = 12 3x5 = −4

En los ejercicios 47 a 50, determinar si el sistema escalonado tiene soluci´on u´ nica, tiene una infinidad de soluciones o es inconsistente, sin resolverlo; y en los sistemas que son consistentes, indicar las variables libres y las variables ligadas.

⎤ ⎤ ⎡ ⎡ 0 −1 2 −1 0 3

−3 2 −1 −2 3 0 −3

3 ⎢ 0 ⎢ 0 0 1 0 −1 1

2 ⎥ 2 1 0 −1 1

4 ⎥ ⎥ ⎥ 47 ⎢ 49 ⎢ ⎣ 0 ⎣ 0 0 0 0 0 2

1 ⎦ 0 −1 0 0 2

6 ⎦ 0 0 0 0 0 0 0 0 0 0 0 0 0 2

⎤ ⎤ ⎡ ⎡

1 −1 2 1

2 1 1 2 −1

⎢ 0 −1 1 2 ⎥ ⎢ 0 0 −2 4

−1 ⎥ ⎥ ⎥ ⎢ 50 ⎢

⎥ ⎢ ⎣ 0 0 0 2

4 ⎦ 0 4 0⎥ 48 ⎢ 0

⎣ 0 0 0 0 0 0 0 0 0⎦ 0 0 0 0 51 Resolver mediante sustituci´on regresiva.

escalonado del ejercicio 49;

(a) el sistema escalonado del ejercicio 47; (c) el sistema escalonado del ejercicio 50.

(b) el sistema

En los ejercicios 52 a 59 utilizar el m´etodo de Gauss para encontrar una matriz H equivalente a la matriz dada que est´e en forma escalonada. ⎤ ⎡ ⎤ ⎡ 3 −2 1 1 4 0 1 −1 2 1 0 ⎢ 2 −1 1 2 3 ⎥ ⎥ 1 1 1 3 ⎦ 52 ⎣ 0 2 53 ⎢ ⎣ −2 1 1 0 1 ⎦ 0 4 −1 2 1 6 5 −2 3 1 1

Page (PS/TeX): 58 / 58, COMPOSITE

´ 1.3 SECCION

 54

−1 3

⎡ 55

0 ⎣ 0 0 ⎡

56

⎢ ⎢ ⎢ ⎢ ⎣

2 4 3 1 2

2 −6 0 1 2 −3 −2 −1 −1 1

1 4

1 −2

3 −5

Ejercicios resueltos y ejercicios propuestos 59



57

⎤ 4 −3 ⎦ 4 2 1 2 2 −1

−1 ⎢ 2 ⎢ ⎣ 3 4 ⎡

4 −1 1 3 0

−5 2 0 −1 1

2 1 1 1 1

1 0 0 2 1



58

⎥ ⎥ ⎥ ⎥ ⎦

⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡

59

⎢ ⎢ ⎢ ⎢ ⎢ ⎣

2 4 −1 7

3 3 2 −4

−1 −1 1 2

1 2 1 2 2 −3

2 −2 2 −1 −3 2

−1 3 −4 1 1 1

1 4 6 2 5 1

2 3 7 −3 5 −5

−3 −1 3 1 −1 1

6 1 −2 1 1 0

2 2 5 2 1 1

⎤ 0 1 ⎥ ⎥ 8 ⎦ 4

1 2 1 −2

⎤ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦

3 1 2 1 1 −2

4 0 6 0 2 3

⎤ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦

En los ejercicios 60 a 71, resolver el sistema por medio del m´etodo de Gauss. 60

3x1 + x2 + x3 − x4 + 2x5 = 1 2x1 − x2 + 2x3 − x4 + x5 = 2 3x1 + x2 − 2x3 − x4 − 2x5 = 1

61

x1 + 5x2 + 4x3 − 13x4 = 5 3x1 − x2 + 2x3 + 5x4 = −3 2x1 + 2x2 + 3x3 − 4x4 = 1

62

2x1 + x2 − 3x3 = −5 3x1 − 2x2 + 2x3 = 9 5x1 − 3x2 − x3 = 6

63

x1 + 2x2 − 3x3 + x4 + x5 + 3x6 2x1 − x2 + 2x3 + x4 + 3x5 − 4x6 3x1 − 2x2 + 4x3 + 2x4 + x5 + x6 −3x1 + x2 − x3 + 2x4 + x5 + x6

64

2x1 + 3x2 − 2x3 = −6 x1 − 2x2 + 3x3 = 8 4x1 − x2 + 4x3 = 2

65

x1 + 2x2 − 3x3 + 2x4 = −1 2x1 + 5x2 − 8x3 + 5x4 = −4 3x1 + 4x2 − 5x3 + 2x4 = −1

66

x1 + 2x2 + 2x3 3x1 − 2x2 − x3 2x1 − 5x2 + 3x3 x1 + 4x2 + 6x3

= −1 = 4 = −1 = −5

67

x1 − x2 + x3 + 2x4 −x1 + x2 + x3 + 3x4 x1 − x2 + 3x3 + 7x4 −x1 + x2 + x3 − 2x4

68

2x1 − x2 + x3 −x1 + x2 + 2x3 −2x1 + x2 + x3 6x1 − 2x2 + 8x3 4x1 − 3x2 + 3x3

69

3x1 − 4x2 + 3x3 − x4 2x1 − x2 + 3x3 − 5x4 x1 + x2 + x3 − x4 −2x1 + 3x2 − x3 + 2x4

70

x1 − 2x2 + x3 + 3x4 + 2x5 2x1 − 3x2 + 5x3 + 7x4 + 3x5 −x1 − 7x3 − 5x4 4x1 − 5x2 + 13x3 + 15x4 + 5x5

71

2x1 − x2 + 3x3 − x4 −x1 + 2x2 + x3 + 2x4 4x1 − 2x2 + x3 + x4 2x1 + 3x2 − 4x3 − 2x4 −x1 + 9x2 − x3 − 4x4

= 1 = 3 = 18 = −1

= 8 = 4 = 2 = −6

= −1 = 6 = 5 = 8 = −1 = 0 = −11 = 2 = 9 = 8 = 21 = −18 = 47

= 16 = 6 = 13 = −25 = −23

Los ejercicios 72 a 75 contienen sistemas lineales que tienen la misma matriz de coeficientes pero distintos t´erminos independientes, resolverlos por el m´etodo de Gauss.

Page (PS/TeX): 59 / 59, COMPOSITE

60 CAPI´TULO 1

Matrices y sistemas lineales

72

x1 − 2x2 = 5, −1, −7 2x1 − 3x2 = 8, −1, −11

73

x1 − 2x2 + x3 = 3, −4, 1 3x1 − x2 + 2x3 = 7, −3, −4 2x1 − x2 + x3 = 4, −3, −3

76

77

78

79

80

74

x1 + x2 − 2x3 + x4 + 2x5 = −1, −6, −4 −x1 + x2 − 2x3 + x4 − x5 = −2, −10, −1 2x1 + 3x2 − x3 + 2x4 + x5 = −2, −4, −3

75

x1 − x2 + x3 + 4x4 = 6, 3, −6 2x1 + x2 + 5x3 + 2x4 = 3, 0, −3 x1 + x2 + 5x3 = 0, −3, 0

En los ejercicios 76 a 85, encontrar la forma escalonada reducida que es equivalente a cada matriz por medio del m´etodo de Gauss-Jordan. ⎤ ⎤ ⎡ ⎡ 3 6 −3 6 3 2 4 −2 ⎣ 2 4 1 −2 3 ⎦ 3 ⎦ 81 ⎣ 4 8 3 6 2 −6 5 1 1 −2 ⎤ ⎤ ⎡ ⎡ 2 3 −2 5 1 0 2 −1 3 ⎢ −1 1 ⎣ 9 −1 2 0 4 ⎦ 2 0 ⎥ ⎥ 82 ⎢ ⎣ 4 −5 6 5 7 −1 3 1 3 ⎦ 1 5 5 9 ⎤ ⎡ 1 3 −1 2 ⎤ ⎡ ⎢ 4 −10 6 2 ⎥ 0 0 2 −4 ⎥ ⎢ ⎣ 8 2 2 10 ⎦ 2 ⎦ 83 ⎣ 0 0 1 0 −11 5 −3 1 3 2 −4 ⎤ ⎤ ⎡ ⎡ 0 −2 −6 4 −1 3 0 1 4 ⎢ 0 ⎢ 1 −3 0 0 −1 ⎥ 4 −1 3 ⎥ ⎥ ⎥ ⎢ 84 ⎢ ⎣ 0 ⎣ 3 −9 2 4 −1 ⎦ 0 −6 −3 ⎦ 0 5 −3 4 0 0 1 3 −4 ⎤ ⎤ ⎡ ⎡ 2 1 4 0 0 1 2 −1 4 ⎣ 1 3 2 ⎦ 0 1 −1 3 ⎦ 85 ⎣ 0 0 5 0 10 2 4 −2 1 3 −5 En los ejercicios 86 a 91 resolver los sistemas por el m´etodo de Gauss-Jordan.

86

x1 − 2x3 + x4 = 4 2x1 − x2 + x3 − 3x4 = −2 9x1 − 3x2 − x3 − 7x4 = 3

87

x1 + 2x2 − 3x3 + x4 = −7 3x1 + 6x2 − 8x3 − 2x4 = −9

88

89

−2x3 − x4 2x1 + 5x2 − 6x3 −x1 − 2x2 + x3 − x4 4x1 + 10x2 − 9x3 + x4

= −1 = 3 = −2 = 7

90

x1 − 3x2 + x3 + 2x4 x1 − 2x2 + 2x3 + 4x4 −x1 − 6x2 − 3x3 − 4x4 2x1 − 6x2 − 3x3 − 2x4

= = = =

91

x1 − x2 + 2x3 + x4 − 2x5 x1 − x2 − 2x3 + x4 − 2x5 −x1 + x2 − 6x3 − x4 + 2x5 2x1 − 2x2 − 12x3 + 2x4 − 4x5

2x1 + 5x2 − 4x3 = −2 2x1 + 4x2 − x3 = 1 4x1 − 2x2 + 5x3 = 9

En los ejercicios 92 a 95 resolver los sistemas homog´eneos. 92

x1 − x2 + x3 − 4x4 + 2x5 2x1 − 3x2 + x3 − x4 − x5 −3x1 − 2x2 − x3 + 3x4 + x5 −x1 − 4x2 + x3 − 5x4 + 5x5

Page (PS/TeX): 60 / 60, COMPOSITE

= = = =

0 0 0 0

93

x1 + x2 + x3 = 0 −x1 + x2 − x3 = 0 3x1 + 2x2 − 2x3 = 0

−12 −14 −9 −7 = = = =

3 7 1 22

´ 1.3 SECCION

94

2x1 + x2 + 3x3 = 0 2x1 + 4x2 = 0 x2 + x3 = 0

Ejercicios resueltos y ejercicios propuestos 61 195

4x2 + 4x3 + 2x4 = 0 x1 + 3x2 + x4 = 0 x1 − 2x2 − x3 + x4 = 0

En los ejercicios 96 a 101, resolver el sistema Ax = b y, simult´aneamente, encontrar la soluci´on del sistema homog´eneo asociado Ax = 0 escribiendo la soluci´on del sistema Ax = b en la forma p +h, donde p es una soluci´on particular del sistema no homog´eneo y h es la soluci´on del sistema homog´eneo asociado.

⎤ ⎡ 2 1 3 0

4 ⎢ 1 −1

2 1

1 ⎥ ⎥ 1 −1 2 3 4 |4] 96 099 ⎢ ⎣ 4 −1 7 2

6 ⎦

 −1 −2 −1 1 −3 4 −2 2 0

−6 97

⎤ ⎡ 4 2 0 −1 1 1 2 −1 2 1

−8

⎤ ⎡ 1 −2 3

−9 ⎦ 100 ⎣ 2 4 1 −2 1 1

5 3 6 2 −6 5 −11 1 −3 −1

−4 ⎦ 98 ⎣ 2

⎤ ⎡ 1 −7 −6 2 −13 1 3 −1 2

2 ⎢ 0 11 −5 3 4 ⎥

⎥ 101 ⎢ ⎣ 2 −5 3 1

0 ⎦ 4 1 1 5 4 102 Determinar los valores de α para que el sistema

x + 2y − 3z = 4 3x − y + 5z = 2 4x + y + (α2 − 14) = a + 2 tenga soluci´on u´ nica. 103 Encontrar los valores de α para los que el sistema del ejercicio 104 sea inconsistente. 104 ¿Para qu´e valores de α el sistema del ejercicio 104 tiene una infinidad de soluciones?

En los ejercicios 105 a 107 determinar los valores de α para que el sistema dado tenga (a) soluci´on u´ nica, (b) sea inconsistente, (c) tenga una infinidad de soluciones. 105

106

x1 + αx2 + x3 = 1 αx1 + x2 + x3 = 1 2x1 + (α + 1)x2 + (α + 1)x3 = 2

107

x1 − 3x3 = −3 2x1 + αx2 − x3 = −2 2x1 + 2x2 + (α − 3)x3 = −2

x1 + x2 + αx3 = 2 3x1 + 4x2 + 2x3 = α x1 + x2 + 3x3 = α − 1 En los ejercicios 108 a 109 determinar las condiciones que deben cumplir los par´ametros α, β y γ para que el sistema dado sea consistente.

108

x1 − 2x2 + 3x3 = α 2x1 − x2 + 2x3 = β −x1 + 5x2 − 7x3 = γ

Page (PS/TeX): 61 / 61, COMPOSITE

109

x1 − x2 + x3 = α 2x1 − x2 − 2x3 = β −3x1 + x2 + 2x3 = γ

62 CAPI´TULO 1

Matrices y sistemas lineales

110 Encontrar los valores de α tales que el sistema homog´eneo

x1 + 3x2 + (1 − α)x3 = 0 x1 + αx2 − x3 = 0 (2 − α)x1 + 3x2 = 0 tenga soluci´on no trivial. 111 Resolver el sistema

z1 − iz2 + z3 + iz3 + 4iz4 = 5 + 2i −2z1 + 2z2 + 3z3 − 2iz4 = 1 − 2i 3iz1 − z2 + 2z3 + z4 − iz4 = −2 − i 112 Encontrar las soluciones del sistema

z1 + iz2 − iz3 = 3 2iz1 + z2 − iz3 = 1 + i −3z1 + iz2 − iz3 = −1 113 Resolver el sistema

z1 − z2 + z3 = −i 2z1 − z2 + z3 = −2i −2z1 + z2 + z3 = 4i 114 Hallar las soluciones del sistema

z1 − z2 + z3 + z4 iz1 − z2 + z3 + 2z4 −2z1 + iz2 − z3 + z4 −z1 − z2 + iz3 + 2z4

Page (PS/TeX): 62 / 62, COMPOSITE

= 1+i = 0 = −3i = 1 − 2i

2

Matrices invertibles y determinantes

En este cap´ıtulo trataremos dos importantes conceptos de la teor´ıa de matrices cuadradas. El primero involucra el estudio de cierto tipo de matrices que, an´alogamente a los n´umeros reales distintos de cero, poseen un inverso multiplicativo; el segundo, estrechamente relacionado con el primero, versa sobre un n´umero llamado determinante que se le asocia a cada matriz cuadrada y que tiene importantes y variadas aplicaciones en a´ lgebra lineal. Al finalizar estos temas se incluye una secci´on de ejercicios resueltos y propuestos.

2.1 Matrices invertibles y sus inversas Ya vimos que las operaciones algebraicas con matrices tienen propiedades an´alogas a las de los n´umeros reales; en esta secci´on daremos una m´as, que corresponde a la existencia de inversos multiplicativos.

´ y propiedades 2.1.1 Definicion Definici´on 2.1 Una matriz cuadrada A de orden n es invertible,1 si existe una matriz C del mismo tama˜no tal que AC = CA = In .   Ejemplo 2.1 Si A =

2 9 1 4





−4 9 1 −2

yC= 

AC =

2 9 1 4



 , la matriz A es invertible, pues,

−4 9 1 −2



 =

1 0 0 1



y  CA =

−4 1

9 −2



2 9 1 4



 =

1 0

0 1

 .

El teorema siguiente garantiza que, de existir, la matriz C de la definici´on 2.1 es u´ nica. 11 Si una matriz es invertible, se acostumbra decir que es no singular; y en caso contrario que es singular.

63

Page (PS/TeX): 1 / 63, COMPOSITE

64 CAPI´TULO 2

Matrices invertibles y determinantes

Teorema 2.1 Si A ∈ Mn×n es invertible y C, B ∈ Mn×n son tales que y AB = BA = In ,

AC = CA = In entonces

B = C.

´ DEMOSTRACION

Q En efecto, AB = In ⇒ C(AB) = CIn ⇒ (CA)B = C ⇒ In B = C ⇒ B = C. Q Definici´on 2.2 Si A ∈ Mn×n es invertible, a la u´ nica matriz C ∈ Mn×n tal que AC = CA = In se le llama la matriz inversa2 de A y se le denota como A−1 ; es decir, C = A−1 .  Ejemplo 2.2 Del ejemplo precedente 

2 9 1 4

−1

 =

−4 1

9 −2

 .

P Nota 2.1 De la demostraci´on del teorema 2.1 se desprende que basta probar AC = In o CA = In para que C = A−1 .

Teorema 2.2 (Propiedades) 1. Si A, B ∈ Mn×n son matrices invertibles, entonces la matriz AB es invertible y adem´as (AB)−1 = B−1 A−1 . 2. Si A ∈ Mn×n es una matriz invertible, A−1 es tambi´en invertible y (A−1 )−1 = A. 3. Si A es una matriz cuadrada invertible, entonces At es tambi´en invertible y adem´as (At )−1 = (A−1 )t . 4. Si α = 0 y A es una matriz cuadrada invertible, entonces αA es invertible y (αA)−1 = (1/α)A−1 .

´ DEMOSTRACION

Q 1. (AB)(B−1 A−1 ) = A((BB−1 )A−1 ) = A(In A−1 ) = AA−1 = In . Por tanto, (AB)−1 = B−1 A−1 . 2. A−1 A = In , por tanto, (A−1 )−1 = A. 3. Puesto que (cfr. propiedad 3(b) en la p´ag. 10) (MN)t = N t M t , las siguientes implicaciones son v´alidas. (AA−1 )t = Int = In ⇒ (A−1 )t At = In ⇒ (At )−1 = (A−1 )t . 4. Se deja como ejercicio al lector.

Q

12 El lector debe tener siempre presente que los conceptos de matriz invertible y de su inversa s´olo se definen en matrices cuadradas.

Page (PS/TeX): 1 / 64, COMPOSITE

´ 2.1 SECCION

Matrices invertibles y sus inversas 65

2.1.2 Matrices invertibles y sistemas lineales Supongamos que la matriz cuadrada A ∈ Mn×n es invertible, entonces el sistema cuadrado Ax = b tiene soluci´on u´ nica para todo b. En efecto,   Ax = b ⇒ A−1 (Ax) = A−1b ⇒ A−1 A x = A−1b ⇒ Inx = A−1b; por tanto x = A−1b.  Ejemplo 2.3 Utilizar el ejemplo 2.1 para resolver el sistema 2x1 + 9x2 = 4 x1 + 4x2 = −5 . ´ Solucion

Si A es la matriz de coeficientes del sistema, por el mencionado ejemplo (cfr. p´ag. 63) A es

invertible y A−1 =



−4 1

9 −2

 ,

entonces 

x1 x2



 =

−4 9 1 −2





4 −5

 =

−61 14

 .



En el ejemplo 2.1 mostramos que la matriz  C=

−4 1

9 −2



 es la inversa de la matriz

A=

2 9 1 4

 ,

pero no indicamos c´omo encontramos C = A−1 . Resolvamos esta cuesti´on en el siguiente ejemplo.  Ejemplo 2.4 Encontrar la inversa de la matriz A del ejemplo 2.1; es decir, hallar 

 ´ Solucion

Busquemos una matriz C = 

2 9 1 4

x z

−1

2 9 1 4 y w



.

 , tal que AC = I2 ; esto es,

x y

z w







 =

1 0 0 1

 .

Como 

Page (PS/TeX): 3 / 65, COMPOSITE

2 9 1 4



x z

y w

=

2x + 9z x + 4z

2y + 9w y + 4w

 ,

66 CAPI´TULO 2

Matrices invertibles y determinantes

se debe cumplir 

2x + 9z x + 4z

2y + 9w y + 4w



 =

1 0 0 1

 ;

por tanto, 2x + 9z x + 4z

= =

1 0

(2.1)

2y + 9w y + 4w

= =

0 1.

(2.2)

y

Ambos sistemas tienen la misma matriz de coeficientes. Trabajemos simult´aneamente los dos sistemas como lo hicimos en el cap´ıtulo anterior (cfr. p´ag. 27).       1 4  0 1 2 9  1 0 ↔ 2 9  1 0 1 4  0 1    1 1 4  0 (2.3) ↔ 0 1  1 −2 Resolviendo por sustituci´on regresiva para el sistema (2.1), encontramos z = 1 y x = −4; mientras que para el sistema (2.2) tenemos w = −2 y y = 1 − 4w = 9; con lo que la matriz buscada es   −4 9 C= (2.4) 1 −2 que es la matriz propuesta en el ejemplo 2.1. Apliquemos ahora el m´etodo de Gauss-Jordan a la matriz ampliada (2.3) para resolver los sistemas (2.1) y (2.2).       1 4  0 1 2 9  1 0 ↔ 2 9  1 0 1 4  0 1    1 1 4  0 ↔ 0 1  1 −2    9 1 0  −4 (2.5) ↔ 0 1  1 −2 Donde nuevamente encontramos z = 1, x = −4, y = 9 y w = −2; es decir, la matriz C de (2.4); pero e´ sta es precisamente la matriz que est´a en el lado derecho de la partici´on en (2.5).  Ya probamos que si A ∈ Mn×n es una matriz cuadrada invertible, entonces el sistema lineal Ax = b tiene soluci´on u´ nica ∀b (cfr. p´ag. 65). Rec´ıprocamente, supongamos que el sistema Ax =b tiene soluci´on k u´ nica ∀b; en particular para cadab =ek = [ 0 · · · 0 1 0 · · · 0 ]t , k = 1, 2, . . . , n. Sea, para cada k = 1, . . . , n, ck = [ c1k c2k · · · cnk ]t , la u´ nica soluci´on del sistema Ax =ek . Por tanto, Ack =ek para cada k = 1, . . . , n. Sea la matriz C cuyas columnas son las solucionesck ; es decir, C = [cik ], 1 ≤ i ≤ n, 1 ≤ k ≤ n. Entonces, por lo probado en el ejemplo 1.14 (cfr. (1.2) p´ag. 11), tenemos

Page (PS/TeX): 4 / 66, COMPOSITE

´ 2.1 SECCION

Matrices invertibles y sus inversas 67

AC = [ Ac1 Ac2 · · · Acn ] = [e1 e2 · · · en ] ; es decir, AC = In y, por ende, la matriz A es invertible. Finalmente, del inciso 3 de los criterios para soluci´on u´ nica de la p´agina 31, sabemos que el sistema Ax = b tiene soluci´on u´ nica para todo b si y s´olo si la matriz A es equivalente a la identidad In . Hemos probado as´ı el siguiente teorema. Teorema 2.3 Si A ∈ Mn×n , las siguientes condiciones son equivalentes a pares:3 1. El sistema Ax = b tiene soluci´on u´ nica ∀b. 2. A ∼ In . 3. A es invertible.  Ejemplo 2.5 Hallar los valores de r tales que la matriz ⎡

1 A=⎣ 1 2

2 r 1

⎤ 0 3 ⎦ 3

sea invertible. Por el teorema anterior, es suficiente que la matriz A sea equivalente a la identidad para que sea invertible. Entonces, si llevamos A a forma escalonada y r es tal que en cada columna hay pivote,4 por el m´etodo de Gauss-Jordan A ser´a, efectivamente, equivalente a la identidad. Llevemos entonces A a forma escalonada. ⎤ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎡ 1 2 0 1 2 0 1 2 0 1 2 0 ⎣ 1 r 3 ⎦ ↔ ⎣ 0 r−2 3 ⎦ ↔ ⎣ 0 1 −1 ⎦ ↔ ⎣ 0 1 −1 ⎦ . 0 0 r+1 0 r−2 3 0 −3 3 2 1 3 ´ Solucion

As´ı, para cualquier valor r = −1, la matriz A ser´a invertible.



 Ejemplo 2.6 Determine cu´ales de las siguientes matrices son invertibles.  1. A = ⎡

1 1 0 0

1 2. B = ⎣ −1 2

 . ⎤ 1 −1 0 2 ⎦ . −2 3

13 Que las condiciones sean equivalentes a pares significa que si se cumple una, cualquiera de ellas, se cumplen tambi´en todas las dem´as; esto es: (1) ⇔ (2) ⇔ (3) ⇔ (4). 14 V´ease la nota 1.6, p´agina 31.

Page (PS/TeX): 5 / 67, COMPOSITE

68 CAPI´TULO 2

Matrices invertibles y determinantes



 1 1 ´ Solucion 1. La matriz A = est´a en forma escalonada y no tiene pivote en la segunda co0 0 lumna, por tanto no es equivalente a I2 , por el teorema 2.3 no es una matriz invertible. 2. Llevemos la matriz B a forma escalonada mediante el m´etodo de Gauss. ⎤ ⎤ ⎡ ⎤ ⎡ ⎡ 1 1 −1 1 1 −1 1 1 −1 ⎣ −1 1 ⎦. 1 1 ⎦∼⎣ 0 1 0 2 ⎦∼⎣ 0 0 0 9 0 −4 5 2 −2 3 Dado que todas las columnas en la forma escalonada tienen pivote, la matriz es equivalente a la identidad I3 , por el teorema 2.3 la matriz B es invertible. 

´ 2.1.3 Metodo de Gauss-Jordan para hallar la inversa de una matriz Podemos generalizar el procedimiento empleado para encontrar la inversa de una matriz dado en el ejemplo 2.4 (p´ag. 65). Sea A una matriz cuadrada de orden n y busquemos una matriz X = [xi j ] tal que AX = In . Lo cual equivale a resolver los sistemas lineales con la misma matriz de coeficientes Axk =ek , k

donde xk = [ x1k x2k · · · xnk ]t y ek = [ 0 · · · 0 1 0 · · · 0 ]t es la k-´esima columna de la identidad In , k = 1, 2, . . . , n; pues (cfr. ejemplo 1.14, p´ag. 11) AX = [ Ax1 Ax2 · · · Axn ] = In ⇔ Axk =ek . Recordemos (cfr. p´ag. 27) que para resolver los sistemas [A |ek ] formamos la matriz ampliada [ A |e1 e2 . . . en ] = [A | In ] y aplicamos el m´etodo de Gauss. Pero esta vez utilicemos mejor el m´etodo de Gauss-Jordan como lo hicimos en el ejemplo 2.4. Si a la mitad del proceso, cuando [A | In ] se ha llevado a una forma escalonada equivalente [H | J], todas las columnas de H tienen pivote, entonces todos los sistemas [A |ek ] tendr´an soluci´on u´ nica y A ser´a equivalente a la identidad; al continuar con el proceso de Gauss-Jordan eventualmente se llegar´a a la equivalencia [A | In ] ∼ [In | B], donde la k-´esima columna de B ser´a la u´ nica soluci´on del sistema [A |ek ]; es decir, B es la soluci´on de la ecuaci´on matricial AX = In . Por lo que la matriz A ser´a invertible y B = A−1 . Si a la mitad del proceso, cuando [A | In ] se ha llevado a una forma escalonada [H | J], existe una columna de H que no tiene pivote, entonces A  In y por ende A no ser´a invertible o, equivalentemente, alguno de los sistemas [A |ek ] ser´a inconsistente y entonces AX = In no tendr´a soluci´on. Resumimos la informaci´on precedente a continuaci´on.

´ Metodo de Gauss-Jordan para hallar la inversa de una matriz Para determinar si una matriz A es invertible y hallar su inversa, en tal caso, se procede de la siguiente manera: 1. Formamos la matriz aumentada [A | I]. Donde I es la identidad del mismo tama˜no de A. 2. Se lleva A mediante el m´etodo de Gauss-Jordan a la identidad, aplicando simult´aneamente las mismas operaciones de rengl´on en el lado derecho de la partici´on. 3. Al llegar a [I | B], B = A−1 . 4. Si A no se puede llevar a I, significa que A no es invertible.5

15 Recordemos que para esto basta que en una forma escalonada equivalente, obtenida con el m´etodo de Gauss, no haya pivote en alguna columna.

Page (PS/TeX): 6 / 68, COMPOSITE

´ 2.1 SECCION

Matrices invertibles y sus inversas 69

 Ejemplo 2.7 Hallar, si es que existe, la inversa de la matriz ⎤ 1 2 3 A = ⎣ 2 5 3 ⎦ . 1 0 8 ⎡



1 2 3 ⎣ 2 5 3 1 0 8

´ Solucion

⎤ 1 0 0 0 1 0 ⎦ 0 0 1

⎡ ←−−−−−−−−−→ R2 ↔ −R1 + R2 R3 ↔ −R1 + R3 ←−−−−−−−−−−→ R3 ↔ −2R2 − R3

←−−−−−−−−−−→ R2 ↔ 3R3 + R2 R1 ↔ −3R3 + R1 ←−−−−−−−−−−→ R1 ↔ −2R2 + R1

1 ⎣ 0 0 ⎡ 1 ⎣ 0 0 ⎡ 1 ⎣ 0 0 ⎡ 1 ⎣ 0 0

2 3 1 −3 −2 5 2 3 1 −3 0 1 2 0 1 0 0 1 0 0 1 0 0 1

⎤ 1 0 0 −2 1 0 ⎦ −1 0 1

⎤ 0 0 ⎦ −1 ⎤ −14 6 3 13 −5 −3 ⎦ 5 −2 −1 ⎤ −40 16 9 13 −5 −3 ⎦ . 5 −2 −1 1 0 −2 1 5 −2

Por tanto, tenemos ⎤ −40 16 9 A−1 = ⎣ 13 −5 −3 ⎦ . 5 −2 −1 ⎡

Comprobaci´on: ⎤ ⎤ ⎡ ⎤⎡ 1 0 0 −40 16 9 1 2 3 ⎣ 2 5 3 ⎦ ⎣ 13 −5 −3 ⎦ = ⎣ 0 1 0 ⎦ . 0 0 1 5 −2 −1 1 0 8 ⎡



 Ejemplo 2.8 Encontrar, si es que existe, la inversa de la matriz ⎡

1 A=⎣ 2 −1 ⎡ ´ Solucion

1 ⎣ 2 −1

⎤ 1 1 1 −3 ⎦ . −2 −6

 ⎤ 1 1  1 0 0 1 −3  0 1 0 ⎦ ∼ −2 −6  0 0 1



1 ⎣ 0 0 ⎡ 1 ∼ ⎣ 0 0

 ⎤ 1 1  1 0 0 −1 −5  −2 1 0 ⎦ −1 −5  1 0 1  ⎤ 0 0 1 1  1 1 0 ⎦ −1 −5  −2  3 −1 1 0 0

(2.6)

La forma escalonada (2.6) equivalente a [A | I3 ] no tiene pivote en la tercera columna a la izquierda de la partici´on; por tanto la matriz A no es invertible (pues no es equivalente a I3 ). 

Page (PS/TeX): 7 / 69, COMPOSITE

70 CAPI´TULO 2

Matrices invertibles y determinantes

 Ejemplo 2.9 Hallar, si es que existe, la inversa de la matriz ⎡

1 ⎢ −3 ⎢ A=⎣ 0 −1

−2 5 1 2

⎤ 1 0 0 2 ⎥ ⎥ . 2 −4 ⎦ 4 −1

´ Solucion



1 −2 ⎢ −3 5 ⎢ ⎣ 0 1 −1 2

 1 0  1 0 2  0 2 −4  0 4 −1  0

0 1 0 0

⎤ 0 0 ⎥ ⎥ 0 ⎦ 1

0 0 1 0

 ⎤ 1 −2 1 0  1 0 0 0 ⎢ 0 −1 3 2  3 1 0 0 ⎥ ⎥ ⎢ ⎣ 0 1 2 −4  0 0 1 0 ⎦ 0 0 5 −1  1 0 0 1  ⎤ ⎡ 1 −2 1 0  1 0 0 0 ⎢ 0 −1 3 2  3 1 0 0 ⎥ ⎥ ⎢ ⎣ 0 0 5 −2  3 1 1 0 ⎦ 0 0 5 −1  1 0 0 1  ⎡ ⎤ 0 0 0 1 −2 1 0  1 ⎢ 0 −1 3 2  3 1 0 0 ⎥ ⎢ ⎥  ⎣ 0 0 5 −2  3 1 1 0 ⎦ 0 0 0 1  −2 −1 −1 1  ⎤ ⎡ 0 0 0 1 −2 1 0  1 ⎢ 0 −1 3 0  7 3 2 −2 ⎥ ⎥  ⎢ ⎣ 0 2 ⎦ 0 5 0  −1 −1 −1 1 0 0 0 1  −2 −1 −1  ⎤ ⎡ 1 0 0 0 1 −2 1 0  ⎢ 0 −1 3 0  7 3 2 −2 ⎥ ⎥  ⎢ ⎣ 0 0 1 0  −1/5 −1/5 −1/5 2/5 ⎦ −1 −1 1 0 0 0 1  −2  ⎡ 1 −2 0 0  6/5 1/5 1/5 −2/5 ⎢ 0 −1 0 0  38/5 18/5 13/5 −16/5 ⎢  ⎣ 0 2/5 0 1 0  −1/5 −1/5 −1/5 −1 −1 1 0 0 1  −2 0  ⎡ −7 −5 6 1 0 1 0  −14 ⎢ 0 −1 0 0  38/5 18/5 13/5 −16/5  ⎢ ⎣ 0 2/5 0 1 0  −1/5 −1/5 −1/5 −2 −1 −1 1 0 0 0 1   ⎡ −14 −7 −5 6 1 0 1 0  ⎢ 0 1 0 0  −38/5 −18/5 −13/5 16/5  ⎢ ⎣ 0 0 1 0  −1/5 −1/5 −1/5 2/5  0 0 0 1  −2 −1 −1 1 ⎡

















De donde A es invertible y ⎤ −14 −7 −5 6 ⎢ −38/5 −18/5 −13/5 16/5 ⎥ ⎥. A−1 = ⎢ ⎣ −1/5 −1/5 −1/5 2/5 ⎦ −2 −1 −1 1 ⎡

Page (PS/TeX): 8 / 70, COMPOSITE

⎤ ⎥ ⎥ ⎦ ⎤ ⎥ ⎥ ⎦ ⎤ ⎥ ⎥. ⎦

´ 2.1 SECCION

Matrices invertibles y sus inversas 71

Comprobando: ⎤ ⎡ ⎤⎡ 1 −14 −7 −5 6 1 −2 1 0 ⎥ ⎢ −38/5 −18/5 −13/5 16/5 ⎥ ⎢ 0 ⎢ −3 5 0 2 ⎥=⎢ ⎥⎢ ⎢ ⎣ 0 −1/5 −1/5 2/5 ⎦ ⎣ 0 1 2 −4 ⎦ ⎣ −1/5 0 −2 −1 −1 1 −1 2 4 −1 ⎡

0 1 0 0

0 0 1 0

⎤ 0 0 ⎥ ⎥. 0 ⎦ 1



2.1.4 Matrices elementales Definici´on 2.3 Una matriz cuadrada de orden m es elemental si se obtiene a partir de la identidad Im mediante una sola operaci´on de rengl´on. ⎤ 1 0 0  Ejemplo 2.10 La matriz E1 = ⎣ 0 2 0 ⎦ es elemental, pues se obtiene de I3 mediante la opera0 0 1 ci´on de rengl´on R2 ↔ 2R2 . An´alogamente las matrices ⎡

⎤ 0 1 0 E2 = ⎣ 1 0 0 ⎦ 0 0 1 ⎡



y

1 E3 = ⎣ 0 −1

0 1 0

⎤ 0 0 ⎦ 1

son elementales; pues resultan de I3 al aplicarle las operaciones R1 ↔ R2 y R3 ↔ −R1 + R3 , respectivamente (¡ch´equelo!). ⎡

2  Ejemplo 2.11 Si A = ⎣ 2 0 raci´on de rengl´on R2 ↔ R3 y misma operaci´on; es decir, ⎡

⎤ −3 0 −1 −1 0 2 ⎦, sea B la matriz que se obtiene de A al aplicarle la ope−1 2 3 sea E1 la matriz elemental que resulta de la identidad I3 al aplicarle la

2 B=⎣ 0 2

−3 0 −1 2 −1 0

⎤ −1 3 ⎦ 2

⎤ 1 0 0 E1 = ⎣ 0 0 1 ⎦ . 0 1 0 ⎡

y

Entonces, ⎤⎡ 2 1 0 0 E1 A = ⎣ 0 0 1 ⎦ ⎣ 2 0 0 1 0 ⎡

−3 −1 −1

⎤ ⎡ 2 0 −1 0 2 ⎦=⎣ 0 2 2 3

⎤ −3 0 −1 −1 2 3 ⎦ = B. −1 0 2

Del ejemplo anterior deducimos el siguiente teorema, que no es dif´ıcil de probar y cuya demostraci´on se deja como ejercicio al lector. Teorema 2.4 (Efecto de matrices elementales) Si a una matriz A de tama˜no m × n se le aplica una operaci´on de rengl´on, la matriz resultante es el producto EA, donde E es la matriz elemental m × m que se obtiene de la identidad Im al aplicarle la misma operaci´on de rengl´on.

Page (PS/TeX): 9 / 71, COMPOSITE

72 CAPI´TULO 2

Matrices invertibles y determinantes

Supongamos ahora que E1 , E2 , E3 son las matrices elementales n × n que se obtienen de la identidad al aplicarle, respectivamente, las operaciones de rengl´on Ri ↔ R j , Ri ↔ αRi , Ri ↔ αRi + βR j . Entonces, si E1 , E2 y E3 son las matrices elementales que resultan de la identidad al aplicarle las operaciones de fila R j ↔ Ri , Ri ↔ (1/α)Ri y Ri ↔ (1/α)Ri − (β/α)R j , respectivamente, es claro que al aplicar a E1 , E2 , E3 sendas operaciones se obtendr´a, en cada caso, nuevamente la identidad (¡compru´ebelo!). As´ı, por el efecto que tienen las matrices elementales se tiene: E1 E1 = In , E2 E2 = In y E3 E3 = In . Lo cual demuestra la siguiente afirmaci´on. Teorema 2.5 Toda matriz elemental es invertible y su inversa es tambi´en una matriz elemental.  Ejemplo 2.12 Sean las matrices elementales ⎤ 1 0 0 E1 = ⎣ 0 0 1 ⎦ , 0 1 0 ⎡



1 E2 = ⎣ 0 0

⎤ 0 0 −3 0 ⎦ 0 1



y

1 E3 = ⎣ 0 2

⎤ 0 0 1 0 ⎦; 0 −3

las cuales se obtienen de I3 mediante las operaciones R2 ↔ R3 , R2 ↔ −3R2 , R3 ↔ −3R3 + 2R1 , respectivamente. Entonces, para este caso ⎡

1 E1 = ⎣ 0 0

0 0 1

⎤ 0 1 ⎦, 0



1 E2 = ⎣ 0 0

0 −1/3 0

⎤ 0 0 ⎦, 1



1 E3 = ⎣ 0 −2/3

⎤ ⎤ ⎡ ⎤⎡ 1 0 0 1 0 0 0 1 ⎦⎣ 0 0 1 ⎦ = ⎣ 0 1 0 ⎦, 0 0 1 0 1 0 0 ⎤ ⎡ ⎤⎡ 1 0 0 1 0 0 0 0 −3 0 ⎦ ⎣ 0 −3 0 ⎦ = ⎣ 0 1 0 0 0 1 0 0 1 0 1 ⎤ ⎡ ⎤⎡ 1 1 0 0 1 0 0 0 ⎦=⎣ 0 1 0 ⎦⎣ 0 1 E3 E3 =⎣ 0 0 2 0 −3 −2/3 0 −1/3 ⎡

1 E1 E1 =⎣ 0 0 ⎡ 1 E2 E2 =⎣ 0 0 ⎡

⎤ 0 0 1 0 ⎦ 0 −1/3

y

0 0 1

⎤ ⎦, ⎤ 0 0 1 0 ⎦ . 0 1

 Ejemplo 2.13 Hallar una matriz C, si es que existe, tal que la matriz CA sea triangular superior si ⎤ 0 1 −3 A = ⎣ 2 3 −1 ⎦ . 4 5 −2 ⎡

´ Solucion

Llevemos A, mediante el m´etodo de Gauss, a forma triangular superior: ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ 4 4 5 −2 4 5 −2 0 1 −3 ⎣ 2 3 −1 ⎦ ↔ ⎣ 2 3 −1 ⎦ ↔ ⎣ 0 −1 0 ⎦↔⎣ 0 0 0 1 −3 0 1 −3 4 5 −2 ⎡

⎤ 5 −2 −1 0 ⎦. 0 −3

Las matrices elementales correspondientes a la sucesi´on de estas operaciones son, respectivamente,

Page (PS/TeX): 10 / 72, COMPOSITE

´ 2.1 SECCION

⎤ 0 0 1 E1 = ⎣ 0 1 0 ⎦ , 1 0 0 ⎡

⎤ 0 0 −2 0 ⎦ 0 1



1 E2 = ⎣ 1 0

Matrices invertibles y sus inversas 73



y

1 E3 = ⎣ 0 0

0 1 1

⎤ 0 0 ⎦. 1

Luego, ⎤ 4 5 −2 0 ⎦. E3 (E2 (E1 A)) = ⎣ 0 −1 0 0 −3 ⎡

Y como E3 (E2 (E1 A)) = (E3 E2 E1 )A, si hacemos C = E3 E2 E1 ; es decir, ⎡

1 C=⎣ 0 0

0 1 1

⎤ ⎡ ⎤⎡ ⎤⎡ 1 0 0 0 0 1 1 0 0 0 0 ⎦ ⎣ 1 −2 0 ⎦ ⎣ 0 1 0 ⎦ = ⎣ 1 −2 0 1 −2 1 1 0 0 0 0 1 1 ⎡ 0 0 1 = ⎣ 0 −2 1 1 −2 1

⎤ 0 0 1 ⎦⎣ 0 0 1 ⎦ 1 0 0 ⎤ ⎤⎡

⎦,

tenemos que ⎡

0 CA = ⎣ 0 1

⎤ ⎡ ⎤⎡ 4 0 1 −3 0 1 −2 1 ⎦ ⎣ 2 3 −1 ⎦ = ⎣ 0 0 4 5 −2 −2 1

⎤ 5 −2 −1 0 ⎦ 0 −3

es una matriz triangular superior.  Ya vimos que un sistema cuadrado Ax = b tiene soluci´on u´ nica ∀b si y s´olo si la matriz A es equivalente a la identidad I. Ahora supongamos que efectivamente A es equivalente a I, entonces podemos llevar A mediante operaciones de rengl´on a la identidad; luego, por el efecto que tienen las matrices elementales, existen Ek , Ek−1 , . . . , E1 , matrices elementales del mismo orden de A, tales que (Ek Ek−1 · · · E1 )A = I. Es decir, la matriz A es invertible con inversa Ek Ek−1 · · · E1 . Por otro lado, de la igualdad (Ek Ek−1 · · · E1 )A = I se desprende −1 −1 Ek . A = E1−1 · · · Ek−1

Lo cual nos dice que A es producto de matrices elementales (pues la inversa de una matriz elemental es tambi´en elemental). Rec´ıprocamente si A es producto de matrices elementales, entonces A es invertible. De lo precedente podemos a˜nadir una condici´on m´as de equivalencia al teorema 2.3 (cfr. p´ag. 67).

Teorema 2.6 Si A ∈ Mn×n , las siguientes condiciones son equivalentes a pares: 1. 2. 3. 4.

Page (PS/TeX): 11 / 73, COMPOSITE

El sistema Ax = b tiene soluci´on u´ nica ∀b. A ∼ In . A es invertible. A es producto de matrices elementales.

74 CAPI´TULO 2

Matrices invertibles y determinantes

2.1.5 Inversas de matrices con componentes complejas La identidad multiplicativa en el sistema de n´umeros complejos6 coincide con la identidad multiplicativa en los n´umeros reales, el n´umero z = 1. Esto implica que la matriz identidad en Mn (C), el conjunto de matrices cuadradas de orden n con componentes complejas, es la matriz identidad In con la que hemos trabajado en matrices con entradas reales; es decir, In = [akl ], donde

akl =

1 si k = l 0 si k = l

y satisface (como en el caso real) AIn = A In B = B para toda A ∈ Mm×n (C) y para toda B ∈ Mn×m (C). La definici´on de matriz invertible es exactamente la misma para Mn (C) que para el caso real (cfr. definici´on 2.1, p´ag. 63). Nuevamente todas las propiedades y teoremas acerca de las matrices invertibles y sus inversas dados en esta secci´on son tambi´en v´alidos para el caso de componentes complejas. Entonces, para determinar si una matriz en Mn (C) es invertible y en tal caso calcular su inversa, se utilizan las mismas t´ecnicas que en el caso real pero se trabaja con el a´ lgebra de n´umeros complejos.  Ejemplo 2.14 Determinar si la matriz ⎡

1 1+i A = ⎣ i −2i 1 1−i

⎤ −i 1 ⎦ 2i

es invertible. De ser as´ı, hallar A−1 . Apliquemos el m´etodo de Gauss-Jordan.7

´ Solucion

 ⎤ 1 1 + i −i  1 0 0 ⎣ i −2i 1  0 1 0 ⎦  1 1 − i 2i  0 0 1 ⎡



1 1+i (1) ←→ ⎣ 0 1 − 3i 0 −2i ⎡ 1 1+i (2) ←→ ⎣ 0 −2i 0 1 − 3i ⎡ 1 1+i (3) 1 ←→ ⎣ 0 0 1 − 3i

       −i  3i  0 

⎤ 0 0 ⎦ 1 ⎤ 1 0 0 −1 0 1 ⎦ −i 1 0  ⎤ 1 0 0 −i  −3/2  −i/2 0 i/2 ⎦ 1 0 0  −i −i 0 3i

1 −i −1

0 1 0

16 Cfr. B.1 del ap´endice B. 17 (1) R2 ↔ −iR1 +R2 , R3 ↔ −R1 +R2 , (2) R2 ↔ R3 , (3) R2 ↔ (−1/2i)R2 , (4) R3 ↔ −(1−3i)R2 +R3 , (5) R3 ↔ (3/2−(9/2)i)−1 R3 , (6) R2 ↔ (3/2)R3 + R2 , R1 ↔ iR3 + R1 , (7) R1 ↔ −(1 + i)R2 + R1 .

Page (PS/TeX): 12 / 74, COMPOSITE

´ 2.2 SECCION



Determinantes 75

 ⎤  1 0 0 −i   −i/2 0 i/2 ⎦ −3/2  3/2 − 9i/2  32 − 2i 1 − 32 − 2i ⎤  1 0 0 −i  0 i/2 ⎥ −3/2  −i/2 ⎦ 1  1 + 4 i 1 + 1i −1i 5 15 15 5 3 ⎤ 1  11 + 1 i − 1 + 1 i  15 5 5 15 3 0  ⎥ 3 1 1 3 0  10 − 10 i 10 + 10 i 0 ⎥ ⎦ 1  1 4 1 1 1 + i + i − i 5 15 15 5 3 ⎤ 1 1 1  −3i 3 3 1 0 0  ⎥ 3 1 1 3 0 1 0  10 − 10 i 10 + 10 i 0 ⎥ ⎦. 0 0 1  1 4 1 1 − 31 i 5 + 15 i 15 + 5 i

1 1+i 1 ←→ ⎣ 0 0 0 ⎡ 1 1+i (5) ⎢ 1 ←→ ⎣ 0 0 0 ⎡ ⎢ 1 1+i (6) 1 ←→ ⎢ ⎣ 0 0 0 (4)

⎡ ⎢ (7) ←→ ⎢ ⎣

Por tanto,

⎡ ⎢ A−1 = ⎢ ⎣

1 3

− 13 i

1 3

3 1 10 − 10 i 1 4 5 + 15 i

1 3 10 + 10 i 1 1 15 + 5 i

0

⎤ ⎥ ⎥. ⎦



− 13 i

2.2 Determinantes En este secci´on estudiaremos uno de los principales conceptos del a´ lgebra lineal. A cada matriz cuadrada se le puede asignar cierto n´umero real llamado el determinante de la misma; el cual tiene diversas e importantes aplicaciones en esta materia y otras a´ reas como, por citar algunos ejemplos, el c´alculo del polinomio caracter´ıstico para encontrar los valores y vectores propios, m´etodo de la adjunta para hallar la inversa de una matriz, regla de Cramer, c´alculo de vol´umenes e integrales, etc. Utilizaremos un m´etodo de recurrencia para definir y calcular determinantes de orden n a partir de determinantes de orden menor. Hacemos e´ nfasis en que, como en el caso de la inversa de una matriz, el concepto de determinante s´olo es aplicable a matrices cuadradas.

2.2.1 Desarrollo por cofactores Definici´on 2.4 1. Si A = [a] es una matriz 1 × 1 el determinante de A se denota y define como  2. Si A =

Page (PS/TeX): 13 / 75, COMPOSITE

a b c d



det(A) = a.

76 CAPI´TULO 2

Matrices invertibles y determinantes

es una matriz 2 × 2 se define y denota el determinante de A como det(A) = ad − bc. Tambi´en usaremos la notaci´on   a b   c d

   = ad − bc 

para el determinante de la matriz A. 3. Supongamos que n es un entero mayor a 2 y que los determinantes para matrices de orden menor o igual a n − 1 ya han sido definidos. Si A es una matriz n × n, entonces: (a) Se define el menor del elemento ai j de A (o simplemente el menor i j) como el determinante que se obtiene de la matriz que resulta de eliminar la fila i y la columna j de A. A este n´umero lo denotamos por Mi j . (b) El cofactor del elemento ai j de A (o simplemente el cofactor i j), se define y denota como ci j = (−1)i+ j Mi j .  Ejemplo 2.15 Si

entonces

⎤ 1 0 2 A = ⎣ −4 3 1 ⎦ , 0 2 1 ⎡

   −4 1   = −4  M12 = det  0 1 

y c12 = (−1)1+2 M12 = (−1)3 (−4) = 4. A continuaci´on enunciamos el teorema b´asico para definir y calcular inductivamente los determinantes. Este teorema es conocido como desarrollo de Laplace o desarrollo por cofactores de la funci´on determinante. La demostraci´on de este teorema es larga y remitimos al lector al ap´endice C para que la ´ consulte. Unicamente nos limitamos, en los dos siguientes ejemplos, a ilustrar este importante teorema para los casos n = 2 y n = 3, e inmediatamente pasamos al c´alculo de determinantes utilizando este resultado en los ejemplos subsecuentes.

Teorema 2.7 Sea A ∈ Mn×n . 1. Sean f1 , f2 , . . . , fn los elementos de una fila, Fi , cualquiera de A, con c1 , c2 , . . . , cn sus respectivos cofactores y ΔFi = c1 f1 + c2 f2 + · · · + cn fn . 2. Sean g1 , g2 , . . . , gn los elementos de una columna, G j , cualquiera de A, con d1 , d2 , . . . , dn sus respectivos cofactores y ΔG j = d1 g1 + d2 g2 + · · · + dn gn .

Page (PS/TeX): 14 / 76, COMPOSITE

´ 2.2 SECCION

Determinantes 77

Entonces: • ΔFi = ΔFk para todo par de filas Fi y Fk de A. • ΔG j = ΔGl para todo par de columnas G j y Gl de A. • ΔFi = ΔG j para toda fila Fi y toda columna G j de A.

Definici´on 2.5 Al n´umero real com´un que se calcula en los incisos 1 y 2 del teorema anterior se le llama el determinante de la matriz A y se denota como det(A) o |A|.8 Es decir, 1. |A| = ΔF para cualquier fila F de A y 2. |A| = ΔG para cualquier columna G de A. En el caso 1 se dice que el determinante se ha desarrollado por cofactores en la fila F y, en el caso 2, que se ha desarrollado por cofactores en la columna G.    a b  , entonces c11 = (−1)1+1 M11 = det [d] = d; c12 = (−1)1+2 M12 =   Ejemplo 2.16 Sea A =  c d  − det ([c]) = −c; c21 = (−1)2+1 M21 = − det ([b]) = −b; y c22 = (−1)2+2 M22 = det ([a]) = a. Por tanto, ΔF1 = ac11 + bc12 = ad + b(−c) = ad − bc = det (A) , ΔF2 = cc21 + dc22 = c (−b) + da = ad − bc = det (A) , ΔG1 = ac11 + cc21 = ad + c(−b) = ad − bc = det (A) , ΔG2 = bc12 + dc22 = b (−c) + d(a) = ad − bc = det (A) . ⎡

a11  Ejemplo 2.17 Sea A = ⎣ a21 a31

a12 a22 a32

⎤ a13 a23 ⎦. a33

Entonces ΔF1 = a11 c11 + a12 c12 + a13 c13       a a  a a  a a  = (−1)1+1 a11  22 23  + (−1)1+2 a12  21 23  + (−1)1+3 a13  21 22  a32 a33 a31 a33 a31 a32 = a11 (a22 a33 − a23 a32 ) − a12 (a21 a33 − a23 a31 ) + a13 (a21 a32 − a22 a31 ) = a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 , ΔF2 = a21 c21 + a22 c22 + a23 c23        a12 a13   a11 a13   a11 a12  2+1 2+2 2+3       + (−1) a22  + (−1) a23  = (−1) a21  a32 a33  a31 a33  a31 a32  = −a21 (a12 a33 − a13 a32 ) + a22 (a11 a33 − a13 a31 ) − a23 (a11 a32 − a12 a31 ) = a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 ,

18 El lector debe tener cuidado de no confundir esta notaci´on con el valor absoluto de un n´umero real. En realidad la notaci´on |A| quedar´a clara en contexto; pues si A es una matriz, entonces se refiere al determinante de la misma; mientras que si A es un n´umero real representar´a, como es usual, su valor absoluto. Por esta raz´on, el lector debe tener siempre en mente que el determinante de una matriz puede ser un n´umero real positivo, negativo o cero.

Page (PS/TeX): 15 / 77, COMPOSITE

78 CAPI´TULO 2

Matrices invertibles y determinantes

ΔF3 = a31 c31 + a32 c32 + a33 c33       a a  a a  a a  = (−1)3+1 a31  12 13  + (−1)3+2 a32  11 13  + (−1)3+3 a33  11 12  a22 a23 a21 a23 a21 a22 = a31 (a12 a23 − a13 a22 ) − a32 (a11 a23 − a13 a21 ) + a33 (a11 a22 − a12 a21 ) = a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 , ΔG1 = a11 c11 + a21 c21 + a31 c31        a22 a23   a12 a13   a12 a13  1+1 2+1 3+1       + (−1) a21  + (−1) a31  = (−1) a11  a32 a33  a32 a33  a22 a23  = a11 (a22 a33 − a23 a32 ) − a21 (a12 a33 − a13 a32 ) + a31 (a12 a23 − a13 a22 ) = a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 , ΔG2 = a12 c21 + a22 c22 + a32 c23        a21 a23   a11 a13   a11 a13  2+1 2+2 3+2       + (−1) a22  + (−1) a32  = (−1) a12  a31 a33  a31 a33  a21 a23  = −a12 (a21 a33 − a23 a31 ) + a22 (a11 a33 − a13 a31 ) − a32 (a11 a23 − a13 a21 ) = a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 , ΔG3 = a13 c13 + a23 c23 + a33 c33       a a  a a  a a  = (−1)1+3 a13  21 22  + (−1)2+3 a23  11 12  + (−1)3+3 a33  11 12  a31 a32 a31 a32 a21 a22 = a13 (a21 a32 − a22 a31 ) − a23 (a11 a32 − a12 a31 ) + a33 (a11 a22 − a12 a21 ) = a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 . De donde se ve que ΔFi = ΔFk para todo par de filas de A, ΔG j = ΔGl para todo par de columnas de A, y ΔFi = ΔG j para cualquier fila y para cualquier columna de A.  Ejemplo 2.18

  −1 0 2   2 1 3   −2 1 1

    = 0 · c12 + c22 + c32     2+2  −1 2 = (−1)  −2 1

     + (−1)3+2  −1 2   2 3

   

= −1 − (−4) − (−3 − 4) = 3 − (−7) = 10. El determinante de una matriz 3 × 3, si se agrupan los t´erminos de ΔFi = ΔG j del ejemplo 2.17, puede escribirse como   a11   a21   a31

a12 a22 a32

a13 a23 a33

     = (a11 a22 a33 + a21 a32 a13 + a31 a23 a12 )  −(a13 a22 a31 + a23 a32 a11 + a33 a21 a12 ) 

(2.7)

´ es la llamada regla de Sarrus y un ardid nemot´ecnico para tenerla siempre en mente es mediante el Esta esquema contenido en la figura 2-1, que seguramente es familiar al lector de cursos en educaci´on b´asica.

Page (PS/TeX): 16 / 78, COMPOSITE

´ 2.2 SECCION

a11

a12

a13

a21

a22

a23

a31

a32

a33

Figura 2-1 •

Determinantes 79

Los t´erminos del primer sumando en la regla de Sarrus se obtienen multiplicando las componentes de la matriz siguiendo las flechas azules y los del segundo sumando multiplicando las componentes siguiendo las flechas rojas. Desafortunadamente esta regla s´olo funciona para matrices 3 × 3 y su generalizaci´on ya no es v´alida para matrices de orden mayor que 3. El lector puede confirmar esta afirmaci´on f´acilmente si calcula un determinante 4 × 4 por la “generalizaci´on” de la regla de Sarrus y verifica el resultado desarrollando por cofactores.

Es posible hacer un poco m´as eficiente el desarrollo por cofactores. Si A es una matriz cuadrada de orden n y vamos a calcular su determinante, por ejemplo, desarrollando por cofactores en la fila Fi , entonces |A| =

n

∑ (−1)i+k aik Mik

k=1

donde Mik es el menor del elemento aik de la matriz A; es decir, Mik es el determinante de la matriz (n − 1) × (n − 1) que resulta de eliminar la fila i y la columna k de la matriz A. Dado que (−1)i+k es 1 o −1 si j + k es par o impar, podemos desarrollar las siguientes matrices de signos para evitar calcular la potencia (−1)i+ j : ⎤ ⎡ ⎤ ⎡ + − + −   + − + ⎢ − + − + ⎥ + − ⎥ , ⎣ − + − ⎦, ⎢ ⎣ + − + − ⎦, − + + − + − + − + etc., que nos indican el signo de la potencia (−1)i+k , u´ nicamente viendo la posici´on i, k para cada matriz del tama˜no correspondiente; como f´acilmente puede comprobarlo el lector. Entonces para calcular el determinante anteponemos, para cada k = 1, 2, . . . , n, el signo que corresponde al elemento i, k al producto aik Mik en la matriz de signos del mismo tama˜no de A y se suman algebraicamente estos t´erminos desde k = 1 hasta k = n. Ilustraremos lo anterior en el ejemplo 2.19. P Nota 2.2 Para formar una matriz de signos se observa lo siguiente: • Se comienza con el signo + en la primera componente de la primera fila. • Los signos + y − se van alternando en cada fila y en cada columna. • Si se han hecho correctamente los dos pasos anteriores, todos los signos en la diagonal ser´an positivos.  Ejemplo 2.19   1   3   1   −1

Page (PS/TeX): 17 / 79, COMPOSITE

  −1 0 2   1 −1   2 −1 1   1 2 = −(−1)   2 4 3   −1 −2 −2 0 5      2 3   −1 −  =  −2 5   −2

2 3 5

   1 −1     + (4)  3 2    −1 −2 

2 5

    −1 2 −   2 3

   

2 1 5

     

80 CAPI´TULO 2

Matrices invertibles y determinantes

      3  2 1   3 1      + 2  + +4    −1 −1 5 −2 5

 2  −2 

= 16 + 1 + 7 + 4 [12 + 16 − 8] = 104. Donde hemos utilizado la matriz de signos 4 × 4 y la de 3 × 3 para saber el signo que debe anteceder al menor cuando se desarrolla el determinante por una fila o columna conveniente.9  Calcular el determinante de una matriz por medio de cofactores puede convertirse en un trabajo incre´ıblemente laborioso. Por ejemplo, si una computadora de esta e´ poca se utiliza para calcular el determinante de una matriz de tama˜no 50 × 50, nuestro sistema solar habr´a desaparecido antes que la computadora d´e el resultado final. Por esta raz´on necesitamos procedimientos que nos auxilien a minimizar los c´alculos para encontrar el determinante de una matriz. Nuevamente el m´etodo de Gauss ser´a la base para alcanzar ese objetivo y en el siguiente apartado nos abocamos a ese fin.

2.2.2 Propiedades Enunciamos las siguientes propiedades de los determinantes e invitamos al lector a consultar las correspondientes demostraciones en el ap´endice C.

Teorema 2.8 (Propiedades de los determinantes) Sean A y B matrices cuadradas de orden n, entonces: |AB| = |A||B|. |At | = |A|. 1 Si A es una matriz invertible, entonces |A−1 | = 0 y adem´as |A−1 | = |A| . Si A es triangular superior o triangular inferior, el determinante de A es el producto de los elementos de la diagonal. 5. Supongamos que B es equivalente a la matriz A al aplicarle una operaci´on de rengl´on: (a) Si B se obtiene de A mediante la operaci´on de rengl´on Ri ↔ R j , entonces |A| = −|B|. (b) Si B resulta de A al aplicarle la operaci´on Ri ↔ Ri + αR j , entonces |B| = |A|. (c) Si B se obtiene de A con la operaci´on Ri ↔ αRi , α = 0, entonces |A| = (1/α)|B|.

1. 2. 3. 4.

P Nota 2.3 De manera an´aloga a las operaciones de rengl´on se definen las operaciones de columnas: Gi ↔ G j , Gi ↔ αGi (α = 0), Gi ↔ αGi + βG j (α = 0), que significan, respectivamente, la columna Gi se intercambia con la columna G j , la columna Gi se cambia por α-veces la columna Gi , la columna Gi se cambia por α-veces la columna Gi m´as β-veces la columna G j . Debido a que |At | = |A|, las propiedades de los determinantes que involucran operaciones en renglones se pueden traducir a propiedades de operaciones en columnas:

19 Se entiende por fila o columna conveniente, una fila o columna de la matriz que minimice los c´alculos; si es que la matriz contiene alguna con esta caracter´ıstica.

Page (PS/TeX): 18 / 80, COMPOSITE

´ 2.2 SECCION

Determinantes 81

1. Si B es la matriz que se obtiene de una matriz A mediante la operaci´on de columna Gi ↔ G j , entonces |A| = −|B|. 2. Si B es la matriz que se obtiene de una matriz A mediante la operaci´on de columna Gi ↔ αG j , entonces |A| = (1/α)|B|. 3. Si B es la matriz que resulta de una matriz A al aplicarle la operaci´on de columna Gi ↔ Gi + βG j , entonces |A| = |B|.   Ejemplo 2.20 Sean A =

−1 3 4 7



 yB=

2 1 1 3

 ; entonces |A| = −19, |B| = 5 y

   1 8   |AB| =  15 25  = 25 − 120 = −95 = (−19) (5) = |A| |B| .  Ejemplo 2.21 Mostrar la propiedad 3. ´ DEMOSTRACION

Q Sea A una matriz de orden n invertible, entonces AA−1 = In . Luego, por la propiedad 4, |In | = 1 y, por     la propiedad 1, AA−1  = |A| A−1 ; luego 1 = |In |   = AA−1    = |A| A−1  ;   de donde |A| = 0 y A−1  = 1/ |A|. Q  Ejemplo 2.22 Por la propiedad 4   −1 3   0 2   0 0   0 0

 4 −1  −2 3  = (−1) (2) (3) (4) = −24. 3 −7  0 4 

 Ejemplo 2.23 Por las propiedades 5(a) y 4   −1 3 2   0 0 1   0 3 −5

    −1 3  2     = −  0 3 −5  = − (−3) = 3.     0 0  1 

Comprobaci´on:   −1 3 2   0 0 1   0 3 −5

Page (PS/TeX): 19 / 81, COMPOSITE

      = − (1)  −1 3  0 3  

   = −3. 

82 CAPI´TULO 2

Matrices invertibles y determinantes

 Ejemplo 2.24 Por las propiedades 5(b) y 4     1 −2 1   1   −5 5 −1  =  0   0 0 3   0  Ejemplo 2.25 Por la propiedad 5(c)    4 −4 8     1 −1 2  =    1 1 3 

  1  1  1 1/4   1

 −2 1  −5 4  = −15. 0 3 

    1 −2 2  −2 2    −1 2  = 4  1 −1 2   1 1 3  1 3 

y por la propiedad 5(b)   4   1   1

   1 −8 8   −1 2  = 4  1  1 1 3    1  = 4  0  1   = 4(1)  = 4.

 −2 2  −1 2  1 3   −2 2  1 0  1 3   1 2  1 3 

 Ejemplo 2.26 Calcular el determinante de la matriz ⎡

3 −6 3 ⎢ 2 1 −2 ⎢ ⎣ 3 2 −4 5 1 2

⎤ 9 1 ⎥ ⎥ 2 ⎦ 3

llev´andola a la forma triangular superior mediante el m´etodo de Gauss y haciendo uso de las propiedades 5(a), (b), (c) y 4.      1 −2  3 −6 1 3  3 9     2 −1 −2 1   2 1 −2 1     ´ Solucion  = 3 3  3 2 −4 2  2 −4 2     5  5 1 2 3  1 2 3     1 −2 1 3    0 5 −4 −5  = 3    0 −8 −7 −7   0 11 −3 −12     1 −2 1 3    0 5 −4 −5  = 3  8 −7 −7   0  0 1 5 −2     1 −2 1 3    0 1 5 −2  = −3  0 8 −7 −7    0 5 −4 −5 

Page (PS/TeX): 20 / 82, COMPOSITE

´ 2.2 SECCION

    = −3   

1 −2 1 0 1 5 0 0 −47 0 0 −29   1 −2   0 1 = (−3)(−47)  0 0   0 0   1 −2   0 1 = (−3)(−47)  0 0   0 0

3 −2 9 5

Determinantes 83

       

 1 3  5 −2  1 −9/47  −29 5   1 3  5 −2  1 −9/47  0 −26/47 

= (−3)(−47)(−26/47) = −78.



´ 2.2.3 Metodo de la adjunta para hallar la inversa A continuaci´on daremos un m´etodo alternativo para hallar la inversa de una matriz. Debemos aclarar que, en comparaci´on con el m´etodo de Gauss-Jordan, resulta ser muy ineficiente; pues para llevarlo a efecto se tienen que calcular varios determinantes. Sin embargo, las implicaciones te´oricas y pr´acticas de dicho m´etodo justifican muy bien su estudio.

Definici´on 2.6 Sea A una matriz cuadrada de orden n. Se definen: • La matriz de cofactores de A como Cof(A) = [ci j ], donde ci j es el cofactor del elemento i j de A. • La matriz adjunta de A por Adj(A) = [Cof(A)]t ; es decir, la matriz adjunta de A es la transpuesta de la matriz de cofactores.

Vimos en el inciso 3 de las propiedades de los determinates (cfr. teorema 2.8, p´ag. 80), que si una matriz es invertible su determinante es diferente de cero; el rec´ıproco es cierto y est´a contenido en el teorema 2.9; y se invita al lector a consultar su demostraci´on en el ap´endice C.

Teorema 2.9 (M´etodo de la adjunta) Si A ∈ Mn×n , entonces A Adj(A) = det(A)In . Luego, A es invertible si y s´olo si det(A) = 0 y en tal caso A−1 =

Page (PS/TeX): 21 / 83, COMPOSITE

1 Adj(A). |A|

84 CAPI´TULO 2

Matrices invertibles y determinantes

⎤ −1 1 2  Ejemplo 2.27 Sea A = ⎣ 2 −1 1 ⎦, entonces c11 = −1, c12 = −10, c13 = −8, c21 = −10, −2 −3 4 c22 = 0, c23 = −5, c31 = 3, c32 = 5, c33 = −1; por tanto, ⎡

⎤ −10 −8 0 −5 ⎦ , 5 −1 ⎤ −10 3 0 5 ⎦, −5 −1



−1 Cof(A) = ⎣ −10 3 ⎡ −1 Adj(A) = ⎣ −10 −8 y |A| = −25. Luego, ⎡

−1 −10 1 1 ⎣ −10 0 A−1 = |A| Adj(A) = − 25 −8 −5

⎤ ⎤ ⎡ 1/25 2/5 −3/25 3 0 −1/5 ⎦ . −5 ⎦ = ⎣ 2/5 8/25 1/5 1/25 −1

Con el teorema 2.9 es posible a˜nadir una condici´on m´as de equivalencia a los teoremas 2.3 y 2.6 (cfr. p´ags. 67 y 73) que involucra ahora el determinante. Teorema 2.10 Si A ∈ Mn×n las siguientes condiciones son equivalentes a pares: 1. El sistema Ax = b tiene soluci´on u´ nica ∀b. 2. A ∼ In . 3. A es invertible. 4. A es producto de matrices elementales. 5. det(A) = 0.

2.2.4 Regla de Cramer En este breve apartado explicamos un algoritmo que al lector le ser´a familiar de sus cursos de bachillerato; el cual da un m´etodo para hallar la soluci´on de un sistema cuadrado utilizando determinantes. Nuevamente cabe se˜nalar que su utilidad pr´actica directa es muy raqu´ıtica para sistemas con m´as de cuatro variables, pero su conocimiento es de gran inter´es te´orico e hist´orico y tiene importantes implicaciones indirectas de valor pr´actico.10

Teorema 2.11 Sea A una matriz cuadrada de orden n. Sea, para cada i = 1, 2, ..., n, Δi el determinante que resulta de la matriz que se obtiene de A al sustituir la i-´esima columna por b. Entonces, si Δ = |A| = 0 el sistema Ax = b tiene soluci´on u´ nica xi =

Δi , Δ

para i = 1, 2, ..., n. 1Para una demostraci´on del teorema 2.11, consulte el ap´endice C.

10

Page (PS/TeX): 22 / 84, COMPOSITE

´ 2.2 SECCION

Determinantes 85

 Ejemplo 2.28 Resolver el sistema 3x1 − 5x2 = −2  En este caso, A =

3 −2

−2x1 + x2 = −3.    −5  −2 ;b= . 1 −3    3 −5   = −7,  Δ= −2 1     −2 −5   = −17, Δ1 =  −3 1     3 −2   = −13.  Δ2 =  −2 −3 

Luego, x1 =

17 Δ1 = , Δ 7

x2 =

13 Δ2 = . Δ 7

P Nota 2.4 Si Δ = 0, un sistema cuadrado Ax = b puede o no tener soluci´on. Por ejemplo, en los sistemas x1 + x2 = 1 2x1 + 2x2 = 2

y

x1 + x2 = 1 2x1 + 2x2 = 0

Δ = 0, pero el primero tiene una infinidad de soluciones y el segundo es inconsistente.

2.2.5 Determinantes de matrices con componentes complejas Para calcular determinantes de matrices con componentes complejas, como hemos hecho antes en estos casos, aplicaremos todas las t´ecnicas que estudiamos en esta secci´on para el caso de determinantes de matrices reales pero utilizando el a´ lgebra de los n´umeros complejos.11 Otra vez toda la teor´ıa que desarrollamos para determinantes de matrices reales es tambi´en v´alida para el caso de matrices en Mn (C).  Ejemplo 2.29 Calcular el determinante de la matriz ⎡

1−i 0 ⎢ 3 + 2i −1 − 4i A=⎢ ⎣ −i 2 0 −1

1Cfr. B1 del ap´endice B, 1.1.5, 1.2.8, 2.1.5.

11

Page (PS/TeX): 23 / 85, COMPOSITE

2i 0 3 − 3i 3

⎤ 0 1 ⎥ ⎥ . −5i ⎦ 4

86 CAPI´TULO 2

Matrices invertibles y determinantes

Desarrollemos el determinante por la primera fila mediante cofactores.

´ Solucion

    3 + 2i −1 − 4i  −1 − 4i 0 1      2 2 3 − 3i −5i  + (2i)  −i |A| = (1 − i)   0  −1 −1 3 4        2  3 − 3i −5i  3 − 3i     = (1 − i) (−1 − 4i)    + (1)  −1 3 3 4          3 + 2i 1  + (4)  3 + 2i −1 − 4i  +2i −(−1)    −i 2 −i −5i 

1 −5i 4

     

= (1 − i) [(−1 − 4i)(12 − 12i + 15i) + 6 + 3 − 3i] +2i [10 − 14i + 4(6 + 4i + 4 − i)] = (1 − i) [(−1 − 4i)(12 + 3i) + 9 − 3i] + 2i [10 − 14i + 40 + 12i] = (1 − i)(9 − 54i) + 2i(50 − 2i) = −45 − 63i + 4 + 100i = −41 + 37i .

 

 Ejemplo 2.30 Calcular la inversa de la matriz A =

2+i −i

3i 1 + 4i

 por medio de la adjunta.

det(A) = (2 + i)(1 + 4i) − (3i)(−i)

´ Solucion

= −2 + 9i − 3 = −5 + 9i

luego, A

−1

  1 1 + 4i −3i = 2+i −5 + 9i i   1 31 − 29i −27 + 15i . = 9 − 5i −1 − 23i 106



2.3 Ejercicios resueltos y ejercicios propuestos 2.3.1 Ejercicios resueltos Matrices invertibles y sus inversas 11 Comprobar si la matriz C es la matriz inversa de la matriz A en cada caso.

 (a) A = ⎡

 −2 . −1 ⎤ ⎡ −2 2 −1 1 0 ⎦, C = ⎣ 0 1 −1 2

−1 2 −2 3

−1 (b) A = ⎣ 0 1

Page (PS/TeX): 24 / 86, COMPOSITE





,C=

3 2

⎤ 3 −1 1 0 ⎦. −1 1

´ 2.3 SECCION



1 ⎢ 2 (c) A = ⎢ ⎣ 0 0  (d) A =

´ Solucion

(a)

⎤ ⎤ ⎡ −1 1 0 −1 2 1 ⎢ 1 −3 ⎥ 3 2 ⎥ ⎥. ⎥, C = ⎢ −2 1 ⎣ 0 0 1 −3 ⎦ 4 3 ⎦ 0 0 −1 4 1 1

−1 −1 0 0

2 3 1 1

Ejercicios resueltos y ejercicios propuestos 87



 ,C=

−1 1

−3 −2

 .

Si AC = I, se tiene C = A−1 .  −1 −2

2 3



−2 −1

3 2



 =

1 0 0 1

 .

Por tanto, C = A−1 . ⎡

−1 ⎣ 0 1

(b)

⎤ ⎤ ⎡ ⎤⎡ 1 0 0 −2 3 −1 2 −1 1 0 ⎦ = ⎣ 0 1 0 ⎦. 1 0 ⎦⎣ 0 0 0 1 1 −1 1 −1 2

Por tanto, C = A−1 . ⎡

1 ⎢ 2 ⎢ ⎣ 0 0

(c)

−1 2 −1 3 0 4 0 1

⎤ ⎡ ⎤⎡ 1 −1 1 0 −1 1 ⎥ ⎢ 0 ⎢ −2 1 1 −3 2 ⎥ ⎥=⎢ ⎥⎢ 1 −3 ⎦ ⎣ 0 3 ⎦⎣ 0 0 0 0 0 −1 4 1

0 1 0 0

⎤ 0 0 ⎥ ⎥. 0 ⎦ 1

0 0 1 0

Por tanto, C = A−1 .  (d) Por tanto, C = A−1 .

2 3 1 1



−1 1

−3 −2



 =

1 0

−12 −5



 =

1 0 0 1

 .



12 Utilizar las matrices A y C del ejercicio 1 para resolver los sistemas lineales.

(a)

−x + 2y = −1 −2x + 3y = 3

(b) −x + 2y − z = −2 y= 4 x − y + 2z = −3 (c)

x1 − x2 + 2x3 + x4 2x1 − x2 + 3x3 + 2x4 4x3 + 3x4 x3 + x4

´ Solucion −1

= = = =

−1 4 −6 2

Si una matriz cuadrada es invertible, entonces el sistema Ax = b tiene soluci´on u´ nica

x = A b. (a) La matriz de coeficientes para este sistema es A=

Page (PS/TeX): 25 / 87, COMPOSITE



−1 2 −2 3



88 CAPI´TULO 2

Matrices invertibles y determinantes

 y, por el primer inciso del ejercicio 1, A  x =

−1

3 2

=

−2 −1

3 2



−2 −1 −1 3

 ; por tanto, 

 =

−9 −5

 .

⎤ −1 2 −1 1 0 ⎦ y, por el segundo inciso del (b) Para este sistema la matriz de coeficientes es A = ⎣ 0 1 −1 2 ⎤ ⎡ −2 3 −1 1 0 ⎦; as´ı que, ejercicio 1, A−1 = ⎣ 0 1 −1 1 ⎡



−2 x = ⎣ 0 1

⎤ ⎤ ⎡ ⎤⎡ 19 −2 3 −1 1 0 ⎦⎣ 4 ⎦ = ⎣ 4 ⎦. −9 −3 −1 1

(c) En este caso la matriz de coeficientes es ⎡

1 −1 ⎢ 2 −1 ⎢ A=⎣ 0 0 0 0

⎤ 2 1 3 2 ⎥ ⎥ 4 3 ⎦ 1 1

y por el tercer inciso del ejercicio 1 ⎡

−1 1 ⎢ −2 1 x = ⎢ ⎣ 0 0 0 0

⎤⎡ 0 −1 −1 ⎢ 4 1 −3 ⎥ ⎥⎢ 1 −3 ⎦ ⎣ −6 −1 4 2

⎤ 3 ⎥ ⎢ −6 ⎥ ⎥ ⎥=⎢ ⎦ ⎣ −12 ⎦ . 14 ⎤





En los ejercicios 3 y 4, determinar si la matriz dada es invertible. ⎤ 1 −2 3 13 A = ⎣ 3 −4 5 ⎦. −2 1 6 ⎡

´ Solucion

Una matriz es invertible si es equivalente (por filas) a la identidad (cfr. teorema 2.3) ⎡

1 A=⎣ 3 −2

⎤ ⎡ ⎤ ⎡ 1 1 −2 3 −2 3 2 −4 ⎦ ∼ ⎣ 0 −4 5 ⎦ ∼ ⎣ 0 0 0 −3 12 1 6

⎤ −2 3 2 −4 ⎦ . 0 12

Puesto que todas las columnas en la u´ ltima matriz en forma escalonada equivalente a A tienen pivote, se deduce que A es equivalente a la identidad y, por tanto, es invertible (cfr. nota 1.6).  ⎤ 1 −2 3 −1 ⎢ −2 1 2 1 ⎥ ⎥ 14 B = ⎢ ⎣ 3 −3 2 4 ⎦ 1 1 −4 6 ⎡

Page (PS/TeX): 26 / 88, COMPOSITE

´ 2.3 SECCION

´ Solucion

Ejercicios resueltos y ejercicios propuestos 89

Una matriz es invertible si es equivalente a la identidad. ⎤ ⎤ ⎡ 1 −2 3 −1 1 −2 3 −1 ⎢ ⎢ −2 8 −1 ⎥ 1 2 1 ⎥ ⎥ ⎥ ∼ ⎢ 0 −3 B=⎢ ⎦ ⎣ ⎣ 3 −3 0 3 −7 7 ⎦ 2 4 0 3 −7 7 1 1 −4 6 ⎤ ⎤ ⎡ ⎡ 1 −2 3 −1 1 −2 3 −1 ⎥ ⎢ 0 −3 8 −1 ⎥ ⎢ 0 −3 8 −1 ⎥ = F. ⎥∼⎢ ∼⎢ ⎣ 0 0 1 6 ⎦ 3 −7 7 ⎦ ⎣ 0 0 0 0 0 0 0 0 0 ⎡

Dado que la u´ ltima columna de la matriz en forma escalonada F equivalente a B no tiene pivote, se deduce que B no puede ser equivalente a la identidad. Por tanto, B no es invertible.  ⎤ ⎡ 1 −2 −2 r 1 ⎦ sea invertible. 15 Encontrar los valores de r para que la matriz A = ⎣ −2 3 −1 r ´ Solucion

Para que la matriz A sea invertible es necesario y suficiente que sea equivalente a la identidad.

Ya que ⎤ ⎡ 1 1 −2 −2 r 1 ⎦∼⎣ 0 A = ⎣ −2 0 3 −5 r ⎡ ⎤ 1 −2 −2 ⎦ 1 6+r ∼⎣ 0 0 0 21 − 2r − r2 ⎡

⎤ ⎡ 1 −2 −2 r−4 −3 ⎦ ∼ ⎣ 0 0 1 6+r

⎤ −2 −2 1 6+r ⎦ r−4 −3

y la u´ ltima matriz (que est´a en forma escalonada equivalente a A) es equivalente a la identidad si 21 − √ 2r − r2 = 0, A es invertible si r = −1 ± 22.  En los ejercicios 6 y 7 calcular la inversa, si existe, de cada matriz por el m´etodo de Gauss-Jordan. ⎤ ⎡ −1 2 1 2 −1 ⎦ 16 ⎣ 3 5 −1 2 ⎤ ⎤ ⎡ ⎡ −1 2 1 1 0 0 −1 2 1 1 0 0 −−−−−−−−→ ⎣ ⎣ 3 2 −1 0 1 0 ⎦ ←R−−↔ 0 8 2 3 1 0 ⎦ ´ Solucion 3R1 + R2 2 5 −1 2 0 0 1 0 9 7 5 0 1 R3 ↔ 5R1 + R3 ⎤ ⎡ −1 2 1 1 0 0 ←−−−−−−−→ ⎣ 0 1 5 2 −1 1 ⎦ R2 ↔ R3 − R2 0 9 7 5 0 1 ⎤ ⎡ −1 2 1 1 0 0 ←−−−−−−−−−−→ ⎣ 0 1 5 2 −1 1 ⎦ R3 ↔ −9R2 + R3 0 0 −38 −13 9 −8 ⎡ ⎤ 0 0 1 −2 −1 −1 ←−−−−−−−−−→ ⎣ 0 1 5 2 −1 1 ⎦ R1 ↔ −R1 4 13 9 0 0 1 − 38 1 38 19 R3 ↔ − 38 R3

Page (PS/TeX): 27 / 89, COMPOSITE

90 CAPI´TULO 2

Matrices invertibles y determinantes

⎡ ←−−−−−−−−−−−−→ R2 ↔ −5R3 + R2 R1 ↔ R3 + R1

⎢ ⎣ 0

−2 0

− 25 38

9 − 38

1 0

11 38 13 38

7 38 9 − 38

0 ⎡

←−−−−−−−−→ R1 ↔ 2R2 + R1

1

0 1

1 0 0

3 − 38

0 0 1

11 38 13 38

⎢ ⎣ 0 1 0

5 38 7 38 9 − 38

4 19 1 − 19 4 19

⎤ ⎥ ⎦



2 19 1 − 19 4 19

⎥ ⎦

Entonces, ⎡

−1 ⎣ 3 5

⎤−1 ⎡ − 3 38 2 1 ⎢ 2 −1 ⎦ = ⎣ 11 38 −1 2 13

5 38 7 38 9 − 38

38

2 19 1 − 19 4 19

⎤ ⎥ ⎦.

Comprobaci´on: ⎤⎡ − 3 38 2 1 ⎢ 11 2 −1 ⎦ ⎣ 38 −1 2 13



−1 ⎣ 3 5 ⎡ ⎢ 17 ⎢ ⎣

2 3 5 −7

38

2 19 1 − 19 4 19



⎤ ⎡ 1 0 0 ⎥ ⎣ ⎦ = 0 1 0 ⎦. 0 0 1





1 −1 1 2 ⎥ ⎥ −1 3 ⎦ 1 2

1 −1 2 2

⎡ ´ Solucion

5 38 7 38 9 − 38

2 1 1 −1 ⎢ 3 −1 1 2 ⎢ ⎣ 5 2 −1 3 −7 2 1 2

Page (PS/TeX): 28 / 90, COMPOSITE

1 0 0 0

0 1 0 0

0 0 1 0

⎤ ⎡ 1 −2 0 3 −1 1 0 0 ⎢ 3 −1 1 2 0 ⎥ 0 1 0 ⎥∼⎢ 2 −1 3 0 ⎦ ⎣ 5 0 0 1 −7 2 1 2 1 0 0 0 ⎡ 1 1 −2 0 3 −1 ⎢ 0 5 1 −7 3 −2 ∼⎢ ⎣ 0 12 −1 −12 5 −5 0 −12 1 23 −7 7 ⎡ 1 1 −2 0 3 −1 ⎢ 0 5 1 −7 3 −2 ∼⎢ ⎣ 0 12 −1 −12 5 −5 0 0 0 11 −2 2 ⎡ −1 1 1 −2 0 3 ⎢ 0 5 1 −7 3 −2 ∼⎢ ⎣ 0 0 −17 24 −11 −1 0 0 0 11 −2 2 ⎡ 1 −2 0 3 −1 1 ⎢ 0 ⎢ ∼⎢ ⎣ 0

1

1 5

0

1

− 75 − 24 17

0

0

0

1

3 5 11 17 2 − 11

− 25 1 17 2 11

⎤ 0 0 ⎥ ⎥ 0 ⎦ 1 0 0 1 0 0 0 1 1 0 0 5 1 0 0 5 − 17 1 11

⎤ 0 0 ⎥ ⎥ 0 ⎦ 1 ⎤ 0 0 ⎥ ⎥ 0 ⎦ 1 ⎤ 0 0 ⎥ ⎥ 0 ⎦ 1 0 ⎤ 0 ⎥ ⎥ ⎥ 0 ⎦ 1 11

´ 2.3 SECCION



1

⎢ ⎢ 0 ∼⎢ ⎢ 0 ⎣ 0 ⎡ 1 ⎢ ⎢ 0 ∼⎢ ⎢ 0 ⎣ 0

0 0

5 − 11

1

1 5

0

1 0

0

0 1

19 55 73 187 2 − 11

−2

0

0

0

0

1

0

0

0

1

0

0

0

1

15 187 50 187 73 187 2 − 11

Ejercicios resueltos y ejercicios propuestos 91 5 11 8 − 55 59 187 2 11

7 187 39 − 187 59 187 2 11

3 − 11

3 − 11

7 55 31 − 187 1 11

7 55 24 187 1 11 13 − 187

9 187 30 187 31 − 187 1 11

19 187 24 187 1 11

⎤ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎥ ⎥ ⎥. ⎥ ⎦

Por tanto, ⎡ ⎢ ⎢ ⎣

⎤−1

2 1 1 −1 3 −1 1 2 ⎥ ⎥ 5 2 −1 3 ⎦ −7 2 1 2

⎡ ⎢ ⎢ =⎢ ⎢ ⎣

15 187 50 187 73 187 2 − 11

7 187 39 − 187 59 187 2 11

9 187 30 187 31 − 187 1 11

13 − 187

9 187 30 187 31 − 187 1 11

13 − 187 19 187 24 187 1 11

⎤ ⎥ ⎥ ⎥. ⎥ ⎦

Comprobaci´on: ⎡

2 1 ⎢ 3 −1 ⎢ ⎣ 5 2 −7 2





1 −1 ⎢ ⎢ 1 2 ⎥ ⎥⎢ ⎦ −1 3 ⎢ ⎣ 1 2

7 187 39 − 187 59 187 2 11

15 187 50 187 73 187 2 − 11

19 187 24 187 1 11



⎡ 1 0 0 ⎥ ⎥ ⎢ 0 1 0 ⎥=⎢ ⎥ ⎣ 0 0 1 ⎦ 0 0 0

⎤ 0 0 ⎥ ⎥. 0 ⎦ 1



En los ejercicios 8 a 10, calcular la inversa de cada matriz elemental utilizando la explicaci´on dada antes del teorema 2.5 (cfr. p´ag. 72). ⎡

1 ⎢ 0 18 E = ⎢ ⎣ 0 0

0 1 0 0

0 0 0 1

⎤ 0 0 ⎥ ⎥. 1 ⎦ 0

La matriz E se obtuvo de la identidad I4 al aplicarle la operaci´on de rengl´on R3 ↔ R2 . Entonces la matriz inversa de E se obtiene aplicando a I4 la operaci´on de rengl´on R2 ↔ R3 ; por tanto, E −1 = E.  ⎤ ⎡ 1 0 0 0 ⎢ 0 −3 0 0 ⎥ ⎥ 19 E = ⎢ ⎣ 0 0 1 0 ⎦ 0 0 0 1 ´ Solucion

´ Solucion La matriz E se obtuvo de I4 aplic´andole la operaci´on de rengl´on R2 ↔ −3R2 ; por tanto, la matriz inversa de E se calcula aplicando la operaci´on de rengl´on R2 ↔ (−1/3)R2 a I4 ; esto es,



1 0 0 1 ⎢ 0 − 0 3 E −1 = ⎢ ⎣ 0 0 1 0 0 0

Page (PS/TeX): 29 / 91, COMPOSITE

⎤ 0 0 ⎥ ⎥. 0 ⎦ 1



92 CAPI´TULO 2

Matrices invertibles y determinantes



1 ⎢ 0 10 E = ⎢ ⎣ 0 0

0 −2 0 0

0 3 1 0

⎤ 0 0 ⎥ ⎥. 0 ⎦ 1

´ Solucion La matriz elemental E es el resultado de aplicar la operaci´on de rengl´on R2 ↔ −2R2 + 3R3 a la matriz I4 ; por ende, la matriz inversa de E se obtiene aplicando la operaci´on R2 ↔ (−1/2)R2 + (3/2)R3 a I4 ; o sea



1

⎢ ⎢ 0 E −1 = ⎢ ⎣ 0 0

0 − 21 0 0

0 0



⎥ 0 ⎥ ⎥. 1 0 ⎦ 0 1 3 2



⎤ 1 −1 1 1 1 ⎦ y escribir A−1 como producto de matrices ele11 Encontrar la inversa de la matriz A = ⎣ 2 2 −1 2 mentales. ⎡



1 −1 1 ´ Solucion ⎣ 2 1 10 2 −1 2

1 1 0

⎤ ⎡ 1 0 0 ⎦ ←−−−−−−−−−−−−→ ⎣ 0 0 R2 ↔ −2R1 + R2 0 0 1 R3 ↔ −2R1 + R3 ⎡ 1 ←−−−−−−→ ⎣ 0 R3 ↔ R2 0 ⎡ 1 ←−−−−−−−−−−−−→ ⎣ 0 R3 ↔ −3R2 + R3 0 ⎡ 1 ←−−−−−−−−−→ ⎣ 0 R1 ↔ R 3 + R 1 0 ⎡ 1 ←−−−−−−−−−→ ⎣ 0 R1 ↔ R 2 + R 1 0 ⎡ 1 ←−−−−−−−→ ⎣ 0 R3 ↔ −R3 0

−1 1 3 −1 1 0 −1 1 1 0 3 −1

⎤ 1 0 0 −2 1 0 ⎦ −2 0 1 ⎤ 1 0 0 −2 0 1 ⎦ −2 1 0

⎤ 1 0 0 −2 0 1 ⎦ 4 1 −3 ⎤ −1 0 5 1 −3 1 0 −2 0 1 ⎦ 0 −1 4 1 −3 ⎤ 0 0 3 1 −2 1 0 −2 0 1 ⎦ 0 −1 4 1 −3 ⎤ 0 0 3 1 −2 1 0 −2 0 1 ⎦ 0 1 −4 −1 3 −1 1 1 0 0 −1

⎤ 3 1 −2 0 1 ⎦. A−1 = ⎣ −2 −4 −1 3 ⎡

Con lo que

Las matrices elementales que corresponden a cada operaci´on de rengl´on (cfr. teorema 2.4) son las que se obtienen al aplicar las mismas en forma ⎤ de fila a I3 que las que se aplican ⎤ sucesiva a la matriz ⎡ operaciones ⎡ 1 0 0 1 0 0 A para obtener A−1 : E1 = ⎣ −2 1 0 ⎦ ( R2 ↔ −2R1 +R2 ); E2 = ⎣ 0 1 0 ⎦ (R3 ↔ −2R1 +R3 ); 0 0 1 −2 0 1

Page (PS/TeX): 30 / 92, COMPOSITE

´ 2.3 SECCION

⎤ ⎡ 1 0 0 1 E3 = ⎣ 0 0 1 ⎦ (R3 ↔ R2 ); E4 = ⎣ 0 0 1 0 0

Ejercicios resueltos y ejercicios propuestos 93

⎤ ⎤ ⎡ 0 0 1 0 1 1 0 ⎦ (R3 ↔ −3R2 + R3 ); E5 = ⎣ 0 1 0 ⎦ −3 1 0 0 1



⎤ ⎤ ⎡ 1 1 0 1 0 0 0 ⎦ (R3 ↔ −R3 ). (R1 ↔ R3 + R1 ); E6 = ⎣ 0 1 0 ⎦ (R1 ↔ R2 + R1 ); E7 = ⎣ 0 1 0 0 1 0 0 −1 ⎡

Entonces, E7 E6 E5 E4 E3 E2 E1 = A−1 como f´acilmente se puede comprobar realizando el producto de las matrices elementales.  ⎤ 1 −2 1 1 2 ⎦. Encontrar, si es que existe, una matriz B tal que AB = A2 + 3A. 12 Sea A = ⎣ −1 1 −2 3 ⎡

´ Solucion

Si la matriz A es invertible, entonces AB = A2 + 3A ⇒ A−1 (AB) = A−1 (A2 + 3A) = (A−1 A)A + 3A−1 A ⇒ I3 B = I3 A + 3I3 ⇒ B = A + 3I3 .

Luego, el problema tiene soluci´on si A es invertible; y puesto que ⎡

1 ⎣ −1 1

⎤ ⎡ 1 −2 1 1 2 ⎦∼⎣ 0 0 −2 3

−2 −1 0

⎤ 1 3 ⎦, 2

A es equivalente a la identidad y, por tanto, es invertible. As´ı que la soluci´on existe y est´a dada por ⎡

−2 4 −2

4 B = A + 3I3 = ⎣ −1 1  13 Resolver el ejercicio 12 con la matriz A =

0 1 0 0

⎤ 1 2 ⎦. 6



 .

´ Solucion En este caso no se puede proceder como en el ejercicio 12, pues la matriz A no es invertible (est´a en forma escalonada y no tiene pivote en la primera columna). Sin embargo,



0 0

2

A + 3A =

3 0

 

2

por lo que es f´acil encontrar soluci´on a la ecuaci´on A + 3A = AB por inspecci´on: B = efecto,  AB =

Page (PS/TeX): 31 / 93, COMPOSITE

0 3 0 0

 .



0 0 0 3

 . En

94 CAPI´TULO 2

Matrices invertibles y determinantes

14 Determinar si la siguiente matriz es invertible y de ser as´ı calcular su inversa.



Se aplica el m´etodo de Gauss-Jordan:

´ Solucion

⎡ ⎢ ⎢ ⎢ ⎣ ⎡ ⎢ ⎢ ⎢ ⎣ ⎡ ⎢ ⎢ ⎢ ⎣ ⎡ ⎢ ⎢ ⎢ ⎣ ⎡ ⎢ ⎢ ⎢ ⎣ ⎡ ⎢ ⎢ ⎢ ⎣ ⎡

1 i 1+i −2 1 0 0 0

−i i 0 0

3 − 48i 0 0 0

−i 2 i i

1+i 2i −1 3

1+i −1 + i 3 + 2i 4 + 3i

−2 4 1 4

1 0 0 0

−2 −2 + 4i 4 + 11i −2 + 4i

−48 − 3i 48 + 3i 0 0

⎤ −2 4 ⎥ ⎥. 1 ⎦ 4

−i 1 + i 2 2i i −1 i 3

1 ⎢ i A=⎢ ⎣ 1+i −2

0 1 0 0

0 0 1 0

1 1 2 − 3i 3

51 − 45i 45 + 51i 105 − 138i 0

0 0 0 1





⎥ ⎢ ⎥ ⎢ ⎥∼⎢ ⎦ ⎣

0 i 2+i i

0 0 i 0

1 0 0 0 0 0 0 1

−i 1+i −21 i −1 + i −2 + 4i1 −1 + 2i −1 − 2i 3 + 2i − 1 − i −i −i 0 ⎤ ⎡ 1 −i 1+i −2 ⎥ ⎢ 0 i −1 + i −2 + 4i ⎥ ⎢ ⎥∼⎢ ⎦ ⎣ 0 0 3 + 2i 4 + 11i 0 0 0 −3 + 48i

0 0 0 −3 + 48i

−13 − 24i 35 + 8i 26 − 65i 8 − 12i

−14 + 14i 6 + 17i 5 + 12i 7 + 7i

6 − 8i −10 − 20i −8 − 14i −3 + 4i

0 i 0 2

0 0 1 0

0 0 0 0

⎤ ⎥ ⎥ ⎥∼ ⎦ 1

1 0 1 i 2 − 3i 2+i 8 − 12i 7 + 7i ⎤ 6 + 4i 14 − 8i ⎥ ⎥ ⎥∼ 10 − 41i ⎦ −3 − 2i

6309 + 5454i 0 0 0

5454 − 6309i −5454 + 6309i 0 0

0 0 105 − 138i 0

0 0 0 −3 + 48i

3078 − 3759i −294 + 2391i 26 − 65i 8 − 12i

4197 − 75i −3363 − 162i 5 + 12i 7 + 7i

−564 + 1314i 4164 − 318i −8 − 14i −3 + 4i

6309 + 5454i 0 0 0

0 −5454 + 6309i 0 0

0 0 105 − 138i 0

0 0 0 −3 + 48i

2784 − 1368i −294 + 2391i 26 − 65i 8 − 12i

834 − 237i −3363 − 162i 5 + 12i 7 + 7i

3600 + 996i 4164 − 318i −8 − 14i −3 + 4i

6309 + 5454i 0 0 0

0 −5454 + 6309i 0 0

0 0 105 − 138i 0

0 0 0 −3 + 48i

2784 − 1368i −294 + 2391i 26 − 65i 8 − 12i

834 − 237i −3363 − 162i 5 + 12i 7 + 7i

3600 + 996i 4164 − 318i −8 − 14i −3 + 4i

1 0 0 0

112 771

88 − 257 i

44 771

67 − 771 i

1 0 0

185 771

− 124 771 i

64 257

+ 245 771 i

0 1 0

100 257

83 − 771 i

⎢ ⎢ ⎢ 0 ⎢ ⎢ ⎢ 0 ⎢ ⎣

0 0 0 1

116 − 200 771 − 771 i

104 257

− 119 771 i

28 771

22 − 257 i

67 771

44 + 771 i

⎡ Con lo que

A

−1

22 28 − 257 − 771 i

⎢ ⎢ ⎢ =⎢ ⎢ ⎣

172 771

⎤ ⎥ ⎥ ⎥. ⎦

112 771

88 − 257 i

44 771

67 − 771 i

185 771

− 124 771 i

64 257

+ 245 771 i

100 257

83 − 771 i

29 50 − 771 + 771 i 35 257

− 119 771 i

104 257

− 148 771 i

22 28 − 257 − 771 i



⎥ 272 31 239 ⎥ − 274 771 − 771 i − 771 − 771 i ⎥ ⎥. 28 22 172 25 ⎥ 771 − 257 i 771 − 257 i ⎦ 67 771

44 + 771 i

⎤ ⎥ ⎥ ⎥∼ ⎦

⎤ −2517 − 2133i 2175 + 1437i ⎥ ⎥ ⎥∼ 10 − 41i ⎦ −3 − 2i ⎤ −342 − 696i 2175 + 1437i ⎥ ⎥ ⎥∼ 10 − 41i ⎦ −3 − 2i ⎤ −342 − 696i 2175 + 1437i ⎥ ⎥ ⎥∼ 10 − 41i ⎦ −3 − 2i

25 − 257 i ⎥ ⎥

29 50 − 771 + 771 i

116 − 200 771 − 771 i

Page (PS/TeX): 32 / 94, COMPOSITE

0 0 0 −3 − 2i

272 31 239 ⎥ − 274 771 − 771 i − 771 − 771 i ⎥

29 50 − 771 + 771 i 35 257

− 148 771 i

0 0 i −3 + 4i

29 50 − 771 + 771 i



´ 2.3 SECCION

Ejercicios resueltos y ejercicios propuestos 95

Determinantes, adjunta y regla de Cramer ⎤ −1 1 2 3 ⎢ 0 1 −1 2 ⎥ ⎥, hallar los cofactores 15 Para la matriz A = ⎢ ⎣ 3 0 −1 1 ⎦ 4 −5 1 2 ⎡

(a)

´ Solucion

c11

(a) c11 ,

(b) c31

y

(c) c41 .

   1 −1 2    = (−1)1+1  0 −1 1   −5 1 2  = (1)(−1)1+1 M11 + (0)(−1)2+1 M21 + (−5)(−1)3+1 M31        −1 1   − 5  −1 2  =    −1 1  1 2 = −3 − 5 = −8.

(b)

(c)

c31

c41

  1 2  3+1  = (−1)  1 −1  −5 1   −1 2 = (1)(−1)1+1  1 2   2 +(−5)(−1)3+1  −1

 3  2  2         + (1)(−1)2+1  2 3    1 2   3  = −40. 2 

  1 2 3  = (−1)4+1  1 −1 2  0 −1 1    −1 1+1 = − (−1) (1)  −1

      2 1

       + (−1)2+1 (1)  2 3  = 4.   −1 1 



16 Utilizar los cofactores de la matriz A calculados en el ejercicio anterior para hallar el determinante de

esa matriz. ´ Solucion

El determinante se puede calcular desarrollando por cofactores en la primera columna: |A| = a11 c11 + a21 c21 + a31 c31 + a41 c41 = (−1)(−8) + 0c21 + (3)(−40) + (4)(4) = −96. 

17 Calcular el determinante de la matriz A desarrollando por cofactores en una fila o columna que minimice

los c´alculos si

⎡ ⎢ ⎢ A=⎢ ⎢ ⎣

Page (PS/TeX): 33 / 95, COMPOSITE

2 −1 3 0 2 0 2 2 1 1 1 0 −1 0 1 3 0 2 0 1 −0 4 1 2 0

⎤ ⎥ ⎥ ⎥. ⎥ ⎦

96 CAPI´TULO 2

Matrices invertibles y determinantes

´ Solucion

Se desarrolla por cofactores por la columna o fila que tenga m´as ceros:         

2 −1 3 0 2 2 1 0 −1 3 0 2 0 4 1

0 1 0 0 2

2 1 1 1 0

          =     

    2 −1 3 2  2 −1 3 2    0 2 2 1  1 0 −1 1  − 2  1 0 −1 1  3 0 2 1    3 0 2 1  0 4 1 0       2  1 −1 1  3 2     2 1  + 4  1 −1 1  = −(−1)  3  3  0 2 1  1 0     ⎛  0  2 2 1  3 2     ⎝ −2 −(−1)  1 −1 1  + (2)  1 −1 1  3  3 2 1 2 1         1 1   1 −1  1 1     + −2 −2  = −(1)   3 1 + 3 2 3 1  = −16. 

⎞   ⎠      

18 Calcular el determinante de la matriz A del ejercicio resuelto 17 utilizando las propiedades del inciso

5 del teorema 2.8 para “hacer ceros los elementos en la primera columna” hasta que se obtenga un determinante 3 × 3 y entonces calcularlo por cofactores o por la regla de Sarrus. ´ Solucion

Page (PS/TeX): 34 / 96, COMPOSITE

        

2 0 1 3 0

−1 3 0 2 2 1 0 −1 0 0 2 0 4 1 2

2 1 1 1 0

  0  1    2  0     = −  2 −1   0  3   0  4  0  1  2  0  = −  0 −1  0  3  0 4  0  1  2  0  = −  0 −1  0  0  0 4   2 2   −1 5 = −   0 5  4 1   −1 5 0   2 2 1 =   0 5 0  4 1 2   1 −5   2 2 = −  0 5   4 1

−1 2 3 2 1

0 1 0 0 2

1 1 2 1 0

−1 2 5 2 1

0 1 0 0 2

1 1 0 1 0

                 

 0 1   1 1   0 0   0 −2  2 0   1 1  0 0  0 −2  2 0   0  1  −2  0   0 0  1 1  0 −2  2 0  −1 2 5 5 1

´ 2.3 SECCION

=

=

= =

  1 −5   0 12 −  5  0  4 1   1 −5   0 12 −  5  0  0 21   12 1  −  5 0  21 2    1 − −5  2

Ejercicios resueltos y ejercicios propuestos 97

 0 0  1 1  0 −2  2 0   0 0  1 1  0 −2  2 0   1  −2  0      12 1  1   = −16.   +2 21 2  0 

19 Calcular el determinante de la matriz A del ejercicio 17 llevando esta matriz a forma triangular superior

utilizando la propiedades 5 y 4 del teorema 2.8 (cfr. p´ag. 80). ´ Solucion

Por el ejercicio precedente se tiene         

2 0 1 3 0

−1 3 0 2 2 2 1 1 0 −1 0 1 0 2 0 1 4 1 2 0

   1     0     = − 0    0   0    1   0  = − 0   0  0      = −   

1 0 0 0 0       = −12             = −12      

Page (PS/TeX): 35 / 97, COMPOSITE

 0 −1 0 1   2 2 1 1   −1 5 0 0   0 5 0 −2  4 1 2 0   0 −1 0 1   1 −5 0 0   2 2 1 1   0 5 0 −2  4 1 2 0   0 −1 0 1   1 −5 0 0   0 12 1 1   0 5 0 −2  0 21 2 0  1 0 −1 0 1 −5

0

0 0

1

1 12

0 0

5

0

0 0

21

2

1 0 −1 0 1 −5 0 0

1

0 0

0

0 0

0

 1   0   1  12   −2   0 

0

0 0 1 12 5 − 12 1 4

 1   0   1  12   − 29 12   − 21  12

98 CAPI´TULO 2

Matrices invertibles y determinantes

      5   = (−12) − 12         1 0 −1    0 1 −5   1 = 5 0 0   0 0 0    0 0 0      1 = 5 4     

1 0 −1 0 1 −5 0 0

1

0 0

0

0 0

0

 0 1   0 0   1 1  12 12  29  1 5   1 21  − 12 4

1 0 −1 0 1 −5 0 0

1

0 0

0

 1   0 0   1  1 12 12  29  1 5   1 − 21  0

4

12

 1   0 0   1  1 12 12    1 29 5  1 −7   1   0   1  12  29  5   64  −5 0

0 0 0   1 0 −1 0    0 1 −5 0   1 1 12 = 54  0 0   0 0 0 1    0 0 0 0   5 64 = − = −16.  4 5

20 Calcular el determinante de la siguiente matriz llevando la misma a forma triangular superior utilizando

las propiedades 5 y 4 del teorema 2.8 (cfr. p´ag. 80). ⎡ ⎢ ⎢ A=⎢ ⎢ ⎣

´ Solucion

Page (PS/TeX): 36 / 98, COMPOSITE

  1 −2  −3  2  4  −3  −8  5  7 −18

1 2 −3 5 7

−2 3 4 −3 2 1 4 −6 1 −8 12 15 −18 16 12

  3 4 −5   1   2 1 −4   0   −6 1 3  =  0   12 15 −20   0  0  16 12 −30   1   0  =  0   0  0

−5 −4 3 −20 −30

⎤ ⎥ ⎥ ⎥. ⎥ ⎦

−2 3 1 −4 −2 3 2 −3 −4 −5 −2 3 1 −4 0 −5 0 5 0 −21

 4 −5   −7 6   13 −12   −5 5  −16 5   4 −5   −7 6   −1 0   9 −7  −44 29 

´ 2.3 SECCION

     =    

Ejercicios resueltos y ejercicios propuestos 99

 4 −5   −7 6   −1 0   9 −7  −8 1 

−2 3 1 −4 0 −5 0 5 0 −1

1 0 0 0 0      = −   

1 0 0 0 0

−2 3 1 −4 0 −1 0 5 0 −5

     = −   

1 0 0 0 0

−2 3 4 −5 1 −4 −7 6 0 −1 −8 1 0 0 −31 −2 0 0 39 −5

1

−2

      1  = 31            1  = 31     

3

 4 −5   −7 6   −8 1   9 −7  −1 0          

 −5   −7 6   −8 1  2  1 31  39 −5  4

0

1 −4

0

0 −1

0

0

0

0

0

0

1

−2

3

4

0

1 −4

−7

0

0 −1

−8

0

0

0

1

0

0

0

0

 −5   6   1  = 233.  2   31  233  − 31

21 Calcular la matriz adjunta de la matriz



1 A = ⎣ −i −1

⎤ −i 1 + i 2i 2 ⎦. 1 2 + 3i

⎤ + − + La matriz de signos correspondiente es ⎣ − + − ⎦; as´ı que + − + ⎡

´ Solucion

⎡ ⎢ ⎢ ⎢ ⎢ ⎢ Cof(A) = ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ = ⎣

Page (PS/TeX): 37 / 99, COMPOSITE

       −i 2i   −i  2i 2  2       −1 1   1 2 + 3i  −  −1 2 + 3i         1 1+i   1 −i   −i 1 + i       −  −1 2 + 3i  −  −1 1  1 2 + 3i         1 −i   1 1+i   −i 1 + i        −  −i 2i   2i −i 2  2  ⎤ −8 + 4i −5 + 2i i −2 + 3i 3 + 4i −1 + i ⎦ ; 2 − 4i −1 − i 1 + 2i

⎤ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥= ⎥ ⎥ ⎥ ⎦

100 CAPI´TULO 2

Matrices invertibles y determinantes

por tanto, ⎡

−8 + 4i Adj(A) = ⎣ −5 + 2i i

⎤ −2 + 3i 2 − 4i 3 + 4i −1 − i ⎦ . −1 + i 1 + 2i



22 Calcular la inversa de la matriz A del ejercicio anterior por medio de la adjunta. ´ Solucion

Al desarrollar por cofactores en la tercera fila de A se tiene det(A) = (−1)(2 − 4i) + (1)(−1 − i) + (2 + 3i)(1 + 2i) = −7 + 10i. 1 Adj(A) det(A) ⎤ ⎡ −8 + 4i −2 + 3i 2 − 4i 1 ⎥ ⎢ = ⎣ −5 + 2i 3 + 4i −1 − i ⎦ −7 + 10i i −1 + i 1 + 2i ⎡ 96 ⎤ 52 44 1 54 8 149 + 149 i 149 − 149 i − 149 + 149 i ⎢ 55 ⎥ 36 19 58 3 17 ⎥ = ⎢ ⎣ 149 + 149 i 149 − 149 i − 149 + 149 i ⎦ .

A−1 =

Entonces,

10 149

7 − 149 i

17 149

3 + 149 i

13 149



24 − 149 i

23 Calcular el determinante de la matriz A utilizando las propiedades 5 y 4 del teorema 2.8 (cfr. p´ag. 80) y

desarrollar por cofactores o regla de Sarrus si ⎡ ⎢ ⎢ A=⎢ ⎢ ⎣

´ Solucion

 1    −i   −3   −1 + i  2

Page (PS/TeX): 38 / 100, COMPOSITE

1 −i −3 −1 + i 2

−1 2 i 2+i 3 −1 1 −1 2 −1 1 2 2i −i 2 + 3i

−1 2+i 1 −1 2i 1−i 2 i −3i i

2 i 3 −1 −1 2 1 2 −i 2 + 3i    1     0     =  0    0   0    1   0  =  0   0  0   1   0  = i 0   0  0

1−i 2 i −3i i

⎤ ⎥ ⎥ ⎥. ⎥ ⎦

−1 2 2 3 + 2i −2 5 −2 + i 3 − 2i 2 + 2i −4 − i −1 2 0 i 3i

2 3 + 2i 8 + 2i 6 −1 − 3i

−1 2 2 3 + 2i 0 8 + 2i 1 −6i 3i −1 − 3i

        

i 1−i −2 3+i 2 + 3i 3 − 2i 3+i −5i 2 + i −2 + 3i  i 1−i   −2 3+i   3i 6−i   1+i 3 − 4i  5 + 2i −2 − 2i  i −2 3i 1−i 5 + 2i

1−i 3+i 6−i −4 − 3i −2 − 2i

        

´ 2.3 SECCION

      = −i     

1 0 0 0 0

      = −i     

1 −1 0 1 0 0 0 0 0 0

−1 2 1 −6i 0 8 + 2i 2 3 + 2i 3i −1 − 3i

Ejercicios resueltos y ejercicios propuestos 101

i 1−i 3i −2 5 + 2i

1−i −4 − 3i 6−i 3+i −2 − 2i

          

i 1−i 1−i −4 − 3i 3i 6−i −4 + 2i 11 + 7i 2−i −11 + 10i     8 + 2i 3i 6−i     11 + 7i  = −i  3 + 14i −4 + 2i    −19 − 3i 2−i −11 + 10i  ⎞ ⎫ ⎧ ⎛ (8 + 2i)(−4 + 2i)(−11 + 10i) ⎪ ⎪ ⎪ ⎪ ⎪ ⎟ ⎪ ⎜ ⎪ ⎪ ⎪ ⎪ +(3 + 14i)(2 − i)(6 − i) ⎠ ⎝ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎬ ⎨ +(−19 − 3i)(11 + 7i)(3i) = −i ⎞ ⎛ ⎪ ⎪ ⎪ ⎪ (6 − i)(−4 + 2i)(−19 − 3i) ⎪ ⎪ ⎪ ⎪ ⎪ ⎜ ⎟ ⎪ ⎪ ⎪ +(11 + 7i)(2 − i)(8 + 2i) ⎪ ⎪ − ⎠ ⎝ ⎪ ⎪ ⎪ ⎪ ⎭ ⎩ +(−11 + 10i)(3 + 14i)(3i) 2 −6i 8 + 2i 3 + 14i −19 − 3i

          

= −i ((959 − 882i) − (1064 − 675i)) = −207 + 105i.  24 Calcular la soluci´on del sistema

(1 + 2i)x − iy + z = 2 + i 2x + (3 − i)y + iz = 5 (−2 − i)x + (2 + i)y − 2z = −2

mediante la regla de Cramer.

´ Solucion

   1 + 2i −i 1   2 3 − i i  Δ =   −2 − i 2 + i −2   −2(1 + 2i)(3 − i) + 2(2 + i) + (−2 − i)(i)(−i) = − ((3 − i)(−2 − i) + i(2 + i)(1 + 2i) + 4i)

!

= −8 − 9i − (−12 + 3i) = 4 − 12i;   2+i  Δ1 =  5  −2

−i 1 3−i i 2 + i −2

     

  = (−2(2 + i)(3 − i) + 10 + 5i − 2) − (−6 + 2i) + (2 + i)2 i + 10i = −6 + 3i − (−10 + 15i)

= 4 − 12i;

Page (PS/TeX): 39 / 101, COMPOSITE

102 CAPI´TULO 2

Matrices invertibles y determinantes

   1 + 2i 2 + i 1    2 5 i  Δ2 =   −2 − i −2 −2    = −10 − 20i − 4 − i(2 + i)2 − (−10 − 5i + 4 − 2i − 8 − 4i) = −10 − 23i − (−14 − 11i) = 4 − 12i;    1 + 2i −i 2 + i   2 3−i 5  Δ3 =   −2 − i 2 + i −2      = (−2 − 4i)(3 − i) + 2(2 + i)2 − 5 + 10i − −(2 + i)2 (3 − i) + 5(1 + 2i)(2 + i) + 4i = −9 + 8i − (−13 + 20i) = 4 − 12i. Δ1 = 1, Δ Δ1 y = = 1, Δ Δ1 z = = 1. Δ

x =

Por tanto,



2.3.2 Ejercicios propuestos El lector encontrar´a la respuesta a los ejercicios en cursiva en el ap´endice E al final del libro.

Matrices invertibles y sus inversas (respuestas en p´aginas 1075-1076) En los ejercicios 1 a 7 encontrar, si existe, la inversa de la matriz dada mediante el m´etodo de GaussJordan.  1

 12

1 0

1 −1



−2 1 1 −1

 .

⎤ 1 −1 1 1 1 ⎦. 3 ⎣ 0 0 1 −1 ⎤ ⎡ 2 3 0 14 ⎣ 1 2 −1 ⎦ . 4 5 1 ⎡

⎤ 1 1 −1 3 ⎦. 5 ⎣ 2 0 −3 1 −7 ⎤ ⎡ −1 2 3 16 ⎣ 2 −3 −1 ⎦ . 1 −1 1 ⎤ ⎡ 1 0 0 7 ⎣ 2 −1 0 ⎦ . −1 1 1 ⎡

.

8 Escriba las matrices de los ejercicios 1 a 7, donde sea posible, como producto de matrices elementales.

En los ejercicios 9 a 13 utilizar las matrices inversas encontradas en los problemas 1, 2, 3, 4 y 6 para resolver los sistemas lineales.

Page (PS/TeX): 40 / 102, COMPOSITE

´ 2.3 SECCION

 9

 10

1 0

1 −1



−2 1 1 −1

x y





x y

 =

1 −2



 =



5 −4

Ejercicios resueltos y ejercicios propuestos 103

⎤ ⎤⎡ ⎤ ⎡ −3 x 3 0 2 −1 ⎦ ⎣ y ⎦ = ⎣ −4 ⎦ . −2 z 5 1



2 12 ⎣ 1 4

. 



.

−1 13 ⎣ 2 1

⎤ ⎤⎡ ⎤ ⎡ 1 x 2 3 −3 −1 ⎦ ⎣ y ⎦ = ⎣ −2 ⎦ . −1 z −1 1

⎤ ⎤⎡ ⎤ ⎡ 6 x −1 1 1 1 ⎦⎣ y ⎦ = ⎣ 2 ⎦. −4 z 1 −1   a b 14 Demostrar que una matriz es invertible si y s´olo si ad − bc = 0 y que en ese caso c d ⎡

1 11 ⎣ 0 0



a b c d

−1

1 = ad − bc



−b a

d −c

 .

(Sugerencia: Utilizar el m´etodo de Gauss-Jordan.) Utilizar el ejercicio 14 para determinar si las matrices de los ejercicios 15 a 18 son invertibles y calcular en tal caso las matrices inversas.  15

 16

−1 2 3 −8 2 5

−3 7



 .

17



 .

18

3 −1

6 −2

α −β

β α

 .

 , α, β ∈ R − {0}.

En los ejercicios 19 a 37, encontrar la inversa de la matriz dada (si existe) por el m´etodo de GaussJordan. ⎤ −1 2 2 −2 ⎦ . −3 5



1 19 ⎣ −1 3

⎤ 1 −2 −1 3 2 ⎦. 20 ⎣ −2 −2 1 1 ⎡

⎤ −2 5 3 21 ⎣ 3 −1 −2 ⎦ . −1 1 1 ⎡

⎤ 40 19 −26 −13 ⎦ . −17 −8



7 22 ⎣ −4 −3 ⎡

2 23 ⎣ 3 2

⎤ −1 3 −1 4 ⎦ . −1 1

Page (PS/TeX): 41 / 103, COMPOSITE



⎤ −3 2 6 3 ⎦. −1 3



⎤ −2 4 −10 17 ⎦ . 5 −12

5 24 ⎣ −3 4 1 25 ⎣ 5 −3 ⎡

3 26 ⎣ 1 1 ⎡

1 ⎢ −2 27 ⎢ ⎣ 3 4 ⎡

2 ⎢ 1 28 ⎢ ⎣ 3 −1

⎤ 1 0 −1 2 ⎦ . 1 1 ⎤ −2 1 3 5 −2 −5 ⎥ ⎥. −6 4 9 ⎦ −8 4 11 −3 1 2 3 −1 4 2 −1

⎤ 2 3 ⎥ ⎥. 5 ⎦ 4

104 CAPI´TULO 2

Matrices invertibles y determinantes

⎤ −1 2 −1 1 ⎢ 3 −5 3 −3 ⎥ ⎥. 29 ⎢ ⎣ −2 4 −3 2 ⎦ 2 −4 −2 −1 ⎤ ⎡ 1 2 1 3 ⎢ 2 6 1 6 ⎥ ⎥ 30 ⎢ ⎣ 4 2 6 12 ⎦ . 7 14 7 20 ⎤ ⎡ 1 −1 2 −3 ⎢ 2 −2 1 −1 ⎥ ⎥. 31 ⎢ ⎣ −1 9 1 1 ⎦ 0 −1 1 −2 ⎤ ⎡ 1 −1 2 −3 ⎢ 2 −2 1 −1 ⎥ ⎥. 32 ⎢ ⎣ −1 −25 1 1 ⎦ −2 −1 1 −2 ⎤ ⎡ 1 1 1 5 ⎢ 1 3 2 9 ⎥ ⎥ 33 ⎢ ⎣ 1 1 −1 1 ⎦ . 1 2 1 6

⎤ 1 1 1 1 ⎢ 1 2 −1 3 ⎥ ⎥. 34 ⎢ ⎣ 1 −1 2 1 ⎦ 1 2 1 2 ⎡ 1 −1 2 3 ⎢ 2 −1 4 6 ⎢ −2 2 −3 −6 35 ⎢ ⎢ ⎣ 3 −3 6 8 5 −5 10 15 ⎡ 1 −2 1 1 ⎢ 3 −5 3 4 ⎢ −2 −4 −1 −3 36 ⎢ ⎢ ⎣ −1 2 −1 −2 2 −4 2 2 ⎡ 0 1 0 0 0 0 0 ⎢ 2 0 −2 ⎢ 0 −1 0 ⎢ 0 3 37 ⎢ 1 0 2 ⎢ 0 0 ⎣ 0 0 0 −3 0 0 0 0 0 2





4 8 −8 12 19

⎤ ⎥ ⎥ ⎥. ⎥ ⎦

⎤ −1 −2 ⎥ ⎥ 3 ⎥ ⎥. 2 ⎦ −3 ⎤ 0 0 ⎥ ⎥ 0 ⎥ ⎥. 0 ⎥ 1 ⎦ 0

38 Sea



⎤ −2 1 −2 0 ⎦ . 2 1



⎤ 1 2 ⎦. −1

1 A−1 = ⎣ 3 0 Hallar, si es posible, una matriz C tal que 1 AC = ⎣ −1 2

⎤ 2 −1 1 1 2 ⎦. Encontrar, si es posible, una matriz B tal que 39 Sea A−1 = ⎣ −2 1 1 −2 ⎡

⎤ 1 0 1 3 ⎦. ABA = ⎣ −1 2 0 1 −1 ⎡



1 −1 40 Sea A = ⎣ 2 −1 2 1  41 Sea A =

1 2 −1 −1

⎤ 1 0 ⎦. Hallar, si es que existe, una matriz B tal que A2 − A = AB. 0  . Resolver la ecuaci´on matricial  2

A X −A =

Page (PS/TeX): 42 / 104, COMPOSITE

2 3 −1 1

 .

´ 2.3 SECCION

Ejercicios resueltos y ejercicios propuestos 105

42 Encontrar los valores de α tales que la matriz



1 ⎣ 2 3

⎤ −1 2 α −1 ⎦ −2 2

sea invertible. 43 Hallar los valores de α tales que la matriz



1 ⎣ 2 −1

⎤ 2 −1 3 α ⎦ −1 1

sea invertible. 44 Mostrar que dos matrices A, B ∈ Mm×n son equivalentes si y s´olo si existen matrices elementales

E1 , E2 , . . . , Ek de orden m tales que B = Ek · · · E2 E1 A. 45 Demostrar que dos matrices A, B de tama˜no m × n son equivalentes si y s´olo si existe una matriz cuadra-

da, C, de orden m e invertible tal que B = CA. 46 Si una matriz cuadrada satisface A2 = O, demostrar que entonces A − I es una matriz invertible. ¿Cu´al

es su inversa? (Donde I es la matriz identidad). Los ejercicios 47 a 58 contienen afirmaciones que son falsas o verdaderas. Si la afirmaci´on es verdadera se debe demostrar con rigor su validez y si es falsa se tiene que exhibir un contraejemplo para mostrar que no es cierta. En cada caso se supone que las matrices involucradas tienen los tama˜nos adecuados para efectuar las correspondientes operaciones. 47 C invertible, AC = BC ⇒ A = B. 48 C invertible, AC = CB ⇒ A = B. 49 C invertible, AC = O ⇒ A = O. 50 Si AC = B y dos de estas matrices son invertibles, entonces la tercera tambi´en es invertible. 51 Si AC = B y dos de estas matrices son singulares (no invertibles), entonces la tercera tambi´en es singular. 52 A invertible ⇒ A2 invertible. 53 A2 invertible ⇒ A invertible. 54 A3 invertible ⇒ A invertible. 55 A, B invertibles ⇒ A + B invertible. 56 A invertible ⇒ A + A invertible. 57 A invertible ⇒ A + At invertible.

Page (PS/TeX): 43 / 105, COMPOSITE

106 CAPI´TULO 2

Matrices invertibles y determinantes

58 A, B no singulares (invertibles) ⇒ A + B no singular. 59 Una matriz cuadrada A tiene potencia nula si Ak = O para alg´un entero positivo k.

(a) Dar un ejemplo de una matriz no cero de orden 2 que tenga potencia nula. (b) Probar que toda matriz invertible no puede tener potencia nula. 60 Si A es una matriz cuadrada y A2 = A, probar que si A es invertible entonces A = I.

En los ejercicios 61 a 62 determinar si la matriz es invertible y en tal caso calcular la inversa mediante el m´etodo de Gauss-Jordan. ⎡

1 ⎢ 2 ⎢ 61 ⎣ −1 + i i

1+i 2+i −2 −1 + i

⎤ −1 2 ⎥ −2 4 ⎥. 1 −2 + 2i ⎦ −i i



6 + 2i 13 + 3i ⎢ 13 + 3i 27 + 4i ⎢ 62 ⎣ −8 + 3i −16 + 8i −2 + 4i −3 + 9i

⎤ −8 + 3i −2 + 4i −16 + 8i −3 + 9i ⎥ ⎥. 5 − 10i −1 − 6i ⎦ −1 − 6i −3 − 2i

Determinantes, adjunta y regla de Cramer (respuestas en p´aginas 1076-1077) En los ejercicios 63 a 66, calcular los determinantes por medio de la regla de Sarrus (cfr. (2.7), p´ag. 78).   2  63  4  1

 −1 3  −3 2  . 4 6 

  2  65  3  5

   3 1 1   1 2  . 64  −2  2 −1 3 

 1 1  −2 4  . −7 2 

   −5 −5 −3    7 5  . 66  −3  7 5 4 

En los ejercicios 67 y 68, calcular los cofactores indicados para la matriz A. ⎤ 3 7 −5 4 ⎢ −8 −3 2 3 ⎥ ⎥. 67 A = ⎢ ⎣ −2 7 6 4 ⎦ −5 9 −1 −0 ⎡

⎤ −1 2 3 1 ⎢ 2 −1 1 1 ⎥ ⎥ 68 A = ⎢ ⎣ 3 −2 1 −3 ⎦ . 2 1 1 4

(a) c13 , (b) c31 , (c) c11 .



(a) c43 , (b) c22 , (c) c14 .

69 Escribir la generalizaci´on natural de la regla de Sarrus para una matriz 4 × 4; calcular con esta regla el

determinante de la matriz ⎡

1 ⎢ 0 A=⎢ ⎣ −1 0

⎤ −1 2 1 1 2 3 ⎥ ⎥ 2 −1 1 ⎦ 1 −1 3

y encontrar el determinante por medio de cofactores. ¿Se obtiene el mismo resultado?

Page (PS/TeX): 44 / 106, COMPOSITE

´ 2.3 SECCION

Ejercicios resueltos y ejercicios propuestos 107

En los ejercicios 70 a 77, calcular el determinante por medio de cofactores.   2   −1 70   1  2

0 −1 3 3 1 4 0 −1 1 2 1 −1

  3   −1 71   2  1

0 1 1 1

  −4   0 72   1  0

2 −1 2 1

1 3 0 2

0 5 4 1

    .   

    .   

 1 3  1 1  . 1 −1  2 3 

    73   

1 2 3 4

 2 −1 1  −3 2 −2  . −1 1 −1  −1 1 2 

     74    

2 0 0 0 0

 −1 3 −1 2   2 4 −2 3   1 1 0 5 .  −1 3 0 2  1 −1 1 2 

  −3   0   0 75   0   0  0

2 −1 −1 −1 4 2 2 2 0 3 3 5 0 0 2 −1 0 0 1 1 0 0 5 3

  1   −2  76  3   4  −7

0 1 −1 2 3

2 3 6 1 2 2

      .    

 3 2 0   0 −1 −2   6 1 0 .  0 3 2  0 2 1 

  2 0 0 0 0   −1 1 0 0 0   0 0 3 1 0  77  0 0 0 2 0   0 0 0 0 1  0 0 0 0 2   0 0 0 0 2

0 0 0 0 −1 −1 1

0 0 0 0 2 3 1

       .     

78 Las matrices de los ejercicios 75 y 77 tienen componentes nulas excepto en algunas de las entradas de

una submatriz R de tama˜no r × r y en las entradas de otra submatriz S de tama˜no s × s, cuyas diagonales est´an en la diagonal de la matriz original de tama˜no n × n y donde, adem´as, r + s = n. Demostrar que si este es el caso, entonces det(A) = det(R) det(S). 79 Establecer y demostrar un resultado an´alogo al del ejercicio anterior, pero suponiendo que las submatri-

ces tienen sus contradiagonales en la contradiagonal de la matriz original. 80 Establecer y demostrar generalizaciones de los dos ejercicios precedentes cuando el n´umero de subma-

trices es mayor a dos. Utilizar los ejercicios 78, 79 y 80 para calcular los determinantes de las matrices contenidas en los ejercicios 81 y 82. ⎤ ⎡ 1 2 0 0 0 0 0 0 0 0 0 0 0 0 ⎥ ⎢ 3 1 ⎥ ⎢ 2 3 0 0 0 ⎥ ⎢ 0 0 −1 ⎥ ⎢ 2 −1 1 0 0 0 ⎥ ⎢ 0 0 81 ⎢ ⎥. 3 −3 2 0 0 0 ⎥ ⎢ 0 0 ⎥ ⎢ 0 0 0 1 −1 2 ⎥ ⎢ 0 0 ⎣ 0 0 0 0 0 0 2 −1 ⎦ 0 0 0 0 0 0 2 1

Page (PS/TeX): 45 / 107, COMPOSITE

108 CAPI´TULO 2

Matrices invertibles y determinantes

⎡ ⎢ ⎢ ⎢ ⎢ ⎢ 82 ⎢ ⎢ ⎢ ⎢ ⎣

0 0 0 0 0 0 0 0 0 0 1 −2 2 2 1 −1

⎤ 0 0 0 1 −1 2 0 0 0 0 −2 2 ⎥ ⎥ 0 0 0 0 0 3 ⎥ ⎥ 0 −1 −1 0 0 0 ⎥ ⎥. 0 2 1 0 0 0 ⎥ ⎥ 2 0 0 0 0 0 ⎥ 0 0 0 0 0 0 ⎦ 0 0 0 0 0 0

En los ejercicios 83 a 90, calcular el determinante utilizando la propiedad 5 del teorema 2.8; proceder como en los ejercicios resueltos 18 y 19 (cfr. p´ag. 96).    2 4 6 −4    2 −1 2 3  83  . −3 1 2 1    −2 1 1 1  1 1 2 2

    .   

  3 2 1 2   2 −1 1 2 85   5 −2 1 4  −1 1 2 1

    .   

  1 −3 2   −1 2 1 84  3 −2 5   4 −1 1

  5 1 −2   11 2 3 87  3 2 3   4 2 3

−1 2 3 −2

  2   3  88  −1   1  2

−1 2 1 3 −1

     89    

  2 3 2   1 −1   2 4 −1 1   −1   1 1 2 . 86  3 −2   1 3 2   2 −1  3 3 −2 1 3 

2 3 5 3 2

−1 2 4 −2 1

2 3 3 1 1

1 −1 1 2 2 1 −1 3 4 3

 2  1 −1  4 −1  −1  3  2 −2 90  3 −5  −3  2  1 −1  −2 2 −4

    .    2 1 1 2 1

 5 7   −2 −2   5 3 .  3 −1  2 2   1 3 7   −2 −2 −6   4 2 13  . 2 4 18   1 5 3  −2 −4 3 

En los ejercicios 91 a 96, A es una matriz de tama˜no 3 × 3 con det(A) = −4. 91 Calcular det(A2 ). 92 Encontrar det(4A). 93 Hallar det(A−1 ). 94 Calcular det(Am ), donde m es cualquier entero positivo. 95 Hallar det(A + A). 96 Calcular det(At ). 97 Sean α1 , α2 y α3 n´umeros reales. Mostrar que

  1 α1    1 α2   1 α 3

Page (PS/TeX): 46 / 108, COMPOSITE

 α12   α22  = (α2 − α1 )(α3 − α1 )(α3 − α2 ).  α2  3

     .   

´ 2.3 SECCION

Ejercicios resueltos y ejercicios propuestos 109

98 Sean αi , i = 1, . . . , n, n´umeros reales. Demostrar que

          

1

α1

α12

···

1 .. .

α2 .. .

α22 .. .

···

αn

αn2

···

1

..

 α1n−1   α2n−1   ..  = ∏(α j − αi ). .  i< j  n−1  αn

.

El s´ımbolo ∏i < j (α j − αi ) significa el producto de todos los posibles factores (α j − αi ) con j > i, cuando i, j var´ıan entre 1 y n. A este valor se le conoce como el determinante de Vandermonde. 99 Sean A una matriz 3 × 3 y α ∈ R, probar que

det(αA) = α3 det(A). 100 Sean A una matriz n × n y α ∈ R, probar que

det(αA) = αn det(A). 101 Sea

 A=

a b c d

 ,

mostrar utilizando el teorema 2.9, que A es invertible si y s´olo si ad − bc = 0 y que en tal caso   1 d −b −1 . A = a ad − bc −c 102 Utilizar el ejercicio precedente para calcular (si existe):

 (a)

−1 2 2 1

−1

 ,

(b)

2 4 −3 2

−1

 (c)

3 6 1 2

−1 .

En los ejercicios 103 a 106, calcular la inversa, si existe, de la matriz dada utilizando el m´etodo de la adjunta (teorema 2.9, p´ag. 83). ⎡

1 103 A = ⎣ 3 2

⎤ −1 2 −2 2 ⎦ . 1 1

⎤ 3 −1 2 1 2 ⎦. 104 A = ⎣ −2 3 −1 4 ⎡

⎤ 1 2 −1 3 ⎦. 105 A = ⎣ 2 2 3 4 2 ⎡

⎤ 2 −1 1 0 2 ⎦. 106 A = ⎣ 0 1 −1 1 ⎡

107 Si A es una matriz cuadrada singular (no invertible) y B es una matriz cuadrada del mismo orden,

demostrar que AB es tambi´en una matriz singular. 108 Demostrar que una matriz cuadrada es invertible si y s´olo si su adjunta tambi´en es una matriz invertible

y que adem´as se tiene, entonces, (Adj(A))−1 = (1/|A|)A. 109 Probar que si A ∈ Mn , entonces |Adj(A)| = |A|n−1 .

Page (PS/TeX): 47 / 109, COMPOSITE

110 CAPI´TULO 2

Matrices invertibles y determinantes

110 Mostrar que si A es una matriz cuadrada de orden n > 1, entonces Adj(Adj(A)) = |A|n−2 A.

En los ejercicios 111 a 114, determinar los valores de λ ∈ R que hacen que la matriz sea singular (no invertible).  111

λ+3 1 2 λ+2



1−λ ⎢ 112 ⎣ 0 0





3 2+λ −1

2 ⎢ 113 ⎣ λ + 2 λ−3

. ⎤ 2 ⎥ 1 ⎦. 2−λ



0 ⎢ 114 ⎣ 4 − λ 4

⎤ −1 ⎥ 0 ⎦. 0

1 λ 2 0 3 −λ

⎤ 2−λ ⎥ −3 ⎦ . 2

Resolver los sistemas de los ejercicios 115 a 117, mediante la regla de Cramer (teorema 2.11, p´ag. 84). 115 x1 − 3x2 = −7

2x1 − x2 =

116

4

2x1 − 3x2 + x3 = 4 4x1 − 5x2 + 3x3 = 4 −3x1 + 2x2 − 3x3 = 1

x1 − x2 + x3 = −2 2x1 − x2 + 3x3 = −9 5x1 − 3x2 + 4x3 = −11

117

118 Hallar la componente x2 de la soluci´on del sistema lineal.

x1 + x2 − 3x3 + x4 2x1 + x2 + 2x4 x2 − 6x3 − x4 3x1 + x2 + x4

= = = =

−2 3 −8 3

119 Hallar la componente x4 de la soluci´on del sistema del lineal.

x1 − x2 + x3 − x4 x1 + 2x2 − x4 x1 − 3x2 + 2x4 −x1 + 2x2 − 3x3 + x4

= = = =

2 −2 9 −5

En los ejercicios 120 a 124, calcular el determinante de la matriz dada. ⎡

i ⎢ 120 ⎣ 2 2−i ⎡

−4i ⎢ 121 ⎣ 1 + i 3 + 2i ⎡ ⎢ ⎢ 122 ⎢ ⎣

1 −1 4i −3 + i

2+i 3 + 2i 4+1 2 −2 −2 + i 1+i 1−i −2i 2i

Page (PS/TeX): 48 / 110, COMPOSITE

⎤ −i ⎥ 1+i ⎦. 1

⎡ ⎢ ⎢ ⎢ ⎢ 123 ⎢ ⎢ ⎢ ⎢ ⎣

⎤ 1 ⎥ 1 ⎦. 2 2 1 2 2i 5 2i −4i 1 + 6i

⎤ ⎥ ⎥ ⎥. ⎦

⎡ ⎢ ⎢ ⎢ 124 ⎢ ⎢ ⎣

i 0 0 0 0 0 −i 0 0 0 0 0 1 0 0 0 0 0 1 i 0 0 0 2 −i 0 0 0 0 1 1 i i 3i −2 2i 1+i 1−i −2 −2i

0 0 0 1 + 2i 4 −1

2i −3i −2 3 1 −2 −1 i 1 2

4 4i 1 3 1

⎤ ⎥ ⎥ ⎥ ⎥ ⎥. ⎥ ⎥ ⎥ ⎦ ⎤ ⎥ ⎥ ⎥ ⎥. ⎥ ⎦

II Espacios vectoriales, producto interior, normas, valores y vectores propios

Page (PS/TeX): 1 / 111, COMPOSITE

Page (PS/TeX): 2 / 112, COMPOSITE

3 Espacios vectoriales

En este cap´ıtulo estudiaremos el siguiente concepto clave en a´ lgebra lineal. Pero antes, motivaremos las ideas principales por medio de un repaso de conceptos elementales del plano cartesiano. Despu´es extenderemos estos conceptos de manera natural a espacios de vectores m´as generales para, posteriormente, continuar con un estudio abstracto y completo de estos entes que llamaremos espacios vectoriales.

3.1 Geometr´ıa de los espacios Rn En esta secci´on el objetivo fundamental es generalizar las caracter´ısticas geom´etricas esenciales que poseen los vectores en el plano cartesiano y en el espacio de tres dimensiones a espacios cuyos vectores tienen mayor n´umero de coordenadas, los llamados espacios Rn . Para ello comenzamos, en la primera subsecci´on, con un repaso de estas caracter´ısticas en el plano cartesiano. Bien pudimos emplear como modelo para este prop´osito el espacio tridimensional pero, por razones de sencillez en cuanto a los bosquejos geom´etricos, hemos preferido utilizar el plano cartesiano; sin embargo, como el lector podr´a constatar f´acilmente por s´ı mismo, todo lo que hagamos en el siguiente apartado para el plano cartesiano es completamente v´alido cuando se traslada al espacio de tres dimensiones.

3.1.1 El plano cartesiano R2 Definici´on 3.1 Definimos R2 = {(x, y) | x, y ∈ R}.

Geom´etricamente, R2 es el plano cartesiano con el que el lector est´a familiarizado de sus cursos elementales y que ilustramos en la figura 3-1. Las caracter´ısticas esenciales, algebraicas y geom´etricas, de R2 son: 1. Igualdad: Si u = (x1 , y1 ),v = (x2 , y2 ) ∈ R2 , u =v ⇔ x1 = x2 y y1 = y2 . 2. Suma: Si u = (x1 , y1 ), v = (x2 , y2 ), u +v = (x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 ). 113

Page (PS/TeX): 3 / 113, COMPOSITE

114 CAPI´TULO 3

Espacios vectoriales

R2 u = (x, y)

y

x Figura 3-1 • R2 , plano donde cada punto (vector) u se localiza mediante un par ordenado (x, y).

R2 u +v

y1 + y2 u

y1

v

y2

x1 Figura 3-2 vectores.



x1 + x2

x2

La suma de dos vectores en el plano es la diagonal del paralelogramo que se genera a partir de esos

3. La suma de dos vectores de R2 se obtiene, geom´etricamente, por la diagonal del paralelogramo como se indica en la figura 3-2. 3. Producto de un escalar por un vector. Si λ ∈ R y u = (x, y) ∈ R2 , λu = (λx, λy). R2

λu (λ > 1)

y

u = (x, y)

λu, (0 < λ < 1)

x λu (λ < 0) Figura 3-3 • Producto de un escalar por un vector.

Page (PS/TeX): 4 / 114, COMPOSITE

Geometr´ıa de los espacios Rn

´ 3.1 SECCION

115

As´ı, el vector λu es un vector paralelo a u con un cambio de escala y/o de sentido, tal como queda ilustrado en la figura 3-3. 4. Norma o magnitud de un vector. Si u = (x, y), se define y denota la norma de u como u =



x2 + y2 .

La norma representa la magnitud o la longitud del vector u (v´ease la figura 3-4). R2 y

u = (x, y)  u

x Figura 3-4 • La norma o magnitud de un vector es la longitud del vector.

5. Distancia entre vectores. Si u y v son vectores de R2 , se define la distancia entre ellos como la magnitud del vector v −u; esto es, d(v,u) = v −u . Note que el vector v −u es el vector que sumado a u da como resultado el vector v tal como se ilustra en la figura 3-5, y que la distancia de u a v es la misma que la distancia de v a u; es decir, d(u,v) = d(v,u).

u

v −

u

v

v −u Figura 3-5 • La distancia entre vectores es la magnitud de la diferencia entre ellos.

6. Producto interior o escalar. El producto interior o escalar (o producto punto) de u con v, como el lector recordar´a de sus cursos de f´ısica, est´a dado por

Page (PS/TeX): 5 / 115, COMPOSITE

116 CAPI´TULO 3

Espacios vectoriales

u

v

θ θ cos u

Figura 3-6 • El producto punto de dos vectores es la magnitud de la proyecci´on del primer vector sobre el segundo multiplicada por la norma de este u´ ltimo.

u ·v = u v cos θ

(3.1)

donde θ es el a´ ngulo entre u y v; y es la magnitud de la proyecci´on de u sobre v multiplicada por la norma de v (v´ease la figura 3-6). Mediante el producto escalar tambi´en se define el trabajo f´ısico. Observe que todas las caracter´ısticas anteriores del espacio R2 est´an perfectamente determinadas algebraicamente por las coordenadas (x, y) de los vectores correspondientes, excepto el producto punto. Nos proponemos dar una f´ormula alternativa para calcular el producto punto que no dependa de conocer el a´ ngulo entre los vectores; espec´ıficamente, deseamos hallar una relaci´on del producto interior que dependa exclusivamente de las componentes de los vectores. Para ello necesitaremos de la llamada ley de los cosenos, conocida por el lector de sus cursos de trigonometr´ıa, que recordamos en la figura 3-7. C

b

A

a

c

B

c2 = a2 + b2 − 2ab cos(C) Figura 3-7 • Si se representan por letras may´usculas las magnitudes de los a´ ngulos y por letras min´usculas las magnitudes de los correspondientes lados opuestos a cada a´ ngulo, entonces se cumple la relaci´on c2 = a2 + b2 − 2ab cosC, llamada ley de los cosenos, para cualquier tri´angulo dado.

Ahora sean u = (x1 , y1 ) y v = (x2 , y2 ) un par de vectores en R2 . De la figura 3-8 y la ley de los cosenos tenemos que v −u2 = u2 + v2 − 2u v cos θ.

Page (PS/TeX): 6 / 116, COMPOSITE

´ 3.1 SECCION

u

Geometr´ıa de los espacios Rn

117

u − v

u 



v

θ

v

Figura 3-8 •

Luego, 2u v cos θ = u2 + v2 − v −u2 = x12 + y21 + x22 + y22 − [(x2 − x1 )2 + (y2 − y1 )2 ] = x12 + y21 + x22 + y22 − [x22 − 2x1 x2 + x12 + y22 − 2y1 y2 + y21 ]. De donde 2u v cos θ = 2(x1 x2 + y1 y2 ) y, por tanto, u ·v = x1 x2 + y1 y2

(3.2)

es la relaci´on buscada.

P Nota 3.1 Hola 1. Observe que u =

 √ x2 + y2 = u ·u.

2. Por otra parte, ya que −1 ≤ cos θ ≤ 1, ∀θ ∈ R, se tiene |u ·v| ≤ u v, a la cual se le llama desigualdad de Schwarz. 3. Tambi´en, de (3.1) (cfr. p´ag. 116), el a´ ngulo entre dos vectores u, v no nulos est´a dado por: 

u ·v θ = arc cos u v

 (3.3)

´ geometrica ´ 3.1.2 Interpretacion del determinante Aunque el determinante es un concepto u´ til asociado a las matrices, para el estudio de e´ stas y de otros aspectos del a´ lgebra lineal, el determinante tiene una interpretaci´on geom´etrica sumamente importante,

Page (PS/TeX): 7 / 117, COMPOSITE

118 CAPI´TULO 3

Espacios vectoriales

S3 u S2 S1

v

h

θ

x Figura 3-9 •

la cual se puede usar, por ejemplo, en la teor´ıa de integraci´on, espec´ıficamente en la f´ormula de cambio de variables para integrales y en el c´alculo de vol´umenes y a´ reas. Es en estas dos u´ ltimas en las cuales enfocaremos nuestra atenci´on. Sean u = (a, b), v = (c, d) dos vectores de R2 . Calculemos el a´ rea S del paralelogramo generado por estos vectores. Entonces, de acuerdo con la figura 3-9, S = 2S1 + S2 (porque S1 = S3 ). Ahora bien, S1 = (xh)/2 y h = u sen θ. Entonces, S =2

xh + S2 2

= xh + S2 = xu sen θ + S2 = xu sen θ + (v − x)h = xu sen θ + hv − xh = xu sen θ + hv − xu sen θ = u v sen θ. Puesto que sen2 θ = 1 − cos2 θ, S2 = u2 v2 sen2 θ = u2 v2 (1 − cos2 θ) = u2 v2 − u2 v2 cos2 θ = u2 v2 − (u ·v)2    = a2 + b2 c2 + d 2 − (ac + bd)2 = a2 c2 + a2 d 2 + b2 c2 + b2 d 2 − a2 c2 − 2acbd − b2 d 2 = a2 d 2 + b2 c2 − 2acbd = (ad − bc)2 , de donde S = |ad − bc| .

Page (PS/TeX): 8 / 118, COMPOSITE

Geometr´ıa de los espacios Rn

´ 3.1 SECCION

119

z

u w

v y

x Figura 3-10 • El volumen del paralelep´ıpedo generado por los vectores u, v y w es el valor absoluto del determinante de la matriz que tiene como filas (o columnas) a estos vectores.

Es decir, S = |det (M)| , donde M es la matriz que tiene como filas (o columnas) a los vectores u y v. De manera an´aloga, el determinante de una matriz 3 × 3 (o mejor dicho, su valor absoluto) ser´a el volumen del paralelep´ıpedo determinado por los vectores fila de la propia matriz, como se ilustra en la figura 3-10.

3.1.3 El espacio vectorial Rn , geometr´ıa y propiedades algebraicas En esta subsecci´on nos proponemos generalizar las propiedades algebraicas y geom´etricas de R2 a espacios de mayor “dimensi´on”. Es evidente que, tanto en la teor´ıa como en la pr´actica, surgen problemas que involucran un n´umero de variables mayor a dos (en algunos problemas de importancia netamente aplicada, este n´umero puede ser de hasta 20 000). Por tanto, es necesario estudiar aquellos conjuntos cuyos elementos son n-adas ordenadas y tienen cualidades an´alogas a las de los vectores del plano de coordenadas. Definici´on 3.2 Sea n un n´umero entero positivo. Se define el espacio Rn como Rn = {u = (x1 , x2 , . . . , xn ) | x1 , x2 , . . . , xn ∈ R} . A los elementos de Rn tambi´en les llamaremos vectores. Al n´umero xi se le dice la i-´esima componente o coordenada de u. Y al vector u lo denotaremos, indistintamente, como u = (x1 , x2 , . . . , xn ) o como la matriz columna ⎡ ⎤ x1 ⎢x2 ⎥ ⎢ ⎥ u = ⎢ . ⎥ . ⎣ .. ⎦ xn

Page (PS/TeX): 9 / 119, COMPOSITE

120 CAPI´TULO 3

Espacios vectoriales

P Nota 3.2 Cuando se emplea la notaci´on u = (x1 , x2 , . . . , xn ), se acostumbra decir que (x1 , x2 , . . . , xn ) es una n-ada ordenada; por ejemplo, (x1 , x2 , x3 ) es una tr´ıada ordenada.

Definici´on 3.3 Sean u,v ∈ Rn , con u = (x1 , x2 , . . . , xn ), v = (y1 , y2 , . . . , yn ) y λ ∈ R. 1. Igualdad. u =v ⇔ xi = yi para cada i = 1, 2, . . . , n. 2. Suma de vectores. Se denota y define la suma de u con v como u +v = (x1 + y1 , x2 + y2 , . . . , xn + yn ). 3. Producto de un escalar por un vector. Se denota y define el producto del escalar λ con el vector u como λu = (λx1 , λx2 , . . . , λxn ). 4. Producto escalar. El producto escalar (o producto punto o producto interior) de u con v se denota y define como n

u ·v = ∑ xi yi = x1 y1 + · · · + xn yn . i=1

5. Norma de un vector. Se define la norma o magnitud del vector u por

u =

1/2

n

∑ xi2

i=1

1/2  = x12 + · · · + xn2 .

6. Distancia entre vectores (puntos) en Rn . Se define la distancia entre los vectores u y v como d(u,v) = u −v .

P Nota 3.3 Hola 1. La relaci´on entre el producto interior y la norma vuelve a ser, como en el caso de R2 , u = (u ·u)1/2 .

(3.4)

2. Existen otras formas de medir magnitudes de vectores; sin embargo, la hist´oricamente m´as com´un es la que hemos usado hasta ahora dada por (3.4). A esta magnitud se le acostumbra llamar norma euclidiana o norma can´onica del vector u por su origen geom´etrico y natural, respectivamente. 3. Dado que los vectores en Rn los hemos denotado tambi´en como matrices columna, el producto punto se puede ver como producto de matrices; esto es, u ·v = (u)tv. En el lado izquierdo de la precedente igualdad los vectores est´an escritos con la notaci´on de n-adas ordenadas y en el lado derecho est´an escritos con la notaci´on de matrices columna.

Page (PS/TeX): 10 / 120, COMPOSITE

´ 3.1 SECCION

Geometr´ıa de los espacios Rn

121

As´ı, vemos que todas las definiciones dadas arriba son generalizaciones directas de la manera en que se opera, se mide y se hace geometr´ıa y a´ lgebra en el plano de coordenadas R2 . Tambi´en debe notarse la importancia que tuvo dar una f´ormula alternativa para el producto interior que dependiera s´olo de las componentes de los vectores (cfr. f´ormula (3.2), p´ag. 117); de no ser as´ı, no podr´ıamos haber generalizado el producto punto al no tener una forma de “medir a´ ngulos” por medios f´ısicos en estos espacios cuando n > 3. Sin embargo, el concepto de a´ ngulo entre vectores s´ı lo podremos extender a los espacios Rn con n > 3 mediante la desigualdad de Schwarz que veremos m´as adelante.  Ejemplo 3.1 Si n = 3, R3 es el espacio usual de tres dimensiones donde “habitamos”. En este espacio necesitamos de tres n´umeros reales (x1 , x2 , x3 ) [o, como tradicionalmente se escribe, (x, y, z)] para determinar la posici´on de un punto, como hacemos patente en la figura 3-11. z R3 c u = (a, b, c)

b

y

a

x Figura 3-11 • En el espacio R3 todo punto (vector) u se localiza mediante una tr´ıada ordenada (a, b, c); donde las dos primeras componentes (a, b) son la proyecci´on vertical de este punto sobre el plano x, y y la tercera, c, es la proyecci´on horizontal de este punto sobre el eje z.

P Nota 3.4 Es com´un en textos de matem´aticas convenir que cuando se hacen diagramas del espacio tridimensional R3 , los ejes x, y y z se coloquen como en la figura 3-11. Usted puede recordar esta convenci´on (algunas veces llamada regla de la mano izquierda) colocando su mano izquierda con la palma frente a usted, abriendo los dedos medio, ´ındice y pulgar (cerrando los dedos anular y me˜nique); apuntando el dedo medio hacia usted, el ´ındice hacia su derecha y el pulgar hacia arriba. As´ı, sus dedos se˜nalar´an las direcciones positivas del eje x (dedo medio), eje y (dedo ´ındice) y eje z (dedo pulgar).  Ejemplo 3.2 Si u = (1, −2, 4) y v = (3, 6, 0), entonces u,v ∈ R3 y: 1. u +v = (4, 4, 4). √ √ √ √ 2. − 2u = (− 2, 2 2, −4 2). 3. u ·v = (1)(3) + (−2)(6) + (4)(0) = 3 − 12 + 0 = −9.  √ 4. u = 12 + (−2)2 + 42 = 21.

Page (PS/TeX): 11 / 121, COMPOSITE

122 CAPI´TULO 3

Espacios vectoriales

 Ejemplo 3.3 Si u = (−1, 2, 5, 9),v = (2, −4, 0, 3) ∈ R4 : 1. u ·v = −2 − 8 + 27 = 17. 2. u + (−2)v = (−1, 2, 5, 9) + (−4, 8, 0, −6) = (−5, 10, 5, 3). √ 3. v = (4 + 16 + 9)1/2 = 29.  Ejemplo 3.4 Calcular la distancia entre los vectores: 1. u = (1, −2, 1) y v = (−2, 1, 1). 2. u = (−1, 0, 2, 3, 1) y v = (1, 1, −4, 2, 0). ´ Solucion

1. d(u,v) = u −v = (1, −2, 1) − (−2, 1, 1) = (3, −3, 0) √ = 3 2.

2. d(u,v) = u −v = (−1, 0, 2, 3, 1) − (1, 1, −4, 2, 0) = (−2, −1, 6, 1, 1) √ = 43.  A continuaci´on enunciamos, sin demostrar, las propiedades algebraicas esenciales de Rn . Utilizando la conmutatividad, asociatividad, etc. de los n´umeros reales y la definici´on de igualdad de vectores, el lector puede f´acilmente verificarlas. De hecho, como veremos m´as adelante, dichas propiedades tambi´en se pueden observar en otros conjuntos1 que llamaremos espacios vectoriales.

Propiedades del espacio vectorial de Rn Si u,v,w ∈ Rn y λ, β ∈ R, entonces: 1. u +v ∈ Rn . (La suma es cerrada) 2. u + (v + w) = (u +v) + w. (Asociatividad de la suma) 3. u +v =v +u. (Conmutatividad de la suma) 4. Si 0Rn = (0, 0, . . . , 0), 0Rn ∈ Rn y u +0Rn = u, ∀u ∈ Rn . (Existencia del neutro aditivo)    n

5. Dado u = (x1 , x2 , . . . , xn ) ∈ Rn , existe −u ∈ Rn tal que u + (−u) = 0Rn . De hecho, −u = (−x1 , −x2 , . . . , −xn ). (Existencia del inverso aditivo) 6. λu ∈ Rn . (El producto por un escalar es cerrado) 7. λ(βu) = (λβ)u. (Asociatividad del producto con escalares)

11 Compare con las propiedades 1(a) a 1( j) de la subsecci´on 1.1.4, p´aginas 9 y 10.

Page (PS/TeX): 12 / 122, COMPOSITE

´ 3.1 SECCION

Geometr´ıa de los espacios Rn

123

8. (λ + β)u = λu + βu. (Distributividad del producto con respecto a la suma de escalares) 9. λ(u +v) = λu + λv. (Distributividad del producto con respecto a la suma de vectores) 10. 1u = u, ∀u ∈ Rn . (Preservaci´on de la escala) El producto escalar tiene las siguientes importantes propiedades que son sencillas de probar y cuya demostraci´on se deja al lector.

Propiedades del producto punto Sean u,v,w ∈ Rn y λ ∈ R, entonces: 1. u ·v =v ·u. (Simetr´ıa) 2. u · (λv) = λ (u ·v). (Homogeneidad) 3. u · (v + w) = u ·v +u · w. (Distributividad) 4. u ·u ≥ 0 y u ·u = 0 ⇔ u = 0. (Positividad)

´ 3.1.4 La desigualdad de Schwarz, angulos entre vectores y ortogonalidad Es claro que la generalizaci´on natural de a´ ngulo entre vectores en Rn debe estar dada por la f´ormula2  u ·v . θ = arc cos u v 

Pero, para que se pueda evaluar la funci´on arc cos, es necesario que −1 ≤

u ·v ≤1 u v

lo cual evidentemente equivale a |u ·v | ≤ u v. Afortunadamente, esta desigualdad es cierta y la probaremos en el teorema 3.1. Estaremos entonces facultados para generalizar el concepto de a´ ngulo entre vectores en Rn para n > 3. Para poder demostrar dicha desigualdad necesitamos de la sencilla proposici´on que damos a continuaci´on (lema 3.1).

Lema 3.1 Si a, b son cualquier par de n´umeros reales, entonces 2ab ≤ a2 + b2 .

12 Cfr. (3.3), p´agina 117.

Page (PS/TeX): 13 / 123, COMPOSITE

(3.5)

124 CAPI´TULO 3 ´ DEMOSTRACION

Espacios vectoriales

Q En efecto,

0 ≤ (a − b)2 = a2 − 2ab + b2 ;

de donde 2ab ≤ a2 + b2 .

Q

Teorema 3.1 (Desigualdad de Schwarz) Si u = (x1 , x2 , . . . , xn ), v = (y1 , y2 , . . . , yn ) ∈ Rn , entonces |u ·v | ≤ u v

´ DEMOSTRACION

(3.6)

Q Si u = 0 o v = 0, claramente (3.6) es cierta. Supongamos que u,v = 0; sea i ∈ {1, 2, . . . , n} arbitrario y pongamos xi yi a= yb= u v en el lema 3.1. Entonces, por (3.5), para todo i = 1, 2, . . . , n se tiene  2  2 xi xi yi yi ≤ 2 + . u v u v Luego, n

n xi yi 2∑ ≤∑ u v i=1 i=1 



xi u

2



yi + v

2  ;

esto es, 2 n  2 n n  2 xi xi ∑xi yi ≤ ∑ u + ∑ u , u v i=1 i=1 i=1 que equivale a n 2 xi yi ∑ u v i=1



1

n

1

i=1

= =

n

∑ xi2 + v2 ∑ y2i u2 1 u2 2

i=1

u2 +

1 v2

v2

de donde n

∑xi yi ≤ u v .

i=1

Con lo que hemos probado u ·v ≤ u v

∀u,v

Entonces, por la homogeneidad del producto punto y la precedente desigualdad, tenemos − (u ·v) = (−u) ·v ≤ −u v = u v ;

Page (PS/TeX): 14 / 124, COMPOSITE

(3.7)

Geometr´ıa de los espacios Rn

´ 3.1 SECCION

125

que significa u ·v ≥ − u v

(3.8)

De (3.7) y (3.8) se deduce ∀u,v ∈ Rn .

|u ·v| ≤ u v

Q

Ahora s´ı podemos definir, con base en la desigualdad de Schwarz (3.6), el a´ ngulo entre vectores de n componentes; que es una generalizaci´on del concepto de a´ ngulo entre vectores en el espacio de tres dimensiones y en el plano cartesiano. Definici´on 3.4 Si u,v ∈ Rn − {0Rn }, se define el a´ ngulo entre estos vectores como: 

u ·v θ = arc cos u v

 (3.9)

 Ejemplo 3.5 Hallar el a´ ngulo θ entre los vectores (1, 2, 0, 2) y (−3, 1, 1, 5) de R4 .

´ Solucion

(1, 2, 0, 2) · (−3, 1, 1, 5)  θ = arc cos √ 2 2 1 + 2 + 02 + 22 (−3)2 + 12 + 12 + 52     1 9 = arc cos . = arc cos 3·6 2

As´ı, θ = 60◦ .





Una vez que se ha definido el concepto de a´ ngulo entre vectores, se puede determinar cu´ando un par de e´ stos son perpendiculares; la manera de generalizar esta idea a Rn la hacemos patente a continuaci´on. Notemos, de (3.9), que el a´ ngulo entre dos vectores es de 90◦ si y s´olo si su producto punto es cero. Definici´on 3.5 . 1. Dos vectores u, v ∈ Rn son ortogonales (perpendiculares) si u ·v = 0 ; es decir, si el a´ ngulo entre ellos es de 90◦ . Cuando u y v sean ortogonales lo denotaremos por u ⊥v. 2. u y v son paralelos (u v) si u ·v = ±u v, lo que equivale a que el a´ ngulo entre ellos sea de 0◦ o 180◦ .

´ Teorema de Pitagoras Quiz´a uno de los m´as importantes y conspicuos resultados de las matem´aticas, conocido y usado en forma emp´ırica desde el inicio de la civilizaci´on (Babilonia, Egipto), luego convertido en una afirmaci´on general y probado en forma completamente rigurosa por los griegos, es el teorema de Pit´agoras.

Page (PS/TeX): 15 / 125, COMPOSITE

126 CAPI´TULO 3

Espacios vectoriales

Se ense˜na en educaci´on elemental y, a partir de ah´ı, se hace uso sistem´atico de e´ l. Sin embargo, la mayor parte de la gente que usa este teorema desconoce alguna demostraci´on porque se requieren varios resultados elementales de geometr´ıa para poder establecer una prueba rigurosa. A continuaci´on daremos una demostraci´on muy simple de este importante teorema; de hecho es trivial, pues el material que hemos desarrollado hasta aqu´ı nos proporciona una herramienta algebraica muy potente para atacar este problema geom´etrico transform´andolo en un sencillo c´alculo algebraico. Teorema 3.2 (Teorema de Pit´agoras) Sean u,v ∈ Rn un par de vectores ortogonales. Entonces, u +v2 = u2 + v2 .

Antes de dar la demostraci´on de este teorema explicaremos su relaci´on con el teorema de Pit´agoras que el lector conoce, pues en apariencia no hay una relaci´on directa. Sin embargo, si particularizamos al caso n = 2 del plano cartesiano R2 , resulta que u +v es la longitud de la hipotenusa del tri´angulo rect´angulo, cuyos catetos tienen longitudes u y v, como se ilustra en la figura 3-12.

+ u

v

v

u Figura 3-12 • El teorema de Pit´agoras establece que en cualquier tri´angulo rect´angulo la suma de los cuadrados de los catetos es igual al cuadrado de la hipotenusa. ´ DEMOSTRACION

Q Dado que u ⊥v, se tiene u ·v = 0; luego u +v2 = (u +v) · (u +v) = u ·u +u ·v +v ·u +v ·v = u2 + 2u ·v + v2 = u2 + 0 + v2 = u2 + v2 .

Q

Propiedades de la norma en Rn Uno de los conceptos m´as importantes en matem´aticas es el de proximidad; y la forma de medir la proximidad entre puntos es por medio de la distancia. En R, el valor absoluto es la herramienta usada para medir la distancia entre n´umeros reales. Recordemos que el valor absoluto tiene las siguientes propiedades: 1. |x| ≥ 0 ∀x ∈ R. 2. |x| = 0 ⇔ x = 0.

Page (PS/TeX): 16 / 126, COMPOSITE

´ 3.1 SECCION

Geometr´ıa de los espacios Rn

127

3. |λx| = |λ| |x|. 4. |x + y| ≤ |x| + |y|. (Desigualdad triangular) Entonces la distancia entre un par de n´umeros x y y se define como el valor absoluto de su diferencia. En Rn , la norma es la manera natural para definir proximidad entre vectores por medio de la distancia entre ellos. A partir de las propiedades 1, 2, 3 y 4 del valor absoluto, enunciadas arriba, se pueden deducir todas las dem´as propiedades que tiene el valor absoluto. De hecho, estas mismas propiedades las tiene la norma en Rn y cualquier otra propiedad de la norma tambi´en se puede deducir a partir de e´ stas.

Teorema 3.3 (Propiedades de la norma en Rn ) La norma en Rn tiene las siguientes propiedades: ∀u ∈ Rn . 2. u = 0 ⇔ u = 0Rn . 1. u ≥ 0

3. λu = |λ| u

∀u ∈ Rn , ∀λ ∈ R.

4. u +v ≤ u + v

´ DEMOSTRACION

∀u,v ∈ Rn . (Desigualdad triangular)

Q 1. Si u = (x1 , x2 , . . . , xn ) ∈ Rn , entonces 

1/2

n



u =

i=1

xi2

≥ 0.

2. Si u = 0Rn , claramente u = 0. Supongamos inversamente que u = (x1 , x2 , . . . , xn ) ∈ Rn es tal que u = 0, entonces n

∑ xi2 = 0;

i=1

de donde xi2 = 0 ∀i = 1, 2, . . . , n; y por tanto u = 0Rn . 3. Si u = (x1 , x2 , . . . , xn ) ∈ Rn y λ ∈ R, entonces λu = (λx1 , λx2 , . . . , λxn ) 1/2  n

∑(λxi )2

=

i=1



n



=

i=1

1/2 λ2 xi2

 =

λ

2

n



i=1

 = |λ|

1/2 xi2

n



i=1

1/2 xi2

= |λ| u .

Page (PS/TeX): 17 / 127, COMPOSITE

128 CAPI´TULO 3

Espacios vectoriales

4. Si u,v ∈ Rn , entonces u +v2 = (u +v) · (u +v) = u ·u +u ·v +v ·u +v ·v = u2 + 2 (u ·v) + v2 . De la desigualdad de Schwarz se tiene que u ·v ≤ u v y por tanto u +v2 ≤ u2 + 2 u v + v2 ; esto es, u +v2 ≤ (u + v)2 . De donde, u +v ≤ u + v .

Q

La desigualdad triangular recibe este nombre porque, en el caso de vectores en R2 (o en R3 ), significa que en todo tri´angulo, la longitud de cualquiera de sus lados es inferior a la suma de las longitudes de los otros dos lados; como ilustramos en la figura 3-13. v v

u u u +v u + v Figura 3-13 • Desigualdad triangular: en todo tri´angulo, la longitud de cualquiera de sus lados es inferior a la suma de las longitudes de sus otros dos lados.

Planos en R3 Supongamos que un plano P pasa por el punto u0 = (x0 , y0 , z0 ) y es ortogonal al vector η = (a, b, c); es decir, η es perpendicular a toda l´ınea recta contenida en el plano P. Sea u = (x, y, z) un punto cualquiera

Page (PS/TeX): 18 / 128, COMPOSITE

´ 3.1 SECCION

Geometr´ıa de los espacios Rn

129

del plano P (cfr. figura 3-14). Entonces η es perpendicular al segmento que une a los puntos u0 y u; es decir, η ⊥ (u −u0 ). Por tanto, η · (u −u0 ) = 0 y, por ende, a (x − x0 ) + b (y − y0 ) + c (z − z0 ) = 0

(3.10)

es la ecuaci´on que determina el lugar geom´etrico correspondiente al plano P. Esto significa que todo punto (x, y, z) que pertenece al plano P satisface la ecuaci´on (3.10). Inversamente, toda soluci´on (x, y, z) de esta ecuaci´on pertenece al plano P.



P u0 u



u −u0 Figura 3-14 • Un plano P que pasa por un punto dado u = (x0 , y0 , z0 ) y es ortogonal a un vectorη = (a, b, c).

Es claro que la ecuaci´on (3.10) equivale3 a ax + by + cz = d

(3.11)

donde d = ax0 + by0 + cz0 .  Ejemplo 3.6 Encontrar la ecuaci´on del plano que es ortogonal al vector η = (−1, 2, 4) y pasa por el punto u = (2, 1, 1).

´ Solucion

La ecuaci´on est´a dada por (3.10): (−1) (x − 2) + 2 (y − 1) + 4 (z − 1) = 0

que equivale a −x + 2y + 4z = 4.



13 Es obvio que las ecuaciones (3.10) y (3.11) no son u´ nicas en cuanto a la descripci´on algebraica de un plano como lugar geom´etrico. En realidad, cualquier otra ecuaci´on algebraica que cumpla con ese objetivo ser´a equivalente a (3.10) y (3.11) en el sentido de que tienen las mismas soluciones y, por ende, describen el mismo lugar geom´etrico: el plano en cuesti´on.

Page (PS/TeX): 19 / 129, COMPOSITE

130 CAPI´TULO 3

Espacios vectoriales

 Ejemplo 3.7 Encontrar la ecuaci´on del plano P que pasa por los puntos u = (1, 0, 0), v = (0, 1, 0) y w = (0, 0, 1). ´ Solucion El plano debe contener los tres puntos y, por la definici´on geom´etrica de plano, tambi´en debe contener los segmentos de l´ınea que unen a dichos puntos; dos de ellos son uv y uw. Si η = (a, b, c) es un vector ortogonal al plano, entonces η debe ser perpendicular a estos dos segmentos. As´ı que η ⊥ (u −v) y η ⊥ (u − w), por lo que η · (u −v) = 0 y η · (u − w) = 0. Esto es,

(1, −1, 0) · (a, b, c) = 0 (1, 0, −1) · (a, b, c) = 0; es decir,

a−b = 0 a − c = 0.

Resolvamos ahora el sistema homog´eneo anterior:     1 −1 0 1 −1 0 ∼ , 1 0 −1 0 1 −1 que produce las soluciones

⎤ ⎡ ⎤ r a ⎣ b ⎦ = ⎣ r ⎦ ; r ∈ R. r c ⎡

Una soluci´on particular es el vector η = (1, 1, 1) obtenida al hacer r = 1. As´ı, el plano que pasa por estos puntos es ortogonal al vector η = (1, 1, 1), y contiene al punto (1, 0, 0); por tanto, al utilizar (3.10), tenemos (1) (x − 1) + (1) (y − 0) + (1) (z − 0) = 0, que equivale a x + y + z = 1. Este plano viene bosquejado en la figura 3-15.  z

P

w v

y

u x

Figura 3-15 • Plano que pasa por los puntos u = (1, 0, 0), v = (0, 1, 0) y w = (0, 0, 1).

Page (PS/TeX): 20 / 130, COMPOSITE

´ 3.2 SECCION

Espacios vectoriales 131

3.2 Espacios vectoriales Hemos visto que las matrices tienen, con la suma y el producto por un escalar usuales, las mismas diez propiedades4 que las del espacio vectorial5 de Rn . As´ı, las generalizaciones algebraicas del plano y del espacio tienen un s´ımil con un conjunto aparentemente sin conexi´on con ellos. Como veremos en esta secci´on, el de las matrices no es un caso aislado y, al contrario, existe una gran variedad de conjuntos en los que se han definido las operaciones suma entre sus elementos y multiplicaci´on de n´umeros reales con estos elementos, que tambi´en satisfacen las citadas diez condiciones. Todos estos conjuntos tienen en com´un las propiedades mencionadas y, por tanto, lo que se derive de ellas depender´a de las mismas y no de los elementos que particularmente formen determinada colecci´on. Por ello surge la necesidad de estudiar este tipo de conjuntos, con sus respectivas operaciones, en abstracto y no caso por caso de manera aislada. De esta forma, lo que haremos primeramente es abstraer estas diez propiedades como caracter´ıstica esencial de lo que llamaremos espacio vectorial, y entonces podremos derivar, a partir de las mismas, consecuencias generales en este espacio abstracto que ser´an entonces v´alidas, dado que dependen solamente de las propiedades de las operaciones y no de los elementos de cada colecci´on, en todos los conjuntos que cumplan con esas diez propiedades.

3.2.1 Definiciones y ejemplos Definici´on 3.6 Sea E un conjunto no vac´ıo donde se han definido un par de operaciones: suma entre sus elementos, representada como u ⊕v; y multiplicaci´on (o producto) de escalares (n´umeros reales) con elementos de E, representada como α u. Entonces a E se le llama espacio vectorial (real) si se cumplen las diez siguientes condiciones (axiomas de espacio vectorial): 1. u ⊕v ∈ E ∀u,v ∈ E. (La suma es cerrada) 2. u ⊕ (v ⊕ w) = (u ⊕v) ⊕ w ∀u,v, w ∈ E. (Asociatividad de la suma) 3. u ⊕v =v ⊕u

∀u,v ∈ E. (Conmutatividad de la suma) 4. Existe un elemento 0E ∈ E tal que u ⊕0E = u ∀u ∈ E. (Existencia del neutro aditivo) 5. Para cada u ∈ E existe −u ∈ E tal que u ⊕ (−u) = 0E . (Existencia del inverso aditivo) 6. λ u ∈ E

∀λ ∈ R, ∀u ∈ E. (La multiplicaci´on con escalares es cerrada)

7. λ  (β u) = (λβ) u ∀λ, β ∈ R, ∀u ∈ E. (Asociatividad del producto con escalares) 8. λ  (u ⊕v) = (λ u) ⊕ (λ v) a la suma de vectores)

∀λ ∈ R, ∀u,v ∈ E. (Distributividad del producto con respecto

9. (λ + β) u = (λ u) ⊕ (β u) a la suma de escalares)

∀λ, β ∈ R, ∀u ∈ E. (Distributividad del producto con respecto

10. 1 u = u ∀u ∈ E. (Preservaci´on de la escala) A los elementos de E les llamaremos vectores.

14 Cfr. propiedades 1(a) a 1( j), subsecci´on 1.1.4, p´agina 9. 15 Cfr. subsecci´on 3.1.3, p´agina 119.

Page (PS/TeX): 21 / 131, COMPOSITE

132 CAPI´TULO 3

Espacios vectoriales

 Ejemplo 3.8 Rn , con la suma usual de vectores y la multiplicaci´on de un escalar por un vector, esto es, si u = (x1 , x2 , . . . , xn ), v = (y1 , y2 , . . . , yn ) y λ es un n´umero real, u ⊕v = (x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn ), λ u = λ(x1 , x2 , . . . , xn ) = (λx1 , λx2 , . . . , λxn ), es un espacio vectorial.  Ejemplo 3.9 Sea E = {x ∈ R | x > 0} dotado de las operaciones: u ⊕ v = uv λ  u = uλ . As´ı, por ejemplo, 2 ⊕ 3 = 2 · 3 = 6 y 2  3 = 32 = 9. ¿Es E, junto con estas operaciones, un espacio vectorial? Para contestar afirmativamente debemos probar que se verifican las diez propiedades de la definici´on anterior; y para dar una respuesta negativa se tiene que exhibir un caso en el cual una de ellas (por lo menos) no se cumpla. ´ Solucion

1. Es claro de su definici´on que u ⊕ v ∈ E ∀u, v ∈ E, pues el producto de dos n´umeros positivos es tambi´en positivo. 2. ∀u, v, w ∈ E : (u ⊕ v) ⊕ w = (uv) ⊕ w = (uv)w = u(vw) = u ⊕ (vw) = u ⊕ (v ⊕ w). 3. ∀ u, v ∈ E: u ⊕ v = uv = vu = v ⊕ u. 4. Sea 0E = 1 ∈ E. Entonces ∀ u ∈ E: u ⊕0E = u0E = u1 = u. 5. Si u ∈ E, u > 0, y por tanto 1/u > 0. Sea −u = 1/u. Entonces −u ∈ E y u ⊕ (−u) = u(1/u) = 1 = 0E . 6. Si λ ∈ R y u ∈ E, entonces λ  u = uλ > 0 pues u > 0, es decir, λ  u ∈ E ∀u, ∀ λ ∈ R. 7. Si λ, β ∈ R y u ∈ E, λ  (β  u) = λ  (uβ ) = (uβ )λ = uβλ = (λβ)  u. 8. ∀u, v ∈ E, λ ∈ R: λ  (u ⊕ v) = λ  (uv) = (uv)λ = uλ vλ = (λ  u) ⊕ (λ  v). 9. ∀ λ, β ∈ R, ∀ u ∈ E: (λ + β)  u = uλ+β = uλ uβ = (λ  u) ⊕ (β  u). 10. 1  u = u1 = u, ∀u ∈ E. Como se verifican los diez axiomas de espacio vectorial de la definici´on 3.6, E es un espacio vectorial.   Ejemplo 3.10 (Espacio de matrices) Mm×n , el conjunto de matrices tama˜no m × n, con la suma de matrices y el producto de un escalar por una matriz usuales, es un espacio vectorial.6 

16 Cfr. p´agina 9.

Page (PS/TeX): 22 / 132, COMPOSITE

´ 3.2 SECCION

Espacios vectoriales 133

 Ejemplo 3.11 (Espacio de polinomios) Si P es el conjunto de polinomios, con la suma y el producto por un escalar usuales, P es un espacio vectorial; lo cual es f´acil de probar y se deja de ejercicio al lector. P Nota 3.5 1. Observemos que en el ejemplo 3.9 no utilizamos la notaci´on de poner una flecha encima de los vectores del espacio; pues las operaciones, como fueron definidas, involucraron el producto y la multiplicaci´on de n´umeros reales positivos y el haber denotado a los elementos de esta manera podr´ıa haber causado confusi´on. En realidad, esto lo haremos cada vez que sea conveniente; as´ı, por ejemplo, las matrices s´olo las denotaremos con letras may´usculas en lugar de emplear notaci´on vectorial para el espacio Mm×n . Tambi´en, a partir del final de esta nota, abandonaremos la notaciones ⊕ y  para la suma de vectores y la multiplicaci´on de un escalar por un vector y simplemente escribiremos u +v, λu en lugar de u ⊕v y λ u, respectivamente; pues el contexto de cada caso evitar´a cualquier confusi´on. 2. El axioma 10 de la definici´on 3.6 es en apariencia una propiedad de la que se podr´ıa prescindir; ya que es una caracter´ıstica que a simple vista se cumple “siempre” de manera “natural”. Sin embargo, esta propiedad es imprescindible; pues existen casos en los que se pueden definir operaciones de suma de vectores y multiplicaci´on con escalares que cumplen con los primeros 9 axiomas de la definici´on 3.6, pero no con el n´umero 10. Por ejemplo, si en Rn se define la suma de vectores en forma usual, pero el producto por un escalar como λ u = 0Rn , para todo λ ∈ R y para todo u ∈ Rn , es evidente que se cumplen los 9 primeros axiomas de espacio vectorial pero no el d´ecimo. Tambi´en es claro que este u´ ltimo conjunto con esas operaciones no tiene trascendencia alguna como son los casos de las matrices y el propio espacio Rn con las operaciones usuales. Evitar casos triviales y de nulo inter´es en la pr´actica es la raz´on de ser del axioma 10 para el concepto de espacio vectorial.    Ejemplo 3.12 (Espacio de sucesiones) Sea R∞ = u = (an )n∈N |u es una sucesi´on ; es decir, R∞ es el conjunto de las sucesiones de n´umeros reales u = (a1 , a2 , . . . , an , . . . ). Con la suma de sucesiones y el producto de un escalar por una sucesi´on usuales; esto es, • (a1 , a2 , . . . , an , . . . ) + (b1 , b2 , . . . , bn , . . . ) = (a1 + b1 , a2 + b2 , . . . , an + bn , . . . ), • λ(a1 , a2 , . . . , an , . . . ) = (λa1 , λa2 , . . . , λan , . . . ). R∞ es un espacio vectorial como f´acilmente puede comprobar el lector.

Espacios de funciones Definici´on 3.7 Sean A y B un par de conjuntos no vac´ıos. Una funci´on f con dominio A y valores en B, es una regla que a cada elemento x de A le asigna un u´ nico elemento y = f (x) de B. Para denotar que f es una funci´on con dominio A y valores en B escribiremos f : A −→ B. La funci´on o regla de asignaci´on es f y no debe confundirse con el valor de e´ sta en x: y = f (x). En esta u´ ltima notaci´on, a y se le dice la variable dependiente o imagen de x bajo f , x es la variable independiente o argumento de la funci´on f , y a B se le denomina contradominio de la funci´on.

Page (PS/TeX): 23 / 133, COMPOSITE

134 CAPI´TULO 3

Espacios vectoriales

Definici´on 3.8 Sean f , g : A −→ B un par de funciones de A en B. Diremos que f = g, si f (x) = g(x)

∀x ∈ A.

 Ejemplo 3.13 Sean A = R − {0}, B = R y f , g : A −→ B las funciones definidas como f (x) = 

y

|x| x

g(x) =

1, si x > 0; −1, si x < 0.

f (x) =

|x| x = = 1 = g(x). x x

Si x ∈ A y x > 0,

Si x ∈ A y x < 0, f (x) =

|x| −x = = −1 = g(x). x x

Luego f (x) = g(x) ∀x ∈ A, por tanto f = g.

Definici´on 3.9 Sea A un conjunto no vac´ıo. Denotamos por F (A) al conjunto de las funciones f : A −→ R. Dotamos a F (A) de las siguientes operaciones: • Si f , g ∈ F (A), definimos la funci´on f + g como ( f + g)(x) = f (x) + g(x) ∀x ∈ A. • Si f ∈ F (A) y λ ∈ R, definimos la funci´on λ f como (λ f )(x) = λ f (x) ∀x ∈ A. Diremos, entonces, que e´ stas son la suma y la multiplicaci´on por un escalar usuales en las funciones con dominio A y valores reales.

 Ejemplo 3.14 Sea A = {x | x es elemento del grupo MA0084302}, y f , g ∈ F (A) las funciones f (x) = matr´ıcula de x; g(x) = calificaci´on de x en el primer examen parcial de la materia de a´ lgebra lineal. Entonces, si la matr´ıcula de Liliana es 447021, Liliana obtuvo 10 en el primer examen parcial, x = Liliana y λ = .5: ( f + g)(x) = f (x) + g(x) = 447021 + 10 = 447031, (λg)(x) = λg(Liliana) = .5 · 10 = 5. Es decir, la funci´on f + g es la regla que asigna la suma de la matr´ıcula y la calificaci´on del primer parcial a cada elemento de la clase de a´ lgebra lineal. Mientras que la funci´on λg asigna a cada elemento de A el producto de λ con su calificaci´on del primer parcial.

Page (PS/TeX): 24 / 134, COMPOSITE

´ 3.2 SECCION

Espacios vectoriales 135

P Nota 3.6 Sean a, b un par de n´umeros reales, a < b y A = [a, b], y sea f : A → R una funci´on. La letra f , en este caso, representa la regla de asociaci´on entre los elementos x de A y los valores asignados y = f (x). Una ventaja que tienen las funciones de este tipo es que se pueden identificar con un ente geom´etrico que es la gr´afica de dicha funci´on. En la figura 3-16 se bosqueja (hipot´eticamente) la gr´afica de la funci´on f , ella consiste en los pares ordenados (x, f (x)) con x ∈ [a, b]; que al ubicarlos en el plano cuando x recorre el intervalo [a, b] forman la curva bosquejada en esta figura. Es conveniente que el lector tenga siempre presente, cuando trabaje con funciones de este tipo, identificar la funci´on con su gr´afica para fines de tener ideas concretas de la misma y no confundir el valor de la funci´on f en x, que hemos representado como y = f (x), con la propia funci´on f .

f f (x)

a

b

x

Figura 3-16 • La gr´afica de una funci´on se puede identificar con la propia funci´on.

Sean a, b n´umeros reales, con a < b y A = [a, b]. Sean f , g : A → R un par de funciones. Entonces la funci´on f + g evaluada en x ∈ A, es decir, ( f + g)(x), se obtiene sumando los valores de f en x y g en x. Esto es,7 ( f + g)(x) = f (x) + g(x). La gr´afica de f + g se obtiene entonces sumando las “alturas” f (x) y g(x) en cada x ∈ A y bosquejando el punto (x, f (x) + g(x)) como se muestra en la figura 3-17. As´ı podemos pensar, geom´etricamente, que la funci´on f + g es la correspondiente curva mostrada en esta figura.

f +g

f g

f (x)

f (x) + g(x)

g(x) a

x

b

Figura 3-17 • Las funciones f , g y f + g representadas por sus respectivas gr´aficas.

17 El lector debe tener mucho cuidado en no confundirse al pensar que ( f + g)(x) = f (x)+ g(x) es “una distribuci´on de un producto con la suma de n´umeros”; pues esta interpretaci´on evidentemente no tiene sentido.

Page (PS/TeX): 25 / 135, COMPOSITE

136 CAPI´TULO 3

Espacios vectoriales

λf λ f (x)

f f (x)

a

x

b

Figura 3-18 • Las funciones f y λ f representadas por sus correspondientes gr´aficas.

De manera an´aloga, si λ es un n´umero real y f : A → R, la funci´on λ f se eval´ua, en cada x ∈ A, mediante el producto de n´umeros reales λ f (x). De esta forma la gr´afica de la funci´on λ f se obtiene, a partir de la gr´afica de la funci´on f , multiplicando cada una de las “alturas” f (x) por λ, en cada x ∈ A, y bosquejando los puntos (x, λ f (x)) como se ilustra en la figura 3-18.  Ejemplo 3.15 (Espacio de funciones) Si A es cualquier conjunto no vac´ıo mostrar que F (A), junto con las operaciones dadas en la definici´on 3.9, es un espacio vectorial; el llamado espacio de las funciones con dominio A y valores reales. ´ DEMOSTRACION

Q 1. Claramente, de la definici´on de suma de funciones: f , g ∈ F (A) ⇒ f + g ∈ F (A) . 2. Si f , g, h ∈ F (A) y x es cualquier elemento de A, [ f + (g + h)](x) = f (x) + (g + h)(x) = f (x) + (g(x) + h(x)) = ( f (x) + g(x)) + h(x), as´ı que,8 f + (g + h) = ( f + g) + h. 3. Si f , g ∈ F (A) y x ∈ A es cualquier elemento, tenemos ( f + g)(x) = f (x) + g(x) = g(x) + f (x) = (g + f )(x), y, por ende, f + g = g + f . 4. Sea θ : A −→ R la funci´on en F (A), definida como θ(x) = 0 ∀x ∈ A. Entonces, para toda f ∈ F (A) y para todo x ∈ A: ( f + θ)(x) = f (x) + θ(x) = f (x) + 0 = f (x), por ende, f + θ = f . 18 Aqu´ı hemos utilizado los hechos de que f (x), g(x), h(x) son n´umeros reales y en e´ stos hay asociatividad. El lector debe notar que en el transcurso de esta demostraci´on utilizaremos las propiedades de los n´umeros reales y que los valores de las funciones son tambi´en reales.

Page (PS/TeX): 26 / 136, COMPOSITE

´ 3.2 SECCION

Espacios vectoriales 137

5. Si f ∈ F (A), sea − f : A −→ R la funci´on definida, para cada x ∈ A, como (− f )(x) = − f (x). Entonces ( f + (− f ))(x) = f (x) + (− f )(x) = f (x) + (− f (x)) = f (x) − f (x) = 0 = θ(x), ∀x ∈ A; es decir, f + (− f ) = θ. 6. Claramente, λ f ∈ F (A) ∀ f ∈ F (A) y ∀λ ∈ R. 7. Si λ, β ∈ R y f ∈ F (A), para cada x ∈ A, (λ(β f ))(x) = λ(β f )(x) = λ(β f (x)) = (λβ) f (x), de donde λ(β f ) = (λβ) f . 8. ∀λ ∈ R, ∀ f , g ∈ F (A) y para cada x ∈ A: [λ( f + g)](x) = λ( f + g)(x) = λ( f (x) + g(x)) = λ f (x) + λg(x) = (λ f + λg)(x); es decir, λ( f + g) = λ f + λg. 9. Si λ, β ∈ R y f ∈ F (A), para todo x ∈ A, ((λ + β) f )(x) = (λ + β) f (x) = λ f (x) + β f (x) = (λ f + β f )(x), lo que implica (λ + β) f = λ f + β f . 10. Si f ∈ F (A), para todo x ∈ A, (1 f )(x) = 1 f (x) = f (x), es decir, 1 f = f .

Q

f θ

a

b

a

b −f

(i)

(ii)

Figura 3-19 • (i) El espacio vectorial F ([a, b]) consta de todas las funciones cuya gr´afica est´a contenida en la franja (x, y) con x ∈ [a, b] y y ∈ R, es decir, la franja [a, b] × R. (ii) El neutro aditivo de este espacio, θ , es la funci´on constante cero (θ (x) = 0 ∀x ∈ [a, b]), cuya gr´afica se encuentra en color rojo; y el inverso aditivo de una funci´on f se encuentra reflejando su gr´afica sobre el eje x.

Cuando A = [a, b] es un intervalo, F (A) es el conjunto de todas las funciones cuya gr´afica est´a contenida en la franja [a, b] × R. En la figura 3-19(i) hemos bosquejado algunos de sus elementos. En la

Page (PS/TeX): 27 / 137, COMPOSITE

138 CAPI´TULO 3

Espacios vectoriales

misma figura 3-19(ii) ilustramos la interpretaci´on geom´etrica del neutro aditivo θ, la funci´on constante cero (en rojo) del espacio F ([a, b]). Tambi´en en esta u´ ltima figura hemos bosquejado el inverso aditivo para una funci´on dada f ; el cual se obtiene gr´aficamente reflejando sobre el eje x la gr´afica de la funci´on f , como el lector f´acilmente puede comprobar por s´ı mismo recordando la interpretaci´on dada en la figura 3-17 para la suma usual de funciones. P Nota 3.7 Cabe hacer notar que la demostraci´on de que F (A) sea un espacio vectorial no depende de las caracter´ısticas del conjunto A, sino del hecho de que sus elementos son funciones con valores en R y de que los n´umeros reales tienen estructura de espacio vectorial. Por ende, si sustituimos R por un espacio vectorial arbitrario, F (A) seguir´a siendo un espacio vectorial. Lo mismo sucede si ponemos cualquier conjunto concreto en lugar de A.

3.2.2 Propiedades elementales de los espacios vectoriales Como ya mencionamos al principio de esta secci´on, trabajaremos con un espacio vectorial abstracto para establecer propiedades que se infieran u´ nicamente de los diez axiomas de espacio vectorial dados en la definici´on 3.6, y entonces estas deducciones ser´an v´alidas para cualquier espacio vectorial concreto. Llevaremos esto a cabo a trav´es de lo que resta de este libro y no volveremos a hacer m´as e´ nfasis en esta estrategia natural. Las primeras propiedades quedan establecidas en el siguiente teorema.

Teorema 3.4 (Propiedades elementales de espacio vectorial) Sea E un espacio vectorial. Entonces: 1. 0E es u´ nico. Es decir, s´olo existe un elemento en E que al sumarlo con cualquier otro elemento del espacio da como resultado este u´ ltimo. 2. −u es u´ nico para cada u ∈ E. Esto es, cada elemento del espacio tiene exactamente un inverso aditivo. 3. u +v = u + w ⇒v = w. A esta propiedad se le llama ley de cancelaci´on. 4. 0u = 0E para todo u ∈ E. 5. λ0E = 0E

∀λ ∈ R.

6. (−1)u = −u 7. u +u = 2u

∀u ∈ E. ∀u ∈ E.

8. Si n es un entero, u +u + · · · +u = nu

∀u ∈ E.

n

9. Si α ∈ R y u ∈ E, entonces αu = 0E ⇔ α = 0 o

´ DEMOSTRACION

u = 0E .

Q 1. Sea ϕ ∈ E tal que u + ϕ = u ∀ u ∈ E, entoces ϕ = 0E + ϕ = 0E ; por tanto, ϕ = 0E . 2. Si u ∈ E y u1 ∈ E satisface u +u1 = 0E , entonces u1 = u1 +0E = u1 + (u + (−u)) = (u1 +u) + (−u) = 0E + (−u) = −u.

Page (PS/TeX): 28 / 138, COMPOSITE

´ 3.2 SECCION

3.

u +v ((−u) +u) +v 0E +v v

Espacios vectoriales 139

= u + w ⇒ = ((−u) +u) + w ⇒ = 0E + w ⇒ = w.

4. 0u = (0 + 0)u = 0u + 0u, y ya que 0u = 0u +0E , tenemos 0E + 0u = 0u + 0u; de la propiedad (3) se tiene 0E = 0u. 5. λ0E = λ(00E ) = (λ · 0)0E = 00E = 0E . 6. u + (−1)u = (1 + (−1))u = 0u = 0E , y dado que −u es u´ nico, −1u = −u. 7. u +u = (1 + 1)u = 2u. 8. An´aloga a la anterior. 9. Se deja de ejercicio al lector. Q

3.2.3 Subespacios vectoriales Aunque hemos visto varios ejemplos de espacios vectoriales, e´ stos han sido muy generales y, por lo mismo, demasiado “grandes” para ser u´ tiles. En realidad, estaremos interesados en subconjuntos particulares de estos espacios que, junto con las mismas operaciones, sean tambi´en espacios vectoriales, a los cuales llamaremos subespacios vectoriales y a su estudio est´a dedicado este apartado. Definici´on 3.10 Sean E un espacio vectorial y S un subconjunto no vac´ıo de E. S es un subespacio vectorial de E, o simplemente un subespacio de E, si S, con las mismas operaciones suma y producto por un escalar restringidas a los elementos de S, es tambi´en un espacio vectorial. Usaremos la notaci´on S < E para indicar que S es un subespacio de E. Para probar que S < E, se debe mostrar que los elementos de S con la suma y el producto por un escalar definidos en E satisfacen los diez axiomas de la definici´on 3.6 de espacio vectorial; sin embargo, si reflexionamos un poco, vemos que las propiedades de asociatividad para la suma y el producto por un escalar, las de distributividad, conmutatividad y preservaci´on de la escala son propiedades que se heredan de E; esto es, puesto que se cumplen para todos los elementos de E y S ⊂ E, tambi´en son v´alidas para todos los vectores de S. Luego, resta s´olo probar que la suma y el producto por un escalar son operaciones cerradas en S, 0E ∈ S y que para cada u ∈ S, −u tambi´en pertenece a S. Pero si la / y multiplicaci´on por escalares es cerrada en S, u ∈ S ⇒ −u = (−1)u ∈ S; tambi´en, dado que S = 0, 0u = 0E , se tiene que 0E ∈ S. Con esto hemos demostrado el siguiente teorema. Teorema 3.5 Sea S un subconjunto de un espacio vectorial E. Para que S sea un subespacio vectorial de E es necesario y suficiente que se cumplan las siguientes tres condiciones: 1. 2. 3.

0E ∈ S. u +v ∈ S ∀u,v ∈ S. λu ∈ S ∀λ ∈ R, ∀u ∈ S.

Page (PS/TeX): 29 / 139, COMPOSITE

140 CAPI´TULO 3

Espacios vectoriales

 Ejemplo 3.16 Es claro que si E es un espacio vectorial, entonces E y {0E } son subespacios de E. P Nota 3.8 Es costumbre llamar a E y {0E } los subespacios triviales del espacio vectorial E; y si S < E no es E, se dice que S es un subespacio propio de E.  Ejemplo 3.17 Sea S = {u ∈ R2 |u = (x, 2x); x ∈ R}. Entonces: 1. 0R2 = (0, 0) = (0, 2 · 0) ∈ S. 2. Si u,v ∈ S, u = (x, 2x), v = (y, 2y); as´ı que u +v = (x, 2x) + (y, 2y) = (x + y, 2x + 2y) = (x + y, 2(x + y)) ∈ S. 3. Si λ ∈ R y v = (x, 2x) ∈ S, λu = λ(x, 2x) = (λx, λ2x) = (λx, 2(λx)) ∈ S. De 1, 2 y 3, S < R2 . Geom´etricamente, S es la l´ınea recta con pendiente 2 que pasa por el origen. De hecho, toda l´ınea recta que pasa por el origen es un subespacio de R2 . Inversamente no es dif´ıcil probar, lo cual har´a el lector en los ejercicios, que todo subespacio propio de R2 es geom´etricamente una l´ınea recta que pasa por el origen o el subespacio trivial {(0, 0)}.  Ejemplo 3.18 Cualquier plano que contiene al origen y las l´ıneas rectas que pasan por el mismo son subespacios de R3 (v´ease la figura 3-20). M´as a´un, los u´ nicos subespacios no triviales de R3 son estos conjuntos. (Demu´estrelo.)

S λw

w

u

u + v

v

Figura 3-20 • En un plano S que pasa por el origen, la suma de los vectores contenidos en e´ l pertenece a este plano y la multiplicaci´on de los vectores de este plano por escalares sigue perteneciendo a dicho plano. As´ı, un plano que pasa por el origen es un subespacio de R3 .

 Ejemplo 3.19 Sean a, b, c n´umeros reales dados y S = {(x, y, z) ∈ R3 |ax + by + cz = 0}. Es decir, S es un plano que pasa por el origen con ecuaci´on ax + by + cz = 0. 1. Claramente (0, 0, 0) ∈ S. 2. Si (x1 , y1 , z1 ) , (x2 , y2 , z2 ) ∈ S, entonces ax1 + by1 + cz1 = 0, ax2 + by2 + cz2 = 0 y (x1 , y1 , z1 ) + (x2 , y2 , z2 ) = (x1 + x2 , y1 + y2 , z1 + z2 );

Page (PS/TeX): 30 / 140, COMPOSITE

´ 3.2 SECCION

Espacios vectoriales 141

luego, a(x1 + x2 ) + b(y1 + y2 ) + c(z1 + z2 ) = ax1 + by1 + cz1 + ax2 + by2 + cz2 = 0 + 0 = 0. Por tanto, (x1 , y1 , z1 ) + (x2 , y2 , z2 ) ∈ S. 3. Si λ ∈ R, y u = (x1 , y1 , z1 ) ∈ S, λu = (λx1 , λy1 , λz1 ); entonces a(λx1 ) + b(λy1 ) + c(λz1 ) = λ(ax1 + by1 + z1 ) = λ · 0 = 0. Por ende, λu ∈ S. De 1, 2 y 3, S < R3 . P Nota 3.9 Observe que un plano S que no pasa por el origen no es un subespacio de R3 , como se hace patente en la figura 3-21.

λw

S

u +

v

w u

v

Figura 3-21 • En un plano S que no pasa por el origen 0Rn ∈ / S, la suma de vectores contenidos en e´ l no pertenece a este plano y la multiplicaci´on de vectores de este plano por escalares tampoco pertenece necesariamente a dicho plano. As´ı, un plano que no pasa por el origen no es un subespacio de R3 .

 Ejemplo 3.20 (Espacio soluci´on, espacio nulo) Si A ∈ Mm×n , el conjunto, S, de vectoresx en Rn que es soluci´on del sistema homog´eneo Ax = 0Rm es un subespacio de Rn , llamado el subespacio soluci´on de dicho sistema o el espacio nulo de la matriz A.

´ DEMOSTRACION

Q 1. A0Rn = 0Rm , por tanto, 0Rn ∈ S. 2. Si x, y ∈ S, Ax = 0Rm y Ay = 0Rm , por tanto, A(x +y) = Ax + Ay = 0Rm . As´ı, x +y ∈ S. 3. Si λ ∈ R y x ∈ S, Ax = 0Rm . Entonces A(λx) = λ(Ax) = λ0Rm = 0Rm , por ende, λx ∈ S.

Page (PS/TeX): 31 / 141, COMPOSITE

Q

142 CAPI´TULO 3

Espacios vectoriales

−1

1 2

1

Figura 3-22 • Este espacio consta de todas las funciones cuyas gr´aficas pasan por el punto (1/2, 0) y est´an contenidas en la franja [−1, 1] × (−∞, ∞).

 Ejemplo 3.21 (Espacio de polinomios de grado menor o igual a k). Sea P el espacio de polinomios del ejemplo 3.11 (p´ag. 133), y sean k un entero positivo y Pk = {p ∈ P | p tiene grado ≤ k o es el polinomio constante cero} . Entonces, ya que por su definici´on contiene al cero de P, la suma de dos polinomios de grado a lo m´as k tiene grado menor o igual a k, y el producto de un polinomio en este conjunto por un escalar tiene grado igual a k o es el polinomio cero, Pk < P.  Ejemplo 3.22 Si E = { f : [−1, 1] → R | f (1/2) = 0}, mostrar que, con la suma y el producto por un escalar usuales en las funciones, E es un espacio vectorial (v´ease la figura 3-22). ´ DEMOSTRACION

Q En efecto, ya que E ⊂ F ([−1, 1]) y e´ ste es un espacio vectorial con las operaciones usuales, basta probar que E < F ([−1, 1]). 1. θ : [−1, 1] → R, θ(x) = 0 ∀x ∈ [−1, 1], en particular θ(1/2) = 0; por tanto θ ∈ S. 2. Si f , g ∈ E, f (1/2) = 0, g(1/2) = 0; luego ( f + g)(1/2) = f (1/2) + g(1/2) = 0 + 0 = 0. As´ı que f + g ∈ E. 3. Si λ ∈ R y f ∈ E, entonces f (1/2) = 0 y (λ f )(1/2) = λ f (1/2) = λ · 0 = 0; por tanto λ f ∈ E. De 1, 2 y 3, E < F ([−1, 1]).

Q

 Ejemplo 3.23 (Espacio de funciones continuas). Dado que la funci´on cero es una funci´on continua, la suma de funciones continuas y el producto de un escalar por una funci´on continua dan como resultado tambi´en funciones continuas, se tiene que C[a, b] = { f : [a, b] −→ R | f es continua} es un subespacio vectorial de F ([a, b]); y por tanto, un espacio vectorial.  Ejemplo 3.24 De manera an´aloga, el lector puede probar que9 C1 [a, b] = { f : [a, b] −→ R | f es derivable con continuidad en [a, b]} es un espacio vectorial con las operaciones usuales en el espacio de funciones. 19 La continuidad y la derivabilidad en los extremos a y b se sobreentiende que es continuidad y derivabilidad por la derecha y por la izquierda, respectivamente.

Page (PS/TeX): 32 / 142, COMPOSITE

´ 3.2 SECCION

Espacios vectoriales 143

 Ejemplo 3.25 (Espacio de matrices sim´etricas). Sea Mn el espacio vectorial de las matrices cuadradas de orden n con las operaciones usuales. Y sea S el subconjunto de matrices sim´etricas de tama˜no n × n. Demostrar que S es un subespacio de Mn . ´ DEMOSTRACION

Q 1. Claramente la matriz cero de orden n es sim´etrica. 2. Sean A, B ∈ S, entonces At = A y B t = B. Luego, por la tercera propiedad de las matrices (cfr. p´ag. 10), (A + B)t = At + B t = A + B; por lo que A + B ∈ S. 3. Si A ∈ S y λ ∈ R, claramente (λA)t = λAt . Por tanto, ya que A ∈ S, (λA)t = λAt = λA; por lo que λA ∈ S. De 1, 2 y 3 se concluye que S es un subespacio vectorial de Mn .

Q

3.2.4 Combinaciones lineales y subespacios generados Supongamos que tenemos un par de vectores no colineales u yv en R3 y se multiplican, respectivamente, por los escalares λ y β. El vector resultante, λu + βv, est´a en el plano que pasa por el origen y contiene a estos dos vectores; es decir, el plano que contiene a 0, u, v, el cual es un subespacio de R3 pues es un plano que pasa por el origen (cfr. ejemplos 3.18 y 3.19 p´ag. 140). Generalizamos a continuaci´on esta idea. Definici´on 3.11 Si E es un espacio vectorial y u1 ,u2 , . . . ,uk ∈ E, a todo vector de la forma v = a1u1 + a2u2 + · · · + akuk , donde a1 , a2 , . . . , ak ∈ R, se le llama combinaci´on lineal de u1 ,u2 , . . . ,uk .  Ejemplo 3.26 Determinar si el vector u = (7, 1, 16) es combinaci´on lineal de los vectores u1 = (−1, 2, 2) y u2 = (3, −1, 4). ´ Solucion

Veamos si es posible encontrar a1 , a2 ∈ R tales que u = a1u1 + a2u2 ; esto es, (7, 1, 16) = a1 (−1, 2, 2) + a2 (3, −1, 4) = (−a1 + 3a2 , 2a1 − a2 , 2a1 + 4a2 ) .

Entonces, se debe tener −a1 + 3a2 = 7, 2a1 − a2 = 1, 2a1 + 4a2 = 16.

Page (PS/TeX): 33 / 143, COMPOSITE

144 CAPI´TULO 3

Espacios vectoriales

Resolvamos este sistema:   ⎤ ⎤ ⎡ −1 3  7 −1 3  7 ⎣ 2 −1  1 ⎦ ∼ ⎣ 0 5  15 ⎦   0 10  30 2 4  16  ⎤ ⎡ −1 3  7 ∼ ⎣ 0 5  15 ⎦ ; 0 0  0 ⎡

por tanto,



a1 a2



 =

2 3

 .

Con lo que u s´ı es combinaci´on lineal de u1 y u2 : u = 2u1 + 3u2 . Comprobaci´on: 2u1 + 3u2 = 2 (−1, 2, 2) + 3 (3, −1, 4) = (7, 1, 16) = u.



Teorema 3.6 (Subespacios generados) Sean E un espacio vectorial y u1 , u2 ,. . . , uk vectores de E. Entonces S = {u ∈ E |u es combinaci´on lineal de u1 ,u2 , . . . ,uk } es un subespacio vectorial de E.

´ DEMOSTRACION

Q 1. 0E = 0 ·u1 + 0 ·u2 + · · · + 0 ·uk ∈ S. 2. Si u,v ∈ S, entonces existen a1 , a2 , . . . , ak , b1 , b2 , . . . , bk ∈ R tales que: u = a1u1 + a2u2 + · · · + akuk , v = b1u1 + b2u2 + · · · + bkuk . Luego, u +v =

k

k

i=1

i=1

∑ aiui + ∑ biui

= (a1 + b1 )u1 + (a2 + b2 )u2 + · · · + (ak + bk )uk ; de donde u +v ∈ S. 3. Si λ ∈ R y u ∈ S, entonces, para ciertos ai , i = 1, 2, . . . , k, u = a1u1 + a2u2 + · · · + akuk .

Page (PS/TeX): 34 / 144, COMPOSITE

´ 3.2 SECCION

Espacios vectoriales 145

Luego, λu = λ (a1u1 + a2u2 + · · · + akuk ) = (λa1 )u1 + (λa2 )u2 + · · · + (λak )uk ; por lo que λu ∈ S. De 1, 2 y 3, S < E. Q Definici´on 3.12 (Subespacio generado por vectores) Sean E un espacio vectorial y u1 ,u2 , . . . ,uk vectores en E. Al subespacio vectorial de E,10 de todas las combinaciones lineales de estos vectores, se le denota como gn (u1 ,u2 , . . . ,uk ) y se llama el subespacio generado por los vectores u1 ,u2 , . . . ,uk .  Ejemplo 3.27 Sea el espacio vectorial S = gn(sen2 x, cos2 x), determinar si cos(2x) ∈ S. ´ Solucion

cos(2x) = cos2 x − sen2 x = (1) cos2 x + (−1) sen2 x. Por tanto, cos 2x ∈ S.



 Ejemplo 3.28 ¿ 2x2 − 3x + 1 ∈ gn(2, 1 − x, x2 )? ´ Solucion

Encontremos a1 , a2 , a3 ∈ R tales que a1 · 2 + a2 (1 − x) + a3 (x2 ) = 2x2 − 3x + 1 .

Entonces, al reducir, (2a1 + a2 ) − a2 x + a3 x2 = 2x2 − 3x + 1. Y puesto que dos polinomios son iguales si los coeficientes de las mismas potencias de x son iguales,11 se tiene 2a1 + a2 = 1, −a2 = −3, a3 = 2; de donde a1 = −1, a2 = 3, a3 = 2. Por tanto, 2x2 − 3x + 1 ∈ gn(2, 1 − x, x2 ).



 Ejemplo 3.29 Determinar qu´e subespacio de las matrices cuadradas de orden 2 es  gn

1 0 0 0

     0 1 0 0 , ,  1 0 0 1

1Por el teorema 3.6 este conjunto es efectivamente un subespacio vectorial. 1Dos polinomios p(x) = ∑mk=0 ak xk y q(x) = ∑mk=0 bk xk son iguales si ak = bk para cada k = 0, 1, . . . , m.

10 11

Page (PS/TeX): 35 / 145, COMPOSITE

146 CAPI´TULO 3

Espacios vectoriales

´ Solucion

Toda matriz en este subespacio tiene la forma 

1 0

a

0 0



 +c

0 1 1 0



 +d

0 0 0 1



 =

a c c d

 , a, c, d ∈ R,

que es una matriz sim´etrica. Es f´acil probar que, inversamente, toda matriz sim´etrica 2 × 2 es de esta forma (pru´ebelo). Luego, el espacio generado por estas matrices es el subespacio de las matrices sim´etricas cuadradas de orden 2 (cfr. ejemplo 3.25).   Ejemplo 3.30 En P, el espacio de polinomios, si S = gn(1, x, x2 , x3 ), entonces S = P3 (polinomios de grado a lo m´as tres y el polinomio constante cero); pues todo elemento de P3 tiene la forma a0 + a1 x + a2 x2 + a3 x3 = a0 · 1 + a1 · x + a2 · x2 + a3 · x3 ∈ S, para ciertos ai ∈ R, i = 0, 1, 2, 3.

Espacio fila y espacio columna de una matriz Definici´on 3.13 Si A ∈ Mm×n , se define el espacio fila de A como el subespacio de Rn generado por las m-filas de A; y al subespacio de Rm , generado por las n-columnas de A, se le llama el espacio columna de A. Al espacio fila y al espacio columna se les denotar´a, en este libro, como E f (A) y Ec (A), respectivamente. ⎡

3  Ejemplo 3.31 Si ⎣ 2 0

⎤ −1 2 0 −1 3 4 ⎦ ∈ M3×4 , 1 2 3 E f (A) = gn((3, −1, 2, 0), (2, −1, 3, 4), (0, 1, 2, 3)) , Ec (A) = gn((3, 2, 0), (−1, −1, 1)(2, 3, 2), (0, 4, 3)) .

Teorema 3.7 Sea A ∈ Mm×n , entonces b ∈ Ec (A) ⇔ el sistema Ax = b tiene soluci´on.

´ DEMOSTRACION

Q Supongamos que ⎡ ⎢ ⎢ A=⎢ ⎣

a11 a21 .. .

a2 a22 .. .

··· ··· .. .

a1n a2n .. .

am1

am2

···

amn

⎤ ⎥ ⎥ ⎥. ⎦

Entonces b ∈ Ec (A) si y s´olo si existen x1 , x2 , . . . , xn ∈ R tales que ⎡ ⎢ b = x1 ⎢ ⎢ ⎣

a11 a21 .. . am1

Page (PS/TeX): 36 / 146, COMPOSITE





⎥ ⎢ ⎥ ⎢ ⎥ + x2 ⎢ ⎦ ⎣

a12 a22 .. . am2





⎥ ⎢ ⎥ ⎢ ⎥ + · · · + xn ⎢ ⎦ ⎣

a1n a2n .. . amn

⎤ ⎥ ⎥ ⎥ ⎦

´ 3.2 SECCION

Espacios vectoriales 147

y la u´ ltima igualdad se da si y s´olo si12 ⎡ ⎢ b = ⎢ ⎢ ⎣

a11 a21 .. .

a2 a22 .. .

··· ··· .. .

a1n a2n .. .

am1

am2

···

amn

es decir, si y s´olo si el sistema Ax = b tiene soluci´on.

⎤⎡ ⎥⎢ ⎥⎢ ⎥⎢ ⎦⎣



x1 x2 .. .

⎥ ⎥ ⎥; ⎦

xn

Q

´ lineal de otros vectores Criterio para determinar si un vector en Rn es combinacion Podemos utilizar el teorema 3.7 para determinar si un vector dado, b, es combinaci´on lineal de los vectores u1 ,u2 , . . . ,uk en Rn (lo cual equivale a que b pertenezca al subespacio generado por estos vectores) de la siguiente manera: 1. Se forma la matriz cuyas columnas son los vectores u1 ,u2 , . . . ,uk . 2. Se resuelve el sistema Ax = b (por el m´etodo de Gauss, de preferencia). 3. Si este sistema tiene soluci´on x = (a1 , a2 , . . . , ak ), entonces b pertenece al subespacio generado por los vectores ui (es combinaci´on lineal de ellos), y adem´as b = a1u1 + a2a2 + · · · + akuk . 4. Si el sistema Ax = b es inconsistente, entonces b no es combinaci´on lineal de los vectores ui (b ∈ / gn(u1 ,u2 , . . . ,uk )).  Ejemplo 3.32 Determinar si b = (2, 6, 1) pertenece al espacio generado por u1 = (1, 2, 3), u2 = (−2, −5, 2), u3 = (1, 2, −1). En caso afirmativo, hallar a1 , a2 , a3 , tales que b = a1u1 + a2u2 + a3u3 . Resolvamos el sistema

´ Solucion

⎤⎡ ⎤ ⎡ ⎤ x1 1 −2 1 2 ⎣ 2 −5 2 ⎦ ⎣ x2 ⎦ = ⎣ 6 ⎦ 3 2 −1 1 x3 ⎡

por el m´etodo de Gauss: ⎡

1 ⎣ 2 3

−2 −5 2

1 2 −1

⎤ ⎡ 1 2 6 ⎦∼⎣ 0 0 1

−2 −1 8

1 0 −4

⎤ ⎡ 1 2 2 ⎦∼⎣ 0 0 −5

−2 −1 0

1 0 −4

⎤ 2 2 ⎦. 11

Como el sistema es consistente, b ∈ gn(v1 ,v2 ,v3 ) y, al hacer sustituci´on regresiva, a3 = −11/4, a2 = −2, a1 = 3/4; esto es, b = (3/4)u1 − 2u2 + (−11/4)u3 . 1Cfr. (1.5) del ejemplo 1.15, de la p´agina 12.

12

Page (PS/TeX): 37 / 147, COMPOSITE



148 CAPI´TULO 3

Espacios vectoriales

Generadores de un espacio Definici´on 3.14 Sean E un espacio vectorial y u1 ,u2 , . . . ,uk ∈ E. Los vectores u1 , u2 , . . . , uk generan a E si todo elemento de E es combinaci´on lineal de estos vectores; i.e., E = gn(u1 ,u2 , . . . ,uk ). En tal caso, se dice que los vectores ui forman un conjunto de generadores para este espacio vectorial.   Ejemplo 3.33 Sea 

a b c d

a b c d

 ∈ M2 cualquier matriz. Entonces



 =a



1 0 0 0

 +b

0 1 0 0



 +c

0 0 1 0



 +d

0 0 0 1

 .

Luego  M2 = gn

1 0 0 0

      0 1 0 1 0 , , , 0 0 0 0 0

0 1

 .

 Ejemplo 3.34 (Generadores del espacio Mm×n ). En general, si Mm×n es el espacio vectorial de las matrices de tama˜no m × n, entonces las mn matrices definidas en este espacio como Mαβ = [mi j ], 1 ≤ α ≤ m, 1 ≤ β ≤ n, donde  mi j =

1

si i = α, j = β,

0

en otro caso;



 0 1 0 en las matrices de tama˜no 2 × 3) generan al espacio13 Mm×n . Lo cual 0 0 0 es f´acil de probar y se deja como ejercicio al lector.

(por ejemplo M12 =

 Ejemplo 3.35 Sean los vectores ei del espacio Rn definidos como i

ei = (0, . . . , 0, 1, 0, . . . , 0)    n

para i = 1, 2, . . . , n. Entonces, si u = (x1 , x2 , . . . , xn ) ∈ Rn , se tiene u = x1e1 + x2e2 + · · · + xnen . As´ı que los vectores ei , i = 1, 2, . . . , n, generan a Rn ; esto es, Rn = gn (e1 ,e2 , . . . ,en ) . Por ejemplo, si n = 3, R3 = gn ((1, 0, 0) , (0, 1, 0) , (0, 0, 1)).

1De aqu´ı en adelante supondremos que los espacios con los que se trabaje en este libro estar´an dotados de las operaciones usuales que hemos definido en cada caso, a menos que se especifique lo contrario.

13

Page (PS/TeX): 38 / 148, COMPOSITE

´ 3.2 SECCION

Espacios vectoriales 149

Criterios para que k vectores en Rn generen a Rn Supongamos que se tienen n vectores ui de Rn . Sabemos por el teorema 3.7, o del criterio que despu´es de e´ l se da (cfr. p´ag. 147), que todo vector b ∈ Rn es combinaci´on lineal de los vectores ui si y s´olo si el sistema Ax = b, donde A es la matriz cuyas columnas son los vectores ui , tiene soluci´on para todo b ∈ Rn . Pero, por el teorema 2.3 de la secci´on 2.1.2 (cfr. p´ag. 67), el sistema Ax = b tiene soluci´on para todo b si y s´olo si la matriz A es invertible.14 Con esto hemos probado el siguiente teorema. Teorema 3.8 n-vectores de Rn generan a Rn si y s´olo si la matriz que tiene a estos vectores como columnas es invertible.

 Ejemplo 3.36 Determinar si los vectores (1, −2, 3), (2, −1, 4) y (−1, 1, 0) generan a R3 . Por el teorema anterior, tres vectores generan a R3 si y s´olo si la matriz que tiene a e´ stos como columnas es invertible; pero sabemos que una matriz es invertible si y s´olo si es equivalente a la identidad (cfr. teorema 2.3, p´ag. 67). Llevemos esta matriz a la forma escalonada, por el m´etodo de Gauss, para ver si es o no equivalente a la identidad: ´ Solucion

⎤ ⎡ 1 1 2 −1 1 ⎦∼⎣ 0 A = ⎣ −2 −1 0 3 4 0 ⎤ ⎡ 1 2 −1 ∼ ⎣ 0 3 −1 ⎦ . 0 0 7 ⎡

⎤ 2 −1 3 −1 ⎦ −2 3

Dado que la u´ ltima matriz tiene pivote en todas las columnas, se sigue que A es equivalente a la identidad. Luego los vectores (1, −2, 3), (2, −1, 4) y (−1, 1, 0) generan a R3 .  Supongamos ahora que tenemos k vectores en Rn con k < n (por ejemplo tres vectores en R4 ). Para que estos vectores generen a Rn , por el criterio de la p´agina 148, es necesario y suficiente que el sistema Ax =b tenga soluci´on para todo b ∈ Rn , donde A es la matriz que tiene como columnas a estos vectores. Sin embargo, al llevar A a su forma escalonada reducida, puesto que k < n, la u´ ltima fila de esta forma escalonada reducida tiene necesariamente todas sus componentes nulas (piense por ejemplo, para fijar ideas, en una matriz 3 × 2). Sea Fi la fila de la matriz A que se transform´o en la u´ ltima fila nula de la i forma escalonada reducida de la matriz A; tomemos el vector b = (0, . . . , 0, 1, 0, . . . , 0) ∈ Rn , entonces el sistema Ax = b ser´a inconsistente. Luego b no puede ser combinaci´on lineal de los vectores columna de A. As´ı que dichos vectores no generan a Rn . Con esta discusi´on hemos probado el siguiente teorema. Teorema 3.9 k vectores en Rn , con k < n, no generan a Rn .

 Ejemplo 3.37 Los vectores (1, 2, −1, 4), (−1, 2, 1, 0), (0, 1, 3, 1) no generan a R4 . 1Recuerde que, a su vez, una matriz es invertible si y s´olo si es equivalente a la identidad.

14

Page (PS/TeX): 39 / 149, COMPOSITE

150 CAPI´TULO 3

Espacios vectoriales

Tenemos un tercero y u´ ltimo caso para que k vectores generen a Rn cuando k > n. Nuevamente, estos vectores generan este espacio si y s´olo si el sistema Ax = b tiene soluci´on para todo b ∈ Rn , donde A, como antes, es la matriz que tiene por columnas a dichos vectores. Pensemos en la forma escalonada reducida, H, de A y supongamos que tiene n pivotes (por tanto, cualquier forma escalonada equivalente a A tendr´a tambi´en n pivotes). Entonces, puesto que k > n, esta forma escalonada no puede tener filas nulas; de aqu´ı que el sistema Ax = b es consistente para todo b. Adem´as, dicho sistema tiene por tanto k − n variables libres (las columnas donde no hay pivote) independientemente del vector b, y dado que pueden tomar cualquier valor, en particular podemos elegir que todas sean cero. Por ende, todo vector b es combinaci´on lineal de los vectores columna de la matriz A que corresponden a columnas con pivote15 en H. Es decir, Rn est´a generado por los vectores columna de A que correspondan a columnas con pivote en cualquier forma escalonada equivalente a la matriz A. Por otra parte, si una forma escalonada (y, por tanto, cualquier otra forma escalonada U ∼ A) equivalente a la matriz A no tiene n pivotes, entonces, dado que k > n (piense por ejemplo en una matriz 3 × 4), esta forma escalonada equivalente tiene por lo menos una fila nula; y por el mismo argumento dado en las demostraciones de los teoremas 3.8 y 3.9, el sistema Ax =b es inconsistente para ciertos vectores b, por lo que los vectores columna de A no generan a Rn . Hemos probado as´ı el siguiente teorema. Teorema 3.10 k-vectores de Rn , con k > n, generan a Rn si y s´olo si una forma escalonada equivalente de la matriz A, cuyas columnas son estos vectores, tiene n pivotes.16 Si e´ ste es el caso, podemos suprimir aquellos vectores de A que correspondan a columnas de la forma escalonada que no tengan pivote; los vectores restantes generar´an a Rn .

 Ejemplo 3.38 Sean v1 = (1, 2, 0), v2 = (1, 1, 1), v3 = (1, 4, −2), v4 = (2, 3, 2). 1. Determinar si los vectores v1 ,v2 ,v3 ,v4 generan a R3 . 2. En caso afirmativo, reducir a un m´ınimo el n´umero de generadores. ´ Solucion

1. Formamos la matriz que tiene como columnas a estos vectores y la llevamos a la forma

escalonada: ⎡

1 1 1 ⎣ 2 1 4 0 1 −2

⎤ ⎡ 1 2 3 ⎦∼⎣ 0 0 2

⎤ ⎡ 1 1 1 1 2 −1 2 −1 ⎦ ∼ ⎣ 0 −1 0 0 1 −2 2

⎤ 1 2 2 −1 ⎦ . 0 1

Como hay tres pivotes, v1 ,v2 ,v3 ,v4 generan a R3 . 2. De la matriz original, excluimos el vector columna que corresponde en la forma escalonada a la columna que no tiene pivote. Por tanto, R3 = gn(v1 ,v2 ,v4 ). 

1Por ejemplo, si las u´ ltimas k − n variables son libres y ui son los n primeros vectores columna de A, en este caso se tendr´ıa

15

k−n

   b = ∑ni=1 xiui = Ax, donde x = (x1 , x2 , . . . , xn , 0, . . . , 0) es la soluci´on de este sistema para las variables libres que hemos elegido. 16 1Recuerde que todas las matrices en forma escalonada equivalentes a la matriz A tienen el mismo n´umero de pivotes y que e´ stos se encuentran en las mismas posiciones (cfr. nota 1.5, p´ag. 29).

Page (PS/TeX): 40 / 150, COMPOSITE

´ 3.3 SECCION

Dependencia e independencia lineal 151

3.3 Dependencia e independencia lineal Un concepto clave, estrechamente relacionado con el de combinaci´on lineal, es el de dependencia e independencia lineal de vectores. En la figura 3-23 tenemos tres casos en el plano cartesiano. En (a), un vector es m´ultiplo escalar del otro y, por tanto, combinaci´on lineal del primero. En (b) ning´un vector se puede escribir como combinaci´on lineal del otro. Y en (c) w = αu + βv; es decir, uno de los vectores es combinaci´on lineal de los otros. Se dice entonces que los vectores en (a) y (c) son linealmente dependientes, mientras que en (b) son linealmente independientes. w v = λu

αu

u

u

v

u v

(a)

(b)

βv

(c)

Figura 3-23 • Tres casos representativos de dependencia lineal en R2 : (a) vectores linealmente dependientes; (b) vectores linealmente independientes, y (c) vectores linealmente dependientes.

Generalizamos el concepto de dependencia e independencia lineal a cualquier espacio vectorial en la siguiente definici´on:

Definici´on 3.15 Sean E un espacio vectorial y u1 , u2 , . . . ,uk , k vectores en E. Se dice que estos vectores son linealmente dependientes (L.D.) si uno de ellos es combinaci´on lineal de los otros. En caso contrario diremos que los vectores son linealmente independientes (L.I.).17

Supongamos que los vectores ui ∈ E, i = 1, 2, . . . , k, son linealmente dependientes. Entonces uno de ellos es combinaci´on lineal de los otros, digamos ui . Por tanto, existen escalares α j tales que ui = α1u1 + · · · + αi−1ui−1 + αi+1ui+1 + · · · + αkuk ; de aqu´ı que α1u1 + · · · + αi−1ui−1 + (−1)ui + αi+1ui+1 + · · · + αkuk = 0E y uno, por lo menos, de los coeficientes de los u j es distinto de cero (espec´ıficamente el coeficiente de ui que es −1). Inversamente, supongamos que existen escalares α j , j = 1, 2, . . . k, con uno de ellos distinto de cero, tales que α1u1 + · · · + αi−1ui−1 + αiui + αi+1ui+1 + · · · + αkuk = 0E . 1Abreviaremos linealmente independientes como L.I. y linealmente dependientes como L.D. a lo largo de todo este libro.

17

Page (PS/TeX): 41 / 151, COMPOSITE

152 CAPI´TULO 3

Espacios vectoriales

Digamos que αi es uno de estos coeficientes no nulos; entonces ui = − (α1 /αi )u1 − · · · − (αi−1 /αi )ui−1 − (αi+1 /αi )ui+1 − · · · − (αk /αi )uk . Luego ui es combinaci´on lineal de los restantes vectores; por tanto, son vectores linealmente dependientes. Con esta discusi´on hemos hecho patente la demostraci´on del siguiente teorema que establece condiciones equivalentes muy u´ tiles para dependencia e independencia lineal. Teorema 3.11 Sean u1 ,u2 , . . . ,uk vectores en un espacio vectorial E. Entonces: 1. Los vectores u1,u2 , . . . ,uk son linealmente dependientes si y s´olo si existen α1 , α2 , . . . , αk ∈ R, con uno de ellos (por lo menos) distinto de cero, tales que α1u1 + α2u2 + · · · + αkuk = 0E . 2. Los vectores u1,u2 , . . . ,uk son linealmente independientes si y s´olo si los u´ nicos escalares α1 , α2 , . . . , αk ∈ R tales que α1u1 + α2u2 + · · · + αkuk = 0E son α1 = 0, α2 = 0, . . . , αk = 0. P Nota 3.10 1. Observe que si los vectores ui , i = 1, 2, . . . , k, son L.I., entonces cualquier subconjunto no vac´ıo de ellos es tambi´en L.I. 2. Los vectores ui , i = 1, 2, . . . , k, son L.D. si y s´olo si hay un subconjunto de ellos que es L.D. 3. Si alguno de los vectores ui , i = 1, 2, . . . , k, es el vector neutro aditivo del espacio, 0E , entonces estos vectores son L.D.; en particular, cuando k = 1, u es L.I. si y s´olo si u = 0E .  Ejemplo 3.39 ¿Son los vectores v1 = (1, 2, 3, 1), v2 = (2, 2, 1, 3) y v3 = (−1, 2, 7, −3) linealmente dependientes o linealmente independientes? ´ Solucion

Si α1 , α2 , α3 ∈ R y α1v1 + α2v2 + α3v3 = 0R4 , entonces (α1 + 2α2 − α3 , 2α1 + 2α2 + 2α3 , 3α1 + α2 + 7α3 , α1 + 3α2 − 3α3 ) = (0, 0, 0, 0),

que equivale al sistema

α1 + 2α2 − α3 2α1 + 2α2 + 2α3 3α1 + α2 + 7α3 α1 + 3α2 − 3α3

= = = =

0. 0. 0. 0.

Resolvamos ahora este sistema homog´eneo: ⎡

1 ⎢ 2 ⎢ ⎣ 3 1

Page (PS/TeX): 42 / 152, COMPOSITE

⎤ ⎡ ⎤ ⎡ 1 1 2 −1 2 −1 ⎥ ⎢ 0 ⎢ 0 −2 4 2 2 ⎥ ⎥∼⎢ ⎥∼⎢ 1 7 ⎦ ⎣ 0 −5 10 ⎦ ⎣ 0 0 0 −1 2 3 −3

⎤ ⎡ 1 2 −1 ⎢ 0 1 −2 ⎥ ⎥∼⎢ −1 2 ⎦ ⎣ 0 0 −1 2

⎤ 2 −1 1 −2 ⎥ ⎥. 0 0 ⎦ 0 0

´ 3.3 SECCION

Dependencia e independencia lineal 153

⎤ ⎤ ⎡ α1 −3r Por tanto ⎣ α2 ⎦ = ⎣ 2r ⎦ r ∈ R; es decir, el sistema tiene soluci´on no trivial; as´ı, por ejemplo, con r α3  r = 1, −3v1 + 2v2 +v3 = 0. Luego v1 ,v2 ,v3 son linealmente dependientes.  ⎡

 Ejemplo 3.40 Determinar si x2 − 1, x2 + 1, 4x, 2x − 3 son linealmente dependientes o linealmente independientes en el espacio de los polinomios. ´ Solucion

Si α1 (x2 − 1) + α2 (x2 + 1) + α3 (4x) + α4 (2x − 3) = 0,

entonces (α1 + α2 )x2 + (4α3 + 2α4 )x − α1 + α2 − 3α4 = 0. De donde obtenemos el sistema homog´eneo α1 + α2 = 0 4α3 + 2α4 = 0 −α1 + α2 − 3α4 = 0. Llevemos a forma escalonada la matriz de coeficientes: ⎤ ⎤ ⎡ ⎤ ⎡ ⎡ 1 1 0 0 1 1 0 0 1 1 0 0 ⎣ 0 0 4 1 ⎦ ∼ ⎣ 0 2 0 −3 ⎦ . 2 ⎦∼⎣ 0 0 2 0 0 2 1 0 2 0 −3 −1 1 0 −3 El sistema tiene infinidad de soluciones dadas por ⎤ ⎤ ⎡ ⎡ ⎤ −3s α1 −3/2 ⎥ ⎢ α2 ⎥ ⎥ ⎢ ⎢ ⎢ ⎥ = r ⎢ 3/2 ⎥ = ⎢ 3s ⎥ . ⎣ α3 ⎦ ⎣ −1/2 ⎦ ⎣ −s ⎦ 2s 0 α4 ⎡

En particular, tiene soluciones no triviales, y por ende los polinomios son linealmente dependientes.        1 0 0 1 0 0  Ejemplo 3.41 ¿Son las matrices , , L.I. o L.D. en el espacio de las 0 0 1 0 0 1 matrices sim´etricas? ´ Solucion

Resolvamos el sistema  α1

1 0 0 0



 + α2

0 1 1 0



 + α3



0 0 0 1

=

que equivale a 

α1 α2

α2 α3



 =

0 0 0 0

de donde α1 = α2 = α3 = 0. Luego estas matrices son L.I.

Page (PS/TeX): 43 / 153, COMPOSITE







;

0 0 0 0

 ,

154 CAPI´TULO 3

Espacios vectoriales

 Ejemplo 3.42 Determinar si las funciones f1 (x) = 1, f2 (x) = x y f3 (x) = x2 son L.I. o L.D. en el espacio de funciones F (−∞, ∞) (las funciones con dominio en el intervalo (−∞, ∞)). ´ Solucion

Sean α1 , α2 , α3 ∈ R tales que α1 f1 + α2 f2 + α3 f3 = θ.

Entonces tenemos α1 + α2 x + α3 x2 = 0

∀x ∈ R.

En particular, para x = 0, x = 1 y x = −1; por lo que α1 = 0, α2 + α3 = 0, −α2 + α3 = 0; de donde α1 = α2 = α3 = 0 . Por tanto, f1 , f2 , f3 son L.I. en este espacio.



 Ejemplo 3.43 Determinar si las funciones f1 y f2 son linealmente dependientes o independientes en el espacio C [−1, 1] (el espacio de funciones continuas en el intervalo [−1, 1]; cfr. el ejemplo 3.23), donde  0 si −1 ≤ x < 0 f1 (x) = x2 si 0≤x≤1 y

 f2 (x) =

x2 0

si si

−1 ≤ x < 0 0≤x≤1

Las gr´aficas de estas funciones se encuentran en la figura 3-24.

f2

f1

−1

1

−1

1

Figura 3-24 • Un par de funciones continuas linealmente independientes. ´ Solucion Nuevamente, si α1 f1 + α2 f2 = θ, donde θ es la funci´on constante cero (el neutro aditivo de este espacio), entonces

α1 f1 (x) + α2 f2 (x) = θ(x) = 0

Page (PS/TeX): 44 / 154, COMPOSITE

∀x ∈ [−1, 1] .

´ 3.3 SECCION

Dependencia e independencia lineal 155

En particular si x = −1, se tiene α1 · 0 + α2 · 1 = 0; y si x = 1, α1 · 1 + α2 · 0 = 0. De donde α1 = α2 = 0; por tanto f1 y f2 son L.I.   Ejemplo 3.44 (El wronskiano). Sea J un intervalo abierto y supongamos que f1 , f2 , . . . , fn son funciones L.D. en el espacio F (J) y que todas estas funciones tienen derivada hasta el orden n − 1 en todo punto de J, entonces existen constantes α1 , α2 , . . . , αn ∈ R con una de ellas, al menos, distinta de cero, tales que α1 f1 (x) + α2 f2 (x) + · · · + αn fn (x) = 0 ∀x ∈ J. As´ı, para todo x ∈ J, α1 f1 (x) α1 f1 (x) .. . (n−1)

α1 f1 Es decir,



+ + .. .

(x)

+

(n−1)

f1

(x)

+ + .. .

··· ··· .. .

+ + .. .

(n−1)

+

···

+ αn fn

α2 f2

(x)

f2 (x) f2 (x) .. .

··· ··· .. .

f1 (x) f1 (x) .. .

⎢ ⎢ ⎢ ⎢ ⎣

α2 f1 (x) α2 f1 (x) .. .

(n−1)

f2

(x)

···

fn (x) f2 (x) .. . (n−1)

fn

(x)

⎤⎡ ⎥⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎦⎣

αn fn (x) αn fn (x) .. .

= = .. .

0 0 .. .

(n−1)

=

0.

α1 α2 .. . αn



(x) ⎡

⎥ ⎢ ⎥ ⎢ ⎥=⎢ ⎥ ⎢ ⎦ ⎣

0 0 .. . 0

(3.12)

⎤ ⎥ ⎥ ⎥. ⎥ ⎦

Como una de las αi = 0, el sistema homog´eneo (3.12) tiene soluci´on no trivial y entonces, para todo x ∈ J,   f2 (x) ··· fn (x)   f1 (x)    f  (x) f2 (x) ··· f2 (x)  1    = 0. .. .. .. ..   . . . .      f (n−1) (x) f (n−1) (x) · · · f (n−1) (x)  n 1 2 Al determinante del lado izquierdo de la precedente igualdad se le llama el wronskiano de las funciones f1 , f2 , . . . , fn y se le denota por W ( f1 , f2 , . . . , fn )(x). As´ı, hemos probado que si las funciones son linealmente dependientes en J, es decir, F (J) para ser precisos, el wronskiano es cero en todo punto del intervalo J. Luego, si existe x0 ∈ J tal que W ( f1 , f2 , . . . , fn )(x0 ) = 0, entonces las funciones son L.I. Sin embargo, si W ( f1 , f2 , . . . , fn )(x) = 0 para todo x ∈ J, las funciones no son necesariamente L.I. en J como lo hace patente el ejemplo 3.43.  Ejemplo 3.45 Los polinomios 1, x, . . . , xk , son L.I. en el espacio de polinomios. En efecto, si αi ∈ R son tales que ∑ki=1 αi xi = 0, entonces, por igualdad18 de polinomios, se tiene αi = 0 ∀i = 1, 2, . . . , k. 1Cfr. la nota al pie 11 de la p´agina 145 y el ejemplo 3.28. En este caso, el polinomio constante 0 se puede escribir como ∑ki=1 0 · xk .

18

Page (PS/TeX): 45 / 155, COMPOSITE

156 CAPI´TULO 3

Espacios vectoriales

3.3.1 Criterios de independencia lineal en Rn Sean ui , i = 1, 2, . . . , k, vectores en Rn ; estos vectores son L.D. si y s´olo si el sistema x1u1 + x2u2 + · · · + xkuk = 0Rn tiene soluciones no triviales. Esto es, si el sistema homog´eneo Ax = 0, donde A es la matriz que tiene como columnas a los vectores ui , tiene soluciones no triviales. Del teorema 1.6 (cfr. p´ag. 32) sabemos que si k = n, este sistema tiene soluciones no triviales si y s´olo si la matriz es no invertible. Y del mismo teorema sabemos que si k > n (tenemos entonces un sistema con m´as variables que ecuaciones), el sistema homog´eneo tiene soluciones no triviales. Con esto hemos probado el siguiente teorema.

Teorema 3.12 (Criterios para que k vectores de Rn sean L.I. o L.D.) Sean u1 , u2 , . . . ,uk , k vectores en Rn y A la matriz que tiene como columnas a estos vectores. Entonces: 1. Los vectores son L.I. si y s´olo si el sistema Ax = 0 tiene u´ nicamente la soluci´on trivial. 2. Los vectores son L.D. si y s´olo si el sistema Ax = 0 tiene soluciones no triviales. 3. Si k = n: (a) los vectores son L.I. si y s´olo si A es invertible. (b) los vectores son L.D. si y s´olo si A no es invertible. 4. Si k > n los vectores son L.D.

 Ejemplo 3.46 Determinar si los vectores dados son L.I. o L.D. en R4 : 1. (1, −2, −3, 2), (−1, 0, 1, 1), (3, 2, 1, 1). 2. (1, −2, −3, 2), (−1, 0, 1, 1), (5, −4, −9, 1). 3. (1, 2, 1, 3), (1, 1, 1, 1), (−1, 1, 0, 0), (−1, 1, 0, 0), (1, 0, 0, 4). 4. (1, 0, 1, 0), (2, −1, 1, 1), (−2, 1, 1, 3), (−3, 0, 0, 1). 1. Resolvamos el sistema homog´eneo Ax =0, donde A es la matriz que tiene como columnas a estos vectores. ⎤ ⎤ ⎡ ⎤ ⎡ ⎡ 1 −1 3 1 −1 3 1 −1 3 ⎢ ⎢ ⎢ −2 1 −4 ⎥ 8 ⎥ 0 2 ⎥ ⎥ ⎥∼⎢ 0 ⎥ ∼ ⎢ 0 −2 ⎢ ⎦ ⎣ ⎦ ⎣ ⎣ −3 0 −2 10 ⎦ 0 −2 10 1 1 0 3 −5 0 3 −5 2 1 1 ⎤ ⎤ ⎡ ⎡ 1 −1 3 1 −1 3 ⎢ ⎢ 0 1 −4 ⎥ 1 −4 ⎥ ⎥. ⎥∼⎢ 0 ∼⎢ ⎣ ⎦ ⎣ 0 0 0 2 ⎦ 0 2 0 0 0 0 0 7 ´ Solucion

De donde el sistema s´olo tiene la soluci´on trivial, por lo que los vectores son L.I.

Page (PS/TeX): 46 / 156, COMPOSITE

´ 3.3 SECCION

Dependencia e independencia lineal 157

2. Resolvamos el sistema homog´eneo Ax = 0, donde A es la matriz que tiene como columnas a estos vectores. ⎤ ⎤ ⎡ ⎤ ⎡ ⎡ 1 −1 5 1 −1 5 1 −1 5 ⎢ ⎢ ⎢ −2 1 −3 ⎥ 6 ⎥ 0 −4 ⎥ ⎥ ⎥∼⎢ 0 ⎥ ∼ ⎢ 0 −2 ⎢ ⎣ −3 6 ⎦ ⎣ 0 −2 −6 ⎦ 1 −9 ⎦ ⎣ 0 −2 0 3 −9 0 3 −9 2 1 1 ⎤ ⎡ 1 −1 5 ⎥ ⎢ 0 1 −3 ⎥. ∼⎢ ⎣ 0 0 0 ⎦ 0 0 0 De donde el sistema tiene una infinidad de soluciones, a saber, haciendo sustituci´on regresiva, ⎡

⎤ ⎤ ⎡ x1 −2r ⎣ x2 ⎦ = ⎣ 3r ⎦ . r x3 Por tanto tiene soluciones no triviales, as´ı que los vectores son L.D.; una soluci´on es, por ejemplo, (x1 , x2 , x3 ) = (−2, 3, 1), que se obtiene al hacer r = 1. (Comprobaci´on:

− 2(1, −2, −3, 2) + 3(−1, 0, 1, 1) + (5, −4, −9, 1) = (0, 0, 0, 0).)

3. En este caso tenemos 5 vectores en R4 , por el teorema 3.12 son L.D. (k > n). 4. En este caso tenemos 4 vectores en R4 , y ser´an L.I. si y s´olo si la matriz A, que tiene de columnas a estos vectores, es invertible. Llevemos esta matriz a la forma escalonada: ⎤ ⎤ ⎡ ⎡ 1 2 −2 −3 1 2 −2 −3 ⎢ ⎢ 0 −1 1 0 ⎥ 1 0 ⎥ ⎥ ⎥ ∼ ⎢ 0 −1 A=⎢ ⎣ 1 3 3 ⎦ 1 1 0 ⎦ ⎣ 0 −1 0 1 3 1 0 1 3 1 ⎤ ⎤ ⎡ ⎡ 1 2 −2 −3 1 2 −2 −3 ⎢ ⎢ 0 −1 1 0 ⎥ 1 0 ⎥ ⎥. ⎥ ∼ ⎢ 0 −1 ∼⎢ ⎣ 0 0 2 3 ⎦ 0 2 3 ⎦ ⎣ 0 0 0 0 −5 0 0 4 1 Dado que toda columna tiene pivote en la u´ ltima matriz equivalente, se sigue que A es equivalente a la identidad y, por tanto, es invertible; luego los vectores son L.I.  Como mencionamos anteriormente, y el lector seguramente ya lo not´o, los conceptos de independencia lineal y combinaciones lineales est´an estrechamente relacionados. En Rn esta relaci´on se hace a´un m´as patente por la herramienta que proveen las t´ecnicas matriciales y la teor´ıa de sistemas lineales que estudiamos en el cap´ıtulo 1. Por el teorema 3.8 (cfr. p´ag. 149), n vectores de Rn generan a Rn si y s´olo si la matriz que tiene por columnas a estos vectores es invertible; a su vez, por el teorema 3.12 (cfr. p´ag. 156), esta matriz es invertible si y s´olo si los n vectores son L.I. Hemos probado as´ı el siguiente teorema que relaciona los conceptos de independencia lineal y el n´umero de generadores para el espacio Rn .

Page (PS/TeX): 47 / 157, COMPOSITE

158 CAPI´TULO 3

Espacios vectoriales

Teorema 3.13 Sean u1 ,u2 , . . . ,un , n vectores de Rn y A la matriz que tiene por columnas a estos vectores, entonces las siguientes condiciones son equivalentes: 1. u1 ,u2 , . . . ,un son L.I. 2. u1 ,u2 , . . . ,un generan a Rn . 3. A es invertible.19  Ejemplo 3.47 Hola 1. En el ejemplo 3.46 vimos que la matriz que tiene por columnas los vectores (1, 0, 1, 0), (2, −1, 1, 1), (−2, 1, 1, 3), (−3, 0, 0, 1) de R4 es equivalente a la identidad y, por ende, es invertible; as´ı que estos vectores son L.I. y generan a R4 . 2. Sean (1, 0, 1), (−2, 1, 1) y (−4, 3, 5); llevemos la matriz A, que tiene por columnas a estos vectores, a la forma escalonada: ⎤ ⎤ ⎡ ⎤ ⎡ ⎡ 1 −2 −4 1 −2 −4 1 −2 −4 ⎣ 0 1 3 ⎦. 1 3 ⎦∼⎣ 0 1 3 ⎦∼⎣ 0 0 0 0 0 3 9 1 1 5 Puesto que la u´ ltima columna en la u´ ltima matriz equivalente no tiene pivote, la matriz A no es equivalente a la identidad y, por tanto, no es invertible; as´ı que estos vectores no generan a R3 y son L.D.

´ 3.4 Bases y dimension En la secci´on anterior vimos c´omo espacios vectoriales pueden ser generados por ciertos conjuntos de vectores; es decir, que todo elemento de estos espacios se puede escribir como una combinaci´on lineal de los vectores de esos conjuntos generadores. Tambi´en ilustramos, con algunos casos, c´omo es posible reducir a un m´ınimo los generadores (cfr. ejemplo 3.38 y teorema 3.10). El tema de minimizar el conjunto de generadores est´a relacionado con la independencia lineal de los vectores y con el concepto, que estudiaremos en la presente secci´on, de bases de espacios vectoriales.

3.4.1 Definiciones y ejemplos Comenzamos extendiendo el concepto de dependencia e independencia lineal a cualquier subconjunto de vectores, aun si tiene una infinidad de elementos. Definici´on 3.16 Sea E un espacio vectorial y S ⊂ E. 1. S es linealmente independiente (L.I.), si los vectores de todo subconjunto finito de S son linealmente independientes en el sentido de la definici´on20 3.15. 2. S es linealmente dependiente (L.D.) si contiene (al menos) un subconjunto finito de vectores linealmente dependientes en el sentido de la definici´on 3.15.

1Recuerde que una matriz es invertible si y s´olo si es equivalente por filas a la identidad; y que para mostrar que una matriz es equivalente a la identidad basta llevarla, por el m´etodo de Gauss, a la forma escalonada y verificar que toda columna (y por ende toda fila) tenga pivote. 20 1Cfr. p´agina 151. 19

Page (PS/TeX): 48 / 158, COMPOSITE

´ 3.4 SECCION

´ Bases y dimension 159

 Ejemplo 3.48 En P, el espacio de polinomios, sea S1 = {1, x, x2 , . . . , xn , . . . }. S1 es L.I., mientras que S2 = {1, x, 2x, 2x2 , 3x3 , 4x4 , 5x5 , . . . } es L.D. En efecto, sea A un subconjunto finito de S1 ; entonces los elementos de A tienen la forma (dado que A es finito) xmi , para k enteros mi , i = 1, 2, . . . , k, con 0 ≤ m1 < m2 < · · · < mk ; luego estos vectores forman parte de los vectores 1, x, . . . , xmi , . . . , xmk que son L.I. (cfr. el ejemplo 3.45); por tanto, los polinomios en A son tambi´en L.I. (cfr. la nota 3.10, p´ag. 152). Es decir, todo subconjunto finito de S1 es L.I.; por tanto S1 es L.I. En cuanto a S2 , los polinomios x y 2x son claramente L.D.; por tanto S2 es L.D. Definici´on 3.17 Sean E un espacio vectorial y S ⊂ E. Se dice que S genera a E si todo elemento de E es combinaci´on lineal de elementos de S; es decir, para cada u ∈ E existen s1 , . . . ,sk ∈ S y escalares a1 , . . . , ak tales que u = a1s1 + · · · + aksk .  Ejemplo 3.49 S = {1, x, x2 , . . . , xn , . . . } genera a P. Pues claramente todo polinomio de este espacio tiene la forma a0 · 1 + a2 · x + · · · + ak · xk . Definici´on 3.18 (Bases) Si E es un espacio vectorial y B ⊂ E, B es una base de E si: 1. B es L.I. 2. B genera a E.  Ejemplo 3.50 (Base can´onica de Rn ). En Rn sean los vectores i

ei = (0, . . . , 0, 1, 0, . . . , 0)    n

i = 1, 2, . . . , n. Entonces B = {e1 ,e2 , . . . ,en } es una base (la llamada base can´onica o est´andar) de Rn ; pues la matriz que tiene por columnas a estos vectores es la identidad n × n que es invertible, y por el teorema 3.13 los vectores generan a Rn y son L.I.  Ejemplo 3.51 (Base de P). En P, B = {1, x, x2 , x3 , . . . , xn , . . . } es una base. Pues en el ejemplo 3.48 vimos que este conjunto es L.I., y en el ejemplo 3.49 mostramos que este conjunto genera a P.  Ejemplo 3.52 (Base de Pk ). En Pk , el espacio de polinomios de grado a lo m´as k, B = {1, x, x2 , x3 , . . . , xk } es una base. Pues en el ejemplo 3.45 probamos que este conjunto es L.I. y claramente todo polinomio de Pk es de la forma ∑ki=0 ai xi .

Page (PS/TeX): 49 / 159, COMPOSITE

160 CAPI´TULO 3

Espacios vectoriales

 Ejemplo 3.53 (Base de Mm×n ). Sean las matrices Mαβ = [mi j ] de tama˜no m × n definidas en el ejemplo 3.34; es decir,  mi j =

1 si i = α, β = j, 0 en otro caso.

Entonces, si A = [ai j ] ∈ Mm×n , es claro que21 A=



1≤α≤m 1≤β≤n

aαβ Mαβ

(3.13)

lo cual entra˜na que las mn matrices Mαβ generan a Mm×n . Por otra parte, si el lado derecho de (3.13) se iguala a la matriz cero m × n, entonces (por definici´on de la igualdad de matrices) se obtiene que las constantes aαβ = 0, ∀α, β; es decir, las matrices Mαβ tambi´en son L.I. De esta manera las mn matrices Mαβ forman una base para el espacio Mm×n . Por ejemplo, en M3×2 , ⎧⎡ ⎤ ⎡ 0 ⎨ 1 0 B = ⎣ 0 0 ⎦,⎣ 0 ⎩ 0 0 0

⎤⎫ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ 0 0 ⎬ 0 0 0 0 0 0 1 0 ⎦,⎣ 1 0 ⎦,⎣ 0 1 ⎦,⎣ 0 0 ⎦,⎣ 0 0 ⎦ ⎭ 0 1 1 0 0 0 0 0 0

es una base. Enunciamos el siguiente teorema, cuya demostraci´on es delicada y la postergamos al ap´endice C. Invitamos al lector a que la consulte, pues contiene una construcci´on muy interesante que se utiliza con frecuencia en matem´aticas para probar diversos teoremas de existencia y que depende de un principio muy b´asico y fundamental que es el llamado lema de Zorn.

Teorema 3.14 (Existencia de bases) Sea E un espacio vectorial. Entonces E posee una base; es decir, existe B ⊂ E L.I. tal que todo vector del espacio E es combinaci´on lineal de elementos de B.

´ extraccion ´ de bases y complecion ´ de un conjunto L.I. a una base 3.4.2 Dimension, Hemos visto varios ejemplos de espacios vectoriales que se pueden generar mediante combinaciones lineales de elementos de ciertos subconjuntos de esos espacios. La idea central es optimizar el n´umero de vectores generadores; y la independencia lineal es obviamente el discriminador natural para excluir vectores de un conjunto de generadores y quedarse con un m´ınimo de e´ stos que sigan generando al espacio. Las bases de espacios vectoriales son los conjuntos que cumplen con las condiciones de poder generar al espacio y ser L.I. Surge entonces la conjetura natural de que si dos bases generan al mismo espacio y sus elemementos son L.I., entonces tienen un m´ınimo de generadores; luego ambas deben tener el mismo n´umero de elementos. Esta conjetura es cierta, y la probaremos en el teorema 3.16; lo cual da pauta a definir lo que llamaremos dimensi´on de un espacio vectorial. El concepto de dimensi´on de un espacio no es otra cosa que la generalizaci´on y abstracci´on de la idea intuitiva que tenemos de la dimen1La notaci´on ∑1≤α≤m aαβ Mαβ significa que se suman todas las posibles combinaciones de aαβ Mαβ cuando los sub´ındices α y

21

1≤β≤n

β recorren los valores 1, . . . , m y 1, . . . , n, respectivamente. Dicho de paso, el n´umero de t´erminos de esta suma es mn.

Page (PS/TeX): 50 / 160, COMPOSITE

´ 3.4 SECCION

´ Bases y dimension 161

si´on de conjuntos que nos son familiares, como una l´ınea recta, un plano y el espacio donde habitamos; a los cuales de manera natural les hemos asignado dimensiones uno, dos y tres, respectivamente, en el lenguaje coloquial. Teorema 3.15 Sea E un espacio vectorial que est´a generado por los vectores L.I. u1 ,u2 , . . . ,un . Si v1 ,v2 , . . . ,vk son vectores en este espacio con k > n, entonces estos vectores son L.D.

´ DEMOSTRACION

Q Resolvamos el sistema β1v1 + β2v1 + · · · + βkvk = 0E

(3.14)

para βi ∈ R, 1 = 1, 2, . . . , k. Dado que E = gn (u1 ,u2 , . . . ,un ), existen escalares αi j , i = 1, . . . , k, j = 1, . . . , n, tales que v1 = α11u1 + α12u2 + · · · + α1nun v2 = α21u1 + α22u2 + · · · + α2nun .. .

(3.15)

vk = αk1u1 + αk2u2 + · · · + αknun Sustituyendo cada vi de (3.15) en (3.14) obtenemos 0E = β1 (α11u1 + α12u2 + · · · + α1nun ) + β2 (α21u1 + α22u2 + · · · + α2nun ) + · · · + βk (αk1u1 + αk2u2 + · · · + αknun ) , que agrupando t´erminos produce 0E = (β1 α11 + β2 α21 + · · · + βk αk1 )u1 + (β1 α12 + β2 α22 + · · · + βk αk2 )u2 + · · · + (β1 α1n + β2 α2n + · · · + βk αkn )un . Puesto que los vectores ui son L.I., se debe tener β1 α11 β1 α12 .. .

β1 α1n

+ + .. .

β2 α21 β2 α22 .. .

+ + .. .

+

β2 α2n

+

.. . ···

+ + .. .

βk αk1 βk αk2 .. .

= = .. .

0 0 .. .

+

βk αkn

=

0,

que es un sistema lineal homog´eneo con m´as inc´ognitas que ecuaciones (recuerde que k > n); por tanto tiene soluci´on no trivial; es decir, existen βi , i = 1, 2, . . . , k, no todos cero, tales que (3.14) se cumple. Luego los vectores v1 ,v2 , . . . ,vk son L.D. Q El siguiente corolario es consecuencia inmediata del teorema 3.15 y su demostraci´on se deja como ejercicio al lector. Corolario 3.1 Si un espacio vectorial E est´a generado por los vectores L.I. u1 ,u2 , . . . ,un , entonces todo conjunto de vectores linealmente independiente tiene a lo m´as n vectores.

Page (PS/TeX): 51 / 161, COMPOSITE

162 CAPI´TULO 3

Espacios vectoriales

Lema 3.2 Sean E un espacio vectorial y S = {u1 ,u2 , . . . ,um } un subconjunto finito de este espacio que lo genera; es decir, E = gn(u1 ,u2 , . . . ,um ). Entonces existe S1 ⊂ S que es L.I. y genera a E.

´ DEMOSTRACION

Q Formemos el conjunto S1 de la siguiente manera22 • u1 ∈ S1 . • u2 ∈ S1 si u2 no es m´ultiplo escalar de u1 . • En general, ui ∈ S1 si ui no es combinaci´on lineal de sus predecesores. Mediante este proceso es claro que los elementos de S1 son L.I., y ya que cada vector que se excluy´o de S para formar S1 es combinaci´on lineal de sus predecesores, cada uno de ellos se puede escribir como combinaci´on lineal de los elementos de S1 . As´ı, puesto que todo vector en E es combinaci´on lineal de los vectores de S, todo vector de E es combinaci´on lineal de los vectores de S1 ; es decir, S1 genera a E. Q Corolario 3.2 Si un espacio vectorial E est´a generado por los vectores u1 , u2 ,. . . , um (no necesariamente L.I.), entonces todo conjunto de vectores linealmente independiente tiene a lo m´as m vectores.

´ DEMOSTRACION

Q Por el lema 3.2 podemos suponer, sin p´erdida de generalidad, que los vectores u1 ,u2 , . . . ,um son L.I. Si vi , i = 1, . . . , k son vectores L.I., por el corolario 3.1, k ≤ m. Q Definici´on 3.19 Un espacio vectorial E es finitamente generado si existen u1 , . . . ,um ∈ E tales que E = gn(u1 ,u2 , . . . ,um ).

Corolario 3.3 Sea E un espacio vectorial finitamente generado, con u1 , . . . ,um un conjunto de generadores. Si B es una base de E, entonces B tiene a lo m´as m elementos. P Nota 3.11 Supongamos que E es un espacio finitamente generado, con S = {u1 , . . . ,um } un conjunto de generadores, entonces, por el lema 3.2, podemos reducir S a un conjunto B que es linealmente independiente y que tambi´en genera a E; es decir, a una base del espacio E. Teorema 3.16 (Igualdad en cardinalidad en bases del mismo espacio) Si E es un espacio vectorial finitamente generado y B1 = {u1 ,u2 , . . . ,un } y B2 = {v1 ,v2 , . . . ,vm } son un par de bases de este espacio, entonces n = m; es decir, cualquier par de bases en el mismo espacio tienen igual n´umero de elementos.

1Podemos suponer que ui = 0E para todo i; pues si uno de estos vectores es el neutro aditivo, se puede excluir de S y el conjunto resultante sigue obviamente generando al espacio E.

22

Page (PS/TeX): 52 / 162, COMPOSITE

´ 3.4 SECCION

´ DEMOSTRACION

´ Bases y dimension 163

Q Por el corolario 3.1, puesto que B2 es una base y los vectores ui son L.I., se tiene n ≤ m; y por el mismo corolario, dado que los vectores vi son L.I. y B1 es una base, se deduce m ≤ n; luego n = m. Q Definici´on 3.20 (Dimensi´on de un espacio vectorial). Sea E un espacio vectorial. 1. Si E es un espacio vectorial finitamente generado, se define la dimensi´on de E, dim(E), como el n´umero de elementos de cualquier base de E. 2. Si E no es finitamente generado, entonces se dice que E tiene dimensi´on infinita y se escribe dim(E) = ∞.

 Ejemplo 3.54 (Dimensi´on del espacio trivial {0E }). Sea E un espacio vectorial, entonces dim({0E }) = 0; pues el u´ nico subconjunto L.I. de este subespacio es el conjunto vac´ıo 0/ (cfr. ejercicio resuelto 32(a), p´ag. 191).  Ejemplo 3.55 (Dimensi´on de Rn ). En el ejemplo 3.50 vimos que B = {e1 ,e2 , . . . ,en } , donde i

ei = (0, . . . , 0, 1, 0, . . . , 1)    n

i = 1, 2, . . . , n es una base de Rn ; por tanto, dim(Rn ) = n.  Ejemplo 3.56 El espacio de polinomios, P, no es finitamente generado; pues si S es un conjunto finito de generadores, entonces uno de ellos tiene el grado m´aximo, digamos m. Por tanto, cualquier combinaci´on lineal de elementos de S tiene grado a lo m´as m y, por ende, un polinomio de grado mayor a m no puede ser combinaci´on lineal de elementos de S. Luego, dim(P) = ∞ (cfr. ejemplo 3.51).  Ejemplo 3.57 Probamos, en el ejemplo 3.52, que el conjunto   B = 1, x, x2 , . . . , xk es una base de Pk . Por tanto, dim (Pk ) = k + 1.  Ejemplo 3.58 En el ejemplo 3.53, mostramos que B = {Mαβ | 1 ≤ α ≤ m, 1 ≤ β ≤ n} es una base del espacio vectorial de las matrices de tama˜no m × n. Entonces, dim (Mm×n ) = mn.

Page (PS/TeX): 53 / 163, COMPOSITE

164 CAPI´TULO 3

Espacios vectoriales

  Ejemplo 3.59 En el ejemplo 3.29 vimos que toda matriz sim´etrica de tama˜no 2 × 2,

a c c d

 , se

puede escribir como 

a c c d



 =a

1 0 0 0







 +c

0 1 1 0







 +d

0 0 0 1

 .

Por otro lado, si  α1

1 0 0 0

+ α2

0 1

1 0

+ α3

0 0 0 1



 =

0 0 0 0



se desprende que α1 = α2 = α3 = 0; i.e., estas matrices son L.I. Luego una base para el espacio, S, de las matrices sim´etricas de orden 2 es      $ 1 0 0 1 0 0 B= , , . 0 0 1 0 0 1 Por tanto, dim(S) = 3.

´ de una base en un conjunto generador Extraccion En el lema 3.2 probamos que si S es un conjunto finito generador de un espacio vectorial, podemos construir una base del espacio a partir de los elementos de S excluyendo en forma sistem´atica a los que sean combinaciones lineales de sus predecesores; pues los que queden ser´an L.I. y claramente a´un generan el espacio. Dada la gran importancia que tiene este resultado, volvemos a hacer expl´ıcito este m´etodo en el siguiente teorema e ilustramos a continuaci´on su uso. Teorema 3.17 Sean E un espacio vectorial, v1 ,v2 , . . . ,vk ∈ E − {0E }, y supongamos que S = gn(v1 ,v2 , . . . ,vk ). Para extraer de {v1 ,v2 , . . . ,vk } una base de S, se excluyen de {v1 ,v2 , . . . ,vk } aquellos vectores que son combinaciones lineales de sus predecesores.23  Ejemplo 3.60 Encontrar una base y la dimensi´on del subespacio de los polinomios S = gn(2, 1 − x, x + 1, x2 − 1, x2 + 1, x3 − 2). • Queda 2 como vector inicial para la base. • Claramente 1 − x no es m´ultiplo escalar de 2, por tanto no se excluye. • Veamos si 1 + x es combinaci´on lineal de 2 y 1 − x: 1 + x = a(2) + b(1 − x) = 2a + b − bx ⇒ 2a + b = 1 −b = 1; 1Por vacuidad, el primer vector no puede ser combinaci´on lineal de sus predecesores y se incluye siempre como vector inicial para la base.

23

Page (PS/TeX): 54 / 164, COMPOSITE

´ 3.4 SECCION

´ Bases y dimension 165

por tanto, b = −1 y a = 1. As´ı que 1 + x se excluye por ser combinaci´on lineal de sus predecesores. • x2 − 1 no puede ser combinaci´on lineal de 2 y 1 − x, pues toda combinaci´on lineal de estos polinomios tiene grado a lo m´as uno; luego x2 − 1 se queda. • x2 + 1 es combinaci´on lineal de 2, 1 − x y x2 − 1; pues x2 + 1 = a(2) + b(1 − x) + c(x2 − 1) = 2a + b − c − bx + cx2 entra˜na el sistema 2a + b − c = 1 −b = 0 c =1 que tiene soluci´on c = 1, b = 0 y a = 1. Por tanto x2 + 1 se excluye. • Finalmente, toda combinaci´on lineal de los vectores que se han conservado tiene grado a lo m´as 2, por tanto x3 − 2 no puede ser combinaci´on lineal de ellos y entonces se conserva. Luego, la base buscada es B = {2, 1 − x, x2 − 1, x3 − 2} y dim(S) = 4. En el caso particular de que se quiera extraer una base de {v1 , . . . ,vk } para el subespacio S = gn(v1 ,v2 , . . . ,vk ) de Rn , se puede utilizar herramienta matricial. Sea A la matriz que tiene por columnas a los vectores vi y H la forma escalonada reducida de A. Si b ∈ S, entonces b es combinaci´on lineal de los vectores columna de A que corresponden a columnas con pivote en H; pues para los sistemas equivalentes [A |b] ∼ [H |c] estas columnas son precisamente donde hay variables ligadas y en las restantes columnas hay variables libres; a cada una de estas u´ ltimas se le puede asignar cualquier valor, en particular valores nulos a todas. As´ı S est´a generado por los vectores columna de A que corresponden a columnas con pivote en cualquier matriz escalonada equivalente a la matriz A.24 Ahora pensemos en la matriz A1 que se obtiene de la matriz A excluyendo los vectores que no correspondieron a columnas con pivote en la forma escalonada reducida; digamos que A1 tiene por columnas a v1 ,v2 , . . . ,vm . Entonces, toda columna de la forma escalonada reducida de A1 tiene pivote; luego el sistema A1x =0,x ∈ Rm , tiene soluci´on u´ nica, y por tanto las columnas de A1 son L.I. Con lo precedente, hemos hecho plausible la demostraci´on del siguiente teorema, que es un m´etodo para extraer una base de un subespacio generado por vectores de Rn . 1Cfr. teorema 3.10 y la discusi´on que lo precede en la p´agina 150.

24

Page (PS/TeX): 55 / 165, COMPOSITE

166 CAPI´TULO 3

Espacios vectoriales

Teorema 3.18 Sean v1 ,v2 , . . . ,vk ∈ Rn y S = gn(v1 ,v2 , . . . ,vk ). Entonces, para obtener una base de S a partir de los vectores vi , se procede de la manera siguiente: 1. Se forma la matriz A que tiene por columnas los vectores vi y se lleva a forma escalonada. 2. Los vectores columna de A que correspondan a columnas con pivote en esa forma escalonada formar´an una base de S.

 Ejemplo 3.61 Extraer una base y encontrar la dimensi´on del subespacio S generado por los vectores (1, −1, 0, 2, 1), (2, 1, −2, 0, 0), (0, −3, 2, 4, 2), (2, 4, 1, 0, 1), (3, 3, −4, −2, −1), (5, 7, −3, −2, 0). ´ Solucion

Procedamos como establece el teorema 3.18: ⎡ ⎢ ⎢ ⎢ ⎢ ⎣

1 2 0 −1 1 −3 0 −2 2 2 0 4 1 0 2

2 3 4 3 1 −4 0 −2 1 −1

5 7 −3 −2 0





⎢ ⎥ ⎢ ⎥ ⎥ → ⎢ ⎢ ⎥ ⎣ ⎦ ⎡ →

1 2 0 3 0 −2 0 −4 0 −2

1 2 ⎢ 0 1 ⎢ ⎢ 0 0 ⎢ ⎣ 0 0 0 0

0 2 3 5 −3 6 6 12 2 1 −4 −3 4 −4 −8 −12 2 −1 −4 −5 ⎤ 0 2 3 5 −1 2 2 4 ⎥ ⎥ 0 1 0 1 ⎥ ⎥. 0 0 0 0 ⎦ 0 0 0 0

⎤ ⎥ ⎥ ⎥ ⎥ ⎦

La base buscada se forma tomando los vectores columna de la matriz inicial que correspondan a columnas que tengan pivote en la forma escalonada B = {(1, −1, 0, 2, 1), (2, 1, −2, 0, 0), (2, 4, 1, 0, 1)} y dim(S) = 3.



El siguiente teorema nos auxilia para, en el caso de saber la dimensi´on de un espacio, digamos n, concluir que un conjunto de n generadores son L.I., y por ende forman una base, o que n vectores L.I. generan al espacio; y as´ı evitar probar la independencia lineal de los vectores o que generen al espacio. Teorema 3.19 Si dim(E) = n, las siguientes condiciones son equivalentes: 1. v1 ,v2 , . . . ,vn son L.I. 2. v1 ,v2 , . . . ,vn generan a E. 3. {v1 ,v2 , . . . ,vn } es una base de E.

´ DEMOSTRACION

Q Sea B una base de E, entonces B tiene n elementos pues dim (E) = n. Mostremos (1) ⇒ (2) ⇒ (3), (3) ⇒ (1) y tendremos la equivalencia de las tres condiciones. (1) ⇒ (2). Supongamos que w ∈ E , entonces, por el teorema 3.15, los vectores {u1 ,u2 , . . . ,un ,w} son L.D. Entonces existen escalares αi , i = 1, 2, . . . , n, y β ∈ R, no todos cero, tales que α1u1 + α2u2 + · · · + αnun + βw = 0E .

Page (PS/TeX): 56 / 166, COMPOSITE

´ 3.4 SECCION

´ Bases y dimension 167

Si β = 0, entonces alg´un αi debe ser distinto de cero; pero esto es imposible ya que los vectores ui son L.I.; por tanto β = 0. Luego w es combinaci´on lineal de los vectores ui . Dado que w es arbitrario, hemos probado que los vectores ui generan a E. (2) ⇒ (3). Si los vectores ui son L.D., entonces, por el teorema 3.17, podemos reducir este conjunto a uno L.I. que genere a E con m elementos y m < n. Pero esto implicar´ıa que hay una base de E con un n´umero de elementos distinto de n, lo cual es una contradicci´on al teorema 3.16. Por tanto, los vectores ui deben ser L.I. Luego forman una base de E. (3) ⇒ (1). Es clara. Q  Ejemplo 3.62 Sabemos que P2 tiene dimensi´on 3. Si α1 , α2 , α3 ∈ R son tales que   α1 (x − 2) + α2 (3 − x) + α3 x2 − x = 0, entonces 3α2 − 2α1 + (α1 − α2 − α3 ) x + α3 x2 = 0. Por la definici´on de igualdad de polinomios se tiene 3α2 − 2α1 = 0 α1 − α2 − α3 = 0 α3 = 0, que implica α3 = α2 = α1 = 0. Luego los tres polinomios x − 2, 3 − x, x2 − x son L.I. en P2 y por tanto   x − 2, 3 − x, x2 − x es una base de P2 .

´ de un conjunto L.I. a una base Complecion Podemos utilizar el teorema 3.17 para completar un conjunto L.I. a una base B del espacio mediante el siguiente procedimiento: Sea B1 = {v1 ,v2 , . . . ,vk } un conjunto L.I. de un espacio E que tiene dimensi´on finita n. 1. Se forma el conjunto M = {v1 ,v2 , . . . ,vk ,e1 ,e2 , . . . ,en }, donde {e1 ,e2 , . . . ,en } es una base conocida del espacio E. 2. Se extrae de M una base B por medio del procedimiento dado en el teorema 3.17. 3. El conjunto B encontrado en el inciso anterior ser´a una base de E. P Nota 3.12 El procedimiento anterior se justifica porque E = gn(M) y, al aplicar el teorema 3.17 a este conjunto generador, los vectores vi , i = 1, 2, . . . , k, permanecen ya que por hip´otesis son L.I.; luego la base B del espacio E contiene a estos vectores.  Ejemplo 3.63 Completar el conjunto L.I. {2x − 4, x2 + 1} a una base de P3 .

Page (PS/TeX): 57 / 167, COMPOSITE

168 CAPI´TULO 3

Espacios vectoriales

´ Solucion

Utilizamos como base conocida de P3 a {1, x, x2 , x3 } y extraemos de {2x−4, x2 +1, 1, x, x2 , x3 }

una base: • 2x − 4 y x2 + 1 se quedan porque son L.I. • 1 = a(2x − 4) + b(x2 + 1) implica bx2 + 2ax + b − 4a = 1; por tanto, b = 0 2a = 0 b − 4a = 1, sistema que es inconsistente; luego 1 no es combinaci´on lineal de sus predecesores y se queda. • x = a(2x − 4) + b(x2 + 1) + c implica x = bx2 + 2ax + b + c − 4a; por tanto, b = 0 2a = 1 b + c − 4a = 0, sistema consistente con b = 0, a = 1/2 y c = 2; luego x es combinaci´on lineal de sus predecesores y se excluye. • Evidentemente x2 = 0(2x − 4) + 1(x2 + 1) + (−1)1; as´ı que x2 es combinaci´on lineal de sus predecesores y se excluye. • Claramente x3 no es combinaci´on lineal de sus predecesores, as´ı que se incluye. La base buscada es B = {2x − 4, x2 + 1, 1, x3 }.



 Ejemplo 3.64 Completar el conjunto L.I. {(1, 2, 0, 1, 3), (−2, −4, 1, −2, −6)} a una base de R5 . ´ Solucion

Utilizamos la base can´onica de R5 , la adjuntamos a este conjunto M = {(1, 2, 0, 1, 3), (−2, −4, 1, −2, −6), (1, 0, 0, 0, 0), (0, 1, 0, 0, 0) , (0, 0, 1, 0, 0), (0, 0, 0, 1, 0), (0, 0, 0, 0, 1)} ,

y extraemos una base del mismo utilizando el teorema 3.18: ⎡ ⎤ ⎡ 1 −2 1 −2 1 0 0 0 0 ⎢ 0 ⎢ 2 −4 0 1 0 0 0 ⎥ 0 ⎢ ⎥ ⎢ ⎥ ∼ ⎢ 0 ⎢ 0 1 1 0 0 1 0 0 ⎢ ⎥ ⎢ ⎣ 0 ⎣ 1 −2 0 0 0 1 0 ⎦ 0 0 0 3 −6 0 0 0 0 1 ⎡ 1 −2 ⎢ 0 1 ⎢ 0 0 ∼ ⎢ ⎢ ⎣ 0 0 0 0 ⎡ 1 −2 ⎢ 0 1 ⎢ 0 0 ∼ ⎢ ⎢ ⎣ 0 0 0 0

Page (PS/TeX): 58 / 168, COMPOSITE

⎤ 1 0 0 0 0 −2 1 0 0 0 ⎥ ⎥ 0 0 1 0 0 ⎥ ⎥ −1 0 0 1 0 ⎦ −3 0 0 0 1

⎤ 1 0 0 0 0 0 0 1 0 0 ⎥ ⎥ 1 0 0 −1 0 ⎥ ⎥ −2 1 0 0 0 ⎦ 0 1 −3 0 0 ⎤ 1 0 0 0 0 0 0 1 0 0 ⎥ ⎥ 1 0 0 −1 0 ⎥ ⎥. 0 1 0 −2 0 ⎦ 0 0 0 −3 1

´ 3.4 SECCION

´ Bases y dimension 169

La base buscada es {(1, 2, 0, 1, 3), (−2, −4, 1, −2, −6), (1, 0, 0, 0, 0, 0), (0, 1, 0, 0, 0), (0, 0, 0, 1, 0)}. 

3.4.3 Rango de una matriz Recordemos que si A ∈ Mm×n , el subespacio de Rm generado por las columnas de A es el espacio columna de A, y el subespacio de Rn generado por las filas de A es el espacio fila de A y se les denota, respectivamente, por Ec (A) y E f (A) (cfr. definici´on 3.13, p´ag. 146); y que el espacio nulo de una matriz se define como el subespacio de Rn de las soluciones del sistema homog´eneo Ax = 0 (cfr. ejemplo 3.20, p´ag. 141). Definici´on 3.21 Si A ∈ Mm×n se definen: 1. Rango fila de A: Rf (A) = dim(E f (A)). 2. Rango columna de A: Rc (A) = dim(Ec (A)). 3. Nulidad de A, Nul(A), como la dimensi´on del espacio nulo de A. Supongamos que H es la forma escalonada reducida de una matriz A ∈ Mm×n . Como vimos anteriormente, las columnas de A que corresponden a columnas con pivote de H generan al espacio columna y son linealmente independientes; adem´as, hay tantas columnas en H con pivote como filas no nulas en H. As´ı que el rango columna de A es el n´umero de filas no nulas de cualquier forma escalonada equivalente a la matriz A. Por otra parte, las filas de H se obtienen a trav´es de sucesiones de operaciones de rengl´on iniciando con filas de la matriz A; luego toda fila de H es elemento del espacio fila de A. Adem´as, las filas no nulas de H son linealmente independientes; pues en caso contrario, si una fila no nula de H es combinaci´on lineal de otras filas, se pueden aplicar operaciones de rengl´on para transformar esta fila en una fila nula; lo cual no es posible, pues H es la forma escalonada reducida de A (recuerde que la forma escalonada reducida de una matriz es u´ nica). Entonces tenemos que las filas no nulas de cualquier matriz en forma escalonada equivalente a la matriz A forman una base para el espacio fila; luego el rango fila de A es el n´umero de filas no nulas de cualquier forma escalonada equivalente a la matriz A. Finalmente, si en H existen vectores columna sin pivote, para fijar ideas pensemos que son 2 y que se encuentran en las dos u´ ltimas columnas, entonces hay dos variables libres r y s, y las soluciones del sistema homog´eneo son de la forma ⎡ ⎡ ⎤ ⎤ ⎤ ⎡ a1 b1 a1 r + b1 s ⎢ a2 ⎥ ⎢ b2 ⎥ ⎢ a2 r + b2 s ⎥ ⎢ ⎢ ⎥ ⎥ ⎥ ⎢ ⎢ .. ⎥ ⎢ .. ⎥ ⎥ ⎢ .. ⎢ ⎢ ⎥ ⎥ ⎥ ⎢ . ⎥ = r⎢ . ⎥+s⎢ . ⎥. ⎢ ⎢ an−2 ⎥ ⎢ bn−2 ⎥ ⎢ an−2 r + bn−2 s ⎥ ⎢ ⎢ ⎥ ⎥ ⎥ ⎢ ⎣ 0 ⎦ ⎣ 1 ⎦ ⎦ ⎣ s r 1 0 As´ı, toda soluci´on es combinaci´on lineal de los vectoresu1 = (a1 , . . . , an−2 , 0, 1) yu2 = (b1 , . . . , bn−2 , 1, 0). Si estos u´ ltimos vectores fueran L.D., entonces el sistema tendr´ıa s´olo una variable libre, lo cual es imposible. Con esto hemos hecho plausible la demostraci´on del siguiente teorema.

Page (PS/TeX): 59 / 169, COMPOSITE

170 CAPI´TULO 3

Espacios vectoriales

Teorema 3.20 Sean A ∈ Mm×n y H una forma escalonada equivalente, entonces: 1. Una base del espacio fila de A la forman las filas no nulas de H. 2. Una base del espacio columna de A la forman las columnas de A que corresponden a columnas con pivote de H. 3. El rango fila de A es el n´umero de filas no nulas de H. 4. El rango columna de A es el n´umero de columnas con pivote de H. 5. Rf (A) = Rc (A). 6. La nulidad de A es el n´umero de columnas sin pivote de H.

 Ejemplo 3.65 Hallar: 1. Una base de E f (A) y Rf (A). 2. Una base de Ec (A) y Rc (A). 3. Una base de espacio nulo de A y Nul(A). Si A es la matriz ⎡ ⎢ ⎢ ⎢ ⎢ ⎣

´ Solucion

1 1 2 3 1

2 3 5 6 5

⎤ 0 −1 1 1 1 −1 ⎥ ⎥ 1 0 0 ⎥ ⎥ . 0 0 −6 ⎦ 3 5 −5

Llevemos la matriz a forma escalonada. ⎡ ⎢ ⎢ A→⎢ ⎢ ⎣

1 0 0 0 0

2 1 1 0 3

⎤ ⎡ 1 2 0 −1 1 ⎢ 0 1 1 2 −2 ⎥ ⎥ ⎢ ⎢ 1 2 −2 ⎥ ⎥→⎢ 0 0 ⎣ 0 0 ⎦ 0 3 −9 0 0 3 6 −6

⎤ 0 −1 1 1 2 −2 ⎥ ⎥ 0 1 −3 ⎥ ⎥. 0 0 0 ⎦ 0 0 0

Entonces: 1. Las filas distintas de cero de la forma escalonada constituyen una base para el espacio fila, luego B = {(1, 2, 0, −1, 1), (0, 1, 1, 2, −2), (0, 0, 0, 1, −3)}, y Rf (A) = 3. 2. Las columnas de A correspondientes a columnas con pivote en la forma escalonada forman una base del espacio columna, as´ı B = {(1, 1, 2, 3, 1), (2, 3, 5, 6, 5), (1 − 1, 1, 0, 0, 5)}, y Rc (A) = 3.

Page (PS/TeX): 60 / 170, COMPOSITE

´ 3.4 SECCION

´ Bases y dimension 171

3. La soluci´on al sistema homog´eneo es: ⎡ ⎢ ⎢ ⎢ ⎢ ⎣

x1 x2 x3 x4 x5





⎥ ⎢ ⎥ ⎢ ⎥=⎢ ⎥ ⎢ ⎦ ⎣

2s + 10r −s − 4r s 3r r





⎢ ⎥ ⎢ ⎥ ⎥ = r⎢ ⎢ ⎥ ⎣ ⎦

10 −4 0 3 1





⎢ ⎥ ⎢ ⎥ ⎥+s⎢ ⎢ ⎥ ⎣ ⎦

2 −1 1 0 0

⎤ ⎥ ⎥ ⎥. ⎥ ⎦

Entonces, una base para el espacio nulo es B = {(10, −4, 0, 3, 1), (2, −1, 1, 0, 0)}, y Nul(A) = 2.



Definici´on 3.22 Si A ∈ Mm×n , el rango de A se define como Rang(A) = Rf (A) = Rc (A).

 Ejemplo 3.66 Si A es la matriz del ejemplo precedente, Rang(A) = 3. Los dos siguientes teoremas son conclusiones inmediatas de lo precedente y su demostraci´on se deja como ejercicio al lector. Teorema 3.21 Si A ∈ Mm×n , entonces Rang(A) + Nul(A) = n. Equivalentemente para el sistema Ax = 0: 1. Rang(A) = n´umero de variables ligadas. 2. Nul(A) = n´umero de variables libres. 3. Rang(A) + Nul(A) = n.

Teorema 3.22 Si A ∈ Mn×n , A es invertible si y s´olo si Rang(A) = n.

Para finalizar este apartado enunciamos y probamos el siguiente teorema que ser´a u´ til m´as adelante.

Teorema 3.23 Si A ∈ Mm×n , entonces la matriz sim´etrica At A y la matriz A tienen el mismo rango; esto es, Rang(At A) = Rang(A).

´ DEMOSTRACION

Q Mostremos que los sistemas Ax = 0 y (At A)x = 0 tienen las mismas soluciones.

Page (PS/TeX): 61 / 171, COMPOSITE

172 CAPI´TULO 3

Espacios vectoriales

1. Si u ∈ Rn es soluci´on de Ax = 0, entonces Au = 0; luego At (Au) = 0; por tanto, (At A)u = 0. 2. Supongamos ahora que v ∈ Rn es soluci´on de (At A)x = 0. Entonces (At A)v = 0; por tanto, (v)t (At A)v = 0; esto es, (v t At )Av = 0; es decir, (Av)t (Av) = 0; por ende, Av2 = 0, por lo que Av = 0. Luego, de 1 y 2, los sistemas Ax = 0 y (At A)x = 0 tienen las mismas soluciones; por tanto, Nul(A) = Nul(At A), y dado que A tiene tama˜no m × n y At A tiene tama˜no n × n, del teorema 3.21 inciso 3 se desprende que Rang(A) = Rang(At A).  Ejemplo 3.67 Sea



1 A=⎣ 2 −2 Llevemos A a forma escalonada ⎡

1 −1 2 A = ⎣ 2 −1 0 −2 1 1 ⎡ 1 −1 2 1 −4 ∼⎣ 0 0 0 1

Page (PS/TeX): 62 / 172, COMPOSITE

Q

⎤ −1 2 1 −1 0 1 ⎦ . 1 1 0

⎤ ⎡ 1 1 1 ⎦∼⎣ 0 0 0 ⎤ 1 −1 ⎦ . 1

⎤ −1 2 1 1 −4 −1 ⎦ −1 5 2

´ 3.5 SECCION

´ Espacios vectoriales sobre los numeros complejos 173

Entonces Rang(A) = 3. Por otro lado, ⎤ ⎤ 1 2 −2 ⎡ 1 −1 2 1 ⎥ ⎢ −1 −1 1 ⎥ ⎣ 2 −1 0 1 ⎦ At A = ⎢ ⎣ 2 0 1 ⎦ −2 1 1 0 1 1 0 ⎤ ⎡ 9 −5 0 3 ⎢ −5 3 −1 −2 ⎥ ⎥. =⎢ ⎣ 0 −1 5 2 ⎦ 3 −2 2 2 ⎡

Llevemos esta u´ ltima matriz a forma escalonada ⎤ ⎡ ⎡ ⎤ ⎡ 1 9 −5 0 3 9 −5 0 3 ⎥ ⎢ −5 ⎢ −5 ⎥ ⎢ −5 3 −1 −2 3 −1 −2 ⎥∼⎢ ⎥ ∼ ⎢ ⎢ ⎣ 0 −1 ⎣ 0 −1 5 2 ⎦ ⎣ 0 5 2 ⎦ 9 1 −1 3 2 3 −2 2 2 ⎡ ∼



1 ⎢ 0 ⎢ ⎣ 0 0

⎤ ⎡ 1 −1 3 2 ⎢ 0 1 −7 −4 ⎥ ⎥∼⎢ 0 −2 −2 ⎦ ⎣ 0 0 0 1 1

3 −1 5 0

⎤ 2 −2 ⎥ ⎥ 2 ⎦ 3

⎤ −1 3 2 1 −7 −4 ⎥ ⎥ −1 5 2 ⎦ 4 −27 −15

⎤ ⎡ 1 −1 3 2 1 ⎢ 0 −2 ⎥ ⎢ 0 14 8 ⎢ ⎥∼⎢ ⎣ 0 −1 5 2 ⎦ ⎣ 0 0 0 4 −27 −15 ⎡

−1 3 −1 −5

−1 1 0 0

3 −7 1 0

⎤ 2 −4 ⎥ ⎥. 1 ⎦ 0

De donde Rang (At A) = 3.

´ 3.5 Espacios vectoriales sobre los numeros complejos Es posible considerar espacios vectoriales sobre el campo de los n´umeros complejos.25 Esto significa un conjunto E en el que se ha definido una operaci´on suma entre sus elementos (vectores) y una operaci´on producto de un escalar por un vector, siendo los escalares n´umeros complejos, que cumplen los diez axiomas de espacio vectorial de la definici´on 3.6 (cfr. p´ag. 131).26 De ser as´ı, se tiene un ´ espacio vectorial sobre el campo de los numeros complejos o simplemente un espacio complejo. Todo lo desarrollado en este libro relativo a espacios vectoriales reales (los escalares subyacentes son

1Recomendamos al lector consultar B.1 del ap´endice B y los apartados 1.1.5, 1.2.8, 2.1.5 y 2.2.5. 1Obviamente reemplazando el s´ımbolo R por el s´ımbolo C donde corresponda.

25 26

Page (PS/TeX): 63 / 173, COMPOSITE

174 CAPI´TULO 3

Espacios vectoriales

n´umeros reales) tiene su s´ımil para espacios sobre el campo de los n´umeros complejos, y toda la teor´ıa sigue siendo v´alida para este tipo de espacios pues depende, en cuanto a la multiplicaci´on de vectores por escalares, u´ nicamente de las propiedades de campo de los n´umeros reales, que son las mismas que las de los n´umeros complejos, y no de propiedades particulares de los n´umeros reales como el orden (propiedad totalmente ausente en C). Es decir, los conceptos de subespacio vectorial, combinaciones lineales, subespacios generados, independencia lineal, bases, dimensi´on, etc., siguen siendo los mismos; excepto que el conjunto de escalares es el campo C.  Ejemplo 3.68 Consideremos Mm×n (C) el conjunto de matrices de tama˜no m × n cuyas componentes son n´umeros complejos con la suma usual de matrices (sumando en forma compleja componente a componente) y multiplicaci´on de un escalar por una matriz; pero esta vez los escalares son tambi´en n´umeros complejos. Es f´acil verificar que Mm×n (C) es un espacio vectorial sobre C y que dim(Mm×n (C)) = mn.  Ejemplo 3.69 Otro ejemplo es Cn , el conjunto de n-adas ordenadas (z1 , . . . , zn ) donde zi ∈ C para cada i = 1, . . . , n; con las operaciones (z1 , z2 , . . . , zn ) + (w1 , w2 , . . . , wn ) = (z1 + w1 , z2 + w2 , . . . , zn + wn ), α(z1 , z2 , . . . , zn ) = (αz1 , αz2 , . . . , αzn ), donde z j + w j y αz j son las operaciones de suma y multiplicaci´on de n´umeros complejos, es f´acil probar con estas operaciones que Cn es un espacio vectorial sobre el campo C, y que dim(Cn ) = n (una base para este espacio es tambi´en la base can´onica de Rn ).  Ejemplo 3.70 Sea el conjunto E = Cn considerado en el ejemplo precedente con la suma entre sus elementos ah´ı definida, pero con el producto de un escalar por un vector restringido a los n´umeros reales. Es claro que E es un espacio vectorial real. Sean los vectores j

e j = (0, . . . , 0, 1, 0, . . . , 0) para j = 1, . . . , n, y    n j

f j = (0, . . . , 0, i, 0, . . . , 0) para j = 1, . . . , n.    n

Claramente los 2n vectores e j , f j , j = 1, . . . , n , son L.I., y si w = (a1 + b1 i, . . . , an + bn i), entonces w =

n

n

j=1

j=1

∑ a je j + ∑ b j f j ;

de donde se desprende que dim(E) = 2n.

Page (PS/TeX): 64 / 174, COMPOSITE

´ 3.6 SECCION

Ejercicios resueltos y ejercicios propuestos 175

P Nota 3.13 Los espacios sobre el campo de los n´umeros complejos son de gran importancia en a´ lgebra lineal y est´an involucrados directa o indirectamente en una gran variedad de aplicaciones de esta rama de las matem´aticas. Se pudo considerar este tipo de espacios desde el inicio, pero por cuestiones que tienen que ver con aspectos psicol´ogicos, debido a la poca familiaridad que por lo general tienen los lectores con el campo C, no se hizo y se han incluido secciones donde se ha intentado introducir estos conceptos gradualmente con el fin de que el lector se vaya adaptando de esta misma forma a espacios sobre C. Es hasta el final del cap´ıtulo 5 que se ver´a la importancia del uso de escalares complejos y de espacios sobre este campo. Por esta raz´on, de aqu´ı en adelante supondremos que todos los espacios vectoriales con los que se trabaje ser´an espacios vectoriales reales, a menos que se indique lo contrario; en cuyo caso se har´a notar que se tiene un espacio complejo.

3.6 Ejercicios resueltos y ejercicios propuestos 3.6.1 Ejercicios resueltos Geometr´ıa de los espacios Rn En los ejercicios 1 a 8, u = (−1, 3, 4, −2), v = (−2, 5, 3, 2) y w = (1, 0, 4, −2). 11 Calcular 3u − 4v. ´ Solucion

3u − 4v = 3(−1, 3, 4, −2) − 4(−2, 5, 3, 2) = (−3, 9, 12, −6) − (−8, 20, 12, 8) = (5, −11, 0, −14) . 

12 Encontrar u + 12  w. ´ Solucion

u + 12 w = = =

(−1, 3, 4, −2) + 12 (1, 0, 4, −2)   (−1, 3, 4, −2) + 12 , 0, 2, −1   1 − 2 , 3, 6, −3 . 

13 Hallar v. ´ Solucion

v =

 √ (−2)2 + (5)2 + (3)2 + (2)2 = 42.

14 Calcular d(u, w). ´ Solucion

Page (PS/TeX): 65 / 175, COMPOSITE

d(u,w) = u − w = (−1, 3, 4, −2) − (1, 0, 4, −2) = (−2, 3, 0, 0) √ = 13. 



176 CAPI´TULO 3

Espacios vectoriales

15 Hallar 4u − 2v −  w.

4u − 2v − w = = = =

´ Solucion

4(−1, 3, 4, −2) − 2(−2, 5, 3, 2) − (1, 0, 4, −2) (−4, 12, 16, −8) − (−4, 10, 6, 4) − (1, 0, 4, −2) (0, 2, 10, −12) − (1, 0, 4, −2) (−1, 2, 6, −10) . 

16 Encontrar un vector unitario (con norma 1) paralelo y con la misma direcci´on que el vector v.

Por el ejercicio 3, v = est´a dado por ´ Solucion

a =

1 v

%

√ 42; as´ı que un vector unitario paralelo en la misma direcci´on

=

√1 (−2, 5, 3, 2) 42

√ √ √ √ & 1 5 1 1 = − 21 42, 42 42, 14 42, 21 42 .



17 Calcular u · (v +  w).

u · (v + w) = (−1, 3, 4, −2) · ((−2, 5, 3, 2) + (1, 0, 4, −2)) = (−1, 3, 4, −2) · (−1, 5, 7, 0) = 44. 

´ Solucion

18 Encontrar el valor de b tal que (−1, b, 1, −2) ⊥ u; es decir, para que estos vectores sean ortogonales. ´ Solucion

Para que (−1, b, 1, −2) ⊥ u es necesario y suficiente que (−1, b, 1, −2) ·u = 0. Entonces, (−1, b, 1, −2) · (−1, 3, 4, −2) = 0 ⇒ 9 + 3b = 0 ⇒ b = −3. 

19 Calcular el a´ rea del paralelogramo generado por los vectores (3, 2) y (8, 0) utilizando la interpretaci´on

geom´etrica del determinante del apartado 3.1.2 (cfr. p´ag. 117). Comprobar que el resultado es correcto mediante la f´ormula usual para el a´ rea de un paralelogramo.  ´ Solucion

Sea A =

3 8 2 0

 , entonces el a´ rea a del paralelogramo es a = |det(A)| = 16 u2 .

El a´ rea de un paralelogramo es el producto de la base b por la altura h; en este caso b = 8 y h = 2; por tanto, a = bh = 16u2 .  En los ejercicios 10 y 11, los vectores de la base can´onica de R3 e1 = (1, 0, 0), e2 = (0, 1, 0) y e3 = (0, 0, 1) ser´an representados de la manera tradicional por 'ı, y ' k, respectivamente, y u = (a1 , a2 , a3 ), v = (b1 , b2 , b3 ) son cualquier par de vectores no paralelos de R3 . 10 Encontrar el conjunto de vectores  w = (c1 , c2 , c3 ) ∈ R3 que son perpendiculares tanto a u como a v.

Si a1 = 0 y b1 = 0, entonces el conjunto buscado consiste en los vectores de la forma α'ı. Se puede suponer entonces, sin perder generalidad, que a1 = 0. Se debe tener entonces u · w = 0 =v · w; esto es ´ Solucion

Page (PS/TeX): 66 / 176, COMPOSITE

´ 3.6 SECCION

Ejercicios resueltos y ejercicios propuestos 177

a1 c1 + a2 c2 + a3 c3 = 0, b1 c1 + b2 c2 + b3 c3 = 0. Y ya que 

a1 b1

a2 b2

a3 b3



 ∼

a1 0

a2 a1 b2 − a2 b1

a3 b3 a1 − a3 b1

 ,

y a1 b2 − a2 b1 = 0, porque u y v no son paralelos, se tiene que el conjunto de vectores ortogonales a u y v est´a dado por: % & ⎤ ⎤ ⎡ ⎡ 1 b3 c1 − a1 a2 aa3 bb1 −a r + a r 3 1 1 2 −a2 b1 ⎥ ⎢ ⎢ ⎥ ⎢ c2 ⎥ = ⎢ ⎥ , r ∈ R.  a3 b1 −a1 b3 r ⎦ ⎣ ⎣ ⎦ a1 b2 −a2 b1 c3 r 11 (Producto cruz de vectores o producto vectorial en R3 ). El´ıjase r = a1 b2 − a2 b1 en el inciso prece-

dente para calcular el vector resultante p que es ortogonal a u y v. Encontrar una f´ormula que involucre al determinante de una matriz adecuada para calcular este vector. Al vector p se le llama producto cruz o producto vectorial de los vectores u y v y se acostumbra emplear la notaci´on p = u ×v. u ×v u v

´ Solucion

En este caso   a c3 = a1 b2 − a2 b1 =  1 b1 c2 =

a2 b2

  , 

a3 b1 − a1 b3 r a1 b2 − a2 b1

= a3 b1 − a1 b3    a3 a1  ,  = b3 b1  y c1 = − =− =

1 a1

  a3 b1 − a1 b3 a2 r + a3 r a1 b2 − a2 b1

1 (a2 (a3 b1 − a1 b3 ) + a3 (a1 b2 − a2 b1 )) a1

1 (a2 a1 b3 − a3 a1 b2 ) a1

= a2 b3 − a3 b2    a2 a3  .  = b2 b3 

Page (PS/TeX): 67 / 177, COMPOSITE

178 CAPI´TULO 3

Espacios vectoriales

  p =    =     =  

Luego,

a2 b2 a2 b2 'ı a1 b1

  a3   a3 'ı + b3   b3   a3   a1 'ı − b3   b1  ' k  a2 a3  , b2 b3 

   a a1  +  1  b1 b1    a a3  +  1  b3 b1

 a2  ' k b2   a2  ' k b2 

al desarrollar el u´ ltimo determinante por cofactores en la primera fila.  12 Encontrar el producto vectorial de u = (−1, 2, −1) y v = (2, −1, 3).

u ×v =

´ Solucion

= = =

   'ı ' k    −1 2 −1     2 −1 3          2 −1   −1 −1    +  −1 2  ' 'ı −    −1 3   2 3   2 −1  k 5'ı + − 3' k (5, 1, −3). 

13 Calcular la magnitud del producto vectorial de cualquier par de vectores u = (a1 , a2 , a3 ) yv = (b1 , b2 , b3 )

de R3 en t´erminos del a´ ngulo θ entre ellos, e interpretar geom´etricamente el significado de esta magnitud. ´ Solucion En el apartado 3.1.2 (cfr. p´ag. 117) se dedujo que el a´ rea del paralelogramo generado por estos dos vectores (cfr. figura 3-9) est´a dada por

S = u v sen θ , donde θ es el a´ ngulo entre ellos; tambi´en se concluy´o ah´ı que S2 = u2 v2 − (u ·v)2 = (a21 + a22 + a23 )(b21 + b22 + b23 ) − (a1 b1 + a2 + b2 + a3 b3 )2 . Por otra parte,   a u ×v =  2 b2 2

2  a3   a1 + b3   b1

2  a3   a1 + b3   b1

2 a2  b2 

= (a2 b3 − a3 b2 )2 + (a3 b1 − a1 b3 )2 + (a1 b2 − a2 b1 )2 = a22 b23 − 2a2 b3 a3 b2 + a23 b22 + a23 b21 − 2a3 b1 a1 b3 + a21 b23 + a21 b22 − 2a1 b2 a2 b1 + a22 b21 = a22 b23 + a23 b22 + a23 b21 + a21 b23 + a21 b22 + a22 b21 + a21 b21 + a22 b22 + a23 b23 − a21 b21 − a22 b22 − a23 b23 −2a2 b3 a3 b2 − 2a3 b1 a1 b3 − 2a1 b2 a2 b1   = (a21 + a22 + a23 )(b21 + b22 + b23 ) − (a1 b1 + a2 b2 )2 + 2(a1 b1 a2 b2 )a3 b3 + a23 b23 = (a21 + a22 + a23 )(b21 + b22 + b23 ) − (a1 b1 + a2 b2 + a3 b3 )2 = S2 .

Page (PS/TeX): 68 / 178, COMPOSITE

´ 3.6 SECCION

Ejercicios resueltos y ejercicios propuestos 179

De donde S = u ×v y u ×v = u v |sen θ| .



14 Demostrar las propiedades del espacio vectorial de Rn (cfr. p´ag. 122). ´ DEMOSTRACION

Q Sean u = (x1 , . . . , xn ), v = (y1 , . . . , yn ), w = (z1 , . . . , zn ) vectores arbitrarios de Rn y λ, β cualquier par de n´umeros reales. Entonces: 1. Dado que la suma de n´umeros reales es tambi´en un n´umero real, u +v = (x1 + y1 , . . . , xn + yn ) ∈ Rn . 2. Puesto que la suma de n´umeros reales es asociativa, u + (v + w) = (x1 , . . . , xn ) + ((y1 , . . . , yn ) + (z1 , . . . , zn )) = (x1 , . . . , xn ) + (y1 + z1 , . . . , yn + zn ) = (x1 + (y1 + z1 ), . . . , xn + (yn + zn )) = ((x1 + y1 ) + z1 , . . . , (xn + yn ) + zn ) = (x1 + y1 , . . . , xn + yn ) + (z1 , . . . , zn ) = (u +v) + w. 3. Ya que la suma de n´umeros reales es una operaci´on conmutativa, u +v = (x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn ) = (y1 + x1 , . . . , yn + xn ) = (y1 , . . . , yn ) + (x1 , . . . , xn ) = v +u. 4. Como el neutro aditivo de R es 0, se tiene u +0Rn = (x1 , . . . , xn ) + (0, . . . , 0)    n

= (x1 + 0, . . . , xn + 0) = (x1 , . . . , xn ) = u. 5. Si x es un n´umero real, existe su inverso aditivo, −x, que satisface x + (−x) = 0; luego, si −u = (−x1 , . . . , −xn ), se tiene

Page (PS/TeX): 69 / 179, COMPOSITE

180 CAPI´TULO 3

Espacios vectoriales

u + (−u) = (x1 , . . . , xn ) + (−x1 , . . . , −xn ) = (x1 + (−x1 ), . . . , (xn + (−xn )) = (0, . . . , 0)    n

= 0Rn . 6. Ya que el producto de n´umeros reales es tambi´en un n´umero real, λu = λ(x1 , . . . , xn ) = (λx1 , . . . , λxn ) ∈ Rn . 7. Puesto que el producto de n´umeros reales es asociativo, λ(βu) = λ(β(x1 , . . . , xn )) = λ(βx1 , . . . , βxn ) = (λ(βx1 ), . . . , λ(βxn )) = ((λβ)x1 , . . . , (λβ)xn ) = (λβ)(x1 , . . . , xn ) = (λβ)u. 8. Dado que el producto se distribuye con respecto a la suma en los n´umeros reales, (λ + β)u = ((λ + β)x1 , . . . , (λ + β)xn ) = (λx1 + βx1 , . . . , λxn + βxn ) = (λx1 , . . . , λxn ) + (βx1 , . . . , βxn ) = λ(x1 , . . . , xn ) + β(x1 , . . . , xn ) = λu + βu. 9. Como el producto de n´umeros reales se distribuye con respecto a la suma, se tiene λ(u +v) = λ((x1 , . . . , xn ) + (y1 , . . . , yn )) = λ(x1 + y1 , . . . , xn + yn ) = (λ(x1 + y1 ), . . . , λ(xn + yn )) = (λx1 + λy1 , . . . , λxn + λyn ) = (λx1 , . . . , λxn ) + (λy1 , . . . , λyn ) = λ(x1 , . . . , xn ) + β(y1 , . . . , yn ) = λu + λv. 10. Puesto que 1x = x ∀x ∈ R, 1u = = = =

1(x1 , . . . , xn ) (1x1 , . . . , 1xn ) (x1 , . . . , xn ) u. Q

15 Probar las propiedades 1 (simetr´ıa) y 2 (homogeneidad) del producto punto (cfr. p´ag. 123).

Page (PS/TeX): 70 / 180, COMPOSITE

´ 3.6 SECCION

´ DEMOSTRACION

Ejercicios resueltos y ejercicios propuestos 181

Q Sea u = (x1 , . . . , xn ), v = (y1 , . . . , yn ) cualquier par de vectores en Rn y λ ∈ R. Entonces: 1. (Simetr´ıa). Dado que el producto de n´umeros reales es conmutativo, se tiene u ·v = (x1 , . . . , xn ) · (y1 , . . . , yn ) = =

n

∑ xi yi

i=1 n

∑ yi xi

i=1

= (y1 , . . . , yn ) · (x1 , . . . , xn ) = v ·u. 2. (Homogeneidad). Puesto que el producto de n´umeros reales es asociativo y distributivo, u · (λv) = (x1 , . . . , xn ) · (λ(y1 , . . . , yn )) = (x1 , . . . , xn ) · (λy1 , . . . , λyn ) = =

n

∑ xi (λyi )

i=1 n

∑ λ(xi yi )

i=1 n

= λ ∑ xi yi i=1

= λ(u ·v).

Q

16 Hallar el a´ ngulo entre u = (−1, 3, 4, −2) y  w = (1, 0, 4, −2).

 u ·v θ = arc cos u v   (−1, 3, 4, −2) · (1, 0, 4, −2) = arc cos (−1, 3, 4, −2) (1, 0, 4, −2)   19 = arc cos √ √ 30 21 

´ Solucion

≈ 0.71212 ≈ 40. 801◦ .

 2

2

2

17 Demostrar el rec´ıproco del teorema de Pit´agoras, es decir, siu,v ∈ Rn y u +v = u +v , entonces

u y v son ortogonales. ´ DEMOSTRACION

Q

u2 + v2 = = = =

u +v2 (u +v) · (u +v) (u +v) ·u + (u +v) ·v u ·u +v ·u +u ·v +v ·v

= u2 + 2(u ·v) + v2 ⇒ 2(u ·v) = 0 ⇒ u ·v = 0. Q

Page (PS/TeX): 71 / 181, COMPOSITE

182 CAPI´TULO 3

Espacios vectoriales

18 Sean ui , i = 1, . . . , k, vectores de Rn que son ortogonales entre s´ı; es decir, ui ·u j = 0 si i = j.

(a) Demostrar por inducci´on la generalizaci´on del teorema de Pit´agoras; esto es, u1 +u2 + · · · +uk 2 = u1 2 + u2 2 + · · · + uk 2 . (b) Si adem´as los vectores ui no son nulos, probar, utilizando el primer inciso, que los vectores ui son L.I. ´ DEMOSTRACION

Q (a) El resultado claramente es v´alido para k = 1. Suponga que la afirmaci´on es cierta para k − 1 vectores. Puesto que los vectores son ortogonales entre s´ı, se tiene 

k−1

∑ ui

 ·uk =

i=1

k−1

∑ (ui ·uk ) = 0;

i=1

ui y uk son ortogonales, as´ı que, por el teorema de Pit´agoras (teorema luego los vectores ∑k−1 i=1  3.2, p´ag. 126), (u1 + · · · +uk−1 ) +uk 2 = u1 + · · · +uk−1 2 + uk 2 y por hip´otesis de inducci´on u1 + · · · +uk−1 2 = u1 2 + · · · + uk−1 2 ; por lo que u1 + · · · +uk−1 +uk 2 = u1 + · · · +uk−1 2 + uk 2 = u1 2 + · · · + uk−1 2 + uk 2 . (b) Sean αi , i = 1, . . . , k, escalares tales que α1u1 + α2u2 + · · · + αkuk = 0Rn . Puesto que (αiui ) · (α ju j ) = αi α j (ui ·u j ) = αi α j · 0 = 0 si i = j, se sigue que los vectores αiui son ortogonales entre s´ı. Por el inciso precedente, se tiene 0 = α1u1 + α2u2 + · · · + αkuk 2 = α12 u1 2 + α22 u2 2 + · · · + αk2 uk 2 ; por tanto, αi2 ui 2 = 0

para todo i.

Ya que los vectores ui no son nulos, se deduce que αi = 0 para todo i = 1, . . . , k, y por ende los vectores ui son L.I. Q 19 Probar la propiedad 4 (desigualdad triangular) del valor absoluto de la p´agina 127:

|x + y| ≤ |x| + |y|

Page (PS/TeX): 72 / 182, COMPOSITE

∀x, y ∈ R.

´ 3.6 SECCION

´ DEMOSTRACION

Ejercicios resueltos y ejercicios propuestos 183

Q Sean x, y ∈ R. Dado que a ≤ |a| para todo n´umero real a, se tiene (x + y)2 = x2 + 2xy + y2 ≤ |x|2 + 2|x||y| + |y|2 = (|x| + |y|)2 , de donde  y puesto que |a| =



(x + y)2 ≤

 (|x| + |y|)2 ;

a2 , la anterior desigualdad implica |x + y| ≤ |x| + |y|.

Q

20 Encontrar la ecuaci´on de un plano que sea perpendicular al plano 3x − 2y + 4z = 12 y pase por el punto

(−1, 2, 1). Si y = 0 y z = 0 en la ecuaci´on del plano dado, entonces x = 4; as´ı que el punto (4, 0, 0) pertenece a este plano. Si x = 0 y y = 0 en la ecuaci´on del plano dado, entonces z = 3; por tanto, (0, 0, 3) pertenece a este plano. As´ı que el vector (4, 0, −3) es un vector perpendicular al plano que se est´a buscando. Entonces ´ Solucion

4(x + 1) + 0(y − 2) − 3(z − 1) = 0 o, equivalentemente, 4x − 3z = −7 resuelve este problema.



Espacios vectoriales 21 Probar que Mm×n con las operaciones usuales de suma de matrices y multiplicaci´on de un escalar por

una matriz es un espacio vectorial. ´ DEMOSTRACION

Q Sean A = [ai j ], B = [bi j ] y C = [ci j ] matrices arbitrarias de tama˜no m × n; y α, β ∈ R cualquier par de n´umeros. Entonces: 1. Puesto que la suma de n´umeros reales da como resultado un n´umero real, se tiene ai j + bi j ∈ R para todo i = 1, . . . , m y para todo j = 1, . . . , n; por tanto, A + B = [ai j + bi j ] ∈ Mm×n . 2. Dado que la suma de n´umeros reales es asociativa, (ai j + bi j ) + ci j = ai j + (bi j + ci j ) para todo i = 1, . . . , m y para todo j = 1, . . . , n; por tanto, (A + B) +C = A + (B +C).

Page (PS/TeX): 73 / 183, COMPOSITE

184 CAPI´TULO 3

Espacios vectoriales

3. Ya que la suma de n´umeros reales es conmutativa, ai j + bi j = bi j + ai j para todo i = 1, . . . , m y para todo j = 1, . . . , n; por ende, A + B = B + A. 4. Como x + 0 = x

∀x ∈ R, ai j + 0 = ai j , para todo i = 1, . . . , m y para todo j = 1, . . . , n; luego A + O = A.

5. Puesto que para cada x ∈ R existe −x ∈ R tal que x + (−x) = 0, se tiene que si −A = [−ai j ], entonces A + (−A) = O. 6. La multiplicaci´on de n´umeros reales da como resultado un n´umero real; por tanto, αai j ∈ R para todo i = 1, . . . , m y para todo j = 1, . . . , n; luego αA = [αai j ] ∈ Mm×n . 7. La multiplicaci´on de n´umeros reales es asociativa; por tanto, (αβ)A = [(αβ)ai j ] = [α(βai j )] = α[βai j ] = α(βA). 8. La multiplicaci´on de n´umeros reales se distribuye con respecto a la suma, entonces, α(A + B) = α([ai j ] + [bi j ]) = α[ai j + bi j ] = [α(ai j + bi j )] = [αai j + αbi j ] = [αai j ] + [αbi j ] = α[ai j ] + α[bi j ] = αA + αB. 9. Puesto que la multiplicaci´on de n´umeros reales se distribuye con respecto a la suma, (α + β)A = (α + β)[ai j ] = [(α + β)ai j ] = [αai j + βai j ] = [αai j ] + [βai j ] = α[ai j ] + β[ai j ] = αA + βA.

Page (PS/TeX): 74 / 184, COMPOSITE

´ 3.6 SECCION

Ejercicios resueltos y ejercicios propuestos 185

10. Ya que 1x = x para todo x ∈ R, se tiene 1A = 1[ai j ] = [1ai j ] = [ai j ] = A.

Q

22 Sea E el conjunto de matrices 3 × 3 con la operaci´on usual de multiplicaci´on de un escalar por una

matriz pero con la suma definida en la forma A ⊕ B = O, donde O es la matriz cero 3 × 3. Determinar si E es un espacio vectorial con estas operaciones. En el caso de que E no sea un espacio vectorial indicar los axiomas que no cumplen. Sean A, B,C ∈ E y α, β ∈ R. (1) Claramente la suma ⊕ es cerrada. (2) A⊕(B⊕C) = A⊕O = O = O +C = (A ⊕ B) ⊕C. (3) A ⊕ B = O = B ⊕ A. (4) Si A es la matriz 3 × 3 con a11 = 1 y las dem´as componentes iguales a cero, entonces A ⊕ B = O = A ∀B ∈ E, luego E no tiene neutro aditivo. (5) Por el inciso anterior, no tiene sentido el concepto de inverso aditivo. (6), (7) y (10) se cumplen porque es la multiplicaci´on usual de un escalar por una matriz. (8) α(A ⊕ B) = αO = αA ⊕ αB. (9) Sea A como en (4), entonces (1 + 2)A es la matriz 3 × 3 con a11 = 3 y las dem´as componentes nulas; mientras que 1A ⊕ 2A = O = (1 + 2)A. En resumen, los axiomas 4, 5 y 9 no se cumplen pero los dem´as s´ı. E no es un espacio vectorial con estas operaciones.  ´ Solucion

23 Sean E un espacio vectorial y S ⊂ E. Mostrar que S < E (S es un subespacio de E) si y s´olo si se cumplen

las dos siguientes condiciones: / (i) S = 0. (ii) αu + βv ∈ S ´ DEMOSTRACION

∀u,v ∈ S, ∀α, β ∈ R.

Q (⇒) Supongamos que S < E. Entonces S = 0/ pues 0E ∈ S. Sean u,v ∈ S y α, β ∈ R; ya que S < E, la multiplicaci´on de vectores por escalares y la suma de vectores es cerrada en S, luego αu ∈ S y βv ∈ S; por tanto αu + βv ∈ S. (⇐) Supongamos que se cumplen (i) y (ii); entonces, por (i) existe u ∈ S; y por (ii) 0E = 0u ∈ S. Si w,v ∈ S, y α ∈ R, por (ii) w +v ∈ S y αw ∈ S. Por tanto S < E. Q

24 Sea S el conjunto de todas las funciones, y, derivables hasta el orden dos en todos los puntos de R que

satisfacen la relaci´on y (x) − y (x) − 6y(x) = 0

∀x ∈ R.

Mostrar que S es un espacio vectorial. ´ DEMOSTRACION

Q Puesto que S ⊂ F (R), basta probar que S < F (R). (a) Ya que θ, la funci´on constante cero, satisface θ (x) = 0 y θ (x) = 0 para todo x ∈ R, se tiene θ ∈ S. (b) Si f , g ∈ S, entonces f  (x) − f  (x) − 6 f (x) = 0 y g (x) − g (x) − 6g(x) = 0 para todo x ∈ R. Luego, para cada x ∈ R,

Page (PS/TeX): 75 / 185, COMPOSITE

186 CAPI´TULO 3

Espacios vectoriales

( f + g) (x) − ( f + g) (x) − 6( f + g)(x) = f  (x) − f  (x) − 6 f (x) +g (x) − g (x) − 6g (x) = 0; por tanto f + g ∈ S. (c) Si α ∈ R y f ∈ S, entonces f  (x) − f  (x) − 6 f (x) = 0 para todo x ∈ R, as´ı que (α f ) (x) − (α f ) (x) − 6(α f ) (x) = α( f  (x) − f  (x) − 6 f (x)) = α0 =0

∀x ∈ R.

Por tanto, α f ∈ S. De 1, 2 y 3, S < F (R) y por ende es un espacio vectorial.

Q

25 Una sucesi´on (an ) de n´umeros reales es acotada si existe M > 0 tal que |an | ≤ M para todo n, se dice

entonces que M es una cota para la sucesi´on. Sea S el subconjunto, del espacio de sucesiones R∞ , formado por todas las sucesiones que son acotadas. Probar que S < R∞ .

´ DEMOSTRACION

Q Sean (an ), (bn ) ∈ S, α ∈ R. 1. Claramente la sucesi´on constante cero pertenece a S (cualquier n´umero positivo es una cota para esta sucesi´on). 2. Sean M1 , M2 > 0 cotas de las sucesiones (an ) y (bn ), respectivamente; esto es, |an | ≤ M1 y |bn | ≤ M2 para todo n. Entonces, por la desigualdad triangular para el valor absoluto de n´umeros reales, |an + bn | ≤ |an | + |bn | ≤ M1 + M2 para todo n, entonces M1 + M2 > 0 es una cota para la sucesi´on (an + bn ); lo cual implica (an ) + (bn ) ∈ S. 3. Para cada n, |αan | = |α||an | ≤ (|α| + 1)M1 . As´ı, (|α| + 1)M1 > 0 es una cota para la sucesi´on (αan ); por tanto, α(an ) ∈ S. De 1, 2 y 3, S < R∞ .

Q

26 (Suma de subespacios). Sean E un espacio vectorial y R, S un par de subespacios. Se define el conjunto,

suma de los subespacios R y S, como R + S = {u +v |u ∈ R,v ∈ S}. Mostrar que R + S < E.

Page (PS/TeX): 76 / 186, COMPOSITE

´ 3.6 SECCION

´ DEMOSTRACION

Ejercicios resueltos y ejercicios propuestos 187

Q (1) Dado que R y S son subespacios de E, 0E ∈ R ∩ S; por lo que, 0E = 0E +0E ∈ R + S. (2) Si u1 +v1 ,u2 +v2 ∈ R + S, entonces, u1 ,u2 ∈ R y v1 ,v2 ∈ S; por tanto, u1 +u2 ∈ R y v1 +v2 ∈ S; as´ı que (u1 +v1 ) + (u2 +v2 ) = (u1 +u2 ) + (v1 +v2 ) ∈ R + S. (3) Si α ∈ R y u +v ∈ R + S, entonces u ∈ R y v ∈ S, por lo que αu ∈ R y αv ∈ S; luego α(u +v) = αu + αv ∈ R + S. De 1, 2 y 3, R + S < E. Q

27 (Suma directa). Dado un espacio vectorial E y k subespacios Si ⊂ E, se dice que E es la suma directa

de estos subespacios y se escribe E = S1 ⊕ S2 ⊕ · · · ⊕ Sk si: • E = S1 + S2 + · · · + Sk ; esto es, todo elemento w ∈ E tiene la forma w = u1 +u2 + · · · +uk , con ui ∈ Si para cada i = 1, 2, . . . , k. • Si ∩ (S1 + S2 + · · · + Si−1 ) = {0E } ∀i, 2 ≤ i ≤ k. Probar que E es la suma directa de los subespacios S1 , . . . , Sk si y s´olo si todo vector w ∈ E se puede escribir de manera u´ nica como w = u1 + · · · +uk , con ui ∈ Si , i = 1, . . . , k. ´ DEMOSTRACION

k

k

i=1

i=1

Q (⇒) Si E es la suma directa de los subespacios Si , y w = ∑ ui = ∑vi con ui ,vi ∈ Si , entonces k−1

uk −vk = − ∑ (ui −vi ) ∈ Sk ∩ (S1 + · · · + Sk−1 ) = {0E } i=1

por tanto uk =vk . Luego, k−2

uk−1 −vk−1 = − ∑ (ui −vi ) ∈ Sk−1 ∩ (S1 + · · · + Sk−2 ) = {0E }, i=1

de donde uk−1 =vk−1 . De manera an´aloga se prueba ui =vi para los otros ´ındices. (⇐) Claramente E = S1 + · · · + Sk . Sea u ∈ (S1 + · · · + S j−1 ) ∩ S j , entonces existen ui ∈ Si tales que u = u1 + · · · +u j−1 . Luego 0E = ui + · · · +u j−1 + (−u) +0E + · · · +0E ;    k− j

y por la unicidad de los t´erminos, se desprende que ui = 0E = u ∀ i. 28 Sea Mn el espacio de matrices cuadradas de orden n; del ejemplo 3.25 (p´ag. 143) el conjunto S1 , de

matrices cuadradas sim´etricas de orden n, es un subespacio de Mn .

Page (PS/TeX): 77 / 187, COMPOSITE

188 CAPI´TULO 3

Espacios vectoriales

(a) Sea S2 el conjunto de matrices cuadradas A de orden n que son antisim´etricas; esto es, At = −A. Probar que S2 es un subespacio de Mn . (b) Demostrar que Mn = S1 ⊕ S2 .

´ DEMOSTRACION

Q (a) Claramente O ∈ S2 . Si A, B ∈ S2 y α, β ∈ R, entonces (αA + βB)t = αAt + βB t = α(−A) + β(−B) = −(αA + βB). Lo cual prueba que S2 < Mn . (b) Sean A ∈ Mn , M1 = 12 A + 12 At y M2 = 12 A − 12 At . Claramente A = M1 + M2 , y puesto que M1t = ( 12 A + 12 At )t = 12 At + 12 A = M1 y M2t = ( 12 A − 12 At )t = 12 At − 12 A = −M2 , se tiene que M1 ∈ S1 y M2 ∈ S2 ; con lo que se ha probado que Mn = S1 + S2 . Si M ∈ S1 ∩ S2 , entonces M t = M y M t = −M, de donde M = −M; por tanto, M = O; es decir, S1 ∩ S2 = {O}. Luego Mn = S1 ⊕ S2 . Q

29 (Espacio cociente). Sean E un espacio vectorial y S ⊂ E un subespacio.

(a) Se define la siguiente relaci´on entre los elementos de E: u ∼v ⇔ u −v ∈ S. Probar que esta relaci´on es de equivalencia; esto es, (i) u ∼ u ∀u ∈ E (reflexividad); (ii) si u,v ∈ E, u ∼v ⇒v ∼ u (simetr´ıa); (iii) si u,v,w ∈ E, u ∼v,v ∼ w ⇒ u ∼ w (transitividad). (b) Para cada u ∈ E, el s´ımbolo [u] representa la clase de equivalencia del vector u; es decir, el conjunto de vectores que est´an relacionados con u. Probar que dos clases de equivalencia o son disjuntas (su intersecci´on es vac´ıa) o son iguales. (c) Si E/S = {[u] |u ∈ E}, se definen [u] + [v] = [u +v] y α[u] = [αu] para cada [u], [v] ∈ E/S y para cada α ∈ R. Probar que las operaciones [u] + [v] y α[u] est´an bien definidas; esto es, que no dependen de los representantes de cada clase de equivalencia; o sea, que si [u] = [u  ] y [v] = [v  ], entonces [u +v] = [u  +v  ] y [αu] = [αu  ].

Page (PS/TeX): 78 / 188, COMPOSITE

´ 3.6 SECCION

Ejercicios resueltos y ejercicios propuestos 189

(d) Probar que E/S, junto con las operaciones definidas en el inciso precedente, es un espacio vectorial (llamado espacio cociente del subespacio S). ´ DEMOSTRACION

Q (a) Sean u,v,w vectores arbitrarios de E. ii(i) u −u = 0E ∈ S, porque S < E. Por tanto u ∼ u. i(ii) u ∼v ⇒ u −v ∈ S

(porque S 0, a los conjuntos 1.

S(u0 , r) = {v ∈ E | u0 −v = r} ,

2.

B(u0 , r) = {v ∈ E | u0 −v < r} ,

3.

B[u0 , r] = {v ∈ E | u0 −v ≤ r} ,

se les llama esfera, bola abierta y bola cerrada, respectivamente, de centro u0 y radio r.   Ejemplo 4.50 En R3 , (x, y, z) − (0, 0, 0) = x2 + y2 + z2 ; luego, , + S(0R3 , r) = (x, y, z) | x2 + y2 + z2 = r2 Es decir, la esfera de centro 0R3 y radio r ilustrada en la figura 4-21.

Figura 4-21 • Esfera S(0R3 , r) respecto a la norma (x, y, z) =

Page (PS/TeX): 77 / 311, COMPOSITE



x2 + y2 + z2 .

312 CAPI´TULO 4

Espacios con producto interior y espacios normados

r

u0

u0

0 ||u

r

u0

(a)

v|| −

v

(b)

(c)  Figura 4-22 • Bolas y esferas en R respecto a la norma (x, y) = x2 + y2 : (a) Esfera de centro u0 y radio r; consta de los puntos de la circunferencia de centro u0 y radio r. (b) Bola cerrada de centro u0 y radio r; se compone de todos los puntos de la circunferencia de centro u0 y radio r, y los puntos que e´ sta encierra. (c) Bola abierta de centro u0 y radio r; est´a formada por todos los puntos dentro de la circunferencia de centro u0 y radio r; i.e., los vectores cuya distancia a u0 es inferior a r. 2

Por generalizaci´on, al conjunto del inciso 1 de la definici´on 4.13 tambi´en se le dice esfera. Notemos que el conjunto B(0R3 , r) est´a formado por todos los puntos dentro de la esfera S(0R3 , r); mientras que B[0R3 , r] contiene a todos los puntos sobre y dentro de la esfera S(0R3 , r). Por analog´ıa a estos conjuntos, es que a B[u0 , r] y a B(u0 , r) se les llama bola cerrada y bola abierta (de centro u0 y radio r), respectivamente, en cualquier espacio normado. Finalmente, notemos que, en cualquier espacio normado, B(u0 , r) consiste de los vectores v cuya distancia a u0 es menor que r; mientras que B[u0 , r] est´a formado por todos los vectores cuya distancia a u0 es inferior o igual a r y S(u0 , r) consta de los vectores cuya distancia a u0 es exactamente r. En la figura 4-22 hemos bosquejado la esfera, la bola abierta y la bola cerrada de  centro u0 y radio r en R2 para la norma usual (x, y) = x2 + y2 .  Ejemplo 4.51 Bosquejar B[0R2 , 1] = {(x, y) | (x, y)∞ ≤ 1} y B[0R2 , 1] = {(x, y) | (x, y)1 ≤ 1} . ´ Solucion

1. Si (x, y) pertenece al primer cuadrante, entonces |x| = x y |y| = y, luego 0



x



(x, y)∞



1 y

0



y



(x, y)∞



1

por tanto, 0

≤ x

≤1

0



≤ 1.

y

y

Si (x, y) pertenece al segundo cuadrante, entonces |x| = −x y |y| = y, as´ı que 0

≤ −x

=

|x|



(x, y)∞



1 y

0



=

|y|



(x, y)∞



1

−1



x



0 y

0



y



1.

y

por tanto,

Page (PS/TeX): 78 / 312, COMPOSITE

´ 4.2 SECCION

Espacios vectoriales normados 313

Si (x, y) pertenece al tercer cuadrante, entonces |x| = −x y |y| = −y, as´ı que 0



−x

=

|x|



(x, y)∞



1 y

0



−y

=

|y|

≤ (x, y)∞



1

−1



x



0 y

−1



y



0.

por tanto,

Si (x, y) pertenece al cuarto cuadrante, entonces |x| = x y |y| = −y, as´ı que 0



0

≤ −y

x

=

|x|

≤ (x, y)∞



1

=

|y|

≤ (x, y)∞



1

0

≤ x



1 y

−1

≤ y



0.

y

por lo cual

Entonces B[0R2 , 1] (relativa a la norma c´ubica) es el cuadrado con centro en el origen y arista 2 mostrado en la figura 4-23(a). 2. Si (x, y) pertenece al primer cuadrante, entonces |x| = x y |y| = y, entonces x + y = |x| + |y| = (x, y)1 ≤ 1; por tanto, y ≤ 1 − x. Es decir, en este cuadrante los puntos contenidos en B[0R2 , 1] (respecto a la norma  · 1 ) son los puntos sobre y por debajo de la l´ınea recta y = 1 − x. Si (x, y) pertenece al segundo cuadrante, entonces |x| = −x y |y| = y, entonces −x + y = |x| + |y| = (x, y)1 ≤ 1 por tanto, y ≤ 1 + x. Es decir, en este cuadrante los puntos contenidos en B[0R2 , 1] (respecto a la norma  · 1 ) son los puntos sobre y por debajo de la l´ınea recta y = 1 + x. Si (x, y) pertenece al tercer cuadrante, entonces |x| = −x y |y| = −y, luego −x − y = |x| + |y| = (x, y)1 ≤ 1 por tanto, y ≥ −1 − x.

Page (PS/TeX): 79 / 313, COMPOSITE

314 CAPI´TULO 4

Espacios con producto interior y espacios normados

Es decir, en este cuadrante los puntos contenidos en B[0R2 , 1] (respecto a la norma  · 1 ) son los que est´an sobre y por encima de la l´ınea recta y = −1 − x. Si (x, y) pertenece al cuarto cuadrante, entonces |x| = x y |y| = −y, as´ı x − y = |x| + |y| = (x, y)1 ≤ 1 por tanto, y ≥ −1 + x. Es decir, en este cuadrante los puntos contenidos en B[0R2 , 1] (respecto a la norma  · 1 ) son los puntos sobre y por encima de la l´ınea recta y = −1 + x. Entonces, B[0R2 , 1] (relativa a la  · 1 ) es el conjunto de puntos sobre las l´ıneas rectas y = 1 − x, y = 1 + x, y = −1 − x y y = −1 + x; y los puntos dentro del rombo con centro en el origen y lados estas rectas, ilustrado en la figura 4-23(b). 

(a)

(b)

Figura 4-23 (a) B[0R2 , 1], respecto a la norma  · ∞ , consta de los puntos sobre y dentro del cuadril´atero de centro el origen y arista 2. (b) B[0R2 , 1], respecto a la norma  · 1 , consiste en los puntos sobre las l´ıneas rectas y = 1 − x, y = 1 + x, y = −1 − x y y = −1 + x y dentro del rombo con centro el origen y lados estas l´ıneas rectas. •

u0

Figura 4-24 • En R3 la bola cerrada de centro u0 y radio r, respecto a la norma  · ∞ , es el cubo con centro en este punto y arista 2r; i.e., los puntos sobre sus seis caras y dentro de la regi´on que e´ stas encierran.

Page (PS/TeX): 80 / 314, COMPOSITE

´ 4.2 SECCION

S||·||1 (0, 1)

Espacios vectoriales normados 315

S||·||∞ (0, 1)

S||·|| (0, 1)

Figura 4-25 • Esferas en R2 de centro (0, 0) y radio 1 relativas a las normas c´ubica (cuadrado con centro el origen), la norma can´onica (x, y) = x2 + y2 (circunferencia con centro en el origen) y la norma  · 1 (paralelogramo con centro en el origen).

Es f´acil ver, razonando de manera similar al inciso 1 de la soluci´on del ejemplo precedente, que en R geom´etricamente el conjunto B[u0 , r], respecto a la norma  · ∞ , es el cubo de centro u0 arista 2r, ´ ilustrado en la figura 4-24. Por esta raz´on, a la norma  · ∞ se le acostumbra llamar norma cubica.  2  Tambi´en hemos bosquejado en la figura 4-25 las esferas S[0R2 , 1] para las normas (x, y) = x + y2 , (x, y)∞ y (x, y)1 en R2 para que el lector pueda compararlas geom´etricamente. 3

P Nota 4.10 1. En los espacios Rn llamaremos a la norma inducida por el producto punto norma can´onica (euclidiana, est´andar o natural) y la representaremos siempre por el s´ımbolo  · , sin sub´ındices ni supra´ındices. 2. En cualquier espacio con producto interior representaremos la norma inducida por este producto con el s´ımbolo  ·  y, a menos que se diga lo contrario, si no se especifica la norma en este espacio, supondremos que es la norma inducida por el producto interior. 3. Es costumbre llamar a los espacios con producto interior espacios euclideanos, debido a su origen intuitivo en los espacios geom´etricos R2 y R3 ; cuyo estudio sistem´atico fue llevado a cabo por Euclides, el c´elebre matem´atico griego. Por ende, a la norma can´onica en Rn tambi´en se le dice norma euclidiana; pues adem´as su definici´on est´a inspirada en el teorema de Pit´agoras conocido en geometr´ıa elemental. 4. Como es natural a las esferas y a las bolas en R2 se les dice, respectivamente, circunferencias y discos.  Ejemplo 4.52 (Bola abierta en C[a, b] respecto a  · ∞ ). Si f0 ∈ C [a, b], bosquejar B( f0 , r) respecto a la norma  · ∞ . ´ Solucion

Si g ∈ B( f0 , r),  f0 − g∞ < r

Entonces, ∀x ∈ [a, b] |g(x) − f0 (x)| ≤  f0 − g∞ < r

Page (PS/TeX): 81 / 315, COMPOSITE

(4.34)

316 CAPI´TULO 4

Espacios con producto interior y espacios normados

r

f0ˆ + r

r

f0ˆ

f0ˆ − r

a

b

Figura 4-26 • B( f0 , r) en C[a, b], respecto a  f ∞ , consta de todas las funciones g ∈ C[a, b] cuyas gr´aficas est´an contenidas entre las funciones f0 − r y f0 + r, pero que no intersecan a estas funciones.

y, por tanto, −r < g(x) − f0 (x) < r

∀x ∈ [a, b] ;

lo cual implica f0 (x) − r < g(x) < f0 (x) + r

∀x ∈ [a, b]

(4.35)

Inversamente, si se cumple (4.35), se deduce (4.34). Luego B( f0 , r) se compone de todas las funciones continuas en C[a, b], cuya gr´afica est´a contenida entre las gr´aficas de las funciones f0 − r y f0 + r; pero que no se intersecan en punto alguno de estas dos gr´aficas; es decir, las funciones contenidas en la “franja abierta” acotada por las gr´aficas de las funciones f0 − r y f0 + r, mostrada en la figura 4-26.  Las bolas, de centro un vector u0 , son como los intervalos en los n´umeros reales; sirven para establecer con precisi´on el significado de proximidad. Si un intervalo abierto y acotado tiene centro x0 , entonces es de la forma (x0 − r, x0 + r) para alg´un n´umero real r > 0; y si x ∈ (x0 − r, x0 + r), |x − x0 | < r. As´ı, la diferencia entre cualquier punto de este intervalo y el centro del mismo, x0 , es inferior a r y este n´umero es el que define el grado de proximidad para puntos respecto a x0 . Por ejemplo, si r = 10−6 , entonces la diferencia entre x0 y cualquier punto del intervalo (x0 − r, x0 + r) es inferior a 0.000001. Dependiendo del valor de r es el grado de proximidad a x0 y ese grado de proximidad es relativo y convencional. Lo mismo sucede con las bolas abiertas en espacios normados, pues en estos casos se utiliza simplemente u0 −u en lugar del valor absoluto. Observe que si g ∈ B( f0 , r) en la figura 4-26 y r es peque˜no, dado que | f0 (x) − g(x)| ≤  f0 − g∞ < r, entonces g(x) es muy cercano a f0 (x), para cada x ∈ [a, b]; y, por tanto, la gr´afica de la funci´on g es muy pr´oxima a la gr´afica de la funci´on f0 ; por esta raz´on, la norma uniforme es una herramienta muy u´ til para medir proximidad en el espacio de funciones continuas. P Nota 4.11 Hemos utilizado los s´ımbolos u∞ y  f ∞ en los espacios Rn y C[a, b]. Cuando se haga uso de este s´ımbolo en Rn , siempre utilizaremos el t´ermino norma c´ubica; mientras que cuando se emplee en C[a, b] diremos que se trata de la norma uniforme (o de algunos sin´onimos que veremos m´as adelante). El contexto en cada caso ser´a suficientemente claro para evitar cualquier confusi´on.

Page (PS/TeX): 82 / 316, COMPOSITE

´ 4.2 SECCION

Espacios vectoriales normados 317

4.2.3 Normas que provienen de productos interiores Sabemos que todo producto interior ·, · en un espacio vectorial induce una norma en e´ ste, a saber  u = u,u. Supongamos que en el espacio E se tiene dada una norma  · , surgen naturalmente las siguientes dos cuestiones: 1. ¿Esta norma proviene de un producto interior en E? Es decir, ¿existe un producto interior ·, · en E cuya norma inducida es precisamente la norma dada  · ? 2. ¿Bajo qu´e condiciones se puede definir un producto interior en el espacio E por medio de esa norma, de tal suerte que coincida con la norma inducida por ese producto interior? Por fortuna, estos dos interrogantes tienen una respuesta completa; para dar e´ sta haremos uso nuevamente del origen geom´etrico que tienen el producto interior y la norma.

Identidad del paralelogramo

θ1

||u −

||u ||

β θ

v||

||u ||

Consideremos el paralelogramo ilustrado en (i), (ii) y (iii) de la figura 4-27:

v|| ||u +

β

θ

||v|| (i)

||v||

(ii)

(iii)

Figura 4-27 •

• De (i) de esta figura se desprende que θ = θ1 por ser a´ ngulos correspondientes y, por tanto, β = 180 − θ . • De (ii) y la ley de cosenos, tenemos u −v2 = u2 + v2 − 2 u v cos θ

(4.36)

• De (iii) y la ley de cosenos, se desprende u +v2 = u2 + v2 − 2 u v cos β = u2 + v2 − 2 u v cos (180 − θ) = u2 + v2 − 2 u v (− cos (θ)) u +v2 = u2 + v2 + 2 u v cos (θ)

∴ (4.37)

• Tenemos entonces de (4.36) y (4.37)

 u +v2 + u −v2 = 2 u2 + v2

Page (PS/TeX): 83 / 317, COMPOSITE

(4.38)

318 CAPI´TULO 4

Espacios con producto interior y espacios normados

La igualdad (4.38) se llama identidad del paralelogramo y es un hecho conocido de geometr´ıa elemental: en todo paralelogramo la suma de los cuadrados de las longitudes de sus diagonales es igual a la suma de los cuadrados de las longitudes de los lados del paralelogramo. Ahora supongamos que tenemos un espacio vectorial E con producto interior ·, ·. Sean u,v un par de vectores en este espacio, entonces u +v2 = u +v,u +v = u,u + u,v + v,u + v,v 2

2

u +v = u + 2 u,v + v



2

(4.39)

y u −v2 = u −v,u −v = u,u − u,v − v,u + v,v 2

2

u −v = u − 2 u,v + v

2

∴ (4.40)

Al sumar lado a lado las igualdades (4.39) y (4.40) se obtiene la identidad del paralelogramo en espacios con producto interior:  u +v2 + u −v2 = 2 u2 + v2 Hemos probado as´ı el siguiente teorema.

Teorema 4.16 (Identidad del paralelogramo) Sea E un espacio con producto interior ·, · y norma inducida  · . Entonces, ∀u,v ∈ E, se cumple  u +v2 + u −v2 = 2 u2 + v2

(4.41)

Por otra parte, si E es un espacio normado con norma  ·  que proviene de un producto interior, entonces la norma dada y la inducida por este producto deben coincidir y, por tanto,  ·  tiene que satisfacer la identidad del paralelogramo (4.41) del teorema 4.16. Es decir, para que una norma provenga de un producto interior es necesario que satisfaga la identidad del paralelogramo. Resumimos este resultado en el siguiente teorema.

Teorema 4.17 Sea E un espacio normado con norma  · . Para que  ·  provenga de un producto interior, es necesario que esta norma cumpla con la identidad del paralelogramo (4.41).

As´ı, para probar que una norma no proviene de alg´un producto interior basta probar, con un contraejemplo, que no cumple con la identidad del paralelogramo.  Ejemplo 4.53 Determinar si la norma c´ubica,  · ∞ , proviene de un producto interior en Rn .

Page (PS/TeX): 84 / 318, COMPOSITE

´ 4.2 SECCION

´ Solucion

Espacios vectoriales normados 319

Sean u = (1, 2, 0, . . . , 0),v = (2, −3, 0, . . . , 0) ∈ Rn . Por un lado u +v2∞ + u −v2∞ = (3, −1, 0 . . . , 0)2∞ + (−1, 5, 0 . . . , 0)2∞ = 9 + 25 = 34

y, por otro,   2 u2∞ + v2∞ = 2 (1, 2, 0, . . . , 0)2∞ + (2, −3, 0, . . . , 0)2∞ = 2 (4 + 9) = 26. De donde se desprende que la norma c´ubica no cumple con la identidad del paralelogramo (4.41), por lo que no proviene de un producto interior.  P Nota 4.12 El lector debe reflexionar con cuidado el significado del hecho mostrado en el ejemplo anterior: no existe producto interior en Rn cuya norma inducida sea la norma c´ubica. Supongamos nuevamente que tenemos un espacio con producto interior ·, · y norma inducida por este producto  · , entonces, al restar miembro a miembro las igualdades (4.39) y (4.40) se obtiene u +v2 − u −v2 = 4 u,v ; de donde, u,v =

! 1 u +v2 − u −v2 . 4

Con lo que hemos probado el siguiente teorema.

Teorema 4.18 (Identidad de polarizaci´on) Sea E un espacio con producto interior ·, · y norma inducida  · . Entonces, ∀u,v ∈ E se cumple la siguiente igualdad u,v =

! 1 u +v2 − u −v2 4

(4.42)

llamada identidad de polarizaci´on.

As´ı, para que una norma  ·  provenga de un producto interior ·, ·, necesita primero satisfacer la identidad del paralelogramo (4.41); y en caso de que as´ı sea, el producto interior de donde proviene debe cumplir con la identidad de polarizaci´on (4.42). Entonces, conjeturamos que si una norma satisface la identidad del paralelogramo, el producto interior definido por (4.42) es, efectivamente, un producto escalar cuya norma inducida es precisamente esta norma. En el siguiente teorema probamos esta conjetura.

Page (PS/TeX): 85 / 319, COMPOSITE

320 CAPI´TULO 4

Espacios con producto interior y espacios normados

Teorema 4.19 Sea E un espacio normado con norma  ·  que satisface la identidad del paralelogramo (4.41). Si se define, para cada u,v ∈ E, u,v =

! 1 u +v2 − u −v2 , 4

entonces ·, · es un producto interior cuya norma inducida es precisamente  · .

´ DEMOSTRACION

Q 1. Sea u ∈ E, entonces ! 1 u +u2 − 0E 2 4 1 = 2u2 4 4 = u2 4 = u2 ≥ 0

u,u =

y, por tanto, u,u = 0 ⇔ u = 0E . Puesto que 

u,u = u ,

siendo  ·  la norma dada del espacio, se sigue que, de ser ·, · un producto interior, la norma inducida coincide con la norma dada en el espacio; es decir,  ·  proviene de este producto interior. 2. Si u,v ∈ E, ! 1 u +v2 − u −v2 4 ! 1 v +u2 − v −u2 = 4 = v,u .

u,v =

3. Sean u,v ∈ E, entonces u,v =

! 1 u +v2 − u −v2 . 4

Por la identidad del paralelogramo (4.41) (recuerde que la norma de este espacio la cumple por hip´otesis) u +v2 = 2 u2 + 2 v2 − u −v2 . Y, por tanto, u,v =

Page (PS/TeX): 86 / 320, COMPOSITE

! 1 2 u2 + 2 v2 − u −v2 − u −v2 4

´ 4.2 SECCION

Espacios vectoriales normados 321

esto es, u,v =

! 1 u2 + v2 − u −v2 2

Sean ahora u,v,w ∈ E tres vectores arbitrarios. Entonces, por (4.43), u,v =

! 1 u2 + v2 − u −v2 2

y u,w =

! 1 u2 + w2 − u − w2 . 2

Donde u,v + u,w =

! 1 u2 + v2 − u −v2 + u2 + w2 − u − w2 . 2

Por otra parte, u,v + w =

! 1 u +v + w2 − u −v − w2 . 4

Por la identidad del paralelogramo u +v + w2 = (u +v) + w2 = 2 u +v2 + 2 w2 − u +v − w2  = 2 2 u2 + 2 v2 − u −v2 + 2 w2 − u +v − w2 y u −v − w2 = (u − w) −v2 = 2 u − w2 + 2 v2 − (u − w) +v2 . Por tanto, u,v + w

=

1  2 2 u2 + 2 v2 − u −v2 + 2 w2 4

= − u +v − w2 − 2 u − w2 − 2 v2 ! = + (u − w) +v2 ! 1 4 u2 + 2 v2 − 2 u −v2 + 2 w2 − 2 u − w2 4 1 2 u2 + 2 v2 − 2 u −v2 + 2 u2 + 2 w2 = 4 ! = −2 u − w2 ! 1 u2 + v2 − u −v2 + u2 + w2 − u − w2 = 2 =

Page (PS/TeX): 87 / 321, COMPOSITE

(4.43)

322 CAPI´TULO 4

Espacios con producto interior y espacios normados

Esto es, u,v + w = u,v + u,w

(4.44)

4. Sean u,v ∈ E un par de vectores fijos pero arbitrarios. Mostraremos por inducci´on28 que para todo entero no negativo m se cumple u, mv = m u,v

(4.45)

Para m = 1, u,v = 1 u,v . Sea k > 1 un entero y supongamos que: u, kv = k u,v

(4.46)

Entonces, u, (k + 1)v = u, kv +v y por (4.44) y la hip´otesis de inducci´on (4.46) u, (k + 1)v = u, kv +v = u, kv + u,v = k u,v + u,v = (k + 1) u,v . Por inducci´on se sigue que (4.45) es v´alida para todo entero no negativo m. Por otra parte, ! 1 u −v2 − u +v2 u, −v = 4 ! 1 = − u +v2 − u −v2 4 = − u,v Por tanto, u, mv = m u,v para todo entero m. Sea ahora λ = 0 un n´umero real. Entonces, por (4.43), ! 1 λu2 + v2 − λu −v2 λu,v = 2 ! 1 2 λ u2 + λ2 (1/λ)v2 − λ2 u − (1/λ)v2 = 2 ! 1 = λ2 u2 + (1/λ)v2 − u − (1/λ)v2 2 2 = λ u, (1/λ)v . 1En el ap´endice A se puede consultar un breve estudio del principio de inducci´on, herramienta fundamental para demostraciones que involucran a los n´umeros enteros.

28

Page (PS/TeX): 88 / 322, COMPOSITE

´ 4.2 SECCION

Espacios vectoriales normados 323

Sea q = 0 un entero, entonces 

 1 1 u,v = 2 u, qv q q q = 2 u,v q 1 = u,v . q

En s´ıntesis, hemos probado que u, mv = m u,v para todo entero m, 

 1 1 u,v = u,v q q

para todo entero q = 0; y por simetr´ıa se tiene tambi´en mu,v = m u,v ,   1 1 u, v = u,v . q q Sean ahora p, q un par de enteros con q = 0. Entonces,       p 1 u,v = p u ,v q q   1 = p u,v q p = u,v . q Sea la funci´on f : R → R definida por f (λ) = λu . Entonces, por la desigualdad triangular, | f (λ1 ) − f (λ2 )| = |λ1u − λ2u| ≤ λ1u − λ2u = |λ1 − λ2 | u ; de donde f es una funci´on continua en R y, por tanto, la funci´on ϕ(λ) =

! 1 λu2 + v2 − λu − v2 2

tambi´en es continua en R. Sea λ ∈ R un n´umero real cualquiera fijo; sea pn una sucesi´on de n´umeros racionales pn = an /bn que converge a λ; esto es, l´ım pn = λ.

n→∞

Page (PS/TeX): 89 / 323, COMPOSITE

324 CAPI´TULO 4

Espacios con producto interior y espacios normados

Por la continuidad de29 ϕ, l´ım ϕ (pn ) = ϕ(λ);

n→∞

es decir, λu,v = ϕ(λ) = l´ım ϕ (pn ) n→∞

! 1 pnu2 + v2 − pnu − v2 n→∞ 2 = l´ım pnu,v = l´ım

n→∞

= l´ım pn u,v n→∞

= λ u,v . Por ende, λu,v = λ u,v para todo λ ∈ R y ∀u,v ∈ E. De 1, 2, 3 y 4 ·, · es un producto interior y la norma inducida por e´ ste coincide con la norma del espacio, lo cual demuestra el teorema. Q P Nota 4.13 Observe que con el resultado precedente se prueba que una condici´on necesaria y tambi´en suficiente para que una norma en un espacio vectorial provenga de un producto interior, es que cumpla con la identidad del paralelogramo (4.41). En tal caso, el producto de donde proviene est´a definido por la identidad de polarizaci´on (4.42).

4.2.4 Normas equivalentes El concepto de proximidad es relativo a la norma con la que se mide la distancia entre los vectores. No es lo 1/2  b 2 ( f (x) − g(x)) dx mismo que dos funciones f , g ∈ C[a, b] est´en pr´oximas con la norma  f − g = a

que con la norma uniforme  f (x) − g(x)∞ . Sin embargo, existen pares de normas para las que dos vectores son pr´oximos respecto a una de ellas si y s´olo si son pr´oximos respecto a la otra norma. A este tipo de normas se les dice equivalentes y nos abocamos a su estudio en este apartado. Definici´on 4.14 Sean E un espacio vectorial y  · ,  ·  un par de normas en E. Diremos que la primera norma es equivalente a la segunda si existen α, β ∈ R positivos tales que α u ≤ u ≤ β u

∀u ∈ E.

En tal caso escribiremos u ∼ u .

1La continuidad de g en λ ∈ R equivale a l´ım | f (xn ) − λ| = 0 para toda sucesi´on (xn ) tal que l´ım |xn − λ| = 0.

29

n→∞

Page (PS/TeX): 90 / 324, COMPOSITE

n→∞

´ 4.2 SECCION

Espacios vectoriales normados 325

1/2   Ejemplo 4.54 En Rn la norma can´onica (x1 , x2 , . . . , xn ) = ∑nk=1 xk2 es equivalente a la norma c´ubica (x1 , x2 , . . . , xn )∞ = m´ax1≤k≤n |xk |. En efecto, si u = (x1 , x2 , . . . , xn ), entonces, puesto que |xk | ≤ u∞ ∀u ∈ E, se tiene 

1/2

n



u = 

k=1 n





k=1

=



xk2 1/2 u2∞

n u∞ .

Por otra parte, dado que u2∞ ≤ ∑nk=1 |xk |2 ,  u∞ ≤

n



k=1

1/2 u2∞

.

Por tanto, u∞ ≤ u ≤



n u∞

∀u ∈ E.

Luego, u ∼ u∞ . El siguiente teorema es sencillo de probar y su demostraci´on se deja de ejercicio al lector. Teorema 4.20 Sea E un espacio vectorial y  · ,  ·  ,  ·  normas en este espacio. Entonces: 1.  ·  ∼  · 

(Reflexividad).



2.  ·  ∼  ·  ⇒  ·  ∼  ·  





(Simetr´ıa).

3.  ·  ∼  ·  y  ·  ∼  ·  ⇒  ·  ∼  · 

(Transitividad).

As´ı, del teorema anterior, si una norma es equivalente a una segunda, por simetr´ıa e´ sta ser´a equivalente a la primera. Por esta raz´on, de aqu´ı en adelante, diremos que dos normas son equivalentes si satisfacen la definici´on 4.14. Sean ahora  · ,  ·  un par de normas equivalentes en el espacio E, u0 ∈ E y B(u0 , r1 ) y B  (u0 , r1 ) bolas abiertas respecto a sendas normas. Sean α, β n´umeros positivos tales α u ≤ u ≤ β u

∀u ∈ E.

1. Sea r = r1 /β, entonces v ∈ B  (u0 , r) ⇒ u0 −v < r ⇒ u0 −v ≤ β u0 −v < βr = β ⇒ v ∈ B(u0 , r1 ) ⇒ B  (u0 , r) ⊂ B(u0 , r1 ).

Page (PS/TeX): 91 / 325, COMPOSITE

r1 = r1 β

326 CAPI´TULO 4

Espacios con producto interior y espacios normados

2. Sea r  = αr2 , entonces v ∈ B(u0 , r  ) ⇒ u0 −v < r  1 1 1 u0 −v < r  = αr2 = r2 α α α ⇒ v ∈ B  (u0 , r2 ) ⇒ u0 −v ≤

⇒ B(u0 , r  ) ⊂ B  (u0 , r2 ). Con lo cual, hemos probado el siguiente teorema que justifica la discusi´on dada al inicio de esta subsecci´on respecto a la proximidad entre vectores relativa a distintas normas. Teorema 4.21 Sea E un espacio vectorial y  · ,  ·  un par de normas equivalentes en este espacio. Entonces: 1. Toda bola B(u0 , r1 ) relativa a la norma  ·  contiene una bola B  (u0 , r) relativa a la norma  ·  . 2. Toda bola B  (u0 , r2 ) relativa a la norma  ·  contiene una bola B(u0 , r) relativa a la norma  · .

La figura 4-28 ilustra este teorema en el caso de las normas equivalentes del ejemplo 4.54 para n = 2.

u0

Figura 4-28 • Toda bola relativa a la norma can´onica contiene una bola del mismo centro relativa a la norma c´ubica y viceversa.

 Ejemplo 4.55 Determinar si las normas  f 1 =

 0

1

| f (x)|dx

y la norma  f ∞ = m´ax0≤x≤1 | f (x)| son equivalentes en C[0, 1].

´ Solucion

Supongamos que existen α > 0 y β > 0, un par de n´umeros reales tales α  f ∞ ≤  f 1 ≤ β  f ∞

Page (PS/TeX): 92 / 326, COMPOSITE

∀ f ∈ C[0, 1].

´ 4.2 SECCION

Espacios vectoriales normados 327

Sea, para cada n´umero entero positivo m, la funci´on continua fm (x) = e−mx , 0 ≤ x ≤ 1. Entonces, para cada m,  fm ∞ = m´ax |e−mx | = e−m·0 = 1 y 0≤x≤1

 fm 1 = = =



1

0



1

0

| fm (x)|dx e−mx dx

 1 1 − e−m . m

Por tanto, α·1 ≤

 1 1 − e−m m

∀m = 1, 2, . . .

Pero, el lado derecho de la precedente desigualdad tiende a 0 cuando m tiende a infinito. Luego, existe 1 m0 tal que (1 − e−m0 ) < α, tendr´ıamos entonces m0 α≤

 1  1 − e−m0 < α, m0

lo cual es una contradicci´on. Por tanto, estas normas no pueden ser equivalentes.30



El ejemplo precedente muestra que no todas las normas son equivalentes. La dificultad intr´ınseca de este ejemplo radica en el hecho de que la dimensi´on del espacio C[0, 1] es infinta. Sin embargo, en espacios de dimensi´on finita, la situaci´on cambia completamente; pues en ellos resulta ser que todas las normas son equivalentes. Este important´ısimo resultado lo hacemos patente en el siguiente teorema, aunque no lo demostraremos aqu´ı; e invitamos al lector a consultar, si as´ı lo desea, la demostraci´on dada en el ap´endice C. Teorema 4.22 (Equivalencia de normas en dimensi´on finita) Si E un espacio vectorial, entonces cualquier par de normas en E son equivalentes; es decir, en un espacio de dimensi´on finita todas las normas en e´ l son equivalentes.

La proximidad de vectores es un concepto fundamental de las matem´aticas. A trav´es de la idea de proximidad es como se pueden definir l´ımites, continuidad, derivaci´on, diferenciaci´on, derivadas parciales, optimizaci´on (m´aximos y m´ınimos locales) para funciones de una y de varias variables; convergencia de sucesiones y series; y conceptos geom´etricos avanzados que tienen que ver con una importante rama de las matem´aticas llamada topolog´ıa (particularmente de los espacios vectoriales normados en nuestro caso); etc. En todos estos temas de estudio, la proximidad depende de las normas con la que se trabaje; sin embargo, todo aquello que, en t´erminos de proximidad, valga para ciertas normas, seguir´a siendo v´alido si e´ stas se cambian por sendas normas equivalentes. Por ello, el teorema 4.22 bien

1Note que en este caso s´ı existe β tal que  f 1 ≤ β  f ∞ ∀ f ∈ C[a, b]; pues, dado que | f (x)| ≤  f ∞ para todo x ∈ [a, b], se tiene 1 0 | f (x)|dx ≤ 0  f ∞ dx = (b − a)  f ∞ . Luego β = b − a es un escalar que funciona para este fin.

30

1

Page (PS/TeX): 93 / 327, COMPOSITE

328 CAPI´TULO 4

Espacios con producto interior y espacios normados

podr´ıa ser llamado el teorema fundamental de espacios vectoriales normados de dimensi´on finita, pues significa que en estos espacios se puede trabajar con las normas que se deseen, evidentemente las m´as c´omodas, pues todo lo que sea v´alido para ellas (en t´erminos de proximidad) ser´a valido para cualesquiera otras normas de estos espacios. As´ı que el lector debe tener muy en cuenta esto, utilizar las normas que m´as convengan y no necesariamente trabajar con normas que, por ser hist´oricas en las matem´aticas o por desconocimiento del teorema 4.22, se utilizan con gran frecuencia como es el caso de la norma euclidiana, la norma can´onica en el espacio Rn .

Normas p Terminamos este apartado con un ejemplo de normas que son generalizaci´on directa de la norma can´onica en Rn , las normas · p (p ≥ 1). Este ejemplo bien podr´ıa haberse dado al inicio de esta subsecci´on; pero por la dificultad que entra˜na se decidi´o ponerlo al final. Adem´as, es una buena excusa para ilustrar el concepto de equivalencia de normas en Rn en este extenso conjunto de normas y explicar el porqu´e de la notaci´on ·∞ para la norma c´ubica. Definici´on 4.15 Sea p ≥ 1 un n´umero real y u = (x1 , x2 , . . . , xn ) ∈ Rn . Se define  u p =

n

∑ |xi |

1/p p

.

i=1

A u p se le llama norma p del vector u.

P Nota 4.14 Observe que si p = 2, se obtiene la norma can´onica en Rn . Y si p = 1 se obtiene la norma ·1 que estudiamos en el ejemplo 4.42. Antes de mostrar que u p es efectivamente una norma, necesitamos probar algunos resultados preliminares. En el lema 3.1 (cfr. p´ag. 123) vimos que 2ab ≤ a2 + b2 para cualquier par de n´umeros reales a y b. El lema 4.2 es una generalizaci´on de este resultado que utilizaremos para demostrar la desigualdad triangular de las normas p. Definici´on 4.16 Sean p > 1 y p∗ > 1 n´umeros reales. Se dice que p y p∗ son ´ındices conjugados si 1 1 + = 1. p p∗  Ejemplo 4.56 • p = 2 y p∗ = 2 son ´ındices conjugados. • p = 3 y p∗ = 3/2 son ´ındices conjugados. Las siguientes propiedades de ´ındices conjugados, contenidas en el lema 4.1, son f´aciles de probar y su demostraci´on se deja de ejercicio al lector.

Page (PS/TeX): 94 / 328, COMPOSITE

´ 4.2 SECCION

Espacios vectoriales normados 329

Lema 4.1 Sean p y p∗ ´ındices conjugados. Entonces: 1.

1 1 = 1− . p∗ p

3. p∗ (p − 1) = p .

2.

1 1 = 1− ∗ . p p

4. p(p∗ − 1) = p∗ .

Lema 4.2 Sean a, b ∈ R un par de n´umeros positivos y p, p∗ ´ındices conjugados. Entonces, ∗

a1/p b1/p ≤

´ DEMOSTRACION

b a + p p∗

(4.47)

Q Sea α ∈ R, 0 < α < 1, y sea f : [0, ∞) → R la funci´on definida por f (x) = xα − αx + α. Entonces, f  (x) = α(xα−1 − 1) 

f (x) = α(α − 1)x

y

α−2

< 0 en (0, ∞).

Por tanto, el m´aximo de f en [0, ∞) se alcanza en x = 1 y, por ende, xα − αx + α ≤ f (1) = 1

∀x ∈ [0, ∞)

(4.48)

Sean α = 1/p y x = a/b. Entonces 0 < α < 1 y a/b ∈ (0, ∞), por tanto, al sustituir estos valores en (4.48) se obtiene: a1/p 1 a 1 + ≤1 − b1/p p b p Multipliquemos ambos lados de la desigualdad (4.49) por b para tener: a1/p b a b − + ≤ b, p p b1/p que equivale a b a +b− p p   1 a . = +b 1− p p

a1/p b1−1/p ≤

Pero 1 −

1 = p∗ (por el lema 4.1); por tanto, la desigualdad precedente se transforma en p ∗

a1/p b1/p ≤ que es lo que se quer´ıa demostrar.

Page (PS/TeX): 95 / 329, COMPOSITE

Q

b a + ∗ p p

(4.49)

330 CAPI´TULO 4

Espacios con producto interior y espacios normados

P Nota 4.15 Si sustituimos el caso particular p = 2 en (4.47) se obtiene a1/2 b1/2 ≤

a b + 2 2

y al elevar al cuadrado ambos lados de la desigualdad anterior ab ≤

(a + b)2 , 4

que equivale a 4ab ≤ a2 + 2ab + b2 ; esto es, 2ab ≤ a2 + b2 Es decir, que la desigualdad (4.47) tiene como caso particular la desigualdad (3.5) del lema 3.1 (cfr. p´ag. 123); que se utiliz´o para probar la desigualdad de Schwarz (teorema 3.1, cfr. p´ag. 124). El siguiente lema establece una generalizaci´on de la desigualdad de Schwarz en Rn , la desigualdad de H¨older, que como en el caso de la desigualdad de Schwarz, servir´a para demostrar la desigualdad triangular de la norma p.

Lema 4.3 Sean u = (x1 , x2 , . . . , xn ) y v = (y1 , y2 , . . . , yn ) un par de vectores en Rn y p, p∗ ´ındices conjugados. Entonces   n    1. (4.50)  ∑ xi yi  ≤ u p v p∗ (Desigualdad de H¨older) i=1  2.

´ DEMOSTRACION

u +v p ≤ u p + v p

(Desigualdad de Minkowski)

(4.51)

Q 1. Sea i ∈ {1, 2, . . . , n} un ´ındice fijo por el momento y pongamos31 a=

|xi | p u pp



b=

y

|yi | p



v pp∗

en la desigualdad (4.47) del lema 4.2, entonces ∗

|xi | |yi | 1 |xi | p 1 |yi | p ≤ ∗ p + ∗ u p v p∗ p u p p v pp∗

∀i = 1, 2, . . . , n.

Al sumar todos los ´ındices desde i = 1 hasta i = n en la precedente desigualdad obtenemos n

n 1 ∑ u v ∗ |xi ||yi | ≤ ∑ p p i=1 i=1





1 |xi | p 1 |yi | p ∗ p + ∗ p u p p v pp∗



1Observe la analog´ıa que hay con la demostraci´on de la desigualdad de Schwarz (teorema 3.1, cfr. p´ag. 124).

31

Page (PS/TeX): 96 / 330, COMPOSITE

´ 4.2 SECCION

Espacios vectoriales normados 331

que equivale a 1 u p v p∗

n

1

n

n

1

∑ |xi ||yi | ≤ p u p ∑ |xi | p + p∗ v p∗ ∑ |yi | p p i=1

i=1



p∗ i=1

∗ 1 1 u pp + v pp∗ = p∗ ∗ p u pp p v p∗

1 1 + =1 p p∗

= y, por tanto, n

∑ |xi ||yi | ≤ u p v p∗

(4.52)

i=1

Pero, puesto que |xi ||yi | = |xi yi | y por la desigualdad triangular para el valor absoluto de n´umeros reales, |∑ni=1 xi yi | ≤ ∑ni=1 |xi yi |, la desigualdad (4.52) implica    n    ∑ xi yi  ≤ u p v p∗ . i=1  2. Para cada i = 1, 2, . . . , n se tiene |xi + yi | p = |xi + yi ||xi + yi | p−1 ≤ (|xi | + |yi |) |xi + yi | p−1 = |xi ||xi + yi | p−1 + |yi ||xi + yi | p−1 y, por tanto, n

n

n

i=1

i=1

i=1

∑ |xi + yi | p ≤ ∑ |xi ||xi + yi | p−1 + ∑ |yi ||xi + yi | p−1 .

 Por (4.52), si w = |x1 + y1 | p−1 , |x2 + y2 | p−1 , . . . , |xn + yn | p−1 , n

∑ |xi ||xi + yi | p−1 ≤ u p w p∗

y

i=1 n

∑ |yi ||xi + yi | p−1 ≤ v p w p∗

i=1

Por lo que n

∑ |xi + yi | p ≤ u p w p∗ + v p w p∗

i=1

 = u p + v p w p∗ .

Pero,

 w p∗ =

∑ |xi + yi | n

∑ |xi + yi |

i=1

Page (PS/TeX): 97 / 331, COMPOSITE

1/p∗ (p−1)p∗

i=1

 =

n

1/p∗ p

.

332 CAPI´TULO 4

Espacios con producto interior y espacios normados

Por tanto, n

∑ |xi + yi |

p

i=1



≤ u p + v p





1/p∗

n

∑ |xi + yi |

p

,

i=1

de donde ∑ni=1 |xi + yi | p (∑ni=1 |xi + yi | p )

≤ u p + v p ;

1/p∗

esto es: 

1−1/p∗

n

∑ |xi + yi | p

≤ u p + v p

i=1

que equivale (pues 1 − 1/p∗ = 1/p) a 

n

1/p

∑ |xi + yi |

p

≤ u p + v p .

i=1

Es decir, u +v p ≤ u p + v p .

Q

P Nota 4.16 Observe que la desigualdad de H¨older (4.50) tiene como caso particular la desigualdad de Schwarz en Rn ; pues si sustituimos p = 2 en e´ sta obtenemos |u ·v| ≤ u2 v2 ; pero ·2 es precisamente la norma can´onica inducida por el producto punto de vectores en Rn . Estamos ya capacitados para demostrar que las normas p son efectivamente normas en Rn , lo cual hacemos en el siguiente teorema. Teorema 4.23 Si p ≥ 1 es un n´umero real, entonces  u p =

n

∑ |xi |

1/p p

,

n=1

u = (x1 , x2 , . . . , xn ), es una norma en Rn .

´ DEMOSTRACION

Q Si p = 1, ya probamos esta afirmaci´on en el ejemplo 4.42 (cfr. p´ag. 305). Supongamos entonces que p > 1. 1. u p = (∑nn=1 |xi | p )1/p ≥ 0

∀u = (x1 , x2 , . . . , xn ) ∈ Rn .

2. Claramente 0Rn  p = 0. Supongamos que u p = 0, entonces |xi | p ≤

n

∑ |xi | p = u pp = 0 ⇒ xi = 0 ∀i ⇒ u = 0Rn .

n=1

Page (PS/TeX): 98 / 332, COMPOSITE

´ 4.2 SECCION

Espacios vectoriales normados 333

3. Si λ ∈ R y u = (x1 , x2 , . . . , xn ) ∈ Rn , entonces 

1/p

n

∑ |λxi |

u p =

p

n=1

 =

|λ|

p

1/p

n

∑ |xi |

n=1



n

∑ |xi |

= |λ|

p

1/p p

n=1

= |λ| u p . 4. La desigualdad triangular ya se prob´o en el lema 4.3 (desigualdad de Minkowski (4.51)). Q  Ejemplo 4.57 Mostrar, sin utilizar el teorema de equivalencia de normas en espacios de dimensi´on finita, que si p > 1, entonces · p ∼ ·∞ en el espacio euclidiano Rn . ´ DEMOSTRACION

Q Sea u = (x1 , x2 , . . . , xn ) ∈ Rn , entonces |xi | p ≤ u∞p

∀i = 1, 2, . . . , n.

Por tanto, n

n

i=1

i=1

∑ |xi | p ≤ ∑ u∞p = n u∞p .

Luego, 

n

1/p

∑ |xi |

p

≤ n1/p u∞

i=1

(4.53)

Por otra parte, es claro que n

u∞p ≤ ∑ |xi | p , i=1

de donde  u∞ ≤

n

∑ |xi |

1/p p

(4.54)

i=1

De (4.53) y (4.54) se desprende u∞ ≤ u p ≤ n1/p u∞ Y, por ende, · p ∼ ·∞ con α = 1 y β = n1/p .

Page (PS/TeX): 99 / 333, COMPOSITE

Q

(4.55)

334 CAPI´TULO 4

Espacios con producto interior y espacios normados

p=8 p=5 p=3 p=2 p=1

S||·||∞

Figura 4-29 • La norma p de cualquier vector tiende a la norma c´ubica de e´ ste cuando p toma valores cada vez m´as grandes. En esta figura hemos graficado las esferas S(0, r) relativas a la norma p = 1, 2, 3, 5, 8 y la esfera S·∞ de mismo centro y radio relativa a la norma c´ubica. Observe c´omo las esferas para las normas p son cada vez m´as cercanas a la esfera para la norma c´ubica en la medida en que p crece.

Ahora estamos listos para explicar la raz´on de la notaci´on ·∞ para la norma c´ubica. Para ello, fijemos un vector arbitrario u ∈ Rn y calculemos l´ım u p .

p→∞

Por (4.55) se tiene u∞ ≤ l´ım u p ≤ l´ım n1/p u∞ = 1 · u∞ ; p→∞

n→∞

de donde l´ım u p = u∞ .

p→∞

Esto es, la norma p tiende a la norma c´ubica cuando p tiende a infinito. Debido a este hecho es que tradicionalmente a la norma c´ubica se le denota con el s´ımbolo  · ∞ . En la figura 4-29, hemos graficado las esferas de centro (0, 0) relativas a la norma p para algunos valores crecientes de p y la esfera de mismo centro relativa a la norma c´ubica, todas con el mismo radio r. En ella se puede observar c´omo las p-esferas se aproximan al cuadrado de arista 2r con centro en el origen (la esfera para la norma c´ubica) conforme p aumenta.

´ de normas en espacios de dimension ´ finita a partir de normas en Rn 4.2.5 Construccion En esta breve subsecci´on veremos c´omo es posible, de manera natural, construir normas en un espacio de dimensi´on finita a trav´es de normas en Rn . Esta construci´on siempre depender´a de la base con la

Page (PS/TeX): 100 / 334, COMPOSITE

´ 4.2 SECCION

Espacios vectoriales normados 335

que se est´en describiendo los vectores del espacio. En realidad, el objetivo de este apartado es ahorrar tiempo al lector para que no tenga que demostrar que las normas que se definen por analog´ıa directa de normas en Rn a espacios de dimensi´on finita, son efectivamente normas en estos espacios. Sean E un espacio vectorial de dimensi´on finita y {e1 ,e2 , . . . ,en } una base de este espacio; entonces si u ∈ E, existen escalares a1 , a2 , . . . , an tales que u = a1e1 + a2e2 + · · · + anen

(4.56)

Si b1 , b2 , . . . , bn son escalares tales que tambi´en u = b1e1 + b2e2 + · · · + bnen , entonces, (a1 − b1 )e1 + (a2 − b2 )e1 + · · · + (an − bn )e1 = 0E y puesto que los vectores ei son L.I., se desprende que ai = bi

∀i = 1, 2, . . . , n.

Luego, todo vector u ∈ E se puede escribir como combinaci´on lineal de los vectores ei como en (4.56) de manera u´ nica. Si convenimos en que el orden en los t´erminos de (4.56) es el mismo para cualquier vector (el primer t´ermino es un escalar que multiplica al primer vector e1 , el segundo t´ermino un escalar por el vector e2 , etc., y el u´ ltimo t´ermino es un escalar que multiplica al vector en ), diremos que la base est´a ordenada y escribiremos (e1 ,e2 , . . . ,en ) en lugar de {e1 ,e2 , . . . ,en } para subrayar este hecho.32 En tal caso a (a1 , a2 , . . . , an ) le llamaremos el vector de coordenadas del vector u relativo a la base ordenada (e1 ,e2 , . . . ,en ).  Ejemplo 4.58 Sea la base ordenada (3, x − 1, 2x2 ) del espacio de polinomios P2 . Encontrar el vector de coordenadas del polinomio p(x) = 1 − 3x + 4x2 relativo a esta base ordenada. ´ Solucion

Busquemos escalares a1 , a2 , a3 , tales que a1 · 3 + a2 · (x − 1) + a3 (2x2 ) = 1 − 3x + 4x2 ;

entonces, 3a1 − a2 + a2 x + 2a3 x2 = 1 − 3x + 4x2 y, por tanto, 3a1 − a2 = 1, a2 = −3, 2a3 = 4;

1Cfr. la discusi´on que precede al teorema 4.9 en la p´agina 265.

32

Page (PS/TeX): 101 / 335, COMPOSITE

336 CAPI´TULO 4

Espacios con producto interior y espacios normados

de donde 2 a2 = −3, a3 = 2, a1 = − . 3 Por lo que el vector de coordenadas del polinomio p(x) relativo a esta base ordenada es (−2/3, −3, 2).



Sea ahora  ·  una norma en Rn (no necesariamente la can´onica) y (e1 ,e2 , . . . ,en ) una base ordenada del espacio E. Entonces, si u ∈ E y (a1 , a2 , . . . , an ) ∈ Rn es el vector de coordenadas de u relativo a la base ordenada, definimos uE = (a1 , a2 , . . . , an ) . Afirmamos que e´ sta es una norma en E. En efecto: 1. uE = (a1 , a2 , . . . , an ) ≥ 0

∀u ∈ E.

2. 0E = 0 ·e1 + 0 ·e2 + · · · + 0 ·en , por tanto, 0E E = 0Rn  = 0. uE = 0 ⇒ (a1 , a2 , . . . , an ) = 0 ⇒ (a1 , a2 , . . . , an ) = 0Rn ⇒ u = a1e1 + a2e2 + · · · + anen = 0E . 3. Si λ ∈ R y u = a1e1 + a2e2 + · · · + anen ∈ E, entonces λuE = λ (a1e1 + a2e2 + · · · + anen )E = (λa1 )e1 + (λa2 )e2 + · · · + (λan )en E = λ(a1 , a2 , . . . , an ) = |λ| (a1 , a2 , . . . , an ) = |λ| uE . 4. Si u,v ∈ E y (a1 , a2 , . . . , an ), (b1 , b2 , . . . , bn ) son los vectores de coordenadas de u y v, respectivamente, entonces u +vE = (a1 + b1 )e1 + (a2 + b2 )e2 + · · · + (an + bn )en E = (a1 + b1 , a2 + b2 , . . . , an + bn ) = (a1 , a2 , . . . , an ) + (b1 , b2 , . . . , bn ) ≤ (a1 , a2 , . . . , an ) + (b1 , b2 , . . . , bn ) = uE + vE .  Ejemplo 4.59 Sea el caso dado en el ejemplo 4.58 y la norma can´onica en Rn , ·. Entonces p(x)P2 = (−2/3, −3, 2) =

11 . 3

Si se toma ·∞ en lugar de la can´onica se tiene p(x)P2 = (−2/3, −3, 2)∞ = 3.

Page (PS/TeX): 102 / 336, COMPOSITE

´ 4.2 SECCION

Espacios vectoriales normados 337

Rec´ıprocamente, toda norma  · E del espacio E produce una norma en Rn ; pues si (a1 , a2 , . . . , an ) ∈ Rn y u = a1e1 + a2 e2 + · · · + an en , entonces la aplicaci´on (a1 , a2 , . . . , an ) → (a1 , a2 , . . . , an ) = uE en una norma en Rn .

´ 4.2.6 Aproximaciones optimas en espacios normados Aqu´ı veremos c´omo es posible encontrar aproximaciones o´ ptimas en espacios normados como lo hicimos en espacios con producto interior; aunque dicha norma no necesariamente provenga de un producto escalar. Definici´on 4.17 (Aproximaciones o´ ptimas) Sean E un espacio vectorial normado con norma  · , u un vector dado de E y S un subespacio. Decimos que p∗ es aproximaci´on o´ ptima de u en S si   u − p∗  ≤ u −v ∀v ∈ S o, de manera equivalente, si   m´ın u −v = u − p∗  . v∈S

El siguiente teorema garantiza la existencia de aproximaciones o´ ptimas en el caso de ser S un subespacio de dimensi´on finita. Su demostraci´on requiere de algunos conceptos b´asicos de funciones continuas en espacios vectoriales normados y la postergaremos al ap´endice C. Invitamos al lector a que la consulte en el momento que desee y recomendamos su lectura, pues tiene aspectos muy interesantes y puede ser de gran provecho el intentar comprenderlos, al menos grosso modo. Teorema 4.24 (Aproximaciones o´ ptimas en espacios normados) Sean E un espacio vectorial normado con norma  · , S un subespacio de dimensi´on finita en E y u un vector dado de E. Entonces, existe una aproximaci´on o´ ptima p∗ de u en S.

´ Aproximaciones optimas en C[a, b] con la norma uniforme Sean f ∈ C[a, b] y S = Pn = gn(1, x, x2 , . . . , x n ); por el teorema 4.24 existe un polinomo p∗n (x) de grado a lo m´as n tal que  f − p∗n ∞ ≤  f − pn ∞ para todo polinomio pn de grado a lo m´as n. Esto ocurre para cada n ∈ N; como es natural, surge la cuesti´on de si la sucesi´on de aproximaciones o´ ptimas p∗n , n = 1, 2, . . . , converge a f respecto a la norma uniforme; esto es, l´ım  f − p∗n ∞ = 0.

n→∞

Page (PS/TeX): 103 / 337, COMPOSITE

338 CAPI´TULO 4

Espacios con producto interior y espacios normados

f +ε pn f

ε ε

f −ε

Figura 4-30 • Si f ∈ C[a, b], para cualquier bola abierta B( f , ε), relativa a la norma uniforme  · ∞ , existe un polinomio de grado n dentro de ella.

Recordemos que en el caso de las aproximaciones o´ ptimas de polinomios trigonom´etricos a funciones continuas vimos que esta convergencia se daba en promedio cuadr´atico; esto es, para la norma  f − g =  1/2 b 2 ( f − g) . Para las aproximaciones o´ ptimas, con la norma uniforme, esto tambi´en sucede. El a teorema que garantiza este hecho es uno de los m´as c´elebres e importantes resultados en las matem´aticas. A continuaci´on lo enunciamos y haremos su demostraci´on plausible en la discusi´on posterior. Teorema 4.25 (De aproximaci´on de Weierstrass) Sea f ∈ C[a, b]. Entonces, para cada ε > 0 existe un polinomio pn de grado n (que depende de ε) tal que  f − pn ∞ < ε

(4.57)

La interpretaci´on geom´etrica de este teorema viene ilustrada en la figura 4-30. En ella se muestra una funci´on continua f en un intervalo [a, b], una bola de centro f y radio ε respecto a la norma uniforme  · ∞ y un polinomio pn dentro de esta bola; por lo cual (4.57) se cumple para este polinomio. P Nota 4.17 1. El teorema de aproximaci´on de Weierstrass equivale a que, para cada funci´on f ∈ C[a, b], existe una sucesi´on de polinomios (pn ) que converge uniformemente a f , i.e., l´ım  f − pn ∞ = 0

n→∞

(4.58)

En efecto, si (pn ) es una sucesi´on de polinomios tal que l´ımn→∞  f − pn ∞ = 0 y ε > 0 es dado, entonces, por definici´on de l´ımite, existe n0 ∈ N tal que    f − pn  < ε 0 ∞ y se cumple entonces (4.57) del teorema de Weierstrass. Supongamos inversamente que se cumple (4.57) del teorema 4.25, entonces para cada n ∈ N, existe un polinomio pn tal que

Page (PS/TeX): 104 / 338, COMPOSITE

´ 4.2 SECCION

 f − pn ∞
0 es dado, por el teorema aproximaci´on de Weierstrass existe un polinomio de grado n0 ∈ N tal que    f − pn  < ε. 0 ∞ Sea p∗n una sucesi´on de aproximaciones o´ ptimas para la funci´on f (cuya existencia est´a garantizada por el teorema 4.24), entonces      f − p∗n  ≤  f − pn  < ε. 0 ∞ 0 ∞ Dado que Pn ⊂ Pm si n ≤ m, se desprende que  f − p∗m  ≤  f − p∗n  . Por lo que,    f − p∗n ∞ ≤  f − p∗n0 ∞ < ε

∀n ≥ n0 .

Por tanto, l´ım  f − p∗n ∞ = 0

n→∞

como afirmamos en la discusi´on ulterior al teorema 4.24.

´ por polinomios de Bernstein Aproximacion Es posible hacer una demostraci´on constructiva del teorema de aproximaci´on de Weierstrass haciendo expl´ıcita la sucesi´on de polinomios que converge uniformemente a la funci´on dada. Esto se realiza mediante los llamados polinomios de Bernstein.

Definici´on 4.18 Sean f ∈ C[0, 1] y n ∈ N. Se define el n-´esimo polinomio de Bernstein para la funci´on f como    n n k k Bn (x) = ∑ f x (1 − x)n−k n k k=0 donde

  n n! = k!(n − k)! k

es el usual coeficiente binomial.

 Ejemplo 4.60 Sea la funci´on continua en [0, 1], f (x) = x cos(20x) + 4;

Page (PS/TeX): 105 / 339, COMPOSITE

340 CAPI´TULO 4

Espacios con producto interior y espacios normados

entonces:    1 k k x (1 − x)1−k 1 k k=0     1 0 1 1 = f (0) x (1 − x)1 + f (1) x (1 − x)0 0 1

B1 (x) =

1.

1

∑f

= 4(1 − x) + (cos(20) + 4) x = 4 + cos(20)x.    2 2 k k x (1 − x)2−k B2 (x) = ∑ f 2 k k=0      2 1 2 0 1 2 x (1 − x)1 = f (0) x (1 − x) + f 2 1 0   2 2 + f (1) x (1 − x)0 2   1 cos(10) + 4 x(1 − x) = 4(1 − x)2 + 2 2

2.

+ (cos(20) + 4) x2 = 4 − (cos 10)x + (cos 20 − cos 10)x2 . En la figura 4-31 se muestran aproximaciones sucesivas para la funci´on f (x) = x cos(20x) + 4 mediante polinomios de Bernstein Bn para los valores n = 30, 50, 100, 150, 180, 250 y n = 260. En ella se puede observar c´omo  f − Bn ∞ → 0, debido a que el m´aximo de | f (x) − Bn (x)| va tendiendo a cero en la medida que n aumenta. 5

5

B30 B50 f

4.5

B100 B150 f

4.5

4

4

3.5

3.5

3

3 0

5

0.2

0.4

0.6

0.8

5

B180 B250 f

4.5

0

1

4

3.5

3.5

0.4

0.6

0.8

1

0.4

0.6

0.8

1

B260 f

4.5

4

0.2

3

3 0

0.2

0.4

0.6

0.8

1

0

0.2

Figura 4-31 • Aproximaciones sucesivas de polinomios de Bernstein Bn , para diversos valores n (30, 50, 100, 150, 180, 250 y 260), a la funci´on f (x) = x cos(20x) + 4.

Page (PS/TeX): 106 / 340, COMPOSITE

´ 4.2 SECCION

Espacios vectoriales normados 341

P Nota 4.18 Los polinomios de Bernstein aproximan uniformemente a funciones continuas en el intervalo [0, 1] y el teorema de Weierstrass afirma que este tipo de aproximaci´on uniforme se puede efectuar en cualquier intervalo [a, b]. Pero en realidad, bajo una simple translaci´on, se pueden construir los polinomios de Bernstein para funciones continuas en un intervalo [a, b]. En efecto, si f ∈ C[a, b], sea x = g(t) = (b − a)t + a, 0 ≤ t ≤ 1, entonces la funci´on f (x) = f (g(t)) es una funci´on continua en [0, 1] y los polinomios de Bernstein Bn (x) = Bn (g(t)) aproximan uniformemente a f (g(t)) en [0, 1] y, por tanto, aproximan uniformemente a f (x) en [a, b].

4.2.7 ¿Que´ norma utilizar? Cuando se busca la aproximaci´on o´ ptima de un elemento de un espacio normado mediante elementos de un subespacio, dicha aproximaci´on depende de la norma con la que se est´e trabajando. La elecci´on de la norma en el espacio depende a su vez del tipo de problema que se desee resolver. Con el prop´osito de aclarar esta situaci´on, planteamos a continuaci´on dos ejemplos cl´asicos, en donde veremos c´omo se elige la norma en una situaci´on espec´ıfica, y, de paso, por qu´e se definen de manera natural, en problemas de aplicaci´on, dos de las normas m´as importantes en el espacio C[a, b].

Problema de Chebichev P. Lvovich Chebichev fue uno de los m´as grandes matem´aticos rusos del siglo XIX; aparte de haber sido el creador de las bases de varias disciplinas matem´aticas, las cuales a´un est´an en pleno desarrollo, fue un notable ingeniero. Uno de sus intereses como tal, fue la construcci´on de un mecanismo capaz de reproducir el movimiento de una trayectoria dada. Sea y = f (x), a ≤ x ≤ b, la trayectoria que se pretende reproducir. Se desea construir, bajo ciertos requisitos t´ecnicos, un mecanismo tal que uno de sus dispositivos describa esta curva tan exactamente como sea posible cuando entre en funcionamiento. Chebichev, como buen ingeniero, construy´o inicialmente un mecanismo que obtuviera una aproximaci´on burda de la trayectoria dada. As´ı, un dispositivo de este mecanismo inicial describir´a una curva y = ϕ(x)

(4.59)

parecida a la curva dada y = f (x) como se ilustra en la figura 4-32. Este primer mecanismo consta de ciertos dispositivos (engranes, palancas, etc.) todos ellos con medidas espec´ıficas, α1 , α2 , . . . , αn , que lo describen completamente y, por tanto, a la curva (4.59); son estos n´umeros los par´ametros del mecanismo y de esta curva. Mejorar la aproximaci´on del mecanismo significa modificar los par´ametros αi para ese fin. Aqu´ı fue donde Chebichev abord´o el problema matem´aticamente. Para ello, consider´o los posibles mecanismos que describir´ıan curvas y = ϕ(x, α1 , α2 , . . . , αn )

(4.60)

para cada conjunto de par´ametros αi , i = 1, 2, . . . , n. Cada una de e´ stas, representa una aproximaci´on de la trayectoria y = f (x). Sea y = ϕ(x) la curva descrita por (4.60), donde por simplicidad hemos omitido los par´ametros αi , y sea m = m(α1 , α2 , . . . , αn ) = m´ax | f (x) − ϕ(x)| a≤x≤b

Page (PS/TeX): 107 / 341, COMPOSITE

342 CAPI´TULO 4

Espacios con producto interior y espacios normados

y = ϕ(x) m y = f (x)

b

a

Figura 4-32 • Una trayectoria dada y = f (x) y una burda aproximaci´on de la misma, y = ϕ(x); esta u´ ltima est´a perfectamente determinada por los par´ametros αi del mecanismo que la produce.

como se ilustra en la figura 4-32. Entonces, dado que | f (x) − ϕ(x)| ≤ m´ax | f (x) − ϕ(x)| = m(α1 , α2 , . . . , αn ) a≤x≤b

se tiene | f (x) − ϕ(x)| ≤ m(α1 , α2 , . . . , αn )

∀x ∈ [a, b].

Luego, si m(α1 , α2 , . . . , αn ) es peque˜no, entonces | f (x) − ϕ(x)| es todav´ıa menor, para cada x ∈ [a, b]; por tanto, ϕ(x) ser´a m´as pr´oximo a f (x), en la medida que m(α1 , α2 , . . . , αn ) sea menor; por ende, las gr´aficas de f y ϕ ser´an muy parecidas si m(α1 , α2 , . . . , αn ) es muy peque˜no. En t´erminos de la jerga que hemos utilizado en este cap´ıtulo m(α1 , α2 , . . . , αn ) =  f − ϕ∞ . Luego, de entre todas las funciones y = ϕ(x, α1 , α2 , . . . , αn ), se busca aquella para la cual m(α1 , α2 , . . . , αn ) sea m´ınimo; es decir, se tiene que encontrar, de entre todos los conjuntos admisibles de par´ametros α1 , α2 , . . . , αn ,   m´ın  f − ϕ(α ,α ,...,α )  1

(α1 ,α2 ,...,αn )

2

n



donde las ϕ(α1 ,α2 ,...,αn ) son las curvas parametrizadas dadas por (4.60). Es as´ı como Chebichev introduce la norma uniforme (tambi´en llamada norma de Chebichev) para resolver este tipo de problemas. Note que   m´ın m´ax | f (x) − ϕ(x)| ; m´ın  f − ϕ(α ,α ,...,α )  = (α1 ,α2 ,...,αn )

1

2

n



(α1 ,α2 ,...,αn ) a≤x≤b

raz´on por la cual algunos m´etodos actuales de soluci´on de problemas an´alogos a e´ ste son llamados m´etodos “m´ınimax”.

Problema de la cuerda vibrante Supongamos ahora que una cuerda de longitud L est´a sujeta en sus dos extremos, el izquierdo en el origen de coordenadas y el derecho en (0, L). La cuerda se encuentra tensa con una fuerza de tensi´on

Page (PS/TeX): 108 / 342, COMPOSITE

´ 4.2 SECCION

Espacios vectoriales normados 343

y = f (x)

L (a)

(b)

Figura 4-33 • (a) Cuerda tensa, sujeta en sus dos extremos, de longitud L en estado de equilibrio (sin vibrar). (b) “Instant´anea”, en el tiempo t = τ , de la cuerda en uno de sus estados de oscilaci´on.

T , como se muestra en la figura 4-33(a). En el instante t = 0 se modifica su estado estir´andola de su posici´on de equilibrio para que comience a vibrar en el plano x, y (se supone que la amplitud de la vibraci´on es peque˜na). En el instante t = τ , la cuerda tiene la forma de una funci´on y = f (x) como se ilustra en la figura 4-33(b). Se desea encontrar una funci´on y = ϕ(x) que aproxime la forma que tiene la cuerda en el instante t = τ ; es decir, que aproxime a la curva y = f (x). El criterio de proximidad en este caso ser´a f´ısico m´as que geom´etrico. Para ello pensemos que tenemos otra cuerda exactamente igual que la primera, sujeta tambi´en en sus extremos en sendos puntos (0, 0) y (0, L), pero cuya forma es precisamente la gr´afica de la aproximaci´on y = ϕ(x) como se muestra en la figura 4-34. El criterio de proximidad que utilizaremos en este caso ser´a mediante la energ´ıa potencial; es decir, la mejor aproximaci´on ser´a aquella para la cual la diferencia de energ´ıa potencial entre las cuerdas y = f (x) y y = ϕ(x) sea m´ınima. Calculemos la energ´ıa potencial para la cuerda y = f (x); es decir, el trabajo realizado por la fuerza de tensi´on para obtener la forma de esta cuerda desde la posici´on de equilibrio. Sea x un punto en el intervalo [0, L] y dx un peque˜no incremento de x y calculemos el diferencial del trabajo, dU, realizado por la fuerza de tensi´on T para estirar el segmento de cuerda [x, x + dx] de la posici´on de equilibrio a la forma de la curva y = f (x) en este intervalo.

y = ϕ(x) y = f (x)

Figura 4-34 • La misma “instant´anea” de la cuerda y = f (x) en el instante t = τ y una aproximaci´on a ella, y = ϕ(x).

Page (PS/TeX): 109 / 343, COMPOSITE

344 CAPI´TULO 4

Espacios con producto interior y espacios normados

y = f (x)

dy dx

x

x + dx

Figura 4-35 • La cuerda y = f (x) en el instante t = τ . La longitud del segmento de esta curva en el intervalo [x, x + dx] se puede aproximar mediante la hipotenusa del tri´angulo rect´angulo cuyos catetos son dx y dy.

De la figura 4-35 se desprende que el incremento de longitud en este intervalo es aproximadamente 

2 dy 1+ dx dx  = 1 + ( f  (x))2 dx

 (dx)2 + (dy)2 =



Al multiplicar por la fuerza de tensi´on T la diferencia de longitudes entre la cuerda en el estado y = f (x) y la cuerda en estado de equilibrio en el intervalo [x, x + dx], obtenemos el diferencial de la energ´ıa potencial   2  dU = T 1 + ( f (x)) dx − dx ; esto es, dU = T

  1 + ( f  (x))2 − 1 dx.

Dado que la amplitud de las oscilaciones es peque˜na, podemos utilizar el desarrollo de Taylor para obtener  1 2 1 + ( f  (x))2 ≈ 1 + ( f  (x)) . 2 Luego, dU ≈

T  2 ( f (x)) dx. 2

Por tanto, la energ´ıa potencial total de la cuerda es U=

Page (PS/TeX): 110 / 344, COMPOSITE

T 2



L 0

2

( f  (x)) dx.

´ 4.2 SECCION

Espacios vectoriales normados 345

As´ı, la diferencia de energ´ıas potenciales entre las cuerdas y = f (x) y y = ϕ(x) est´a dada por T 2



L 0

( f  (x))2 dx −

T 2



L 0

(ϕ (x))2 dx.

Ahora bien, pongamos para simplificar por el momento notaci´on, α2 = β2 =



L

0



0

L

( f  (x))2 dx

y

(ϕ (x))2 dx.

Entonces, |α2 − β 2 | = |(α + β)(α − β)| ≤ (|α| + |β|)|α − β|; esto es,

⎛ ⎞   L   L  L  L    ( f  (x))2 dx − (ϕ (x))2 dx ≤ ⎝ ( f  (x))2 dx + (ϕ (x))2 dx⎠  0 0 0 0      L   L    2  2  · ( f (x)) dx − (ϕ (x)) dx . 0 0  

 Pero

L

0

(g (x))2 dx = g , la norma inducida por el producto interior g, h =

L 0

g(x)h(x)dx (norma

cuadrado medio); por tanto ⎛ ⎞   L   L  L  L    ( f  (x))2 dx − (ϕ (x))2 dx ≤ ⎝ ( f  (x))2 dx + (ϕ (x))2 dx⎠  f  − ϕ  .  0 0 0 0 Como hemos supuesto que las oscilaciones son peque˜nas y que se trata de la misma cuerda tanto pa L  ( f (x))2 dx ≤ M 2 y ra y = f (x) como para y = ϕ(x), podemos suponer que existe M > 0 tal que 

0

L

0



2

2

(ϕ (x)) dx ≤ M (para cualquier aproximaci´on ϕ). Entonces  L   L    2   ( f  (x))2 dx − (ϕ (x)) dx ≤ 2M  f  − ϕ  .  0 0

Por lo que si  f  − ϕ  es m´ınima, entonces la diferencia de energ´ıa potencial  L   L    2   ( f  (x))2 dx − (ϕ (x)) dx  0  0 tambi´en ser´a m´ınima. As´ı, eligiendo ϕ de tal suerte que  f  − ϕ  sea m´ınima, se habr´a cumplido el criterio de proximidad. De  esta manera, hemos visto c´omo surge, en problemas de aplicaci´on, la norma cuadrado medio g =

Page (PS/TeX): 111 / 345, COMPOSITE



a

b

(g(x))2 dx en C[a, b] y tambi´en c´omo se aplica para aproximar una funci´on.

346 CAPI´TULO 4

Espacios con producto interior y espacios normados

´ de las normas g = Comparacion



2 b a (g(x)) dx

y g∞

Supongamos que se tiene una sucesi´on de funciones ϕn continuas en [a, b] que converge uniformemente a f ∈ C[a, b]; i.e., l´ım  f − ϕn ∞ = 0

n→∞

entonces, dado que 

b a

| f (x) − ϕn (x)|2 dx ≤

 a

b

 f − ϕn 2∞ dx = (b − a)  f − ϕn 2∞

se sigue que 

l´ım

n→∞ a

b

| f (x) − ϕn (x)|2 dx = 0;

es decir, l´ım  f − ϕn  = 0

n→∞

(4.61)

Por tanto, convergencia uniforme implica convergencia en promedio cuadr´atico. Sin embargo, no es dif´ıcil ver que convergencia en promedio cuadr´atico no implica convergencia uniforme (cfr. el ejercicio resuelto 47, p´ag. 382). Esta es, aparentemente, una ventaja de la norma uniforme respecto a la norma cuadrado medio. Mas como explicamos arriba, la elecci´on de la norma depende de la naturaleza del problema que se est´e tratando y no de una elecci´on arbitraria de e´ sta.33 Pero, en realidad, la norma cuadrado medio tiene tambi´en una fortaleza muy importante que la convierte en una herramienta con un espectro de aplicaci´on mayor que la norma uniforme. Aunque la convergencia en promedio cuadr´atico no implica convergencia uniforme, se puede probar que si la sucesi´on (ϕn ) converge en promedio cuadr´atico a la funci´on f , i.e., se cumple (4.61), entonces la sucesi´on (ϕn ) contiene una subsucesi´on ψn que converge puntualmente a la funci´on f , excepto en un conjunto de puntos del intervalo [a, b] que tiene medida cero; esto es l´ım ψn (x) = f (x)

n→∞

para cada punto x ∈ [a, b] − Z donde Z es un subconjunto de [a, b] de “longitud cero”; por lo general, un conjunto finito o una sucesi´on de puntos del intervalo [a, b] (un conjunto numerable). As´ı, la subsucesi´on ψn aproxima puntualmente a la funci´on f en “casi todos los puntos” del intervalo [a, b] y se puede mostrar que tambi´en converge en promedio a la funci´on f . En muchos problemas, con esto es suficiente, ah´ı radica la importancia que tiene la norma cuadrado medio y la convergencia en promedio cuadr´atico. P Nota 4.19 Se puede probar que en realidad dicha subsucesi´on, (ψn ), se puede elegir de tal suerte que dado cualquier ε > 0, existe un subconjunto M del intervalo [a, b] de longitud inferior a ε, tal que la subsucesi´on (ψn ) converge uniformemente a la funci´on f en [a, b] − M (y, por tanto, tambi´en en promedio).

1Recuerde que este no es el caso de espacios vectoriales de dimensi´on finita; pues en ellos todo par de normas son equivalentes.

33

Page (PS/TeX): 112 / 346, COMPOSITE

´ 4.3 SECCION

Ejercicios resueltos y ejercicios propuestos 347

4.3 Ejercicios resueltos y ejercicios propuestos 4.3.1 Ejercicios resueltos Espacios con producto interior 11 En R3 si x = (x1 , x2 , x3 ) y y = (y1 , y2 , y3 ) se define

x,y = y1 x1 − 2y1 x2 − 2y2 x1 + 6y2 x2 + y2 x3 + y3 x2 + y3 x3 . Probar que x,y es un producto interior en R3 . ´ DEMOSTRACION

Q Sean u = (u1 , u2 , u3 ),v = (v1 , v2 , v3 ),w = (w1 , w2 , w3 ) ∈ R3 y λ ∈ R: 1. (Simetr´ıa) u,v = v1 u1 − 2v1 u2 − 2v2 u1 + 6v2 u2 + v2 u3 + v3 u2 + v3 u3 y v,u = u1 v1 − 2u1 v2 − 2u2 v1 + 6u2 v2 + u2 v3 + u3 v2 + u3 v3 = v1 u1 − 2v1 u2 − 2v2 u1 + 6v2 u2 + v2 u3 + v3 u2 + v3 u3 ; es decir, u,v = v,u. 2. (Homogeneidad)

λu,v = (λu1 , λu2 , λu3 ), (v1 , v2 , v3 ) = v1 (λu1 ) − 2v1 (λu2 ) − 2v2 (λu1 ) + 6v2 (λu2 ) + v2 (λu3 ) + v3 (λu2 ) + v3 (λu3 ) = λ(v1 u1 − 2v1 u2 − 2v2 u1 + 6v2 u2 + v2 u3 + v3 u2 + v3 u3 ) = λ u,v .

3. (Aditividad)

u,v + w = (u1 , u2 , u3 ), (v1 + w1 , v2 + w2 , v3 + w3 ) = (v1 + w1 )u1 − 2(v1 + w1 )u2 − 2(v2 + w2 )u1 + 6(v2 + w2 )u2 + (v2 + w2 )u3 + (v3 + w3 )u2 + (v3 + w3 )u3 = v1 u1 − 2v1 u2 − 2v2 u1 + 6v2 u2 + v2 u3 + v3 u2 + v3 u3 + w1 u1 − 2w1 u2 − 2w2 u1 + 6w2 u2 + w2 u3 + w3 u2 + w3 v3 = u,v + u,w .

4. (Positividad)

u,u = u21 − 4u1 u2 + 6u22 + 2u2 u3 + u23 = u21 − 4u1 u2 + 4u22 + u22 + 2u2 u3 + u23 + u22 = (u1 − 2u2 )2 + (u2 + u3 )2 + u22 ≥ 0.

Page (PS/TeX): 113 / 347, COMPOSITE

348 CAPI´TULO 4

Espacios con producto interior y espacios normados

u,u = 0 ⇔

5. (Positividad)

(u1 − 2u2 )2 + (u2 + u3 )2 + u22 = 0 ⇔ u1 = u2 = u3 = 0 ⇔ u = 0R3 . De 1, 2, 3, 4 y 5, x,y es un producto interior.

Q

En los ejercicios 2 a 4, P es el espacio de polinomios. 12 Probar que para todo f ∈ P la integral impropia  ∞

f (x)e−x dx

0

converge. ´ DEMOSTRACION

Q Sea f un polinomio; claramente si f = θ es el polinomio constante cero, la integral impropia converge al valor real cero. Si f tiene grado 0, f es un polinomio constante, f (x) = k ∀x; entonces 

∞ 0

f (x)e−x dx = l´ım



r

r→∞ 0

ke−x dx

x=r = k l´ım −e−x x=0 r→∞

= k l´ım −e−r + 1 r→∞

= k. Si f tiene grado n = 1, entonces f (x) = a + bx para alg´un par de n´umeros reales a, b y  0



f (x)e−x dx = l´ım



r

r→∞ 0

=





0

(a + bx)e−x dx

ae−x dx + b l´ım 

= a + b l´ım

r→∞



r

r→∞ 0

xe−x dx



x=r −xe−x x=0 +



r 0

−x



e dx

x=r x=r

= a + b l´ım −xe−x x=0 − e−x x=0 r→∞ ! r = a + b l´ım − r − (e−r − 1) r→∞ e = a + b; as´  ı que la integral impropia converge. Sea f un polinomio de grado n y suponga que la integral impropia ∞

0

g(x)e−x dx converge para todo polinomio de grado n − 1. Entonces, ya que 

∞ 0

f (x)e−x dx = l´ım



r→∞ 0

r

f (x)e−x dx

 x=r  = l´ım − f (x)e−x x=0 + r→∞



= l´ım f (0) − r→∞

Page (PS/TeX): 114 / 348, COMPOSITE



r 0

f (r) + l´ım r→∞ er

f  (x)e−x dx 

r 0



f  (x)e−x dx

´ 4.3 SECCION



y por hip´otesis de inducci´on

0



Ejercicios resueltos y ejercicios propuestos 349

f  (x)e−x dx converge ( f  (x) es un polinomio de grado n − 1) y f (r) =0 er

l´ım

r→∞

(al aplicar sucesivamente la regla de L’Hˆopital eventualmente se obtendr´a el cociente de una constante sobre la funci´on r → er que tiende a cero conforme r tiende a infinito), se deduce que 



f (x)e−x dx

0

converge.

Q

13 Deducir del ejercicio precedente que para cada par de polinomios f , g ∈ P la integral impropia  ∞

f (x)g(x)e−x dx

0

converge. ´ Solucion

converge.

Si f , g ∈ P, entonces f g es un polinomio tambi´en, por el ejercicio precedente 



∞ 0

f (x)g(x)e−x dx

14 Por el ejercicio anterior,

 f , g =





f (x)g(x)e−x dx

0

est´a definido para cada par de polinomios f y g. Probar que  f , g es un producto interior en P. ´ DEMOSTRACION

Q Sean f , g, h ∈ P y λ ∈ R: (a)

 f , g =





0

= l´ım

f (x)g(x)e−x dx 



f (x)g(x)e−x dx

r→∞ 0

= l´ım =





r→∞ 0  ∞

g(x) f (x)e−x dx

g(x) f (x)e−x dx

0

= g, f  . (b)

λ f , g =





0

(λ f (x))g(x)e−x dx

= l´ım



r

r→∞ 0

= λ l´ım =λ

(λ f (x))g(x)e−x dx



r

r→∞ 0  ∞ 0

f (x)g(x)e−x dx

= λ  f , g .

Page (PS/TeX): 115 / 349, COMPOSITE

f (x)g(x)e−x dx

350 CAPI´TULO 4

Espacios con producto interior y espacios normados

 f , g + h = l´ım

(c)





f (x)(g(x) + h(x))e−x dx

r→∞ 0

= l´ım



r→∞

= l´ım



r

0 r

0



r 0

f (x)g(x)e−x dx + l´ım

r→∞ 0  ∞

=

f (x)g(x)e−x dx +

f (x)g(x)e−x dx +

f (x)h(x)e−x dx



r

r→∞ 0 ∞

 0



f (x)h(x)e−x dx

f (x)h(x)e−x dx

=  f , g +  f , h .  f , f  = l´ım

(d)



r

r→∞ 0

( f (x))2 e−x dx ≥ 0.

(e) Claramente si f = θ es el polinomio constante cero,  f , f  = 0. Suponga que f ∈ P y  f , f  = 0, entonces 

r

l´ım

r→0 0

( f (x))2 e−x dx = 0.

Si f = θ (la funci´on constante cero), existe, por continuidad, un intervalo [a, b] ⊂ [0, ∞) tal que f 2 (x) = 0 para todo x ∈ [a, b]; luego 0
a. Por la desigualdad de Schwarz, aplicada al producto interior | f (x)| e−x /2 , |g(x)| e−x /2 en C[a, r], se tiene 

r

a

−x2

| f (x)g(x)| e





r a

2 −x2

( f (x)) e

1/2  dx

a

r

2 −x2

(g(x)) e

1/2 dx

.

Puesto que f , g ∈ E, las integrales impropias 

∞ a

2

( f (x))2 e−x dx



y



a

2

( f (x))2 e−x dx

convergen; entonces, para todo r > a,  a

r

−x2

| f (x)g(x)| e



 a



( f (x)) e

as´ı que la funci´on creciente r →

Page (PS/TeX): 120 / 354, COMPOSITE

2 −x2



r a

1/2  dx

| f (x)g(x)| e−x

a

2



2 −x2

( f (x)) e

1/2 dx

;

´ 4.3 SECCION

es acotada y, por tanto,

 a



a

−x2

f (x)g(x)e

dx converge.

r

r→∞ a

 ∞



2

| f (x)g(x)| e−x dx = l´ım

existe. Dado que la convergencia de 

Ejercicios resueltos y ejercicios propuestos 355



a

| f (x)g(x)| e−x

2

|u(x)| dx implica la convergencia de





a

u(x)dx, se tiene que

Q

13 Demostrar que E, con las operaciones usuales de suma entre funciones y multiplicaci´on de un escalar

con una funci´on, es un espacio vectorial. ´ DEMOSTRACION

Q Claramente la funci´on constante cero en el intervalo [a, ∞) pertenece a E. Puesto que la suma de funciones continuas y la multiplicaci´on de un escalar con una funci´on continua tambi´en es una funci´on continua y E ⊂F ([a, ∞)), el espacio de funciones con dominio el intervalo [a, ∞), basta probar que f , g ∈ E y α, β ∈ R implican α f + βg ∈ E. En efecto: ⎡ 

l´ım

r→∞ a

r

r

2 −x2 dx a ( f (x)) e r −x2 +2αβ a f (x)g(x)e dx  2 +β 2 ar (g(x))2 e−x dx

α2

⎢ 2 (α f (x) + βg(x))2 e−x dx = l´ım ⎢ ⎣ r→∞

y ya que f , g ∈ E, por definici´on de E y por el ejercicio precedente,





a



2

(g(x))2 e−x dx convergen y, por tanto,

a

 14 Por el ejercicio 12, la integral impropia



∞ a

a

2

( f (x))2 e−x dx,

2

 f , g = =





a



a





α f , g =

2

2

f (x)g(x)e−x dx



2

g(x) f (x)e−x dx

a



∞ a



 f , g + h = =



2

α f (x)g(x)e−x dx



∞ a

∞ a

a



2

f (x)(g(x) + h(x))e−x dx 2

f (x)g(x)e−x dx +

=  f , g +  f , h .

Page (PS/TeX): 121 / 355, COMPOSITE

2

f (x)g(x)e−x dx

= α  f , g .



a

2

f (x)g(x)e−x dx,

f (x)g(x)e−x dx probar que e´ ste es un producto

= g, f  .

(c)



2

Q Sean f , g, h ∈ E y α ∈ R.

(b)



( f (x)g(x))e−x dx converge para todo par de funciones en el

interior en E.

(a)



⎥ ⎥ ⎦

(α f (x) + βg(x))2 e−x dx converge; es decir, α f + β g ∈ E. Q

espacio E del ejercicio anterior, si se define  f , g =

´ DEMOSTRACION







∞ a

2

f (x)h(x)e−x dx

356 CAPI´TULO 4

Espacios con producto interior y espacios normados

f, f =

(d)





2

f 2 (x)e−x dx ≥ 0.

a

(e) Claramente si θ es la funci´on constante cero en [a, ∞), θ, θ = 0. Sean f ∈ E tal que  f , f  = 0 y r > 0 un n´umero real fijo. Entonces, 0≤



r

a

1/2 2 a (u(x)) dx

 r

de donde, para la norma u =



2

( f (x))2 e−x dx ≤

∞ a

2

( f (x))2 e−x dx = 0;

en C[a, r], se tiene

  2    f (x)e−x /2  = 0 y, por tanto, f (x)e−x

2 /2

= 0 ∀x ∈ [a, r]

2

y ya que e−x /2 = 0 para todo x ∈ [a, r], se concluye que f es la funci´on constante cero en el intervalo [a, r]. Dado que r es cualquier n´umero real mayor que a, entonces f (x) = 0 para todo x ∈ [a, ∞); es decir, f = θ, el neutro aditivo de E. Q 



2

f (x)g(x)e−x dx es el producto interior definido en el ejercicio 14, a 1/2  ∞ 2 ( f (x))2 e−x dx la norma inducida por este producto E es el espacio del ejercicio 13 y  f  =

En los ejercicios 15 a 18,  f , g =

a

escalar, para el caso particular a = 0.

15 Probar que f ∈ E y calcular  f  si f (x) = 1.

 f 2 =

´ Solucion





0



2

12 e−x dx =



0

2

e−x dx.

Sean R > 0, QR la regi´on de los puntos (x, y) ∈ R2 con 0 ≤ x ≤ R, 0 ≤ y ≤ R y CR la regi´on de puntos (x, y) ∈ R2 con x2 + y2 ≤ R2 en el primer cuadrante. Entonces 

−x2 −y2

CR

e

dA ≤



−x2 −y2

QR

e

dA ≤

 C√

e−x

2 −y2

dA.

2R

Ya que,  QR

−x2 −y2

e

dA =



R R

0

0

−x2 −y2

e

dydx =



R 0

e

y, al emplear coordenadas polares,  Cρ

e−x

2 −y2

dA =



π 2

0



 0

π 2



ρ

2

e−r rdrdθ

1 2 − e−r 2 0 ! π 2 1 − e−ρ = 4

=

Page (PS/TeX): 122 / 356, COMPOSITE

ρ dθ 0

−x2

2 dx

´ 4.3 SECCION

Ejercicios resueltos y ejercicios propuestos 357

se tiene ! 1 2 π 1 − e− 2 R ≤ 4



R

0

−x2

e

2 ≤

dx

! π 2 1 − e−R 4

y, por tanto, ! 1 2 π 1 − e− 2 R ≤ l´ım l´ım R→∞ 4 R→∞



R

0

−x2

e

2

! π 2 1 − e−R ; R→∞ 4

≤ l´ım

dx

de donde  l´ım

R→∞

R

0

2

e−x dx

2 =

π . 4

Luego, 

∞ 0

2

e−x dx =



π ; 2

lo cual implica 1 ∈ E y 1 = 16 Probar que la funci´on f (x) =





x, x ≥ 0, pertenece a E y calcular  f . 

´ DEMOSTRACION

 √ 1/2 √ 4 π π = √ . 2 2

Q

0



 r √ 2 2 ( x)2 e−x dx = l´ım xe−x dx r→∞ 0

 r 1 2 = l´ım − e−x r→∞ 2 0   1 1 −r2 − e = l´ım r→∞ 2 2 =

1 . 2

Lo cual prueba que f ∈ E. Por u´ ltimo, f =



√ 2 ( x)2 e−x dx

∞ 0

√ 2 . = 2

1/2

Q

17 Demostrar que f ∈ E y calcular  f  si f (x) = x.  ´ DEMOSTRACION

Q

Page (PS/TeX): 123 / 357, COMPOSITE

0

r

2

x2 e−x dx =

 0

r

2

xe−x x dx

r  1 −x2  1 r −x2 = − xe  + e dx. 2 2 0 0

358 CAPI´TULO 4

Espacios con producto interior y espacios normados



Luego,



2

x2 e−x dx = l´ım



r

2

x2 e−x dx r    1 −x2  1 r −x2 = l´ım − xe  + e dx r→∞ 2 2 0  0  r 1 1 2 2 e−x dx = l´ım − re−r + l´ım r→∞ 2 2 r→∞ 0 √ π = 0+ 4 √ π . = 4 r→∞ 0

0

Por lo que f ∈ E y f =

 √ 1/2 √ 4 π π . = 4 2

Q

18 Sean α ∈ R, f (x) = cos(αx). Probar que f ∈ E y calcular 1, f  (ya se prob´o en el ejercicio 15 que la

funci´on constante 1 pertenece a E). ´ DEMOSTRACION

2

2

Q Puesto que cos2 (αx)e−x ≤ e−x para todo x y 

que

0







0

2

e−x dx converge (cfr. ejercicio 15), se concluye

2

cos2 (αx)e−x dx converge y, por tanto, f ∈ E para todo α ∈ R. Sea ϕ(α) =





0

2

e−x cos(αx)dx.

2

2

Entonces, puesto que la funci´on (x, α) → e−x cos(αx) y su derivada parcial ∂/∂α( e−x cos(αx)) = 2 −xe−x sen(αx) son continuas,   2 2   −x e cos(αx) ≤ e−x ,   2 2   −xe−x sen(αx) ≤ |x| e−x 

y las integrales impropias

0



2

e−x dx,

 0



ϕ (α) = = Al integrar por partes,

2

|x| e−x dx convergen (por los ejercicios 15 y 16), se tiene 



0



0



∂  −x2 e cos(αx) dx ∂α 2

−xe−x sen(αx)dx.



x=r  1 −x2 α ∞ −x2 e sen(αx) − e cos(αx)dx r→∞ 2 2 0 x=0   1 −r2 α = l´ım e sen(αr) − ϕ(α). r→∞ 2 2

ϕ (α) = l´ım

Y puesto que    1 −r2  1 2  0 ≤  e sen(αr) ≤ e−r 2 2

Page (PS/TeX): 124 / 358, COMPOSITE

´ 4.3 SECCION

se desprende que

 l´ım

r→0

y, por tanto,

Ejercicios resueltos y ejercicios propuestos 359

 1 −r2 e sen(αr) = 0 2

α ϕ (α) = − ϕ(α); 2

es decir,

dϕ α = − ϕ. dα 2

Al separar variables se obtiene dϕ 1 = − αdα, ϕ 2 y al integrar 1 ln |ϕ| = − α2 +C 4 para alguna constante C. Esto es, ϕ(α) = Ae−

α2 4

para alguna constante A. Por el ejercicio 15 se sabe que ϕ(0) = y, por tanto, A =

√ π 2 .





0

−x2

e

√ π dx = 2

Luego 1, f  = 1, cos(αx) =



∞ 0

2

e−x cos(αx)dx



π −α2 /4 e . Q 2 19 Calcular el a´ ngulo entre las funciones f (x) = 1 y g(x) = x. =

´ Solucion

De los ejercicios 16, 17 y 15 1, x =





1 2 xe−x dx = , 2

0 √ 4 π x = y 2 √ 4 π 1 = √ . 2

Por lo que,

 1, x 1 x ⎡ ⎤ 

φ = arc cos

1 ⎢ ⎥ 2 ⎥ √ √ = arc cos ⎢ 4 4 ⎣ π π⎦ √ √ 2 2

Page (PS/TeX): 125 / 359, COMPOSITE

360 CAPI´TULO 4

Espacios con producto interior y espacios normados



1 = arc cos √ π



≈ 0. 97134 o φ ≈ 55. 65◦ .



20 Encontrar una base ortonormal para el subespacio S = gn(1, x) utilizando el proceso de ortogonalizaci´on

de Gram-Schmidt. ´ Solucion

Por los ejercicios 16, 17 y 15 √ 2 1 1 = √4 = √ u1 = 4 π 1 π √ 2

w2 = v2 − v2 , u1  u1 % √ &√ 2 2 √ . = x − x, √ 4 4 π π % √ & √  2 2 ∞ −x2 √ x, √ = xe dx 4 4 π π 0 1 √ = √ 2, 24π % √ &√ √ 2 2 2 1 √ √ x, √ = √ 2√ 4 4 4 4 π π 2 π π 1 =√ π y, por tanto, % √ &√ 2 2 1 √ = x− √ . w2 = x − x, √ 4 π 4π π 



1 2 e−x (x − √ )2 dx π  ∞ 1 x 2 = e−x (x2 − 2 √ + )dx π π 0 1 −2 + π √ . = 4 π

w2 2 =

As´ı que,

La base ortonormal es, entonces,

Page (PS/TeX): 126 / 360, COMPOSITE

0

√ 1 24π √ u2 = (x − √ ). π π−2 $√

( √ 2 24π 1 √ ,√ (x − √ ) . 4 π π−2 π



´ 4.3 SECCION

Ejercicios resueltos y ejercicios propuestos 361

21 Encontrar la aproximaci´on o´ ptima para u(x) = x2 en el subespacio S = gn(1, x).

La aproximaci´on o´ ptima para u en el subespacio S viene dada por la proyecci´on ortogonal p √ √ 2 1 24π √ √ (x − √ ) forman una base de u sobre S. Y ya que por el ejercicio precedente u1 = 4 y u2 = π π π−2 ortonormal de S, por (4.14) del teorema 4.11 (cfr. p´ag. 269) ´ Solucion

p = u, u1  u1 + u, u2  u2 . Del ejercicio 17, u, u1  u1 = = = u, u2  = =  0



√ 24π √ π−2 √ 4

2 π √ π−2

2

x3 e−x dx =





0





0



 √ 2  2 √ 4π √ π √2 π 4 1 2,



0

2

x2 e−x dx



2

x3 e−x dx − √1π 2

x3 e−x dx −





0 √ π √1 π 4

2

x2 e−x dx 



2

x2 xe−x dx 0    r r −x2 1 2 −x2  1 2xe dx = l´ım − 2 x e  + 2 r→∞ 0 0 ! ! 2 2 r = l´ım − 12 r2 e−r − 12 e−x r→∞

0

= 12 . Por lo que, u, u2  = =

√ 2 4 π 1 √ π−2 2 √ 4 √ π 2 π−2

− 14



y u, u2  u2 = =

√ √ 4 24π √ π √ (x − √1π ) 2 π−2 π−2  √ π √1 x − . π−2 π

Por tanto, la aproximaci´on o´ ptima de u(x) = x2 en el espacio S = gn(1, x) es  √  π 1 1 √ x− . p= + 2 π−2 π 22 Encontrar los valores de las constantes a, b, c tales que 

1

−1

alcance el valor m´as peque˜no posible.

Page (PS/TeX): 127 / 361, COMPOSITE



e x − a − bx − cx2

2

dx



362 CAPI´TULO 4

Espacios con producto interior y espacios normados

El problema se resuelve si a + bx + cx2 es la aproximaci´on o´ ptima a la funci´on f (x) = e x en 1 el espacio S = gn(1, x, x2 ) relativa a la norma inducida por el producto interior g, h = −1 g(x)h(x)dx en C[−1, 1]. Se construye primero una base ortonormal {u1 , u2 , u3 } para el espacio S a partir de los generadores L.I. 1, x y x2 : ´ Solucion

12 =



1

−1

dx = 2

y, por tanto, 1 u1 = √ . 2 w2 = x − x, u1  u1 1 2

= x−



1

−1

x

= x, w2 2 =



=

1

−1

x2 dx

2 3

y, entonces,  u2 =

3 x. 2

7 7 6 6 w 3 = x 2 − x 2 , u 1 u1 − x 2 , u 2 u2 

1 2 1 2 =x − , 3 = x2 −

w3 2 = = y, por tanto, 3 u3 = 2

1 −1



1

x2 dx −

 x2 −

−1

3 2

1 3



1

−1

x3 dx

2 dx

8 45    5 2 1 x − . 2 3

Del teorema 4.11 (cfr. p´ag. 269) la aproximaci´on o´ ptima est´a dada por 3

p = ∑  f , ui  ui . i=1

√ * e x , 1/ 2 =

)

=

Page (PS/TeX): 128 / 362, COMPOSITE

√1 2 1 2



1

−1

e−x dx

√  −1  2 −e + e ,

´ 4.3 SECCION

 x

e ,



 3 2x

= =

 e x , 32



  5 2

x2 − 13



Ejercicios resueltos y ejercicios propuestos 363

  √

3 2

1 −1

xe x dx

6e−1 ,

 

  e x x2 − 13 dx −1 √ 2  −1 3 . = 4 10 3 e − 14 3 e =

3 2

5 2

1

Luego,  √ √  −1  3 2 −e + e √12 + 6e−1 2x    √ 2  3 5  2 1 3 14 −1 = + 4 10 3 e − 3 e 2 2 x −3  2  −1 105 −1 x . − 34 e + 3e−1 x + 15 = 33 4 e 4 e− 4 e

p=

1 2

Entonces, a =

33 −1 − 34 e, 4 e −1

b = 3e , c=

15 105 −1 4 e− 4 e .



Espacios vectoriales normados 23 Calcular  f ∞ , si f (x) =

x x2 + 4

en C[−3, 4].

´ Solucion El m´aximo absoluto de | f | se alcanza en los extremos del intervalo [−3, 4] o en los puntos cr´ıticos de la funci´on f que est´an en el intervalo (−3, 4).

f  (x) =

4 − x2 = 0 ⇒ x = ±2. x2 + 4

   −3  = 3 ,  | f (−3)| =  (−3)2 + 4  13     1 2   = = | f (2)| , | f (−2)| =  (−2)2 + 4  4    4  1  = . | f (4)| =  2 (4) + 4  5 Por tanto,

1  f ∞ = . 4



24 Encontrar la distancia entre las funciones f (x) = 2 sen x y g(x) = − cos 2x relativa a la norma uniforme

· en C[0, π]. ´ Solucion

Page (PS/TeX): 129 / 363, COMPOSITE

d( f , g) =  f − g∞ .

364 CAPI´TULO 4

Espacios con producto interior y espacios normados

( f (x) − g(x)) = (2 sen x + cos 2x) = 2 cos x − 2 sen(2x). 2 cos x − 2 sen(2x) = 0 ⇒ 2 cos x − 4 cos x sen x = 0 ⇒ 2 cos(x)(1 − 2 sen x) = 0. Los puntos cr´ıticos de f − g en (0, π) son entonces x = π2 , x =

π 6

y

5π 6 .

Puesto que,

 π π   2 sen + cos 2  = 1, 2 2  π π  3  2 sen + cos 2  = , 6 6 2     2 sen 5π + cos 2 5π  = 3 ,  6 6  2     2 sen 5π + cos 2 5π  = 1 y  6 6      2 sen 5π + cos 2 5π  = 1,  6 6  se tiene

3 d( f , g) = .  2  En los ejercicios 25 y 26,  f 1 = ab | f (x)| dx en el espacio C[a, b]. x , a = −1 y b = 1. 1 + x2

25 Calcular  f 1 si f (x) =

 f 1 =

´ Solucion

 

1

−1

| f (x)| dx 

1 −x x = dx + dx 2 1 + x 1 + x2 −1 0 0 1   1 1 2  2  = − ln(1 + x ) + − ln(1 + x ) 2 2 −1 0 0

= ln(2).  26 Calcular d( f , g) en C[a, b] relativa a la norma  f 1 =

b = π.



b a

| f (x)| dx si f (x) = sen x y g(x) = cos x y a = 0,

d( f , g) =  f − g1

´ Solucion

 0

π

|sen x − cos x| dx =

 0

π/4

(cos x − sen x)dx + π/4



π π/4

(sen x − cos x)dx

= [sen x + cos x]0 + [− cos x − senx]ππ/4 √ √ = 2−1+1+ 2 √ = 2 2. 

Page (PS/TeX): 130 / 364, COMPOSITE

´ 4.3 SECCION

Ejercicios resueltos y ejercicios propuestos 365

27 Un conjunto no vac´ıo de n´umeros reales A es acotado si existe M ≥ 0 tal que |x| ≤ M para todo x ∈ A. Se

dice entonces que M es una cota de A. A la menor cota s de un conjunto acotado, se le llama el supremo de este conjunto y se denota por s = sup A. (a) Sea B(R) el conjunto de todas las sucesiones de n´umeros reales que son acotadas. Probar que B(R) es un subespacio de R∞ , el espacio de sucesiones reales. (b) Si (an ) ∈ B(R) se define (an ) = sup {|an | : n ∈ N} . Probar que (an ) es una norma en B(R). ´ DEMOSTRACION

Q (a) Obviamente la sucesi´on constante cero es acotada. Sean (an ), (bn ) ∈ B(R) y M1 , M2 ≥ 0 cotas de sendas sucesiones, entonces |an + bn | ≤ |an | + |bn | ≤ M1 + M2 ∀n As´ı que la sucesi´on (an + bn ) es tambi´en acotada. Si α ∈ R, entonces |αan | = |α| |an | ≤ |α| M1 ∀n y, por tanto, la sucesi´on (αan ) es acotada, lo cual prueba que B(R) es un subespacio de R∞ . (b) Sean (an ), (bn ) ∈ B(R) y α ∈ R. (i) Puesto que 0 ≤ |an | ≤ (an ) ∀n se tiene (an ) ≥ 0. (ii) Es claro que la norma de la sucesi´on constante cero es cero. Si (an ) = 0, entonces 0 ≤ |an | ≤ (an ) = 0 ∀n de donde se desprende que an = 0 para todo n y, por tanto, (an ) es la sucesi´on constante cero. (iii) Si α = 0, es claro que α(an ) = |α| (an ) = 0. Suponga que α = 0; puesto que |an | ≤ (an ) para todo n, se cumple |αan | = |α| |an | ≤ |α| (an ) ∀n, as´ı que |α| (an ) es una cota de la sucesi´on (αan ); y puesto que (αan ) es la menor cota, (αan ) ≤ |α| (an ) . Por otra parte, |α| |an | = |αan | ≤ (αan ) ∀n |an | ≤

Page (PS/TeX): 131 / 365, COMPOSITE

1 (αan ) ∀n |α|



366 CAPI´TULO 4

Espacios con producto interior y espacios normados

y, por ende, (an ) ≤

1 (αan ) . |α|

Luego, |α| (an ) ≤ (αan ) ≤ |α| (an ) lo cual implica (αan ) = |α| (an ) . (iv) Puesto que |an | ≤ (an ) y |bn | ≤ (bn ) para todo n, se tiene |an + bn | ≤ (an ) + (bn ) ∀n. Entonces, (an ) + (bn ) es una cota para (an + bn ) y, por tanto, ya que (an + bn ) es la menor cota, (an + bn ) ≤ (an ) + (bn ) .

Q

En los ejercicios 28 a 29 (i) probar que la sucesi´on (an ) pertenece a B(R) y (ii) calcular (an ). 28 an =

1 n

+ (−1)n .

´ Solucion

(i) Para todo n ∈ N,

   1  + (−1)n  ≤ 1 + |(−1)n |  n n 1 = +1 n ≤ 2.

y, por tanto, (an ) es acotada. (ii) Para cada n:   1   + (−1)2n  = 1 + 1 ≤ 3  2n  2n 2 y

     1    1 2n+1      2n + 1 + (−1)  =  2n + 1 − 1 = 1−

1 2 ≤ 2n + 1 3

Puesto que todo n´umero natural es par o impar, se concluye que 3 |an | ≤ . 2 Y ya que |a2 | = 32 , se tiene 3 (an ) = . 2

Page (PS/TeX): 132 / 366, COMPOSITE



´ 4.3 SECCION

29 an =

Ejercicios resueltos y ejercicios propuestos 367

n . n+1

´ Solucion

(i) Para todo n ∈ N: |an | =

n ≤ 1. n+1

n Por tanto, 1 es cota de (an ). (ii) Suponga que M es cota de (an ) con 0 < M < 1. Ya que l´ımn→∞ n+1 = 1, existe n0 tal que    n0  n0 = 1 − < 1−M 1− n0 + 1 n0 + 1 

de donde: M
1 es un n´umero real y, para cada f ∈ C[α, β],  β 1/p p | f (x)| dx  f p = α

p

(puesto que f ∈ C[α, β], la funci´on | f | tambi´en y por tanto es integrable en [α, β]). 33 Si f , g ∈ C[α, β] y p, p∗ > 1 son ´ındices conjugados ( 1p + 

β

α

1 p∗

= 1), probar que

| f (x)g(x)|dx ≤  f  p g p∗ .

Es decir, | f , g| ≤  f  p g p∗ donde  f , g = ´ DEMOSTRACION

β α

f (x)g(x)dx es el producto interior usual en C[α, β].

Q Si f o g es la funci´on constante cero en [α, β], la afirmaci´on es evidentemente verdadera. Suponga que ambas funciones no son nulas en [α, β]; entonces, por continuidad,  f  p = 0 = g p∗ . Sean x ∈ [α, β] un punto fijo de este intervalo y

Page (PS/TeX): 135 / 369, COMPOSITE

370 CAPI´TULO 4

Espacios con producto interior y espacios normados

a=

| f (x)| p  f  pp

y



b=

|g(x)| p ∗

g pp∗

en el lema 4.2 (cfr. p´ag. 329). Entonces, por (4.47) de este lema ∗

| f (x)| |g(x)| 1 | f (x)| p 1 |g(x)| p ≤ + ∗  f  p g p∗ p  f  pp p∗ g pp∗ para cada x ∈ [α, β]. Luego, 1  f  p g p∗



β

α

| f (x)| |g(x)| dx ≤

1 p  f  pp

+ =



β

α

1 p∗  f 

| f (x)| p dx 

p∗ p∗

β α



|g(x)| p dx

1 1 p∗ p ∗ g p∗ p  f p + p p  f p p∗ g p∗

1 1 + p p∗ =1 =

y, por tanto, 

β α

| f (x)| |g(x)| dx ≤  f  p g p∗ .

Finalmente,   β    | f , g| =  f (x)g(x)dx α ≤



β

| f (x)| |g(x)| dx

α

≤  f  p g p∗ .

Q

34 Si f , g ∈ C[α, β], demostrar que

 f + g p ≤  f  p + g p . ´ DEMOSTRACION

Q Para cualquier x ∈ C[α, β] | f (x) + g(x)| p = | f (x) + g(x)| | f (x) + g(x)| p−1 ≤ | f (x)| | f (x) + g(x)| p−1 + |g(x)| | f (x) + g(x)| p−1 y, por tanto, 

β

α

| f (x) + g(x)| p dx ≤



β α

+

Page (PS/TeX): 136 / 370, COMPOSITE



| f (x)| | f (x) + g(x)| p−1 dx β

α

|g(x)| | f (x) + g(x)| p−1 dx.

´ 4.3 SECCION

Ejercicios resueltos y ejercicios propuestos 371

Por el ejercicio precedente, 

β

α β



α

  | f (x)| | f (x) + g(x)| p−1 dx ≤  f  p ( f + g) p−1  p∗

y

  |g(x)| | f (x) + g(x)| p−1 dx ≤ g p ( f + g) p−1  p∗ .

Entonces, 

β

α

    | f (x) + g(x)| p dx ≤  f  p ( f + g) p−1  p∗ + g p ( f + g) p−1  p∗    =  f  p + g p ( f + g) p−1  p∗ 1/p∗  β  ∗ | f (x) + g(x)|(p−1)p dx =  f  p + g p   =  f  p + g p

α

β α

p

| f (x) + g(x)| dx

1/p∗ .

As´ı que, 

β α

| f (x) + g(x)| p dx

1−1/p∗ ≤  f  p + g p

esto es, 

β α

| f (x) + g(x)| p dx

1/p ≤  f  p + g p .

O sea  f + g p ≤  f  p + g p .

Q

35 Demostrar que

 f p =



β

α

p

1/p

| f (x)| dx

es una norma en C[α, β]. ´ DEMOSTRACION

Q Sean f , g ∈ C[α, β], λ ∈ R. (a) Es evidente que  f  p ≥ 0. (b) Si f = θ, la funci´on constante cero en [α, β], es claro que  f  p = 0. Suponga que  f  p = 0, entonces 

β α

| f (x)| p = 0,

por continuidad34 se desprende que | f (x)| p = 0 y, por tanto, f (x) = 0 para todo x ∈ [α, β]. 1A lo largo de este texto, la demostraci´on de que una funci´on no negativa, continua y cuya integral en un intervalo es cero tiene que ser una funci´on nula se ha realizado varias veces y por esta raz´on ya no se repite aqu´ı.

34

Page (PS/TeX): 137 / 371, COMPOSITE

372 CAPI´TULO 4

Espacios con producto interior y espacios normados

λ f  p =

(c)

=



β

α



β

α

|λ f (x)| p dx p

1/p

p

|λ| | f (x)| dx

  = |λ| p = |λ|

1/p

β

α



β

1/p

p

| f (x)| dx

| f (x)| p dx

α

1/p

= |λ|  f  p . (d) Por el ejercicio anterior  f + g p ≤  f  p + g p .

Q

36 Calcular, en relaci´on con el ejercicio precedente,  f  p si f (x) = cos x, p = 3, α = 0 y β = π.

 f 33 =

´ Solucion

= 

cos3 x dx = = =

  



π

0



|cos x|3 dx

π/2

0

 f 33



cos x dx −



π π/2

cos3 x dx.

cos2 x cos x dx (1 − sen2 x) cos x dx cos x dx −

= sen x − Por tanto,

3

sen3 x = sen x − 3



sen2 x cos x dx

sen3 x +C 3

π/2 0



sen3 x − sen x − 3

π π/2

2 2 = + 3 3 4 = 3 y, entonces,   f 3 =

3

4 . 3



37 Sean a ∈ R y L1 [a, ∞) el conjunto de funciones continuas f : [a, ∞) → R tales que



∞ a

| f (x)| dx converge.

(a) Probar que L1 [a, ∞) es un espacio vectorial con las operaciones suma de funciones y multiplicaci´on de un escalar con una funci´on usuales. (b) Sea  f 1 =

Page (PS/TeX): 138 / 372, COMPOSITE





a

| f (x)| dx, para cada f ∈ L1 [a, ∞). Mostrar que  f 1 es una norma en L1 [a, ∞).

´ 4.3 SECCION

´ DEMOSTRACION

Ejercicios resueltos y ejercicios propuestos 373

Q (a) Dado que L1 [a, ∞) ⊂ C[a, ∞), basta probar que L1 [a, ∞) < C[a, ∞). (i) Es evidente que la funci´on constante cero pertenece a L1 [a, ∞). (ii) Sean f , g ∈ L1 [a, ∞), entonces, para todo x ∈ [a, ∞), | f (x) + g(x)| ≤ | f (x)| + |g(x)| y, por tanto, para todo r ≥ a, 

r

a



| f (x) + g(x)| dx ≤



∞ a

| f (x)| dx +

a ∞

≤ de donde

r

| f (x)| dx +

a

r

a

| f (x)| dx



a

| f (x)| dx,

| f (x) + g(x)| dx converge, entonces f + g ∈ L1 [a, ∞).

(iii) Sea α ∈ R y f ∈ L1 [a, ∞), entonces 

r

l´ım

r→∞ a

|α f (x)| dx = |α| l´ım = |α|



y, por tanto,





a



r

r→∞ a  ∞ a

| f (x)| dx

| f (x)| dx

|α f (x)| dx converge, as´ı que α f ∈ L1 [a, ∞) y α f 1 = |α|  f 1 .

(b) Sean f , g ∈ L1 [a, ∞) y α ∈ R.  f 1 =

(i)





| f (x)| dx ≥ 0.

a

(ii) Es claro que θ1 = 0 para la funci´on constante cero. Si  f  = 0, entonces 

a



y, por tanto,

r

a

r



| f (x)| dx ≤

∞ a

| f (x)| dx = 0

| f (x)| dx = 0; de aqu´ı que, por continuidad, f (x) = 0 para todo intervalo

[a, r]; es decir, f es la funci´on constante cero en [a, ∞). (iii) Se prob´o en 37(a)(iii). (iv) Puesto que 

r

a

se tiene

 a



| f (x) + g(x)| dx ≤

| f (x) + g(x)| dx ≤



r

a

 a



| f (x)| dx +

| f (x)| dx +



r a



|g(x)| dx

∞ a

|g(x)| dx

es decir,  f + g1 ≤  f 1 + g1 . 38 Sean L [0, ∞) y  f 1 =



∞ 0

Q

| f (x)| dx el espacio y la norma del ejercicio precedente para el caso parti-

cular a = 0. Probar que si f (x) = e−x , entonces f ∈ L [0, ∞) y calcular  f 1 .

Page (PS/TeX): 139 / 373, COMPOSITE

374 CAPI´TULO 4

Espacios con producto interior y espacios normados

 ´ DEMOSTRACION

Q

 r  e−x  dx = l´ım e−x dx

∞

0

r→∞ 0

r = l´ım −e−x 0 r→∞

= l´ım 1 − e−r r→∞

= 1, lo cual demuestra que f ∈ L [0, ∞) y  f 1 = 1.

Q

En los ejercicios 39 a 41, S = gn((−1, 1)) y u = (0, 1) en R2 . 39 Hallar la aproximaci´on o´ ptima,  p∗ , de u en el subespacio S respecto a la norma euclidiana (x, y) =



x2 + y2 .

´ Solucion

Los elementos de S tienen la forma (−a, a) con a ∈ R. u − (−a, a)2 = (a, 1 − a)2 = a2 + (1 − a)2 .

Si ψ(a) = a2 + (1 − a)2 , a ∈ R, entonces ψ  (a) = 4a − 2 = 0 ⇒ 1 a= 2 y, puesto que, ψ  (a) = 4 > 0 la funci´on ψ alcanza un m´ınimo en a = 1/2. Luego u − (−a, a)2 es m´ınima (y, por tanto, u − (−a, a) es m´ınima) cuando a = 1/2. As´ı la aproximaci´on o´ ptima de u en S es p∗ = (−1/2, 1/2) y   √ u − p∗  = 2/2. Note que en este caso p∗ tambi´en se puede calcular utilizando la proyecci´on de u sobre S, pues la norma euclidiana proviene del producto punto de vectores.  40 Encontrar todas las aproximaciones o´ ptimas de u en el subespacio S respecto a la norma c´ubica

(x, y)∞ = m´ax {|x| , |y|} . ´ Solucion

Los elementos de S tienen la forma (−a, a) con a ∈ R. u − (−a, a)∞ = (a, 1 − a)∞ = m´ax {|a| , |1 − a|} .

Page (PS/TeX): 140 / 374, COMPOSITE

´ 4.3 SECCION

Ejercicios resueltos y ejercicios propuestos 375

f

f = −a

f =a

f = 1−a

f = a−1

1 2

1 2

1

a

Figura 4-36 •

De la figura 4-36 se desprende que

'

m´ax {|a| , |1 − a|} =

a, si a ≥ 1/2 1 − a, si a < 1/2

y de la misma gr´afica se deduce que m´ın u − (−a, a)∞ = m´ın m´ax {|a| , |1 − a|} a∈R

a∈R

se alcanza en a = 1/2. As´ı, p∗ = (−1/2, 1/2) es la u´ nica aproximaci´on o´ ptima de u en S y u − (−1/2, 1/2)∞ = 1/2 .  41 Encontrar todas las aproximaciones o´ ptimas de u en el subespacio S respecto a la norma

(x, y)1 = |x| + |y| . ´ Solucion

Los elementos de S tienen la forma (−a, a) con a ∈ R. u − (−a, a)1 = (a, 1 − a)1 = |a| + |1 − a| .

De la figura 4-36 se desprende que

⎧ ⎪ ⎨ 2a − 1, si a ≥ 1 1, si 0 ≤ a < 1 |a| + |1 − a| = ⎪ ⎩ 1 − 2a, si a < 0

es decir, para cada a ∈ R se tiene ⎧ ⎪ ⎨ 2a − 1, si a ≥ 1 1, si 0 ≤ a < 1 u − (−a, a)1 = ⎪ ⎩ 1 − 2a, si a < 0

Page (PS/TeX): 141 / 375, COMPOSITE

376 CAPI´TULO 4

Espacios con producto interior y espacios normados

f

1

a 1 Figura 4-37 •

La figura 4-37 contiene la gr´afica de f = u − (−a, a)1 cuando a var´ıa en R; de ella se deduce que m´ın u − (−a, a)1 a∈R

se alcanza en todos los valores a del intervalo [0, 1]. Por tanto, u tiene una infinidad de aproximaciones o´ ptimas en S; a saber, todos los vectores de la forma p∗ = a(−1, 1) con a ∈ [0, 1] y en todos ellos u − (−a, a)1 = 1.



42 Encontrar las aproximaciones o´ ptimas del vector u = (1, 0, 0) en el plano x − y = 0, relativas a la norma

(x, y, z)1 = |x| + |y| + |z| en R3 . ´ Solucion Un primer m´etodo Este plano es el subespacio S = gn((1, 1, 0), (0, 0, 1)). Siv = r(0, 0, 1) + s(1, 1, 0) = (s, s, r) ∈ S, entonces

u −v1 = (1, 0, 0) − (s, s, r)1 = |s − 1| + |s| + |r| . (a) Suponga r ≥ 0: (i) si s ≥ 1, entonces |s − 1| + |s| + |r| = s − 1 + s + r = 2s − 1 + r; (ii) si 0 ≤ s < 1, entonces |s − 1| + |s| + |r| = 1 − s + s + r = 1 + r; (iii) si s < 0, entonces |s − 1| + |s| + |r| = 1 − s − s + r = 1 − 2s + r. (b) Suponga r < 0: (i) si s ≥ 1, entonces |s − 1| + |s| + |r| = s − 1 + s − r = 2s − 1 − r; (ii) si 0 ≤ s < 1, entonces |s − 1| + |s| + |r| = 1 − s + s − r = 1 − r; (iii) si s < 0, entonces |s − 1| + |s| + |r| = 1 − s − s − r = 1 − 2s − r.

Page (PS/TeX): 142 / 376, COMPOSITE

´ 4.3 SECCION

Ejercicios resueltos y ejercicios propuestos 377

De esta manera, si ψ(r, s) = u −v1 , entonces,

⎧ si r > 0 ⎪ ⎨ 1, ∂ψ −1, si r < 0 (r, s) = ⎪ ∂r ⎩ 0, si r = 0

y

⎧ si s > 1 ⎪ ⎨ 2, ∂ψ 0, si 0 ≤ s ≤ 1 (r, s) = ⎪ ∂s ⎩ −2, si s < 0

Por lo que los puntos cr´ıticos de ψ tienen la forma (s, s, 0) con 0 ≤ s ≤ 1. En todos ellos u −v1 = |s − 1| + |s| + |r| = 1 y si r = 0 y/o s ∈ / [0, 1], entonces u −v1 = |s − 1| + |s| + |r| > 1; por lo que las aproximaciones o´ ptimas de u en S est´an dadas por los vectores p∗ = s(1, 1, 0) con 0 ≤ s ≤ 1. Un segundo m´etodo Este plano es el subespacio S = gn((1, 1, 0), (0, 0, 1)). Siv = r(0, 0, 1)+s(1, 1, 0) = (s, s, r) ∈ S, entonces u −v1 = (1, 0, 0) − (s, s, r)1 = |s − 1| + |s| + |r| . r III

r − 2s + 1

II

I

2s + r − 1

r+1

1 s

1 1 − 2s − r

Figura 4-38 •

Page (PS/TeX): 143 / 377, COMPOSITE

1−r

2s − r − 1

378 CAPI´TULO 4

Espacios con producto interior y espacios normados

En la figura 4-38 se ha dividido el plano en zonas sombreadas para evaluar u −v1 = |s − 1| + |s| + |r|. Por ejemplo, en la zona s ≥ 1 y r > 0, |s − 1| + |s| + |r| = 2s + r − 1; en la zona 0 ≤ s < 1 y r < 0, |s − 1| + |s| + |r| = r + 1; etc. En realidad, la informaci´on dada en esta figura se puede resumir a´un m´as: (a) En la franja vertical I, s ≥ 1, u −v1 = |s − 1| + |s| + |r| = 2s − 1 + |r| . (b) En la franja vertical II, 0 ≤ s ≤ 1, u −v1 = |s − 1| + |s| + |r| = 1 + |r| . (c) En la franja vertical III, s ≤ 0, u −v1 = |s − 1| + |s| + |r| = 1 + 2 |s| + |r| . En la franja I, dado que s ≥ 1, 1 ≤ 2s − 1 + |r| para todo (s, r) en esta franja. Y, puesto que 2s − 1 + |r| = 1 cuando s = 1 y r = 0, se tiene m´ın{2s − 1 + |r| : (s, r) est´a en la franja I} = 1 y se alcanza en (s, r) = (1, 0). En la franja III, u −v1 = |s − 1| + |s| + |r| = 1 + 2 |s| + |r| ≥ 1 para todo (s, r) en esta franja y ya que este valor se alcanza en (0, 0), se tiene que m´ın{1 + 2 |s| + |r| : (s, r) est´a en la franja I} = 1 y se alcanza en (0, 0). En la franja II, puesto que 0 ≤ s ≤ 1, u −v1 = |s − 1| + |s| + |r| = 1 + |r| ≥ 1 para todo (s, r) en esta franja y ya que este valor se alcanza en todos los puntos de forma (s, 0) con 0 ≤ s ≤ 1, se tiene que m´ın{1 + |r| : (s, r) est´a en la franja I} = 1 y este valor se alcanza en los puntos (s, 0) con 0 ≤ s ≤ 1. As´ı, el conjunto de aproximaciones o´ ptimas para el vector u en el espacio S est´an dados por los vectores p∗ = s(1, 1, 0) con 0 ≤ s ≤ 1. y para todos estos puntos   u − p∗  = 1. 1

Page (PS/TeX): 144 / 378, COMPOSITE



´ 4.3 SECCION

Ejercicios resueltos y ejercicios propuestos 379

43 Encontrar las aproximaciones o´ ptimas del vector u = (1, 0, 0) en el plano x − y = 0, relativas a la norma

(x, y, z)∞ = m´ax {|x| , |y| , |z|} en R3 . ´ Solucion Este plano es el subespacio S = gn((1, 1, 0), (0, 0, 1)). Si v = r(0, 0, 1) + s(1, 1, 0) = (s, s, r) ∈ S, entonces

u −v∞ = (1, 0, 0) − (s, s, r)∞ = m´ax {|s − 1| , |s| , |r|} . En la figura 4-39 se ha dividido el plano en zonas sombreadas para calcular u −v∞ = m´ax {|s − 1| , |s| , |r|} . (a) En la franja I, puesto que s ≥ 1, |s − 1| = s − 1 y s − 1 < s; por tanto, (1, 0, 0) − (s, s, r)∞ = m´ax {s, |r|} . (b) En la franja II, ya que 1/2 ≤ s ≤ 1, |s − 1| = 1 − s < s; por tanto, (1, 0, 0) − (s, s, r)∞ = m´ax {s, |r|} . (c) En la franja III, dado que 0 ≤ s ≤ 1/2, |s − 1| = 1 − s y 1 − s > s; entonces (1, 0, 0) − (s, s, r)∞ = m´ax {1 − s, |r|} . (d) En la franja IV, ya que s ≤ 0, |s − 1| = 1 − s = 1 + |s| ≥ |s| y, por ende, (1, 0, 0) − (s, s, r)∞ = m´ax {1 + |s| , |r|} . r III

1/2

Figura 4-39 •

Page (PS/TeX): 145 / 379, COMPOSITE

m´ax{s, |r|}

I

m´ax{s, |r|}

1

II

m´ax{1 − s, |r|}

m´ax{1 + |s|, |r|}

IV

1

s

380 CAPI´TULO 4

Espacios con producto interior y espacios normados

En todos los puntos (s, r) de las franjas I y II, se tiene 1/2 ≤ m´ax{s, |r|} pues s ≥ 1/2; y ya que el punto (1/2, 0) pertenece a la reuni´on de ambas franjas m´ın (1, 0, 0) − (s, s, r)∞ = 1/2 y se alcanza el punto (1/2, 0). En los puntos de la franja III, 0 ≤ s ≤ 1/2 y, por tanto, 1/2 ≤ 1 − s ≤ 1; luego, 1/2 ≤ m´ax{1 − s, |r|} para todos los puntos en esta franja y puesto que 1/2 se alcanza en el punto (s, r) = (1/2, 0), se concluye que m´ın (1, 0, 0) − (s, s, r)∞ = 1/2. en esta franja y dicho valor se alcanza en s = 1/2, r = 0. En la franja IV 1 ≤ m´ax{1 + |s| , |r|} para todo par (s, r) en esta franja; y puesto que 1 se alcanza en (0, 0), se deduce que m´ın (1, 0, 0) − (s, s, r)∞ = 1 en esta franja y se alcanza en (s, r) = (0, 0). De lo precedente se deduce que (1, 0, 0) − (s, s, r)∞ es m´ınima cuando s = 1/2 y r = 0; luego la aproximaci´on o´ ptima para u en el subespacio S est´a dada por p∗ = (1/2, 1/2, 0).



44 Encontrar una aproximaci´on o´ ptima para la funci´on f (x) = x en el subespacio S = gn(1) de C[0, 1]

respecto a la norma  f 4 =



1

0

4

1/4

| f (x)| dx

del ejercicio resuelto 35 (con p = 4). ´ Solucion

Sea a ∈ gn(1), entonces x − a44

=



1 0

(x − a)4 dx

1 = a4 − 2a3 + 2a2 − a + . 5 Si 1 ϕ(a) = a4 − 2a3 + 2a2 − a + , a ∈ R, 5

Page (PS/TeX): 146 / 380, COMPOSITE

´ 4.3 SECCION

Ejercicios resueltos y ejercicios propuestos 381

ϕ (a) = 4a3 − 6a2 + 4a − 1  = (2a − 1) 2a2 − 2a + 1

entonces

y ϕ (1/2) = 1 > 0. Por tanto, ϕ es m´ınima en a = 1/2; luego una aproximaci´on o´ ptima para f (x) = x en S = gn(1) es p∗ (x) = 1/2 y  1 1/4  1/4 1 4 x − 1/24 = (x − 1/2) dx = 80 0 es el valor m´ınimo que alcanza x − a4 cuando a var´ıa en R. De lo precedente se desprende que f tiene s´olo una aproximaci´on o´ ptima en S.  45 Encontrar la aproximaci´on o´ ptima de f (x) = e x en el subespacio S = gn(1) de C[0, 1] respecto a la

norma uniforme g∞ . ´ Solucion

De la figura 4-40(i) se desprende que ' e − a, si a ≤ (e + 1)/2 x e − a∞ = a − 1, si a > (e + 1)/2

y de la misma figura (ii) se deduce que m´ın e x − a∞ = m´ın m´ax |e x − a| a∈R

a∈R

se alcanza en a = (1 + e)/2 y tiene un valor de (e − 1)/2. Entonces, la aproximaci´on o´ ptima para f (x) = e x en el subespacio S est´a dada por p∗ =

1+e 2

y  f − p∗ ∞ = y

e−1 . 2



y y=e

x

y = ||e x − a||∞

a e+1 2

1

e−1 2

1

x

e+1 2

a (i) Figura 4-40 •

Page (PS/TeX): 147 / 381, COMPOSITE

(ii)

a

382 CAPI´TULO 4

Espacios con producto interior y espacios normados

46 Encontrar las aproximaciones o´ ptimas de f (x) = e x en el subespacio S = gn(1) de C[0, 1] respecto de la 1

norma g1 =

0

´ Solucion

|g(x)| dx.

 f − a1 =

 0

1

|e x − a| dx =

⎧  1 ⎪ ⎪ (e x − a)dx, ⎪ ⎪ 0 ⎪ ⎪ ⎪ ⎨  ln a

(a − e x )dx +

⎪ 0 ⎪ ⎪ ⎪  ⎪ 1 ⎪ ⎪ ⎩ (a − e x )dx,

si a ≤ 1 

1 ln a

(e x − a)dx,

0

esto es,

⎧ ⎨ e − a − 1, 2a ln a − 3a + 1 + e,  f − a1 = ⎩ a − e + 1,

si 1 < a ≤ e si a > e

si a ≤ 1 si 1 < a ≤ e si a > e

As´ı, la funci´on continua a →  f − a1 , a ∈ R, es decreciente en el intervalo (−∞, 1) (pues es una l´ınea recta con pendiente negativa en e´ ste) y creciente en el intervalo (e, ∞) (en e´ ste es una l´ınea recta con pendiente positiva); entonces, los puntos donde alcanza el m´ınimo son a = 1, a = e o los puntos cr´ıticos de la funci´on ψ(a) = 2a ln a − 3a + 1 + e. ψ  (a) = 2 ln a − 1 = 0 ⇒ a = e1/2 ∈ (1, e); y ya que  f − 11 = e − 2,  f − e1 = 1, ψ(e1/2 ) = −2e1/2 + 1 + e se tiene m´ın  f − a1 = 1 + e − 2e1/2 a∈R

y se alcanza en a = e1/2 . Luego la aproximaci´on o´ ptima de f en S est´a dada por la funci´on constante a = e1/2 .  47 Sean C[a, b] el espacio de funciones continuas en el intervalo [a, b],  f ∞ la norma uniforme y  f  = 1/2  b a

f 2 (x) dx

la norma cuadrado medio; demostrar que la convergencia respecto a la norma cuadra-

do medio no implica la convergencia respecto a la norma uniforme; esto es, si l´ım  fn − f  = 0

n→∞

entonces, no necesariamente l´ım  fn − f ∞ = 0

n→∞

en el espacio C[a, b]. Sean n un entero positivo y fn la funci´on continua en [a, b], cuya gr´afica est´a contenida en la figura 4-41; esto es ´ Solucion

Page (PS/TeX): 148 / 382, COMPOSITE

´ 4.3 SECCION

Ejercicios resueltos y ejercicios propuestos 383

y

fn 1

x a

a+b 2

− b−a 2n

a+b 2

a+b 2

+ b−a 2n

b

Figura 4-41 •

⎧     2n a + b n−1 a+b b−a a+b ⎪ ⎪ x + 1 − 2 − si x ∈ , ⎪ ⎪ ⎪ b−a b−a 2 2n 2 ⎪ ⎪ ⎪     ⎨ 2n a + b n−1 a+b a+b b−a x+ 1− 2 , + n si x ∈ fn (x) = ⎪ a−b a−b 2 2 2 ⎪ ⎪ ⎪   ⎪ ⎪ a+b b−a a+b b−a ⎪ ⎪ − n , + n si x ∈ [a, b] − ⎩ 0 2 2 2 2 Es f´acil ver que

 a

b

fn2 (x)dx =

1 (b − a) 3 2n−1

para todo n = 1, 2, . . . Por tanto, l´ım  fn − θ = 0,

n→∞

donde la funci´on θ es la funci´on constante cero en el intervalo [a, b]. Sin embargo, es claro que  fn ∞ = 1 para todo n = 1, 2, . . . y, por tanto, l´ım  fn − θ∞ = 1.

n→∞

Es decir, convergencia en promedio cuadr´atico no implica convergencia uniforme.



4.3.2 Ejercicios propuestos El lector encontrar´a la respuesta a los ejercicios en cursiva en el ap´endice E al final del libro.

Espacios con producto interior (respuestas en p´aginas 1080-1082) En los ejercicios 1 a 4, determinar si (x1 , x2 ), (y1 , y2 ), definido por la f´ormula dada, es o no un producto interior en R2 . En caso positivo demostrar rigurosamente que se cumplen las 5 condiciones de la

Page (PS/TeX): 149 / 383, COMPOSITE

384 CAPI´TULO 4

Espacios con producto interior y espacios normados

definici´on 4.1 (cfr. p´ag. 236) y en caso negativo mostrar, mediante contraejemplos, las propiedades que no se satisfacen. 1 (x1 , x2 ), (y1 , y2 ) = x1 y1 − x2 y2 . 12 (x1 , x2 ), (y1 , y2 ) = x1 y2 − x2 y1 . 3 (x1 , x2 ), (y1 , y2 ) = x1 x2 − y1 y2 . 14 (x1 , x2 ), (y1 , y2 ) = 2y1 x1 + y1 x2 + y2 x1 + y2 x2 .

En los ejercicios 5 a 19 probar que la asignaci´on (x,y) → x,y ah´ı definida, donde x = (x1 , . . . , xn ) y y = (y1 , . . . , yn ), es un producto interior en el espacio Rn indicado. 15 x,y = 2x1 y1 + x2 y1 + x1 y2 + 5x2 y2 en R2 . 16 x,y = 5y1 x1 − 11y1 x2 − 11y2 x1 + 25y2 x2 en R2 . 17 x,y = x1 y1 + 2x2 y1 + 2x1 y2 + 5x2 y2 en R2 . 18 x,y = 5x1 y1 − x2 y1 − x1 y2 + x2 y2 en R2 . 19 x,y = 4x1 y1 − 2x2 y1 − 2x1 y2 + 2x2 y2 en R2 . 10 x,y = 3x1 y1 − 2x2 y1 − 2x1 y2 + 2x2 y2 en R2 . 11 x,y = x1 y1 + 4x2 y2 + x3 y3 en R3 . 12 x,y = x1 y1 + 5x2 y2 + x3 y2 + x2 y3 + x3 y3 en R3 . 13 x,y = 2x1 y1 + x2 y1 + x1 y2 + x2 y2 + x3 y3 en R3 . 14 x,y = x1 y1 + x3 y1 + x2 y2 + x1 y3 + 2x3 y3 en R3 . 15 x,y = 6x1 y1 − x1 y2 − x2 y1 + 6x2 y2 + x2 y3 + x3 y2 + 2x3 y3 en R3 . 16 x,y = 2x1 y1 − x3 y1 + x2 y2 + x3 y2 − x1 y3 + x2 y3 + 2x3 y3 en R3 . 17 x,y = x1 y1 + x2 y2 + 5x3 y3 − x4 y3 − x3 y4 + 2x4 y4 en R4 . 18 x,y = x1 y1 + 5x2 y2 − 3x3 y2 − 3x2 y3 + 2x3 y3 + x4 y4 en R4 . 19 x,y = 2x1 y1 + 2x2 y2 + x3 y3 − x4 y3 − x3 y4 + 2x4 y4 + x5 y5 en R5 . 20 Sean x,y el producto interior dado en el ejercicio 5, · la norma inducida por este producto (i.e.,

x = x,y1/2 ), x = (−1, 2), y = (1, −1) y w = (−1, 3); calcular:

Page (PS/TeX): 150 / 384, COMPOSITE

´ 4.3 SECCION

Ejercicios resueltos y ejercicios propuestos 385

(a) x,w. (b) w. (c) d(x,y), la distancia entre x y y con la norma inducida. 21 Sean x,y el producto interior dado en el ejercicio 6, · la norma inducida por este producto (i.e.,

x = x,y1/2 ), x = (−3, 2), y = (−1, 2) y w = (−1, −3); calcular: (a) x,w. (b) w. (c) d(x,y), la distancia entre x y y con la norma inducida.

22 Sean x,y el producto interior dado en el ejercicio 12, · la norma inducida por este producto (i.e.,

x = x,y1/2 ), x = (1, −2, 1), y = (2, −2, −1) y w = (1, 1, −3); calcular: (a) x,w. (b) w. (c) d(x,w), la distancia entre x y w con la norma inducida.

23 Sean x,y el producto interior dado en el ejercicio 19, · la norma inducida por este producto (i.e.,

x = x,y1/2 ), x = (1, −1, 3, −1, 1), y = (2, 1, −1, 0, 1) y w = (1, 0, −3, −1, 2); calcular: (a) x,w. (b) w. (c) d(x,w), la distancia entre x y w con la norma inducida.

En los ejercicios 24 a 29 utilizar el ejercicio resuelto 10 de esta secci´on para encontrar la representaci´on matricial del producto interior dado (cfr. ejercicio resuelto 11). 24 Del producto interior del ejercicio propuesto 5. 25 Del producto interior del ejercicio propuesto 6. 26 Del producto interior del ejercicio propuesto 8. 27 Del producto interior del ejercicio propuesto 12. 28 Del producto interior del ejercicio propuesto 14. 29 Del producto interior del ejercicio propuesto 16. 30 Sea A una matriz sim´etrica de orden n.

(a) Se define x,y =x t Ay, para cadax,y ∈ Rn . Probar que x,y satisface las primeras tres condiciones de la definici´on 4.1 de producto interior. (b) Dar un ejemplo de una matriz cuadrada sim´etrica de orden n = 2 que no cumpla con las u´ ltimas dos condiciones de la definici´on 4.1 de la p´agina 236.

Page (PS/TeX): 151 / 385, COMPOSITE

386 CAPI´TULO 4

Espacios con producto interior y espacios normados

(c) La matriz A se define positiva si x t Ax > 0 para todo x ∈ Rn − {0Rn }. Dar un ejemplo de una matriz sim´etrica A de orden n = 2 que sea definida positiva. (d) Probar que si A es una matriz sim´etrica definida positiva, entonces x,y = x t Ay es un producto interior en Rn .  31 Sea A una matriz sim´etrica de orden n = 2, A =

a b b d

 .

(a) Si a > 0, probar que A es definida positiva (cfr. ejercicio precedente) si y s´olo si ad − b2 > 0. (b) Si a < 0, mostrar que A no es definida positiva. En los ejercicios 32 a 37, x = (x1 , . . . , xn ) y y = (y1 , . . . , yn ); determinar si x,y, definido por la f´ormula dada, es o no un producto interior. En caso afirmativo, demostrar rigurosamente que se cumplen las 5 condiciones de la definici´on 4.1, y en caso negativo mostrar, mediante contraejemplos, las propiedades que no se satisfacen. 32 x,y = ∑ni=1 xi |yi |.



33 x,y = ∑ni=1 xi2 y2i

1/2

.

34 x,y = ∑ni=1 |xi yi |. 35 x,y = ∑ni=1 xi ∑ni=1 yi . 36 x,y = ∑ni=1 (xi + yi )2 − ∑ni=1 xi2 − ∑ni=1 y2i . 37 x,y = |∑ni=1 xi yi |.

En los ejercicios 38 a 59 (x1 , . . . , xn ), (y1 , . . . , yn ) = ∑ni=1 xi yi es el producto interior can´onico en los espacios Rn ; u = (−1, −1, 2), v = (−1, 2, 1), w = (−1, −1, 1); u1 = (2, −1, 1, 1), v1 = (−1, 0, 1, 0), w1 = (1, −2, 1, 0) yz1 = (1, −2, 1, 0) 38 Calcular u,v. 39 Hallar u, v −  w. 40 Encontrar 2 w −v, 3u − 2v. 41 Calcular  w. 42 Hallar d(u, w). 43 Estimar el a´ ngulo entre u y v. 44 Hallar el vector proyecci´on de u sobre el vector  w. 45 Encontrar el vector proyecci´on del vector u sobre el subespacio S = gn(v, w). 46 Hallar la matriz de proyecci´on para el subespacio S = gn(u, w).

Page (PS/TeX): 152 / 386, COMPOSITE

´ 4.3 SECCION

Ejercicios resueltos y ejercicios propuestos 387

47 Encontrar la proyecci´on del vector v sobre el subespacio S = gn(u, w). 48 Hallar la proyecci´on del vector u sobre el plano x1 − 2x2 + x3 = 0. 49 Encontrar la proyecci´on del vector v sobre el plano 2x1 − x2 + 3x3 = 0. 50 Calcular  w1 ,v1 . 51 Hallar 3z1 ,v1 −u1 . 52 Encontrar 2 w1 − 3v1 ,u1 − 2z1 . 53 Calcular z1 . 54 Hallar d(z1 , w1 ). 55 Estimar el a´ ngulo entre u1 y  w1 . 56 Hallar el vector proyecci´on de v1 sobre el vector  w1 . 57 Encontrar el vector proyecci´on para el subespacio S = gn(v1 , w1 ). 58 Hallar la matriz de proyecci´on para el subespacio S = gn(u1 , w1 ,z1 ). 59 Encontrar la proyecci´on del vector v1 sobre el subespacio S = gn(u1 , w1 ,z1 ).

En los ejercicios 60 a 72  f , g =



b a

f (x)g(x)dx es el producto interior en el espacio C[−1, 1] (cfr.

ejemplo 4.3, p´ag. 237) y · es la norma inducida correspondiente a este producto. Encontrar el valor indicado. 60 1, x. 61 x, 1 + x. 62 x, e x . 63 x. 64 e x . 65 1 + x. 66 d(x, x2 ). 67 d(x, e x ). 68 El a´ ngulo entre f (x) = 1 y g(x) = x.

Page (PS/TeX): 153 / 387, COMPOSITE

388 CAPI´TULO 4

Espacios con producto interior y espacios normados

69 El a´ ngulo entre f (x) = x y g(x) = e x . 70 La proyecci´on de f (x) = e x sobre la funci´on g(x) = x. 71 La proyecci´on de f (x) = x sobre g(x) = 1. 72 La proyecci´on de f (x) = e x sobre el subespacio S = gn(1, x).

En los ejercicios 73 a 82 A, B = tra(B t A) es el producto interior en el espacio de matrices (cfr. ejemplos 4.6 y 4.8, p´ags. 240 y 242) y · es la norma inducida correspondiente a este producto. Encontrar el valor indicado.  73

1 −1 1 2

  2 74   0  75

−1 1

  ,

 .

  .    1 , 0

2 −1 1 1 −1 1

  1 76   2

1 0 −1 1

0 1 2 −3

−1 1 1 1

 .

  .  

77 El a´ ngulo entre A =

 78 El a´ ngulo entre A =

1 1 0 1 1 0 

79 La proyecci´on de A =

 80 La proyecci´on de A =

 81 La proyecci´on de A =



 yB=

0 1 −1 1

−1 1 1 1



 yB=



−1 1

1 1

−1 2 1 0

3 1

−2 1

sobre B =

 sobre B =

82 La proyecci´on de A =

.

 .

−1 4 1 0 1 0

 .

sobre el subespacio

−1 1 −1 2 S = gn

1 0 1 1

   0 1 , . 1 1

 sobre el subespacio 

Page (PS/TeX): 154 / 388, COMPOSITE







2 1

−1 0 0 3

1 −1 1 1



S = gn 

.

2 −1 

2 1



−1 0 1 0 1 0

  0 , 1

−1 1 −1 2

 .

´ 4.3 SECCION

Ejercicios resueltos y ejercicios propuestos 389

En los ejercicios 83 a 94 (an ), (bn ) = ∑∞n=1 an bn es el producto interior en el espacio 2 de sucesiones de cuadrado sumable (cfr. ejemplo 4.9, p´ag. 243) y · es la norma inducida correspondiente a este producto. Probar que las sucesiones dadas pertenecen a 2 y encontrar los valores indicados. 83 A = 84 A = 85 A =

 



1 n+1

,B=

1 2n+1





,B=

1 n+2





; A, B.

1 2n−1



; A, B.

1 1 2n , n! ; A, B. 



2





1 86 A = (− π16 )n , B = ( (2n)! ) ; A, B

87 A =

1

,B=

5n

n  ; A, B, A, B y el a´ ngulo entre A y B. − √13





88 A = (− √1 )n ; A. 5

89 A = 90 A =

 

1 3n+1 1 4n+3

 

,B= ,B=

 

1 3n−2 1 4n−1







; A, B; A, B y el a´ ngulo entre A y B.



; A, B; A, B y el a´ ngulo entre A y B.





91 A = 2n 5−n+2 , B = 3n−2 4n−3 ; A, B, A, B y el a´ ngulo entre A y B. 92 A = 93 A =

1

  , B = (− 14 )n ; la proyecci´on de A sobre B.

3n

1 2n

,B=

2





3n

  , C = (− 51 )n ; la proyecci´on de C sobre gn(A, B).

94 A = (− √1 )n , B =



2

√1 3

n   , C = 31n ; la proyecci´on de C sobre gn(A, B).

95 (Complemento ortogonal de un subespacio). Sea E un espacio con producto interior ·, · y S un

subespacio de E. Probar que S⊥ = {u ∈ E |u ⊥v

∀v ∈ S}

es un subespacio de E (el llamado complemento ortogonal se S). En los ejercicios 96 a 101 se hace referencia al complemento ortogonal definido en el ejercicio precedente. 96 Probar que S ⊂ (S⊥ )⊥ . 97 Dar un ejemplo en el que (S⊥ )⊥ = S. 98 Probar que L (S) ⊂ (S⊥ )⊥ . 99 Probar que si E tiene dimensi´on finita, entonces (S⊥ )⊥ = S.

Page (PS/TeX): 155 / 389, COMPOSITE

390 CAPI´TULO 4

Espacios con producto interior y espacios normados

100 Sean S1 y S2 un par de subespacios en un espacio con producto interior. Probar que:

(a) (S1 + S2 )⊥ = S1⊥ ∩ S2⊥ . (b) (S1 ∩ S2 )⊥ = S1⊥ + S2⊥ . 101 Probar que si S < E y E tiene dimensi´on finita, entonces

E = S ⊕ S⊥ (cfr. ejercicio resuelto 27 del cap´ıtulo 3, p´ag. 187). En los ejercicios 102 a 109 los espacios a los que se hace referencia est´an dotados de los productos interiores usuales como se han definido en este texto (ejemplos 4.2, 4.3, 4.6 y 4.8). En cada caso encontrar S⊥ , el complemento ortogonal del subespacio indicado S (cfr. ejercicio 95). 102 S = gn((−1, 2, 1), (2, −2, 1)) en R3 . 103 S = gn((1, 0, 1), (−2, 1, 1)) en R3 . 104 S = gn((−2, 1, 1, 1), (−3, 2, 1, 1), (2, 2, −2, 3)) en R4 . 105 S = gn((1, −3, 2, 1), (2, −3, 4, −5), (−1, −4, 1, 1)) en R4 .

 106 S = gn

 107 S = gn

−1 1 0 1 2 1 −3 1

  ,   ,

2 −2

−3 4

1 2 −1 3

 en M2 .

 en M2 .

108 En P1 con el producto interior  f , g =

109 En P2 con el producto interior  f , g =



1 0



1 0

f (x)g(x)dx, S = gn(1). f (x)g(x)dx, S = gn(1, x).

110 Sean C[−1, 1] el espacio de funciones continuas dotado del producto interior usual

 f , g =



1

−1

f (x)g(x)dx,

SP y SI los subespacios de funciones pares e impares, respectivamente, probar que SP⊥ = SI (cfr. ejercicio 95). 111 ¿Es cierta la conclusi´on del ejercicio anterior si se trabaja en el espacio C[0, 1]? ¿C´omo deben ser a, b

para que la conclusi´on del ejercicio precedente sea v´alida en C[a, b] con el producto interior  f , g =

 a

b

f (x)g(x)dx?

112 Sean u y v un par de vectores en un espacio con producto interior ·, ·.

Page (PS/TeX): 156 / 390, COMPOSITE

´ 4.3 SECCION

Ejercicios resueltos y ejercicios propuestos 391

(a) Si u ⊥v, calcular 3u − 2v, 2u +v. (b) Si u = 2 y v = 7, calcular u − 4v,u + 4v. 113 Sea E un espacio con producto interior ·, ·. Demostrar el rec´ıproco del teorema de Pit´agoras; i.e., si

u,v ∈ E y u +v2 = u2 + v2 , entonces u ⊥v. 114 Probar que en cualquier espacio con producto interior:

(a) u −v ≤ u + v. (b) |u − v| ≤ u −v. Para todo par de vectores u,v ∈ E. 115 Probar que en un espacio con producto interior los vectores uv+vu y uv−vu son ortogonales.

En los ejercicios 116 a 119 E es un espacio con producto interior y u y v son un par de vectores en e´ l. Probar la afirmaci´on dada. 116 u ⊥v ⇔ u +v = u −v. 117 u +v ⊥ u −v ⇔ u = v. 118 u ⊥v ⇒ u + αv ≥ u para todo α ∈ R. 119 Si u,v = 0E , entonces

u −v2 = u2 + v2 − 2 u v cos θ. 120 Sea E un espacio vectorial y ·, ·1 , ·, ·2 un par de productos interiores en e´ l. Se define, u,v = u,v1 +

u,v2 . ¿Es u,v un producto interior en E? En los ejercicios 121 a 145 los espacios considerados est´an dotados de los productos interiores usuales definidos en los ejemplos 4.2, 4.3, 4.6, 4.8 y 4.9 de este texto; encontrar una base ortonormal para el subespacio generado por el conjunto L.I. dado o para el subespacio indicado utilizando el proceso de ortogonalizaci´on de Gram-Schmidt (cfr. teorema 4.12, p´ag. 275). 121 {(−1, 1), (1, 2)} en R2 . 122 {(2, 2), (1, −1)} en R2 . 123 {(0, 2), (3, 1)} en R2 . 124 {(1, 1), (0, 1)} en R2 .

Page (PS/TeX): 157 / 391, COMPOSITE

392 CAPI´TULO 4

Espacios con producto interior y espacios normados

125 {(3, 1, 1), (−1, 2, 2)} en R3 . 126 {(0, 1, 1), (1, 2, −1)} en R3 . 127 {(−1, 1, 0), (2, −1, 2), (1, 1, 1)} en R3 . 128 {(2, 1, −1), (1, −1, 1), (−1, 1, 1)} en R3 . 129 {(−1, 1, 0), (2, −1, 1), (1, 1, 1)} en R3 . 130 {(3, 1, −3), (1, −1, 2), (−1, 1, −1)} en R3 . 131 {(1, 0, 1, 0), (1, 1, 1, 0), (1, −1, 0, 1)} en R4 . 132 {(1, −1, 1, 0, 0), (−1, 0, 0, 0, 1), (0, 0, 1, 0, 1), (1, 0, 0, 1, 1)} en R5 . 133 {sen x, cos x} en C[0, π]. 134 {1, x, x2 } en C[−1, 1]. 135 {1, x, x2 } en C[0, 1]. 136 {1, e x } en C[−1, 1].

' 137

' 138

' 139

−1 1 1 0 2 1 1 0

  : 2 −1 , en M2 . 1 1

  ,

1 1 1 0 1 0

1 3 −1 1

  ,

1 −1

  −1 , 0 0 1

1 0

0 1

: en M2 .

  : 1 0 0 , en M2×3 . 1 0 1

140 El plano x − 2y + z = 0 en R3 . 141 El espacio soluci´on del sistema

x−y+z−w = 0 2x + y − 4z + 2w = 0 3x − y + 4z + w = 0 en R4 . 142 El espacio nulo de la matriz



1 ⎢ −1 ⎢ ⎣ 2 1 en R4 .

Page (PS/TeX): 158 / 392, COMPOSITE

−1 2 2 −2 −1 0 1 −2

⎤ 1 3 ⎥ ⎥ 0 ⎦ 3

´ 4.3 SECCION

Ejercicios resueltos y ejercicios propuestos 393

143 El espacio nulo de la matriz

⎤ −1 1 3 ⎣ 2 1 −5 ⎦ −1 4 4 ⎡

en R3 . '   : 1 1 , n en 2 . 144 2n 3 '     : 1 1 1 , n , n en 2 . 145 2n 3 4 En los ejercicios 146 a 159  f , g =



1

−1

f (x)g(x)dx es el producto interior usual en el espacio C[−1, 1],

· la norma inducida correspondiente, f (x) = 1, g(x) = x, h(x) = 1 + x y r(x) = x2 . 146 Calcular  f , g. 147 Hallar 1, h. 148 Calcular g, r. 149 Encontrar g. 150 Calcular h. 151 Hallar r 152 Hallar el a´ ngulo entre f y g. 153 Calcular el a´ ngulo entre f y h. 154 Hallar el a´ ngulo entre g y h. 155 Encontrar la proyecci´on de r sobre f . 156 Encontrar la proyecci´on de g sobre r. 157 Hallar la proyecci´on de r sobre el subespacio S = gn(1, x). 158 Encontrar todos los vectores en S = gn(1, x) que son ortogonales a f . 159 Hallar una base ortonormal para el espacio S = gn(1, x, x2 ).

En los ejercicios 160 a 167  f , g es el producto interior definido en el ejercicio resuelto 4 de esta secci´on. 160 Si fn (x) = x n , n = 0, 1, 2, . . . , probar que  fm , fn  = (m + n)! 161 Si f (x) = (1 + x)2 y g(x) = x2 + 1, calcular  f , g.

Page (PS/TeX): 159 / 393, COMPOSITE

394 CAPI´TULO 4

Espacios con producto interior y espacios normados

162 Encontrar todos los polinomios en gn(1, x) que son ortogonales a f (x) = 1 + x. 163 Hallar el a´ ngulo entre f (x) = x y g(x) = x2 . 164 Encontrar la proyecci´on de f (x) = x sobre g(x) = x2 . 165 Encontrar la proyecci´on de g(x) = x2 sobre el subespacio S = gn(1, x). 166 Hallar una base ortonormal para el subespacio S = gn(1, x). 167 Encontrar una base ortonormal para el subespacio S = gn(1, x, x2 ). 168 Sea C[1, e] el espacio de funciones continuas en [1, e], se define  e

 f , g =

1

f (x)g(x) ln(x)dx

para cada f , g ∈ C[1, e]. Probar que  f , g es un producto interior en C[1, e]. En los ejercicios 169 a 179  f , g =

 1

e

f (x)g(x) ln(x)dx es el producto interior definido en el ejercicio

precedente en el espacio C[1, e], · la norma inducida por este producto, f (x) = 1, g(x) = x, h(x) = x2 √ y r(x) = x. 169 Calcular  f , g. 170 Hallar 1, h. 171 Calcular g, r. 172 Encontrar g. 173 Calcular h. 174 Hallar r 175 Encontrar la proyecci´on de r sobre f . 176 Encontrar la proyecci´on de g sobre r. 177 Hallar la proyecci´on de r sobre el subespacio S = gn(1, x). 178 Encontrar todos los vectores en S = gn(1, x) que son ortogonales a f . 179 Hallar una base ortonormal para el espacio S = gn(1, x, x2 ). 180 En el espacio de polinomios de grado a lo m´as n, Pn , se define, para cada par de polinomios f y g,

    k k  f , g = ∑ f g . n n k=0 n

Probar que  f , g es un producto interior en Pn .

Page (PS/TeX): 160 / 394, COMPOSITE

´ 4.3 SECCION

Ejercicios resueltos y ejercicios propuestos 395

    k k g es el producto interior en el espacio Pn dado en En los ejercicios 181 a 186  f , g = ∑ f n n k=0 el ejercicio anterior y · la norma inducida por este producto. n

181 Calcular  f , g si f (x) = x y g(x) = a0 + a1 x. 182 Calcular g(x) si g(x) = 1. 183 Calcular  f  si f (x) = x. 184 Encontrar el a´ ngulo entre f (x) = 1 y g(x) = x. 185 Encontrar todos los polinomios de grado a lo m´as uno que son ortogonales a f (x) = x. 186 Encontrar una base ortonormal para el subespacio S = gn(1, x).

En los ejercicios 187 a 189 E es el conjunto de todas las funciones continuas f : [0, ∞) → R tales que 



0

[ f (x)]2 e−x dx

converge. 187 Probar que  0



converge absolutamente (i.e.,

0





f (x)g(x)e−x dx

| f (x)g(x)| e−x dx converge) para todo par de funciones f , g ∈ E.

188 Mostrar que E, con la suma de funciones y producto de un escalar por una funci´on usuales, es un espacio

vectorial. 189 Probar que  f , g =

 0



f (x)g(x)e−x dx define un producto interior en el espacio vectorial E.

En los ejercicios 190 a 210  f , g =

 0



f (x)g(x)e−x dx es el producto interior en el espacio E definido

en los ejercicios 187 a 189 y · es la norma inducida por este producto. 190 Probar que toda funci´on de la forma fn (x) = x n , n = 0, 1, 2, . . . , pertenece a E. 191 ¿La funci´on f (x) = e x pertenece a E? 192 Probar que f (x) = e−x pertenece a E. 193 Encontrar 1, x. 194 Calcular 1. 195 Hallar x.

Page (PS/TeX): 161 / 395, COMPOSITE

396 CAPI´TULO 4

Espacios con producto interior y espacios normados

196 Hallar la proyecci´on de f (x) = x sobre g(x) = 1. 197 Hallar una base ortonormal para el subespacio S = gn(1, x). 198 Encontrar una base ortonormal para el subespacio S = gn(1, x, x2 ). 199 Si f (x) = x n , n = 0, 1, . . . , y g(x) = e−x , calcular  f , g. 200 Encontrar el a´ ngulo entre f (x) = 1 y g(x) = e−x . 201 Calcular e−x . 202 Encontrar la proyecci´on de f (x) = e−x sobre g(x) = 1. 203 Encontrar la proyecci´on de f (x) = e−x sobre S = gn(1, x). 204 Probar que f (x) = cos x y g(x) = sen(x) pertenecen a E. 205 Calcular cos x, e−x  y sen x, e−x . 206 Hallar cos x . 207 Calcular sen x. 208 Encontrar la proyecci´on de f (x) = e−x sobre g(x) = cos x. 209 Hallar una base ortonormal para el subespacio S = gn(cos x, sen x). 210 Encontrar la proyecci´on de f (x) = e−x sobre S = gn(cos x, sen x).

En los ejercicios 211 a 214: (i) probar que las columnas de la matriz A son L.I. (ii) Encontrar una factorizaci´on QR para la matriz A; i.e., una matriz Q cuyas columnas son ortonormales y una matriz R que es triangular superior e invertible tales que A = QR (cfr. teorema 4.13, p´ag. 279). ⎤ 1 2 1 ⎢ 2 −1 0 ⎥ ⎥. 211 A = ⎢ ⎣ −1 3 1 ⎦ 1 2 −1 ⎡

⎤ 1 1 −1 1 ⎦. 212 A = ⎣ 0 1 1 1 0 ⎡



1 ⎢ 0 213 A = ⎢ ⎣ 1 −1

⎤ 1 −1 1 0 ⎥ ⎥. 0 1 ⎦ 1 0

Page (PS/TeX): 162 / 396, COMPOSITE

´ 4.3 SECCION

Ejercicios resueltos y ejercicios propuestos 397

⎤ 0 1 −1 1 ⎦. 0 0



1 214 A = ⎣ 2 1

En los ejercicios 215 a 221, determinar si la matriz dada es o no ortogonal (cfr. teorema 4.14, p´ag. 282).  215

√1 2

216

√1 5



 217

⎡ ⎢

218 ⎣

1 2 1 −1

1 3 2 3 2 3

2 3 1 3 − 23



−3 220 15 ⎣ 4 0 0

⎢ ⎢ 0 1

221 ⎢ ⎢



2 3 2 3

 .

 . 2 3 − 23 1 3

⎤ ⎥ ⎦.

⎤ 1 1 1 1 −1 −1 ⎥ ⎥. −1 1 −1 ⎦ −1 −1 1

1 ⎢ 1 219 12 ⎢ ⎣ 1 1

1 3

.

2 −1

1 1







1 1 −1 1

0 0

⎤ 0 4 0 3 ⎦. −5 0 2 3

0 1 3 − 23



2 3

⎥ 0 ⎥ ⎥. − 23 ⎥ ⎦ 1 3

En los ejercicios 222 a 228, A ∈ Mn es un matriz ortogonal y x,y ∈ Rn . 222 Probar que Ax · Ay =x ·y. 223 Mostrar que Ax = x. 224 Demostrar que el a´ ngulo entre Ax y Ay es el mismo que entre x y y.





225 Probar que Ax = A−1x. 226 Demostrar que A2 tambi´en es una matriz ortogonal. 227 Probar que det(A) = ±1. 228 Si C ∈ Mn es tal que D = A−1CA es una matriz diagonal, mostrar que C es sim´etrica.

Page (PS/TeX): 163 / 397, COMPOSITE

398 CAPI´TULO 4

Espacios con producto interior y espacios normados

229 Dar un ejemplo de una matriz A tal que det(A) = 1, pero A no es ortogonal. 230 Probar que si A es una matriz cuadrada de orden n y Ax · Ay = x ·y para todo par de vectores x,y ∈ Rn ,

entonces A es una matriz ortogonal. 231 Si A es una matriz cuadrada de orden n tal que Ax = x para todo x ∈ Rn , demostrar que A es una

matriz ortogonal. 232 Probar que si A es una matriz cuadrada de orden n que es ortogonal y {u1 , . . . ,un } es una base ortonormal

de Rn , entonces {Au1 , . . . , Aun } es tambi´en una base ortonormal de este espacio. En los ejercicios 233 a 241, E y  f , g =

 0



2

f (x)g(x)e−x dx son el espacio y el producto interior de los

ejercicios resueltos 13 y 14 y · es la norma inducida por este producto escalar. 233 Calcular cos x. 234 Probar que si f (x) = sen x, entonces f ∈ E y calcular  f . 235 Probar que si f (x) = cos x, entonces f ∈ E y calcular  f . 236 Calcular x, sen x. 237 Si f (x) = x n , mostrar que f ∈ E para todo n = 0, 1, . . . 238 Mostrar que todo polinomio pertenece a E.

6

7

239 Calcular x2 , cos x . 240 Hallar la aproximaci´on o´ ptima de f (x) = cos x en el subespacio S = gn(1, x2 ). 241 Hallar la aproximaci´on o´ ptima de f (x) = sen x en el subespacio S = gn(x, x3 ).

En los ejercicios 242 a 255, encontrar la aproximaci´on o´ ptima ( p∗ ) del elemento u en el subespacio S del espacio E, con el producto interior ·, · indicado (cfr. apartado 4.1.5, p´ag. 283). 242 E =R3 , x,y =x ·y, S = gn((−1, 1, 2), (−2, 1, 1)), u = (1, 1, 1). 243 E =R3 , x,y =x ·y, S = gn((0, 1, 1), (−1, 1, −1)), u = (1, 0, 1). 244 E =R4 , x,y =x ·y, S = gn((1, 1, 2, 1), (−1, 1, 1, 0), (2, −1, 1, 3)), u = (1, −2, 4, 1). 245 E =R4 , x,y =x ·y, S = gn((1, 0, 1, 1), (1, −1, −1, 0), (1, 1, 1, 1)), u = (0, −1, 2, −1). 246 E = C[1, 3],  f , g =

247 E = C[0, 1],  f , g =

Page (PS/TeX): 164 / 398, COMPOSITE



3 1



1 0

f (x)g(x)dx, S = gn(1), u = f ; donde f (x) = 1/x. f (x)g(x)dx, S = gn(1, x), u = f ; donde f (x) =

1 x−2 .

´ 4.3 SECCION

248 E = C[0, 1],  f , g = 249 E = C[0, 1],  f , g = 250 E = C[0, 2],  f , g =



1

f (x)g(x)dx, S = gn(1, x), u = f ; donde f (x) = e−x .

0



1

f (x)g(x)dx, S = gn(1, x, x2 ), u = f ; donde f (x) = e−x .

0



2

f (x)g(x)dx, S = gn(1), u = f ; donde f (x) = e x .

0

251 E = C[−1, 1],  f , g =

252 E = C[0, 2π],  f , g =

Ejercicios resueltos y ejercicios propuestos 399



1

−1



2π 0

f (x)g(x)dx, S = gn(1, x), u = f ; donde f (x) = e x . f (x)g(x)dx, S = gn(1, cos x, sen x), u = f ; donde f (x) = x.

253 E es el espacio del ejercicio 187,  f , g =





0

f (x)g(x)e−x dx, S = gn(1, x), u = f ; donde f (x) = e−x .

254 E es el espacio del ejercicio resuelto 4,  f , g =





f (x)g(x)e−x dx, S = gn(1, x), u = f ; donde f (x) = x2 .

0



n n 255 E = 2 ,  f , g = ∑∞ u = ((1/ 2)n ). n=0 an bn , S = gn((1/2 ), ((1/3 )), 

En los ejercicios 256 a 263, ajustar por m´ınimos cuadrados el conjunto de datos (xi , yi ) a un polinomio del grado n indicado.

256

257

258

259

260

261

262

xi

0

1

2

3

4

yi

−1.98

1.01

3.98

6.95

10.01

xi

−1

−2

0

3

4

yi

3.97

5.02

3.01

0

−1.02

; n = 1.

xi

−1

2

3

5

7

yi

−0.97

5.01

6.98

11.03

14.99

xi

−3

2

1

2

4

yi

11.04

0.96

3.01

1.01

−3.02

xi

0

1

2

3

yi

1.02

3.99

8.97

16.01

xi

−1

0

1

2

yi

−1.02

1.97

3.02

1.98

xi

0

1

2

3

yi

0.02

−.01

2.03

6.01

Page (PS/TeX): 165 / 399, COMPOSITE

; n = 2.

; n = 2.

; n = 2.

; n = 1.

; n = 1.

; n = 1.

400 CAPI´TULO 4

263

Espacios con producto interior y espacios normados

xi

1

2

3

4

yi

1.02

6.95

16.97

31

; n = 2.

264 En el laboratorio de electricidad los estudiantes de la materia de circuitos el´ectricos intentan encontrar

una relaci´on entre la variaci´on de una resistencia con su temperatura. Han realizado las mediciones que se resumen en la siguiente tabla: T ◦C

R (omhs)

20.22

765

32.65

826

52

872

73.3

941

95.6

1,032.3

(a) Graficar los datos de esta tabla para conjeturar que la relaci´on entre la resistencia y la temperatura es lineal; i.e., R = mT + b y ajustar estos datos por m´ınimos cuadrados para determinar m y b. (b) Estimar la resistencia que corresponde a una temperatura de 90 ◦ C. (c) ¿Cu´ales son las dimensiones de m y b? 265 La siguiente tabla contiene informaci´on respecto al n´umero de pobladores, p, en diversos meses t, de

cierta clase de roedores que se reproducen r´apidamente en condiciones de laboratorio: ti

0

1

2

3

4

5

6

8

10

pi

2

3

5

7

10

15

20

40

109

(a) Graficar estos datos para conjeturar que la relaci´on entre p y t es exponencial; i.e., p = rest . (b) Poner zi = ln pi = ln r + sti y a˜nadir esta nueva fila a la tabla precedente. (c) Hacer un ajuste lineal por m´ınimos cuadrados a los datos (ti , zi ) para calcular r y s. (d) Estimar la poblaci´on en el mes 12.

Espacios vectoriales normados (respuestas en p´aginas 1082-1084) En los ejercicios 266 a 275 se consideran un espacio Rn o un espacio Mm×n provistos de las normas ·∞ o ·1 tratados en los ejemplos 4.40, 4.41, 4.42, 4.43, 4.44 (cfr. p´ags. 303 a 306) y d(·, ·) la correspondiente distancia definida por cada norma, calcular: 266 (−1, 2, 1, −2)∞ en (R4 , ·∞ ).



267 λu∞ , si u = (−1, 2, 1, 4, 2) y λ = − 2, en (R5 , ·∞ ). 268 d(u, v) , si u = (2, −3, 2, −5, 1) y v = (−1, 5, 2, −3, 0), en (R5 , ·1 ).

Page (PS/TeX): 166 / 400, COMPOSITE

´ 4.3 SECCION

Ejercicios resueltos y ejercicios propuestos 401

269 (−1, 2, 1, 4, 2)1 en (R5 , ·1 ). 270 d((−2, 3, −3, 4, −2), (−1, −1, 2, −3 − 5)) en (R5 , ·1 ).

   −1 2   en (M2 , · ).  271  ∞ −7 −4 ∞ ⎡ ⎤  −1 2 3 4    ⎣ 3 2 5 ⎦ 272   en (M3×4 , ·∞ ).  −1  −5 −7 6 2  ∞ ⎡ ⎤  −3 −1 2 3    ⎣ 2 3 6 −4 ⎦ 273   en (M3×4 , ·1 ).   −4 5 −8 3 1  274 d(A, B) en (M2×3 , ·∞ ) si A =

−1 2 3 2 −3 5



 yB=

0 −3 6 3

4 −5

 .

275 d(A, B) en (M3×4 , ·1 ) si

⎤ ⎤ ⎡ 1 −1 1 −1 1 −2 0 −1 1 ⎦. 2 −2 ⎦ y B = ⎣ 0 −2 −3 A = ⎣ 0 −1 2 −3 1 1 −1 2 −2 3 ⎡

En los ejercicios 276 a 288, ·∞ es la norma uniforme en el espacio indicado C[a, b]; esto es,  f ∞ = m´ax | f (x)| para cada f ∈ C[a, b] (cfr. ejemplo 4.47, p´ag. 308). Calcular  f ∞ para cada funci´on a≤x≤b

f en el espacio dado C[a, b]. 276 f (x) = x2 − 2x − 8 en C[−1, 4]. 277 f (x) = 4 − 4x − x2 en C[−4, 4]. 278 f (x) = 3x − x3 en C[−2, 2].

√ √

279 f (x) = x4 − 2x2 en C[− 2,

2].

280 f (x) = x2/3 + 1 en C[0, 8]. 281 f (x) = x − x2 en C[−4, 2]. 282 f (x) =



x2 + 4 en C[−2, 1].

283 f (x) = (x − 1)1/3 + 12 (x + 1)2/3 en C[−3, 7]. 284 f (x) = 2 − e x + 2x en C[0, 1]. 285 f (x) = 1 + e− cos(x−1) en C[0, 2]. 286 f (x) = ∑ni=1 (x − i)2 en C[1, n].

Page (PS/TeX): 167 / 401, COMPOSITE

402 CAPI´TULO 4

Espacios con producto interior y espacios normados

287 f (x) = ∑ni=1 |x − i| en C[0, 1]. 288 f (x) =

x+1 en C[−2, 4]. x2 + 1

En los ejercicios 289 a 298,  f 1 =

 a

b

| f (x)| dx es la norma del ejemplo 4.46 (p´ag. 306) en el espacio

C[a, b] dado y d(·, ·) es la distancia definida por esta norma. Calcular: 289  f 1 si f (x) = x2 − 2x + 2 en C[0, 5]. 290  f 1 si f (x) = ln x en C[1/2, 2]. 291  f 1 si f (x) = cos 2x si C[0, 2π]. 292 d( f , g) si f (x) =



x y g(x) = x2 en C[0, 1].

293 d( f , g) si f (x) = 5x2 − 6x y g(x) = x3 en C[−1, 4]. 294 d( f , g) si f (x) = 2x − x2 y g(x) = x3 en C[−2, 2]. 295 d( f , g) si f (x) = e x y g(x) = 1 en C[−1, 1]. 296 d( f , g) si f (x) = cos x y g(x) = sen x en C[0, π/2]. 297  f 1 si f (x) = x3 − x en C[−2, 1]. 298  f 1 si f (x) = tan x en C[− π4 , π4 ]. 299 Sea C0 el conjunto de sucesiones reales (an ) tales que l´ımn→∞ an = 0.

(a) Probar que C0 < R∞ y, por tanto, un espacio vectorial con las operaciones usuales de suma de sucesiones y producto de un escalar con una sucesi´on.   (b) Mostrar que para toda sucesi´on (an ) ∈ C0 existe n0 tal que |an | ≤ an0  ∀n ∈ N. 300 Sea C0 el espacio vectorial del ejercicio precedente. Si A = (an ) es cualquier sucesi´on en e´ l, se define

A = m´axn∈N |an |. Probar que A es una norma en C0 . En los ejercicios 301 a 310, C0 es el espacio vectorial del ejercicio anterior provisto de la norma ah´ı definida: C0 = {(an ) ∈ R∞ | l´ım an = 0}, n→∞

(an ) = m´ax |an |. n∈N

Mostrar que la sucesi´on (an ) pertenece a C0 y calcular (an ) si: 301 an =

1 . n

Page (PS/TeX): 168 / 402, COMPOSITE

´ 4.3 SECCION

302 an =

Ejercicios resueltos y ejercicios propuestos 403

1 . n+2

303 an = e1/n − 1. 304 an =

n−1 . e(n−1)2

305 an =

1 . n2

 π sen (2n − 1) 2 . 306 an = n 307 an =

ln n . n

308 an =

n−1 . n2 + 1

309 an =

2n−1 . (n − 1)!

310 an =

1 − cos n . n 





311 Sean · y · un par de normas sobre un mismo espacio vectorial E, mostrar que u = u + u



es tambi´en una norma en E. 312 Sea n un n´umero entero positivo y Cn [a, b] el conjunto de funciones f : [a, b] → R tales que f tiene

derivada hasta el orden n con continuidad en el intervalo [a, b] (la derivabilidad y continuidad en los extremos se considera por la derecha y por la izquierda, respectivamente). Se representa, para cada k = 1, . . . , n, la k-´esima derivada de f por el s´ımbolo f (k) y f (0) denota la funci´on f . (a) Probar que Cn [a, b] es un subespacio de C[a, b]. (b) Mostrar que

 9  8  (n)   f  = m´ax  f ∞ ,  f  ∞ ,  f (2) , . . . , f  ,  ∞ ∞

  f ∈ Cn [a, b], es una norma en Cn [a, b], donde  f (k) ∞ es la norma uniforme en el espacio Ck [a, b], para cada k = 0, 1, . . . , n. En los ejercicios 313 a 316, Cn [a, b] y  f  son el espacio y la norma definidos en el ejercicio precedente. 313 Determinar si f (x) = xe−x pertenece a C1 [0, 3]; en caso afirmativo calcular  f .

' 314 Determinar si f (x) =

' 315 Determinar si f (x) =

Page (PS/TeX): 169 / 403, COMPOSITE

x2 ln x, si x = 0 pertenece a C1 [0, 3]; en caso afirmativo calcular  f . 0, si x = 0 x3 ln x, si x = 0 pertenece a C1 [0, 3]; en caso afirmativo calcular  f . 0, si x = 0

404 CAPI´TULO 4

Espacios con producto interior y espacios normados

' 316 Determinar si f (x) =

2

e−1/x , si x = 0 pertenece a C1 [−1, 1]; en caso afirmativo calcular  f . 0, si x = 0

317 Sea Cn [a, b] el espacio de funciones f : [a, b] → R tales que la funci´on f tiene derivada hasta el orden n

con continuidad en el intervalo [a, b] del ejercicio 312. Se representa, para cada k = 1, . . . , n, la k-´esima derivada de f por el s´ımbolo f (k) y f (0) denota la funci´on f . Se define, para cada f ∈ Cn [a, b], f =

    ∑  f (k)  n

k=0



  donde  f (k) ∞ es la norma uniforme en el espacio Ck [a, b], para cada k = 0, 1, . . . , n. Mostrar que  f  es una norma en Cn [a, b].   En los ejercicios 318 a 320, Cn [a, b] y  f  = ∑nk=0  f (k) ∞ son el espacio y la norma del ejercicio precedente. 318 Determinar si f (x) = xe−x pertenece a C1 [0, 3]; en caso afirmativo calcular  f 

' 319 Determinar si f (x) =

' 320 Determinar si f (x) =

x3 ln x, si x = 0 pertenece a C1 [0, 3]; en caso afirmativo calcular  f . 0, si x = 0 2

e−1/x , si x = 0 pertenece a C1 [−1, 1]; en caso afirmativo calcular  f . 0, si x = 0

321 Calcular  f  = m´ax { f ∞ ,  f  ∞ }, en C1 [− π4 , π4 ] si f (x) = x sen x. 322 Calcular  f  =  f ∞ +  f  ∞ , en C1 [− π4 , π4 ] si f (x) = x sen x. 2

323 Calcular  f  = m´ax { f ∞ ,  f  ∞ ,  f  ∞ }, en C2 [−2, 2] si f (x) = e x . 2

324 Calcular  f  =  f ∞ +  f  ∞ +  f  ∞ , en C2 [−2, 2] si f (x) = e x .

 tra(At A) la norma can´onica en los espacios de matrices (cfr. ejemplo 4.40, p´ag. 303). Probar que si A ∈ Mm×n y B ∈ Mn×p son cualquier par de matrices, entonces

325 Sea A una matriz y A =

AB ≤ A B . 326 Sea A = [ai j ] una matriz y la norma A1 = ∑ |ai j | donde la suma se toma sobre todos los sub´ındices i, j

(cfr. ejemplo 4.44, p´ag. 306). Mostrar que si A ∈ Mm×n y B ∈ Mn×p son un par de matrices cualesquiera, entonces AB1 ≤ A1 B1 . 327 Sea A = [ai j ] es una matriz y A∞ = m´ax |ai j |, la norma c´ubica definida en el ejemplo 4.43 (cfr. p´ag.

305). ¿Se cumple la relaci´on de orden AB∞ ≤ A∞ B∞ para todo par de matrices A ∈ Mm×n y B ∈ Mn×p ?

Page (PS/TeX): 170 / 404, COMPOSITE

´ 4.3 SECCION

Ejercicios resueltos y ejercicios propuestos 405

328 Sea 1 el conjunto de todas las sucesiones (an ) ∈ R∞ tales que la serie



∑ |an | converge.

n=1

(a) Probar que 1 es un subespacio de R∞ . (b) Se define, para cada (an ) ∈ 1 , (an )1 =



∑ |an | .

n=1

Mostrar que (an )1 es una norma en 1 . En los ejercicios 329 a 338, 1 y (an )1 = anterior.



∑ |an | son el espacio y la norma definidos en el ejercicio

n=0

329 Mostrar que (an ) ∈ 1 y calcular (an )1 si an =

1 . n(n + 1)

330 Mostrar que (an ) ∈ 1 y calcular (an )1 si an =

1 . 16n2 − 4

331 Mostrar que (an ) ∈ 1 y calcular (an )1 si an =

1 . n!

332 Mostrar que (an ) ∈ 1 y calcular (an )1 si an =

4n+1 . (n − 1)!

333 Mostrar que (an ) ∈ 1 y calcular (an )1 si an =

1 . 2n−1

334 Mostrar que (an ) ∈ 1 y calcular (an )1 si an = (−3)n−4 52−n .

2n . n!

335 Mostrar que (an ) ∈ 1 y calcular (an )1 si an =

1 . 42n   1 1 . 337 Mostrar que (an ) ∈ 1 y calcular (an )1 si an = 2n n 336 Mostrar que (an ) ∈ 1 y calcular (an )1 si an =

 338 Mostrar que (an ) ∈ 1 y calcular (an )1 si an =

1



3n−1

1 . n

339 Sea p ≥ 1 un n´umero real dado y  p el conjunto de sucesiones (an ) ∈ R∞ tales que ∞

∑ |an | p

n=1

converge. Se define, para cada (an ) ∈  p ,  (an ) p =

Page (PS/TeX): 171 / 405, COMPOSITE



∑ |an |

n=1

1/p p

.

406 CAPI´TULO 4

Espacios con producto interior y espacios normados

(a) Mostrar que  p es un subespacio de R∞ . (b) Demostrar que (an ) p es una norma en  p . (c) Probar que si p, p∗ > 1 son ´ındices conjugados; i.e., (an bn ) ∈ 1 y adem´as

1 p

+

1 p∗

= 1, y (an ) ∈  p , (bn ) ∈  p∗ , entonces



∑ |an bn | ≤ (an ) p (bn ) p∗

n=1

es decir, (an bn )1 ≤ (an ) p (bn ) p∗ (Sugerencia: Utilizar las desigualdades de H¨older (4.50) y Minkowski (4.51), p´ag. 330.) En los ejercicios 340 a 345,  p y · p son el espacio y la norma definidos en el ejercicio anterior. Determinar si la sucesi´on (an ) pertenece a  p y, en caso afirmativo, calcular (an ) p si: 340 an =

1 , p = 3. 2n 1 n

341 an = √ , p = 2.

 342 an = (−1)

n

1 , p = 2. n!

343 an = rn , p > 1 cualquier n´umero real mayor que 1 y −1 < r < 1.

 344 an =

5

 345 an =

3

n+1 , p = 5. 3n 1 , p = 3. 2n n

En los ejercicios 346 a 355,  f  p =

 a

b

| f (x)| p dx

1/p es la norma definida en el ejercicio resuelto 35

para un n´umero p > 1. Calcular  f  p para la funci´on f y el n´umero p en el espacio indicado. 346 f (x) = x−1 , p > 1 en C[1, 2]. 347 f (x) = x, p > 1 en C[0, 1]. 348 f (x) = xe x , p = 2 en C[0, 1]. 349 f (x) = x cos x, p = 2 en C[0, 2π]. 350 f (x) = x sen1/3 x, p = 3 en C[0, 2π]. 351 f (x) = x ln2/3 x, p = 3/2 en C[1, e].

Page (PS/TeX): 172 / 406, COMPOSITE

´ 4.3 SECCION

Ejercicios resueltos y ejercicios propuestos 407

352 f (x) = cos1/3 x sen x, p = 3 en C[0, π/2]. 353 f (x) = e x sen1/4 x, p = 4 en C[0, 2π]. 354 f (x) = tan x, p = 2 en C[0, π/4]. 355 f (x) = tan−1/4 x, p = 2 en C[0, π/4]. 356 Sean p ≥ 1 y a un  par de n´umeros reales dados y L p [a, ∞) el conjunto de funciones reales continuas en

[a, ∞) tales que



a

| f (x)| p dx es convergente. Se define, para cada  ∞ 1/p | f (x)| p dx f ∈ L p [a, ∞),  f  p = . a

(a) Mostrar que L p [a, ∞) es un subespacio de C[a, ∞) y, por tanto, un espacio vectorial con la suma de funciones y multiplicaci´on de un escalar con una funci´on usuales. (b) Probar que  f  p es una norma en L p [a, ∞). (c) Si p, p∗ > 1 son ´ındices conjugados ( 1p + p1∗ = 1), f ∈ L p [a, ∞) y g ∈ L p∗ [a, ∞), demostrar que f g ∈ L1 [a, ∞) (cfr. ejercicio resuelto 37) y que 

∞ a

En los ejercicios 357 a 363, L p [a, ∞) y  f  p =

| f g| ≤  f  p g p∗ 

∞ a

p

| f (x)| dx

1/p son el espacio y la norma definidos

en el ejercicio precedente. Determinar si la funci´on f pertenece al espacio L p [a, ∞) y en caso afirmativo calcular  f  p si: 357 f (x) =

1 , p = 1 y a = 1. x

358 f (x) =

1 , p = 1 y a = 2. (x − 1)2

359 f (x) =

1 , p > 1 y a > 1. x

360 f (x) =

ln x , p = 1 y a = 1. x

361 f (x) =

(ln x)1/2 , p = 2 y a = 1. x

362 f (x) = xe−x/p , p = 1, 2, . . . y a = 0. 363 f (x) =

(ln x)−1 √ , p = 2, a = 2. x

Una seminorma en un espacio vectorial E es una funci´on N : E → R tal que: • N (u) ≥ 0 ∀u ∈ E. • N (λu) = |λ|u para todo λ ∈ R y para todo u ∈ E.

Page (PS/TeX): 173 / 407, COMPOSITE

408 CAPI´TULO 4

Espacios con producto interior y espacios normados

• N (u +v) ≤ N (u) + N (v). • Existe u ∈ E, con u = 0E , tal que N (u) = 0. Probar, en los ejercicios 364 a 366, que el conjunto E es un espacio vectorial (con las operaciones usuales) y que N (u) es una seminorma en e´ l. 364 (Seminorma de Taylor). Sean n un entero positivo, J un intervalo abierto que contiene a un punto dado

a, E el conjunto de funciones f : J→ R tales que f tiene derivada hasta el orden n en el punto a y N (f) =

 

n

 

∑  f (k) (a) .

k=0

donde f (0) (a) = f (a) y f (k) (a) es la k-´esima derivada de f en a, k = 1, . . . , n. 365 (Seminorma de interpolaci´on). Sean n un entero positivo fijo, E = F ([a, b]) el conjunto de funciones

f : [a, b] → R, x0 , x1 , . . . , xn ∈ [a, b] puntos fijos distintos entre s´ı y n

N (f) =

∑ | f (xk )| .

k=0

366 Sean n un entero positivo, J un intervalo abierto que contiene a un punto dado a, E el conjunto de

funciones f : J→ R tales que f tiene derivada hasta el orden n en el punto a y N (f) =

n

1 

 

∑ k!  f (k) (a)

k=0

donde f (0) (a) = f (a) y f (k) (a) es la k-´esima derivada de f en a, k = 1, . . . , n. 367 Demostrar que la seminorma del ejercicio 366 satisface la relaci´on de orden

N ( f g) ≤ N ( f )N (g) para cualquier par de funciones f , g ∈ E. 368 ¿Satisfacen las seminormas de Taylor e interpolaci´on de los ejercicios 364 y 365 la relaci´on de orden

N ( f g) ≤ N ( f )N (g)? 369 Sea E un espacio vectorial y N una seminorma en e´ l.

(a) Probar el conjunto SN de todos los f ∈ E tales que N ( f ) = 0, es un subespacio de E. (b) Sea C1 [a, b] el espacio de funciones con primera derivada continua en el intervalo [a, b]. Probar que N ( f ) = m´ax | f  (x)| a≤x≤b

es una seminorma en C1 [a, b]. Determinar SN para este caso. 370 Sean E un espacio vectorial, N una seminorma y N1 una norma en e´ l. Probar que

u = N (u) + N1 (u) es una norma en E.

Page (PS/TeX): 174 / 408, COMPOSITE

´ 4.3 SECCION

Ejercicios resueltos y ejercicios propuestos 409

Sea C[a, b] el espacio de funciones continuas en [a, b] dotado de la norma uniforme  f ∞ = m´ax | f (x)|. a≤x≤b

En los ejercicios 371 a 374, bosquejar B[ f , ε], la bola de centro f y radio ε respecto a esta norma para cada f dada. 371 f (x) = 1, a = 0 y b = 2. 372 f (x) = x2 , a = −1 y b = 1. 373 f (x) = e−x , a = −1 y b = 2. 374 f (x) = cos x, a = −π y b = π.

En los ejercicios 375 a 384, se define una funci´on (x1 , . . . , xn ) → (x1 , . . . , xn ) en el espacio Rn indicado. Utilizar los teoremas 4.17 y 4.19 (cfr. p´ags. 318 y 320) para: (a) Probar que (x1 , . . . , xn ) es una norma y que proviene de un producto interior. (b) Hallar el producto interior del cual proviene la norma. 375 (x1 , x2 ) = 2x12 − 2x2 x1 + x22 en R2 . 376 (x1 , x2 ) = x12 − 2x2 x1 + 2x22 en R2 . 377 (x1 , x2 ) = 5x12 + 6x1 x2 + 2x22 en R2 . 378 (x1 , x2 ) = x12 − 6x1 x2 + 10x22 en R2 . 379 (x1 , x2 , x3 ) = 5x12 − 2x1 x2 − 4x1 x3 + 2x22 + x32 en R3 . 380 (x1 , x2 , x3 ) = 2x12 − 2x1 x3 + x22 + 2x2 x3 + 2x32 en R3 . 381 (x1 , x2 , x3 ) = x12 + x22 + 2x2 x3 + 2x32 en R3 . 382 (x1 , x2 , x3 ) = 2x12 − 2x1 x2 − 2x1 x3 + 5x22 + x32 en R3 . 383 (x1 , x2 , x3 , x4 ) = x12 + 2x22 + 2x2 x3 − 2x2 x4 + x32 + 2x42 en R4 . 384 (x1 , x2 , x3 , x4 , x5 ) = x12 − 2x1 x5 + x22 + 2x32 − 2x3 x5 + x42 + 2x52 en R5 .

En los ejercicios 385 a 398, determinar si la norma en el espacio indicado proviene o no de un producto interior; en caso afirmativo, hallar el producto escalar del cual proviene la norma (cfr. teoremas 4.17 y 4.19). 385 (x1 , . . . , xn )1 = ∑ni=1 |xi | en Rn . 386 (ai j )1 = ∑ |ai j | en M2×3 . 387 (ai j )∞ = m´ax |ai j | en M3×2 .

Page (PS/TeX): 175 / 409, COMPOSITE

410 CAPI´TULO 4

Espacios con producto interior y espacios normados

388  f ∞ = m´ax | f (x)| en C[0, 1]. 0≤x≤1

389  f 1 =

390  f 2 =

391  f 3 =



1 0

| f (x)| dx en C[0, 1].



1

0



1

0

392 (an )1 =

[ f (x)]3 dx

en C[0, 1]. 1/3 en C[0, 1].



n=0



∑ |an |

393 (an )2 =

1/2 2

en 2 .

n=0





∑ |an |

394 (an )3 =

1/3 3

en 3 .

n=0



 0



∑ |an |

395 (an ) p =

0

[ f (x)] dx

∑ |an | en 1 .



396  f  =  ∞

1/2

2

1/p p

en  p , con p = 2.

n=0 ∞

[ f (x)]2 e−x dx

1/2 en el espacio vectorial de las funciones continuas f : [0, ∞) → R tales que

[ f (x)]2 e−x dx converge.

397  f  = m´ax ( f ∞ ,  f  ∞ ) en C1 [0, 1]. 398  f  =  f ∞ +  f  ∞ en C1 [0, 1]. 399 Demostrar, sin utilizar el teorema 4.22 (cfr. p´ag. 327), que las normas n

(x1 , . . . , xn )1 = ∑ |xi |

(x1 , . . . , xn )∞ = m´ax |xi |

y

1≤i≤n

i=1

del espacio Rn , son equivalentes. 400 Demostrar, sin utilizar el teorema 4.22, que las normas

 (x1 , . . . , xn ) =

n

∑ xi2

i=1

1/2 y

(x1 , . . . , xn )∞ = m´ax |xi | 1≤i≤n

(del espacio Rn ) son equivalentes. 401 Encontrar (sin utilizar el teorema 4.22) α > 0 y β > 0 tales que para todo u = (x1 , . . . , xn ) ∈ Rn se cumpla

1/2  α u ≤ u1 ≤ β u donde u = ∑i=1 xi2 y u1 = ∑i=1 |xi |.

Page (PS/TeX): 176 / 410, COMPOSITE

´ 4.3 SECCION

Ejercicios resueltos y ejercicios propuestos 411

402 Sean C[0, 1] el espacio de funciones continuas en el intervalo [0, 1],

 f 2 =



1

0

| f (x)|2 dx

1/2 y

 f ∞ = m´ax | f (x)|. a≤x≤b

(a) Encontrar β > 0 tal que  f 2 ≤ β  f ∞ para todo f ∈ C[0, 1]. (b) Demostrar que no puede existir α > 0 tal que α  f ∞ ≤  f  2 para todo f ∈ C[0, 1]. (c) ¿Son equivalentes  f 2 y  f ∞ ? 403 Sean las normas  f 1 =



b a

| f (x)| dx y  f 2 =



b a

 f 1 ≤



2

1/2

[ f (x)] dx

en el espacio C[a, b]. Probar que

b − a  f 2

para toda funci´on f ∈ C[a, b]. 404 Probar que las normas

 f 1 =



1 0

| f (x)| dx

y

 f 2 =

 0

1

2

1/2

[ f (x)] dx

en el espacio C[0, 1] no son equivalentes. Sean E un espacio vectorial y a,b ∈ E. Se define el segmento con punto inicial a y punto final b como 8 9   el conjunto [a, b] = u ∈ E |u = a + t(b −a), 0 ≤ t ≤ 1 . 405 Un conjunto M ⊂ E es convexo si el segmento [a,b] ∈ M para todo par a,b ∈ M.

(a) Probar que todo subespacio S de E es un conjunto convexo. (b) Sean r > 0 y u0 ∈ E, demostrar que la bola cerrada B[u0 , r] es un conjunto convexo. 406 Sean α, ai ∈ R, i = 1, . . . , n, n´umeros reales dados. Se llama semiplano al conjunto de puntos (x1 , . . . , xn )

∈ Rn tales que a1 x1 + · · · + an xn ≥ α. (a) En referencia al ejercicio 405, probar que todo semiplano es convexo. (b) Demostrar que el complemento de un semiplano (al que tambi´en se le llama semiplano) es un conjunto convexo. 407 Probar que toda intersecci´on finita de conjuntos convexos en un espacio vectorial es tambi´en un conjunto

convexo (cfr. ejercicio 405). 408 Sean S un subespacio de dimensi´on finita de un espacio normado E y u ∈ E − S. Probar que el conjunto

S∗ de las aproximaciones o´ ptimas de u en S es un conjunto convexo (cfr. ejercicio 405).

Page (PS/TeX): 177 / 411, COMPOSITE

412 CAPI´TULO 4

Espacios con producto interior y espacios normados

409 Sea la funci´on continua, en el intervalo [0, 1], f (x) = x cos x + 4. Calcular los polinomios de Bernstein

B1 , B2 , B3 , B4 y B5 (cfr. p´ag. 339) para esta funci´on. 410 Sea f (x) = e x . f ∈ C[0, 1]; calcular los polinomios de Bernstein Bi , i = 1, 2, 3, 4. 411 Sea f (x) = x3 ; f ∈ C[0, 1]; calcular los polinomios de Bernstein Bi , i = 1, 2, 3, . . . para f . Mostrar direc-

tamente que para este caso l´ım  f − Bn ∞ = 0.

n→∞

412 Sea f (x) = sen x, 0 ≤ x ≤ 1. Calcular los polinomios de Bernstein Bi , i = 1, 2, 3, para la funci´on f

(cfr. p´ag. 339). 413 Sea f (x) = cos x, 0 ≤ x ≤ 1. Calcular los polinomios de Bernstein Bi , i = 1, 2, 3, para la funci´on f

(cfr. p´ag. 339). 414 Sean n un entero positivo, J un intervalo abierto que contiene un punto dado a, E el espacio de las

funciones que tienen derivada hasta el orden n en el punto a y N (f) =

n

 

 

∑  f (k) (a)

k=0

la seminorma de Taylor (cfr. ejercicio 364). Sean f ∈ E y el polinomo de grado a lo m´as n p∗n (x) =

n



k=0

f (k) (a) (x − a)k . k!

(a) Probar que p∗n (x) es aproximaci´on o´ ptima de f en el subespacio Pn de E respecto a la seminorma de Taylor. (b) Mostrar que si p∗1 (x) tambi´en aproximaci´on o´ ptima de f en Pn , entonces p∗ = p∗1 . En los ejercicios 415 a 417, S = gn((−1, 1)) y u = (1, 1) en el espacio R2 . 415 Hallar la aproximaci´on o´ ptima  p∗ de u en S respecto a la norma euclidiana (x, y) =



x2 + y2 .

416 Hallar todas las aproximaciones o´ ptimas de u en S respecto a la norma c´ubica (x, y)∞ = m´ax {|x| , |y|}. 417 Hallar todas las aproximaciones o´ ptimas de u en S respecto a la norma (x, y)1 = |x| + |y|.

En los ejercicios 418 a 420, S = gn((2, 1)) y u = (−1, 1) en el espacio R2 . 418 Hallar la aproximaci´on o´ ptima  p∗ de u en S respecto a la norma euclidiana (x, y) =



x2 + y2 .

419 Hallar todas las aproximaciones o´ ptimas de u en S respecto a la norma c´ubica (x, y)∞ = m´ax {|x| , |y|}. 420 Hallar todas las aproximaciones o´ ptimas de u en S respecto a la norma (x, y)1 = |x| + |y|.

En los ejercicios 421 a 423, S = gn((−2, 1)) y u = (3, 1) en el espacio R2 . 421 Hallar la aproximaci´on o´ ptima  p∗ de u en S respecto a la norma euclidiana (x, y) =



x2 + y2 .

422 Hallar todas las aproximaciones o´ ptimas de u en S respecto a la norma c´ubica (x, y)∞ = m´ax {|x| , |y|}.

Page (PS/TeX): 178 / 412, COMPOSITE

´ 4.3 SECCION

Ejercicios resueltos y ejercicios propuestos 413

423 Hallar todas las aproximaciones o´ ptimas de u en S respecto a la norma (x, y)1 = |x| + |y|.

En los ejercicios 424 a 426, S = gn((−1, 1, 2)) y u = (1, 1, 1) en el espacio R3 . 424 Hallar la aproximaci´on o´ ptima  p∗ de u en S respecto a la norma euclidiana (x, y, z) =



x2 + y2 + z2 .

425 Hallar todas las aproximaciones o´ ptimas de u en S respecto a la norma c´ubica

(x, y, z)∞ = m´ax {|x| , |y| , |z|}. 426 Hallar todas las aproximaciones o´ ptimas de u en S respecto a la norma (x, y, z)1 = |x| + |y| + |z|.

En los ejercicios 427 a 429, S = gn(1, −1, 3) y u = (1, 0, −1) en el espacio R3 . 427 Hallar la aproximaci´on o´ ptima p∗ de u en S respecto a la norma euclidiana (x, y, z) =



x2 + y2 + z2 .

428 Hallar todas las aproximaciones o´ ptimas de u en S respecto a la norma c´ubica

(x, y, z)∞ = m´ax {|x| , |y| , |z|}. 429 Hallar todas las aproximaciones o´ ptimas de u en S respecto a la norma (x, y, z)1 = |x| + |y| + |z|.

En los ejercicios 430 a 432, S = gn((0, −1, −2)) y u = (1, −1, 1) en el espacio R3 . 430 Hallar la aproximaci´on o´ ptima p∗ de u en S respecto a la norma euclidiana (x, y, z) =



x2 + y2 + z2 .

431 Hallar todas las aproximaciones o´ ptimas de u en S respecto a la norma c´ubica

(x, y, z)∞ = m´ax {|x| , |y| , |z|}. 432 Hallar todas las aproximaciones o´ ptimas de u en S respecto a la norma (x, y, z)1 = |x| + |y| + |z|.

En los ejercicios 433 a 434, S es el plano y − z = 0 y u = (0, 1, 0) en el espacio R3 . 433 Hallar la aproximaci´on o´ ptima  p∗ de u en S respecto a la norma euclidiana (x, y, z) =



x2 + y2 + z2 .

434 Hallar todas las aproximaciones o´ ptimas de u en S respecto a la norma (x, y, z)1 = |x| + |y| + |z|.

En los ejercicios 435 a 436, S es el plano x + y − z = 0 y u = (0, 1, 0) en el espacio R3 . 435 Hallar la aproximaci´on o´ ptima  p∗ de u en S respecto a la norma euclidiana (x, y, z) =



x2 + y2 + z2 .

436 Hallar todas las aproximaciones o´ ptimas de u en S respecto a la norma (x, y, z)1 = |x| + |y| + |z|.

En los ejercicios 437 a 439, S = gn(1) y f (x) = x en el espacio C[0, 1]. ∗

437 Hallar la aproximaci´on o´ ptima, p , de f en S respecto a la norma g =

Page (PS/TeX): 179 / 413, COMPOSITE

 0

1

2

(g(x)) dx

1/2 .

414 CAPI´TULO 4

Espacios con producto interior y espacios normados

438 Hallar todas las aproximaciones o´ ptimas de f en S respecto a la norma c´ubica g∞ = m´ax0≤x≤1 |g(x)|. 439 Hallar todas las aproximaciones o´ ptimas de f en S respecto a la norma g1 =



1

0

|g(x)| dx.

En los ejercicios 440 a 442, S = gn(1) y f (x) = ln x en el espacio C[1, e]. ∗

440 Hallar la aproximaci´on o´ ptima, p , de f en S respecto a la norma g =



e

1

1/2

2

(g(x)) dx

.

441 Encontrar todas las aproximaciones o´ ptimas de f en S respecto a la norma uniforme g∞ . 442 Encontrar todas las aproximaciones o´ ptimas de f en S respecto a la norma g1 =



e 1

|g(x)| dx.

En los ejercicios 443 a 445, S = gn(1) y f (x) = cos x en el espacio C[0, π/2]. ∗

443 Hallar la aproximaci´on o´ ptima, p , de f en S respecto a la norma g =



π/2

0

1/2 2

(g(x)) dx

.

444 Encontrar todas las aproximaciones o´ ptimas de f en S respecto a la norma uniforme g∞ . 445 Encontrar todas las aproximaciones o´ ptimas de f en S respecto a la norma g1 =



π/2 0

|g(x)| dx.

En los ejercicios 446 a 448, S = gn(1) y f (x) = sen x en el espacio C[0, π/2]. ∗

446 Hallar la aproximaci´on o´ ptima, p , de f en S respecto a la norma g =

 0

π/2

1/2 2

(g(x)) dx

.

447 Encontrar todas las aproximaciones o´ ptimas de f en S respecto a la norma uniforme g∞ . 448 Encontrar todas las aproximaciones o´ ptimas de f en S respecto a la norma g1 =

Page (PS/TeX): 180 / 414, COMPOSITE



π/2 0

|g(x)| dx.

5 Transformaciones lineales, valores y vectores propios

En las primeras secciones de este cap´ıtulo estudiaremos cierto tipo de funciones entre espacios vectoriales: las transformaciones lineales. Estas funciones son relativamente muy simples de tratar ya que exhiben un comportamiento que preserva la estructura de las operaciones de espacio vectorial. A pesar de su sencillez, las transformaciones lineales son muy importantes tanto en matem´aticas como en f´ısica, ingenier´ıa y ciencias sociales. Podr´ıamos afirmar, grosso modo, que independientemente de la gran variedad de sus aplicaciones, mucho del e´ xito que tienen las funciones lineales entre espacios vectoriales radica en que con frecuencia pueden transformar un problema complejo en uno m´as simple. En las subsecuentes secciones trataremos el tema no menos importante, y estrechamente relacionado con las transformaciones lineales, de valores y vectores propios. Como antes, la u´ ltima secci´on est´a dedicada a ejercicios resueltos y a ejercicios propuestos al lector.

5.1 Transformaciones lineales Las funciones m´as sencillas (despu´es de las constantes) de una variable con valores reales son las funciones de la forma y = f (x) f (x) = kx; cuya gr´afica, para un valor fijo k, es una l´ınea recf (x0 ) ta con pendiente k que pasa por el origen. La forma simple que tienen estas funciones las hace sumamente importantes para estudiar el comportamiento de funciones m´as complicadas. Por ejemplo, una funci´on que es derivable en un punto x0 se puede x0 aproximar localmente por medio de la l´ınea recta tangente a la gr´afica de la funci´on en el punto (x0 , f (x0 )); y esta l´ınea recta no es m´as que una traslaci´on af´ın de la recta y = f  (x0 )x. Una gran variedad de fen´omenos se pueden modelar a trav´es de soluciones de cierto tipo de ecuaciones que exhiben un comportamiento lineal, en el sentido de que la suma de dos soluciones y el producto de un escalar por una soluci´on tambi´en son soluciones; dichos fen´omenos y sus respectivos modelos son llamados, por antonomasia, lineales tambi´en. Con base en la caracter´ıstica de linealidad de estos fen´omenos es posible, en general, determinar el comportamiento de los mismos en una forma relativamente sencilla. As´ı, como las funciones lineales de una variable sirven para aproximar funciones m´as complicadas, los modelos lineales se pueden utilizar para aproximar fen´omenos m´as complejos. Por s´ı solos los fen´omenos lineales son sumamente interesantes y cubren una gran variedad de importantes aplicaciones. Las funciones lineales de una variable tienen una inmediata extensi´on a funciones de varias variables y, m´as a´un, a funciones entre espacios vectoriales. En esta secci´on estudiaremos en un contexto general este tipo de funciones que llamaremos transformaciones lineales.

415

Page (PS/TeX): 1 / 415, COMPOSITE

416 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

´ ejemplos y propiedades 5.1.1 Definicion, Recordemos que si A y B son un par de conjuntos no vac´ıos, la notaci´on f : A → B significa que f es una funci´on con dominio A x y valores en B o, en forma m´as compacta, f es una funci´on de A en B (cfr. definici´on 3.7, p´ag. 133); que en la notaci´on y = f (x) a y se le llama el valor de la funci´on f en x o la imagen de x bajo la funci´on f ; a x se le dice variable independiente (o argumento de la funci´on) y a y variable dependiente; y que al conjunto B se le dice contradominio de la funci´on. Una manera muy u´ til de inf (x) terpretar una funci´on f es como un conjunto de procedimientos, una m´aquina, que transforma cada elemento x (materia prima) de A en un producto y = f (x) elemento de B. El resultado de esta transformaci´on, el elemento y = f (x), depende de la materia prima x que se introduzca cada vez a la m´aquina, y esta transformaci´on est´a perfectamente determinada por esta m´aquina o conjunto de procedimientos f (la funci´on o transformaci´on). En este sentido interpretaremos, de aqu´ı en adelante, el significado de una funci´on entre espacios vectoriales: como una transformaci´on de un espacio en otro.

Definici´on 5.1 (Transformaci´on lineal) Sean E y F dos espacios vectoriales y T : E → F una funci´on. Diremos que T es una transformaci´on lineal de E en F si:1 1. T (x +y) = T (x) + T (y), ∀x,y ∈ E. 2. T (αx) = αT (x), ∀x ∈ E, ∀α ∈ R.

 Ejemplo 5.1 Sea T : R → R la funci´on definida por T (x) = 3x, entonces para x1 , x2 ∈ R y para todo escalar α, T (x1 + x2 ) = 3(x1 + x2 ) = 3x1 + 3x2 = T (x1 ) + T (x2 ) y T (αx) = 3(αx) = α(3x) = αT (x). Por tanto, T es una transformaci´on lineal.  Ejemplo 5.2 De manera an´aloga al ejemplo precedente, toda l´ınea recta que pasa por el origen es una transformaci´on lineal de R en R. En efecto, una l´ınea recta que pasa por el origen es la gr´afica de una funci´on de la forma y = T (x) = ax, donde a es una constante. Entonces, si x1 , x2 ∈ R y α es un escalar, se tiene 11 Se le dice tambi´en aplicaci´on lineal u homomorfismo.

Page (PS/TeX): 2 / 416, COMPOSITE

´ 5.1 SECCION

Transformaciones lineales 417

T (x1 + x2 ) = a(x1 + x2 ) = ax1 + ax2 = T (x1 ) + T (x2 ) y T (αx1 ) = a(αx1 ) = α(ax1 ) = αT (x1 ). Vimos en el ejemplo anterior que toda l´ınea recta que pasa por el origen es una transformaci´on lineal de R en R; de hecho, estas l´ıneas rectas son las u´ nicas transformaciones lineales que existen de R en R, como hacemos patente en el siguiente ejemplo.  Ejemplo 5.3 (Transformaciones lineales de R en R) Sea T : R → R una transformaci´on lineal. Sea x ∈ R, entonces T (x) = T (x · 1) = xT (1). Sea a = T (1), entonces T (x) = ax ∀x ∈ R. Es decir, T es una l´ınea recta que pasa por el origen.  Ejemplo 5.4 (La transformaci´on derivaci´on) Si E = C1 [0, 1] (cfr. el ejemplo 3.24, p´ag. 142) y F = C[0, 1], sea T : E → F, definida por T ( f ) = f  . As´ı, por ejemplo, si f (x) = x2 y g(x) = 2x, T ( f ) = g. T es una transformaci´on lineal. En efecto: 1. T ( f + g) = ( f + g) = f  + g = T ( f ) + T (g) ∀ f , g ∈ E. 2. T (α f ) = (α f ) = α f  ∀α ∈ R, ∀ f ∈ E.  Ejemplo 5.5 Sea T : R3 → R2 definida como T (x1 , x2 , x3 ) = (x1 − 2x2 , x2 + 3x3 ). Mostrar que T es lineal. ´ DEMOSTRACION

Q 1. Si a = (x1 , x2 , x3 ) y b = (y1 , y2 , y3 ), T (a +b) = T (x1 + y1 , x2 + y2 , x3 + y3 ) = (x1 + y1 − 2(x2 + y2 ), x2 + y2 + 3(x3 + y3 )). T (a) + T (b) = T (x1 , x2 , x3 ) + T (y1 , y2 , y3 ) = (x1 − 2x2 , x2 + 3x3 ) + (y1 − 2y2 , y2 + 3y3 ) = (x1 + y1 − 2(x2 + y2 ), x2 + y2 + 3(x3 + y3 )) = T (a +b). 2. Si a = (x1 , x2 , x3 ) y α ∈ R, T (αa) = = = = = =

Page (PS/TeX): 1 / 417, COMPOSITE

T (α(x1 , x2 , x3 )) T (αx1 , αx2 , αx3 ) T (αx1 − 2αx2 , αx2 + 3αx3 ) α(x1 − 2x2 , x2 + 3x3 ) αT (x1 , x2 , x3 ) αT (a). Q

418 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

 Ejemplo 5.6 Sea T : R2 → R2 , definida por T (x, y) = xy, T no es lineal: T (3(1, 2)) = = 3T (1, 2) = =

T (3, 6) 18. 3·2 6.

Por lo que T (3(1, 2)) = 3T (1, 2).  Ejemplo 5.7 (Transformaci´on integraci´on) Sea T : C[0, 1] → R definida por: 

T(f) =

1 0

f (x)dx.

As´ı, por ejemplo, si f (x) = x2 , T ( f ) = 1/3. T es lineal porque: 1. Si f , g ∈ C[0, 1], T ( f + g) = = =



1

0



1

0



1

0

( f + g)(x)dx ( f (x) + g(x))dx f (x)dx +



1 0

g(x)dx

= T ( f ) + T (g). 2. Si α ∈ R y f ∈ C[0, 1], T (α f ) = =

 

1 0 1 0



(α f )(x)dx α f (x)dx



1 0

f (x)dx

= αT ( f ).  Ejemplo 5.8 (Operador identidad) Si E es un espacio vectorial, claramente I : E → E definido por I(u) = u para todo u ∈ E, es una transformaci´on lineal del espacio E en s´ı mismo. A I se le llama el operador identidad del espacio E.

Propiedades Sabemos que si A es cualquier conjunto no vac´ıo y F es cualquier espacio vectorial, entonces el conjunto de funciones con dominio A y valores en F es un espacio vectorial (cfr. nota 3.7, p´ag. 138) con las operaciones usuales suma de funciones y multiplicaci´on de un escalar con una funci´on (cfr. definici´on 3.9, p´ag. 134). Por ende, el conjunto de todas las transformaciones de un espacio vectorial E en un espacio vectorial F con las operaciones usuales de suma de funciones y multiplicaci´on de un escalar con una

Page (PS/TeX): 2 / 418, COMPOSITE

´ 5.1 SECCION

Transformaciones lineales 419

funci´on dadas en la definici´on 3.9 es un espacio vectorial. Ahora supongamos que T1 y T2 son un par de transformaciones del espacio E en el espacio F que adem´as son lineales y sea k ∈ R; entonces, si x,y ∈ E y α ∈ R, se tiene: (T1 + T2 )(x +y) = T1 (x +y) + T2 (x +y)

1.

= T1 (x) + T1 (y) + T2 (x) + T2 (y) = T1 (x) + T2 (x) + T1 (y) + T2 (y) = (T1 + T2 )(x) + (T1 + T2 )(y). (T1 + T2 )(αx) = T1 (αx) + T2 (αx)

2.

= αT1 (x) + αT2 (x) = α(T1 (x) + T2 (x)) = α(T1 + T2 )(x). (kT1 )(x +y) = kT1 (x +y)

3.

= k(T1 (x) + T2 (y)) = kT1 (x) + kT2 (y) = (kT1 )(x) + (kT2 )(y). (kT1 )(αx) = kT1 (αx)

4.

= k(αT1 (x)) = α(kT1 (x)) = α(kT1 )(x). 5. Claramente la transformaci´on constante cero, θ : E → F, θ(x) = 0F ∀x ∈ E, es lineal. 1 y 2 demuestran que la transformaci´on T1 + T2 es lineal y 3, 4 prueban que kT1 es lineal tambi´en. Por ende, al adjuntar 5, el subconjunto de transformaciones lineales del espacio E en el espacio F es un subespacio vectorial del espacio de funciones de E en F. Con esto hemos probado el siguiente teorema. Teorema 5.1 (Espacio de transformaciones lineales) Sean E y F un par de espacios vectoriales y sea L (E, F) = { T : E → F | T es una transformaci´on lineal } , entonces L (E, F) es un espacio vectorial con las operaciones usuales de suma de funciones y multiplicaci´on de un escalar con una funci´on.

Teorema 5.2 (Propiedades b´asicas de transformaciones lineales) Sean E y F un par de espacios vectoriales y T ∈ L (E, F), entonces: 1. T (0E ) = 0F . 2. T (αx + βy) = α T (x) + β T (y) 3. T (−x) = −T (x)

∀x ∈ E.

4. T (x −y) = T (x) − T (y)

Page (PS/TeX): 3 / 419, COMPOSITE

∀x,y ∈ E, ∀α, β ∈ R.

∀x,y ∈ E.

420 CAPI´TULO 5 ´ DEMOSTRACION

Transformaciones lineales, valores y vectores propios

T (0E ) = T (0 ·0E ) = 0 · T (0E )

Q 1.

= 0F . T (αx + βy) = T (αx) + T (βy)

2.

= αT (x) + βT (y). T (−x) = T ((−1)x)

3.

= (−1)T (x) = −T (x). T (x −y) = T (x + (−y))

4.

= T (x) + T (−y) = T (x) − T (y).

Q

´ matricial de una transformacion ´ T ∈ L (Rn , Rm ) Transformaciones matriciales y representacion Vimos en los ejemplos 5.2 y 5.3 que las transformaciones lineales de R en R son las funciones de la forma T (x) = ax, donde a es una constante. El s´ımil para transformaciones de Rn en Rm est´a contenido en el siguiente ejemplo.  Ejemplo 5.9 (Transformaciones matriciales) Si A ∈ Mm×n , sea TA : Rn → Rm definida para cada x ∈ Rn por TA (x) = Ax. Entonces T es lineal; pues ∀x,y ∈ Rn y ∀α ∈ R: TA (x +y) = A(x +y) = Ax + Ay = TA (x) + TA (y) y TA (αx) = A(αx) = α(Ax) = αTA (x).  Ejemplo 5.10 Dar una transformaci´on lineal de R3 en R4 . ´ Solucion

Sea ⎤ 1 −1 2 ⎢ 0 −1 3 ⎥ ⎥ A=⎢ ⎣ 3 −1 4 ⎦ ∈ M4×3 2 1 2 ⎡

y TA : R3 → R4 definida por ⎡ 1 −1 ⎢ 0 −1 TA (x, y, z) = ⎢ ⎣ 3 −1 2 1

⎤ 2 ⎡ ⎤ x 3 ⎥ ⎥ ⎣ y ⎦ = (x − y + 2z, −y + 3z, 3x − y + 4z, 2x + y + 2z). 4 ⎦ z 2

Por el ejemplo anterior TA es lineal.

Page (PS/TeX): 4 / 420, COMPOSITE



´ 5.1 SECCION

Transformaciones lineales 421

Sabemos, del ejemplo 5.9, que toda transformaci´on matricial TA es lineal. Rec´ıprocamente, si T : R → Rm es una transformaci´on lineal, ¿existe una matriz A ∈ Mm×n tal que T = TA ? La respuesta es por lo menos afirmativa cuando m = n = 1 para el caso de transformaciones lineales de R en R como probamos en el ejemplo 5.3 (p´ag. 417). Esto nos induce a intentar probar el caso general. Sean n

i

ei = (0, . . . , 0, 1, 0, . . . , 0),



i = 1, 2, . . . , n,

n

n

la base can´onica de R y

j

f j = (0, . . . , 0, 1, 0, . . . , 0),



j = 1, 2, . . . , m,

m

la base can´onica de Rm . Entonces, si u = (x1 , x2 , . . . , xn ) ∈ Rn , u = x1e1 + x2e2 + · · · + xnen ; as´ı que

T (u) = T (x1e1 + x2e2 + · · · + xnen ) = T (x1e1 ) + T (x2e2 ) + · · · + T (xnen ) = x1 T (e1 ) + x2 T (e2 ) + · · · + xn T (en ).

Sea A la matriz m × n que tiene por columnas a los vectores T (ei ), i = 1, 2, . . . , n, descritos de acuerdo con la base can´onica {f j }. Entonces T (u) = x1 T (e1 ) + x2 T (e2 ) + · · · + xn T (en ) ⎡ =



T (e1 ) ⎡

⎢ ⎢ = A⎢ ⎣

x1 x2 .. .

T (e2 ) ⎤

···

T (en )

⎢ ⎢ ⎢ ⎣

x1 x2 .. .

⎤ ⎥ ⎥ ⎥ ⎦

xn

⎥ ⎥ ⎥ = Au ⎦

xn (cfr. ejemplo 1.15, p´ag. 12); luego T = TA . Hemos probado as´ı el siguiente teorema. Teorema 5.3 Sean {ei }, {f j } las bases can´onicas de Rn y Rm , respectivamente, y T : Rn → Rm una transformaci´on lineal. Entonces existe una matriz A ∈ Mm×n tal que T = TA . De hecho, una matriz A que sirve para este prop´osito es aquella cuyas columnas son los vectores T (ei ), i = 1, . . . , n, descritos en la base can´onica de Rm . P Nota 5.1 1. El teorema 5.3 significa que las u´ nicas transformaciones lineales que existen entre espacios Rk ´ son las transformaciones matriciales TA . Este es un resultado muy sencillo, pero tambi´en muy importante, que el lector debe tener siempre presente. 2. La matriz A del teorema 5.3 no es u´ nica en el sentido de que se pueden tener resultados an´alogos a este teorema utilizando otras bases (cfr. secci´on 5.2).

Page (PS/TeX): 5 / 421, COMPOSITE

422 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

Definici´on 5.2 Sean T ∈ L (Rn , Rm ), {ei } y {f j } las bases can´onicas de Rn y Rm , respectivamente. A la matriz A ∈ Mm×n cuyas columnas son los vectores T (ei ), i = 1, 2, . . . , n, descritos en la base can´onica {f j }, se le dice la representaci´on matricial de la transformaci´on lineal2 T relativa a las bases can´onicas de Rn y Rm . El teorema 5.3 tambi´en es muy u´ til para determinar si una transformaci´on T : Rn → Rm es lineal o no.3 Para ello basta tomar la matriz A como antes y comprobar si T (u) = Au ∀u ∈ Rn ; pues en caso afirmativo T = TA y, por ende, T ser´a lineal; en caso contrario, por el teorema precedente, T no puede ser lineal.  Ejemplo 5.11 Sea T : R2 → R3 la transformaci´on definida por T (x, y) = (−x + 2y, x, 2x − y). Mostrar que T es lineal y encontrar la representaci´on matricial de T relativa a las bases can´onicas. ´ DEMOSTRACION

Q

T (1, 0) = (−1, 1, 2), T (0, 1) = (2, 0, −1).

Si

⎤ −1 2 0 ⎦ A=⎣ 1 2 −1

se tiene, para todo u = (x, y) ∈ R2 ,



⎤ −1 2   x 0 ⎦ Au = ⎣ 1 y 2 −1 ⎤ ⎡ −x + 2y x ⎦ = T (x, y). =⎣ 2x − y ⎡

Esto es

T = TA .

Lo cual prueba que T es lineal y A es entonces la representaci´on matricial de T (relativa a las bases can´onicas). Q

´ ´ lineal 5.1.2 Nucleo e imagen de una transformacion Funciones inversas Sean A y B un par de conjuntos no vac´ıos y f : A → B. Una funci´on g : B → A es funci´on inversa de f si f (g(y)) = y ∀y ∈ B y g( f (x)) = x ∀x ∈ A. 12 M´as adelante, en la secci´on 5.2, extenderemos este concepto a transformaciones T ∈ L (E, F) en espacios de dimensi´on finita. 13 Lo cual es generalmente laborioso y tedioso aunque no dif´ıcil de hacer.

Page (PS/TeX): 6 / 422, COMPOSITE

´ 5.1 SECCION

f A

Transformaciones lineales 423

g B

B

A

Figura 5-1 • Diagrama de flechas que define un par de funciones. La funci´on f queda definida mediante la asignaci´on que a cada elemento del conjunto A se hace con un elemento del conjunto B por medio de la flecha que se indica; f (♦) = , f (♣) = ♥, etc. De manera an´aloga queda definida la funci´on g.

En tal caso, se dice que la funci´on f es invertible. Por ejemplo, si A = [0, 2], B = [0, 4] y f : A → B se √ define por f (x) = x2 ; sea g : B → A definida por g(y) = y , entonces g es funci´on inversa de f . En efecto: √ f (g(y)) = f ( y) = y y g( f (x)) = g(x2 ) = x para todo y ∈ B = [0, 4] y para todo x ∈ A = [0, 2]. De existir una inversa de una funci´on e´ sta es u´ nica, la demostraci´on de este hecho se deja como ejercicio al lector. Entonces, si f tiene inversa e´ sta se denota por f −1 y se le llama la funci´on inversa de f (por ser u´ nica, la notaci´on y el art´ıculo est´an justificados). En la figura 5-1 se bosquejan dos diagramas de flechas que definen sendas funciones f : A → B y g : B → A. Claramente, se tiene g = f −1 . De la misma figura se observa que, en este caso, para cada y ∈ B existe un u´ nico x ∈ A tal que f (x) = y, entonces la funci´on f −1 (y) = x est´a bien definida y coincide con la funci´on g; luego f es una funci´on invertible. As´ı, para que una funci´on sea invertible, es necesario y suficiente que para cada elemento del contradominio exista un u´ nico elemento del dominio cuya imagen, bajo la funci´on, sea dicho elemento. Estas caracter´ısticas est´an especificadas en las siguientes definiciones. Definici´on 5.3 (Funciones inyectivas) Sean A y B un par de conjuntos y f : A → B. La funci´on f es inyectiva (uno a uno) si elementos distintos del dominio tienen im´agenes distintas; esto es, x1 = x2 ⇒ f (x1 ) = f (x2 ) para x1 , x2 ∈ A; o equivalentemente, f (x1 ) = f (x2 ) ⇒ x1 = x2 .

 Ejemplo 5.12 Sea f : R → R la funci´on definida por f (x) = x3 , para cada x ∈ R. Si x1 , x2 ∈ R y x1 = x2 , entonces x12 + x1 x2 + x22 = 0.

Page (PS/TeX): 7 / 423, COMPOSITE

(5.1)

424 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

En efecto, si uno de x1 , x2 es cero, el otro debe ser distinto de cero (pues x1 = x2 ); y por tanto, x13 = x23 ; as´ı que podemos suponer que x1 y x2 son ambos distintos de cero; por tanto, ya que la ecuaci´on cuadr´atica (5.1) en x1 tiene discriminante −3x22 < 0, se tiene que e´ sta no tiene ra´ıces reales; por lo que x13 − x23 = (x12 + x1 x2 + x22 )(x1 − x2 ) = 0. Luego, x1 = x2 ⇒ x13 = x23 ; por tanto, la funci´on f (x) = x3 es inyectiva. De manera gr´afica tambi´en se puede observar que la funci´on f es inyectiva. Definici´on 5.4 Se dice que una funci´on f : A → B es suprayectiva (sobre) si para todo y ∈ B existe x ∈ A tal que f (x) = y. Si f es una funci´on suprayectiva, se acostumbra decir que f es una funci´on de A sobre B en lugar de f es una funci´on de A en B.

y = ln(x)

Figura 5-2 •

 Ejemplo 5.13 De la gr´afica de la funci´on f (x) = ln x, figura 5-2, se puede ver que e´ sta es una funci´on suprayectiva de R sobre R. De hecho, si y ∈ R, entonces x = ey satisface ln(x) = y, como el lector puede comprobar utilizando las propiedades del logaritmo natural y la exponencial. Definici´on 5.5 f : A → B es una funci´on biyectiva si f es inyectiva y suprayectiva.

 Ejemplo 5.14 La funci´on f : R → R, definida por f (x) = ln(x), es inyectiva y suprayectiva (cfr. figura 5-2), luego f es biyectiva. Resumimos, en el siguiente teorema, los resultados precedentes. Teorema 5.4 Sea f : A → B. Entonces f es invertible si y s´olo si f es biyectiva. P Nota 5.2 Observe que f : A → B es biyectiva si y s´olo si f −1 : B → A es biyectiva, y que en tal caso ( f −1 )−1 = f .  Ejemplo 5.15 La funci´on f : R → R, definida por f (x) = ln(x), es biyectiva y f −1 (x) = e x .

´ Nucleo En el caso de una transformaci´on lineal de un espacio vectorial en otro, la inyectividad es una caracter´ıstica muy f´acil de verificar mediante lo que llamaremos el n´ucleo de dicha aplicaci´on; mientras que la suprayectividad ser´a tambi´en una propiedad sencilla de comprobar mediante la imagen de la transformaci´on. Desarrollamos estos conceptos a continuaci´on.

Page (PS/TeX): 8 / 424, COMPOSITE

´ 5.1 SECCION

Transformaciones lineales 425

Definici´on 5.6 Si T ∈ L (E, F), se define el nucleo (kernel) de T como: ´   Ker(T ) = x ∈ E | T (x) = 0F .

 Ejemplo 5.16 Si T ∈ L (R3 , R2 ) est´a definida por 4 T (x1 , x2 , x3 ) = (x1 − 2x2 , x2 + 3x3 ). Entonces x = (x1 , x2 , x3 ) ∈ Ker(T ) si y s´olo si T (x1 , x2 , x3 ) = (0, 0). Luego se debe tener x1 − 2x2 = 0 x2 + 3x3 = 0. Resolvamos el sistema homog´eneo escalonado  1 0



x2 = −3x3 x1 = 2x2 = −6x3 .

haciendo sustituci´on regresiva: De donde

−2 0 1 3

⎤ ⎤ ⎡ ⎤ ⎡ −6 −6r x1 ⎣ x2 ⎦ = ⎣ −3r ⎦ = r ⎣ −3 ⎦ . 1 r x3 ⎡

As´ı, Ker(T ) = {u ∈ R3 |u = (−6r, −3r, r), r ∈ R }.  Ejemplo 5.17 (N´ucleo de una transformaci´on matricial) Sean A ∈ Mm×n y la transformaci´on matricial TA : Rn → Rm , TA (x) = Ax. Entonces x ∈ Ker(T ) ⇔ Ax = 0Rm ⇔ x est´a en el espacio nulo de la matriz A; esto es, en el espacio soluci´on del sistema homog´eneo Ax = 0. Es decir, el n´ucleo de una transformaci´on matricial TA es el espacio nulo5 de la matriz A.  Ejemplo 5.18 Sea E = C1 [0, 1] y T : E → C[0, 1], la transformaci´on lineal T ( f ) = f  (cfr. ejemplo 5.4). Entonces Ker(T ) = = = =

{f {f {f {f

∈ C1 [0, 1] | T ( f ) = 0 } ∈ C1 [0, 1] | f  = 0 } ∈ C1 [0, 1] | f  (x) = 0 ∀x ∈ [0, 1] } ∈ C1 [0, 1] | f es constante en [0, 1] }.

Sean ahora T ∈ L (E, F), x1 ,x2 ∈ Ker(T ), y α, β ∈ R; entonces T (x1 ) = T (x2 ) = 0F . Luego T (αx1 + βx2 ) = αT (x1 ) + βT (x2 ) = 0F +0F = 0F ,

14 Queda como ejercicio para el lector comprobar que efectivamente T es una transformaci´on lineal (cfr. ejemplo 5.5 y la definici´on de transformaci´on lineal o el ejemplo 5.11 y la discusi´on que lo precede). 15 Cfr. ejemplo 3.20, p´agina 141.

Page (PS/TeX): 9 / 425, COMPOSITE

426 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

por lo que αx1 + βx2 ∈ Ker(T ); y puesto que6 T (0E ) = 0F , se sigue que el n´ucleo de toda transformaci´on lineal es un subespacio vectorial y por ende un espacio vectorial. Resumimos este resultado en el siguiente teorema. Teorema 5.5 Si L (E, F), entonces7 Ker(T ) < E. En el teorema 5.6 se ve la relaci´on entre la inyectividad y el n´ucleo de una transformaci´on lineal que acabamos de mencionar. Teorema 5.6 (Nucleo e inyectividad) Si E y F son espacios vectoriales y T ∈ L (F, F), entonces T ´ es inyectiva si y s´olo si Ker(T ) = {0E }.

´ DEMOSTRACION

Q 1. Supongamos que T es inyectiva. Si x ∈ Ker(T ), T (x) = 0F y puesto que T (0E ) = 0F , x = 0E ; por tanto, Ker(T ) = {0E }. 2. Supongamos ahora que Ker(T ) = {0E }. Si x,y ∈ E y T (x) = T (y), entonces T (x −y) = T (x) − T (y) = 0F . Por tanto, x −y ∈ Ker(T ) = {0E }. As´ı que x −y = 0E ; es decir, x = y; lo cual prueba que T es inyectiva.

Q

 Ejemplo 5.19 Si A ∈ Mn×n , la transformaci´on matricial TA de Rn en Rn es inyectiva si y s´olo si A es invertible. En efecto: TA es inyectiva ⇔ Ker(TA ) = {0Rn } ⇔ la u´ nica soluci´on de Ax = 0Rn es x = 0Rn ⇔ A es invertible. Definici´on 5.7 Si T ∈ L (E, E); es decir, T es una transformaci´on lineal de un espacio E en s´ı mismo, se acostumbra decir que T es un operador lineal en el espacio E.

M´as adelante veremos que a todo operador lineal T en un espacio E de dimensi´on finita le corresponde una transformaci´on matricial TA ; de tal suerte que el operador se puede evaluar por medio de esta transformaci´on matricial. Por esta raz´on y el ejemplo precedente, es com´un decir que un operador lineal es no singular cuando es invertible. En este texto utilizaremos indistintamente los calificativos invertible y no singular cuando un operador lineal sea invertible.   1 −1  Ejemplo 5.20 Sea A = y TA : R2 → R2 la transformaci´on matricial definida por TA (x, y) = 2 1   x A ; puesto que y     1 −1 1 −1 A= ∼ ∼ I2 , 2 1 0 3 se deduce que A es invertible, luego el operador lineal TA es inyectivo. 16 Cfr. teorema 5.2, p´agina 419. 17 Recuerde que la notaci´on S < E significa que S es un subespacio vectorial de E (cfr. definici´on 3.10, p´ag. 139).

Page (PS/TeX): 10 / 426, COMPOSITE

´ 5.1 SECCION

Transformaciones lineales 427

 Ejemplo 5.21 Sea T : R2 → R3 definida por T (x, y) = (2x, 3x + 4, x + y), se deja como ejercicio al lector comprobar que T es lineal. Determinar si T es inyectiva. T (x, y) = (0, 0, 0) ⇒

´ Solucion

(2x, 3x + y, x + y) = (0, 0, 0) ⇒ x = 0, Por tanto, Ker(T ) = {(0, 0)}, por lo que T es inyectiva.

y = 0.



 Ejemplo 5.22 Sea T : R3 → R3 definida por T (x, y, z) = (z, 0, x + y). Sean (x1 , y2 , z3 ), (x1 , y2 , z3 ) ∈ R3 y α ∈ R, entonces T ((x1 , y1 , z1 ) + (x2 , y2 , z2 )) = T (x1 + x2 , y1 + y2 , z1 + z2 ) = (z1 + z2 , 0, x1 + x2 + y1 + y2 ) = (z1 , 0, x1 + y1 ) + (z2 , 0, x2 + y2 ) = T (x1 , y1 , z1 ) + T (x2 , y2 , z2 ) y T (α(x1 , y1 , z1 )) = T (αx1 , αy1 , αz1 ) = (αz1 , 0, αx1 + αy1 ) = α(z1 , 0, x1 + y1 ) = αT (x1 , y1 , z1 ). Lo cual demuestra que T es un operador lineal. Por otra parte, si u = (−1, 1, 0), entonces T (u) = (0, 0, −1 + 1) = (0, 0, 0), por lo que u ∈ Ker(T ) y por tanto Ker(T ) = {(0, 0, 0)}. Luego el operador lineal T no es inyectivo.

´ Imagen de una transformacion Definici´on 5.8 Sean E, F un par de espacios vectoriales, T ∈ L (E, F) y S ⊂ E un subconjunto no vac´ıo: 1. Al conjunto T (S) = { T (x) |x ∈ S } = {y ∈ F | existe x ∈ S con T (x) =y } se le llama la imagen de S bajo T . Tambi´en se dice que S se transforma en T (S) bajo la aplicaci´on T . 2. En particular, T (E) se llama la imagen de la transformaci´on T .

 Ejemplo 5.23 Sea T : R2 → R2 definida por T (x, y) = (2x, y) para todo (x, y) ∈ R2 . Puesto que    2 0 x T (x, y) = , 0 1 y

Page (PS/TeX): 11 / 427, COMPOSITE

428 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

y

v S

T (S)

u

x

(a)

(b)

y

p

T (p)

x

2x

(d)

(c) Figura 5-3 •

es inmediato que T es una transformaci´on lineal. Sea S = {(x, y) ∈ R2 | x2 + y2 = 1}; i.e., S es la circunferencia con centro en el origen y radio 1. El objetivo es determinar geom´etricamente en qu´e se transforma el conjunto S bajo T ; es decir, T (S). Para ello podemos bosquejar el plano R2 y una copia del mismo donde, para mejor comprensi´on, hemos elegido la letra u en el eje de las abscisas y la letra v para el eje de las ordenadas en lugar de x y y, respectivamente, del plano original, para graficar la imagen de S bajo la transformaci´on T , como se ilustra en la figura 5-3(a) y (b). Entonces, si (u, v) = T (x, y) = (2x, y) se tiene u = 2x, v = y. Luego, si (x, y) ∈ S,  u 2 2

+ v2 = x2 + y2 = 1.

De esta manera todo punto (x, y) de la circunferencia S (cfr. figura 5.23(a)) se transforma en un punto T (x, y) = (u, v) de la elipse (u2 /4) + v2 = 1 bosquejada en la figura 5-3(b). Por tanto, la imagen de la circunferencia S, bajo la transformaci´on T , es la elipse T (S) con ecuaci´on, en el plano u, v, (u2 /4) + v2 = 1. Naturalmente, es posible utilizar el mismo plano para bosquejar S y su imagen T (S) (figura 5-3(c)). En general, esta aplicaci´on transforma un vector p en otro vector T (p) que sufre una dilataci´on, en un factor de 2, en la abscisa y que permanece invariante en la ordenada (figura 5-3(d)).

Page (PS/TeX): 12 / 428, COMPOSITE

´ 5.1 SECCION

Transformaciones lineales 429

Teorema 5.7 Sean E, F espacios vectoriales y T ∈ L (E, F): 1. Si S < E, entonces T (S) < F. 2. T (E) < F. un )). 3. Si S = gn(u1 ,u2 , . . . ,un ), entonces T (S) = gn(T (u1 ), T (u2 ), . . . , T (

´ DEMOSTRACION

Q 1. (a) Como S < E, 0E ∈ S y entonces, al ser T lineal, T (0E ) = 0F ; luego 0F ∈ T (S). (b) Si y1 ,y2 ∈ T (S), existen x1 ,x2 ∈ S tales que T (x1 ) = y1 y T (x2 ) = y2 ; entonces, dado que x1 +x2 ∈ S (porque S < E), y1 +y2 = T (x1 ) + T (x2 ) = T (x1 +x2 ) ∈ T (S). (c) Seay ∈ T (S) y α ∈ R, entonces existe x ∈ E tal quey = T (x); dado que αx ∈ S (porque S < E), αy = αT (x) = T (αx) ∈ T (S). De (a), (b) y (c) se tiene que T (S) < F. 2. Es consecuencia inmediata del inciso 1. 3. Si v ∈ gn(u1 ,u2 , . . . ,un ), existen α1 , α2 , . . . , αn ∈ R tales que v = α1u1 + α2u2 + · · · + αnun , entonces T (v) = T (α1u1 + α2u2 + · · · + αnun ) = T (α1u1 ) + T (α2u2 ) + · · · + T (αnun ) = α1 T (u1 ) + α2 T (u2 ) + · · · + αn T (un ); un )). de donde T (S) = gn(T (u1 ), T (u2 ), . . . , T (

Q

 Ejemplo 5.24 Sea T ; R3 → R3 la transformaci´on definida como T (x, y, z) = (x + 2y − z, y + z, x + y − 2z). 1. Encontrar una matriz A ∈ M3×3 tal que T (u) = Au ∀u ∈ R3 . 2. Demostrar que T es un operador lineal en R3 . 3. Hallar una base y dim(T (R3 )). 4. Hallar una base de Ker(T ) y dim(Ker(T )). 5. ¿Cu´al es el valor de dim(Ker(T )) + dim((T (E))? T (e1 ) = T (1, 0, 0) = (1, 0, 1), T (e2 ) = T (1, 0, 0) = (2, 1, 1), T (e3 ) = T (0, 0, 1) = (−1, 1, −2). ⎤ ⎤⎡ ⎤ ⎡ ⎤ ⎡ ⎡ x + 2y − z x 1 2 −1 1 2 −1 y + z ⎦ = T (x, y, z). 1 ⎦⎣ y ⎦ = ⎣ 1 ⎦, entonces ⎣ 0 1 Sea A = ⎣ 0 1 x + y − 2z z 1 1 −2 1 1 −2 ´ Solucion

1.

Esto es, T (u) = Au

Page (PS/TeX): 13 / 429, COMPOSITE

∀u ∈ R3 .

430 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

2. Puesto que T = TA , se sigue que T es lineal. 3. Sabemos quee1 = (1, 0, 0),e2 = (0, 1, 0),e3 = (0, 0, 1) forman una base de R3 ; as´ı T (e1 ), T (e2 ), T (e3 ) generan a T (R3 ). Entonces, T (R3 ) = gn(T (e1 ), T (e2 ), T (e3 )) = gn((1, 0, 1), (2, 1, 1), (−1, 1, −2)). Ahora extraigamos una base para T (R3 ) a partir de estos generadores (cfr. teorema 3.18 y ejemplo 3.61, p´ag. 166) llevando la matriz A a forma escalonada. ⎤ ⎡ 1 1 2 −1 ⎣ 0 1 1 ⎦∼⎣ 0 0 1 1 −2 ⎡

⎤ ⎡ 1 2 −1 1 1 ⎦∼⎣ 0 0 −1 −1

⎤ 2 −1 1 1 ⎦. 0 0

Una base para T (R3 ) es entonces B = {(1, 0, 1), (2, 1, 1)} y dim(T (R3 )) = 2. 4. Para hallar el n´ucleo de T tenemos T (x, y, z) = (0, 0, 0) ⇔ (x − 2y − z, y + z, x + y − 2z) = (0, 0, 0); que equivale a resolver el sistema homog´eneo x



x

+

2y y y

− + −

z = z = 2z =

0 0 0

Resolvamos este sistema llevando la matriz de coeficientes a forma escalonada: ⎤ ⎤ ⎡ ⎡ 1 2 −1 1 2 −1 ⎣ 0 1 1 ⎦, 1 ⎦∼⎣ 0 1 0 0 0 1 1 −2 y despu´es haciendo sustituci´on regresiva: ⎤ ⎤ ⎡ ⎤ ⎡ 3 x 3r ⎣ y ⎦ = ⎣ −r ⎦ = r ⎣ −1 ⎦ . 1 z r ⎡

Por tanto, Ker(T ) = gn((3, −1, 1)). Entonces, una base para Ker(T ) es B = {(3, −1, 1)} y dim(Ker(T )) = 1. 5.

dim(Ker(T )) + dim((T (E)) = 1 + 2 = 3 = dim(R3 ). 

El precedente ejemplo motiva los resultados contenidos en los teoremas 5.8 y 5.9.

Page (PS/TeX): 14 / 430, COMPOSITE

´ 5.1 SECCION

Transformaciones lineales 431

Teorema 5.8 Si T ∈ L (E, F) y dim(E) = n, entonces dim(T (E)) + dim(Ker(T )) = n

´ DEMOSTRACION

(5.2)

Q Sea {e1 ,e2 , . . . ,ek } una base de Ker(T ). Completemos e´ sta a una base {e1 ,e2 , . . . ,ek , f1 , f2 , . . . , fn−k } de E (cfr. el procedimiento para este fin dado en la p´ag. 167). Entonces, si u = a1e1 + · · · + akek + b1 f1 + · · · + bn−k fn−k ∈ E, T (u) = a1 T (e1 ) + · · · + ak T (ek ) + b1 T (f1 ) + · · · + bn−k T (fn−k ) = 0F + · · · +0F + b1 T (f1 ) + · · · + bn−k T (fn−k ) = b1 T (f1 ) + · · · + bn−k T (fn−k ); de donde T (E) = gn(T (f1 ), . . . , T (fn−k )). Sean β1 , . . . , βn−k ∈ R tales que β1 T (f1 ) + · · · + βn−k T (fn−k ) = 0F , entonces T (β1 f1 + · · · + βn−k fn−k ) = β1 T (f1 ) + · · · + βn−k T (fn−k ) = 0F . Por lo que β1 f1 + · · · + βn−k fn−k ∈ Ker(T ); por tanto existen −α1 , . . ., −αk ∈ R tales que β1 f1 + · · · + βn−k fn−k = (−α1 )e1 + · · · + (−αk )ek (pues {e1 , . . . ,ek } es una base de Ker(T )). Entonces α1e1 + · · · + αkek + β1 f1 + · · · + βn−k fn−k = 0E y ya que los vectorese1 , . . . ,ek , f1 , . . . , fn−k son L.I., se tiene que los escalares α1 , . . . , αk , β1 , . . . , βn−k son todos nulos; en particular β1 = · · · = βn−k = 0. Luego los vectores T (f1 ), . . . , T (fn−k ) son L.I y, ya que generan a T (E), forman una base de T (E). As´ı, dim(T (E)) = n − k; por ende, dim(Ker(T )) + dim(T (E)) = n = dim(E). Q

Definici´on 5.9 Si E tiene dimensi´on finita y T ∈ L (E, F), a la dimensi´on del subespacio T (E) se le llama el rango de la transformaci´on T y se denota por Rang(T ); es decir, Rang(T ) = dim(T (E)).

Page (PS/TeX): 15 / 431, COMPOSITE

432 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

Teorema 5.9 Sean T ∈ L (Rn , Rm ) y A la representaci´on matricial de T relativa a las bases can´onicas de Rn y Rm . Entonces: 1. T (Rn ) = Ec (A),8 esto es, v ∈ T (Rn ) si y s´olo si el sistema Au =v tiene soluci´on. 2. dim(T (Rn )) = Rang(A), el rango de la matriz A. 3. u ∈ Ker(T ) ⇔ u pertenece al espacio nulo de A; esto es, u es soluci´on del sistema homeg´eneo Au = 0Rm . 4. dim(Ker(T )) = Nul(A), la nulidad de A, la dimensi´on del espacio soluci´on del sistema Ax = 0Rm . 5. Si m = n, el operador lineal T es inyectivo (por tanto biyectivo) si y s´olo si A es invertible. La demostraci´on de este teorema es sencilla y se deja como ejercicio al lector.  Ejemplo 5.25 ¿Es posible construir una transformaci´on lineal T ∈ L (R4 , R3 ) que sea inyectiva? Supongamos que s´ı. Por 5.2 del teorema 5.8 tenemos 4 = dim(T (R4 )) + dim(Ker(T )) = dim(T (R4 )) + 0 = dim(T (R4 )) pues T es inyectiva y por ende Ker(T ) = {0E }, luego dim(Ker(T )) = 0. Pero T (R4 ) < R3 y entonces dim(T (R4 )) es a lo m´as 3. As´ı 4 = dim(T (R4 )) ≤ 3. Lo cual es una contradicci´on; por tanto es imposible que T sea inyectiva. El mismo razonamiento del ejemplo precedente es v´alido para cualquier T ∈ L (E, F) donde E tiene dimensi´on finita y dim(F) < dim(E) para mostrar que T no puede ser inyectiva. Como mencionamos m´as arriba, para el caso de espacios vectoriales y de una transformaci´on lineal entre ellos, hay condiciones sencillas para probar la suprayectividad e inyectividad. Teorema 5.10 Sean E y F un par de espacios vectoriales y T : E → F una transformaci´on lineal. Entonces: 1. T es suprayectiva ⇔ T (E) = F. 2. Si dim(E) = n < ∞, T es suprayectiva si y s´olo si dim(T (E)) = dim(F). 3. Si dim(E) = n < ∞ y T es suprayectiva, entonces dim(F) ≤ n. 4. Si dim(E) = dim(F) = n < ∞, T es suprayectiva ⇔ T es inyectiva. 5. Si E tiene dimensi´on n y T es biyectiva, entonces dim(E) = dim(F).

´ DEMOSTRACION

Q 1. Es evidente. 18 Recuerde que Ec (A) representa el espacio columna de A (cfr. definici´on 3.13, p´ag. 146).

Page (PS/TeX): 16 / 432, COMPOSITE

´ 5.2 SECCION

Representaciones matriciales de transformaciones lineales 433

2. (⇒)Si T es suprayectiva, T (E) = F; y, por tanto, dim(T (E)) = dim(F). (⇐) Si dim(T (E)) = dim(F), entonces T (E) = F. 3. Sea {ei }, i = 1, 2, . . . , n una base de E, entonces F = T (E) = gn(T (e1 ), . . . , T (en )); luego dim(F) ≤ n. 4. Es consecuencia inmediata de la igualdad (5.2). 5. F = T (E) por ser T suprayectiva, dim(Ker(T )) = 0 por ser T inyectiva, y por (5.2) se tiene dim(F) = dim(T (E)) + dim(Ker(T )) = n = dim(E). Q Si T : E → F es una transformaci´on lineal biyectiva, entonces existe la transformaci´on inversa de T , T −1 : F → E; ¿es tambi´en lineal T −1 ? La respuesta es afirmativa. Teorema 5.11 Sea T : E → F una transformaci´on lineal biyectiva y sea T −1 : F → E la transformaci´on inversa de T , entonces T −1 es lineal.

´ DEMOSTRACION

Q Seanu1 ,u2 ∈ F y α, β ∈ R. Puesto que T es biyectiva, existenu,v ∈ E tales que T (u) =u1 y T (v) =u2 ; por tanto T −1 (u1 ) = u y T −1 (u2 ) =v. Entonces T −1 (αu1 + βu2 ) = = = =

T −1 (αT (u) + βT (v)) T −1 (T (αu + βv)) αu + βv αT −1 (u1 ) + βT −1 (u2 ).

Q

5.2 Representaciones matriciales de transformaciones lineales En el teorema 5.3 (cfr. p´ag. 421) vimos que para toda transformaci´on lineal T : Rn → Rm existe una matriz A ∈ Mm×n tal que T = TA ; esto es, T (u) = Au ∀u ∈ Rn . En esta secci´on veremos que este resultado se puede extender a transformaciones T ∈ L (E, F) cuando los espacios vectoriales E y F tienen dimensiones finitas.

5.2.1 Vectores de coordenadas, cambio de bases Recordemos (cfr. p´ag. 335) que si B = {e1 ,e2 , . . . ,en } es una base fija de un espacio vectorial E, entonces, para cada u ∈ E, existen escalares u´ nicos α1 , α2 , . . . , αn tales que

Page (PS/TeX): 17 / 433, COMPOSITE

434 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

u = α1e1 + α2e2 + · · · + αnen

(5.3)

Si convenimos que todo vector se va a escribir respetando el mismo orden de los t´erminos en el lado derecho de (5.3); es decir, un escalar que multiplica a e1 , m´as un escalar que multiplica a e2 , etc., m´as un escalar que multiplica a en , diremos que B es una base ordenada del espacio E y escribiremos, con frecuencia, (e1 ,e2 , . . . ,en ) en lugar de {e1 ,e2 , . . . ,en } para hacer e´ nfasis en este hecho.9 Es claro que si se conoce el vector (α1 , α2 , . . . , αn ) se conoce el vector u y viceversa. Esto motiva la siguiente definici´on. Definici´on 5.10 Sea B = (e1 ,e2 , . . . ,en ) una base ordenada del espacio E y u ∈ E. Al u´ nico vector (α1 , α2 , . . . , αn ) ∈ Rn tal que u = α1e1 + α2e2 + · · · + αnen se le llama el vector coordenado o el vector de coordenadas de u relativo a la base B, y se denota por10 [u]B ; i.e., ⎡ ⎤ α1 ⎢ α2 ⎥ ⎢ ⎥ [u]B = ⎢ . ⎥ . ⎣ .. ⎦ αn  Ejemplo 5.26 En P3 sea la base ordenada B = (1, x, x2 , x3 ). Entonces 3x − 4 = −4(1) + 3(x) + 0 · x2 + 0 · x3 ; luego, ⎤ −4 ⎢ 3 ⎥ ⎥ [3x − 4]B = ⎢ ⎣ 0 ⎦ . 0 ⎡

 Ejemplo 5.27 En el subespacio S = gn(1, cos(2x)) de las funciones continuas de R en R, cos2 (x) =

1 1 + cos(2x). 2 2

Entonces,

2

cos (x)



B

=

1/2 1/2



para la base ordenada B = (1, cos(2x)) de S. 19 De una manera m´as rigurosa, pero m´as simple, una base ordenada de un espacio vectorial de dimensi´on finita es una sucesi´on finita de vectores L.I. que genera a este espacio. 10 1Recordemos que hemos convenido en representar un vector de Rn indistintamente por una n-ada ordenada o por una matriz columna.

Page (PS/TeX): 18 / 434, COMPOSITE

´ 5.2 SECCION

Representaciones matriciales de transformaciones lineales 435

 Ejemplo 5.28 Para la base ordenada         1 0 0 1 0 0 0 0 B= , , , 0 0 0 0 1 0 0 1 de M2×2 ,



−1 1 0 2



 = (−1)



1 0 0 0

 + (1)

0 0

1 0



 + (0)

0 0 1 0



 + (2)

0 0 0 1

 .

Luego



 Ejemplo 5.29 Dado que

−1 1 0 2



⎤ −1 ⎢ 1 ⎥ ⎥ =⎢ ⎣ 0 ⎦ . B 2 ⎡

⎤ ⎡ 1 1 −1 3 ⎣ 1 2 −1 ⎦ ∼ ⎣ 0 0 0 −1 2 ⎡ 1 ∼⎣ 0 0 ⎡

−1 3 −1 −1 3 0

⎤ 3 −4 ⎦ 2 ⎤ 3 −4 ⎦ , 2

se sigue que {(1, 1, 0), (−1, 2, −1), (3, −1, 2)} es una base de R3 vector (2, 1, 3) de R3 y resolvamos el sistema ⎤⎡ ⎤ ⎡ ⎡ α1 1 −1 3 ⎣ 1 2 −1 ⎦ ⎣ α2 ⎦ = ⎣ 0 −1 2 α3

(cfr. teorema 3.13, p´ag. 158). Sea el ⎤ 2 1 ⎦ 3

por el m´etodo de Gauss: ⎡

1 ⎣ 1 0

  ⎤ ⎡ 1 −1 3  2 −1 3  2 3 −4  −1 2 −1  1 ⎦ ∼ ⎣ 0  0 −1 2  3 −1 2 3  ⎡ 1 −1 3  2 3 −4  −1 ∼⎣ 0 0 0 2  8 ⎡ ∴

⎤ ⎤ ⎡ α1 −5 ⎣ α2 ⎦ = ⎣ 5 ⎦ . 4 α3

Por lo que ⎤ −5 [(2, 1, 3)]B = ⎣ 5 ⎦ 4 ⎡

para la base ordenada ((1, 1, 0), (−1, 2, −1), (3, −1, 2)).

Page (PS/TeX): 19 / 435, COMPOSITE

⎤ ⎦ ⎤ ⎦

436 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

Comprobaci´on: −5(1, 1, 0) + 5(−1, 2, −1) + 4(3, −1, 2) = (2, 1, 3) . Las siguientes propiedades de los vectores de coordenadas son sencillas de probar y se dejan como ejercicio al lector. Teorema 5.12 Sean E un espacio vectorial de dimensi´on n y B una base ordenada de e´ l. Entonces: 1. [u +v]B = [u]B + [v]B 2. [αu]B = α[u]B

∀u,v ∈ E.

∀u ∈ E,

∀α ∈ R.

3. [u]B = [v]B ⇔ u =v. 4. [u]B = 0Rn ⇔ u = 0E . 5. u1 , . . . ,uk son L.I. en E ⇔ [u1 ]B , . . . , [uk ]B son L.I. en Rn . 6. Para todo x = (x1 , . . . , xn ) ∈ Rn existe un u´ nico u ∈ E tal que [u]B =x y viceversa. En la ulterior discusi´on necesitaremos del siguiente lema. Lema 5.1 1. Sea A ∈ Mm×n una matriz tal que Ax = 0Rm para todo x ∈ Rn . Entonces A = O, la matriz cero de tama˜no m × n. 2. Sea A ∈ Mn×n una matriz tal que Ax =x para todox ∈ Rn . Entonces A = In , la matriz identidad de orden n.

´ DEMOSTRACION

Q 1. Sean ei los vectores de la base can´onica de Rn (la componente i de ei es 1 y las dem´as son 0).  i es la columna i de A, se tiene Entonces, si K 0Rm = Aei = K i; de donde A = O. 2. Es consecuencia inmediata del inciso anterior, pues Ax =x ⇒ (A − In )x = 0Rn .

Q

Supongamos ahora que B1 = (e1 ,e2 , . . . ,en ) y B2 = (f1 , f2 , . . . , fn ) son bases ordenadas de un mismo espacio vectorial E. Sea ⎡ ⎢ ⎢ [u]B2 = ⎢ ⎣

α1 α2 .. .

⎤ ⎥ ⎥ ⎥ ⎦

αn el vector de coordenadas de u relativo a la base B2 . Escribamos cada vector fi como combinaci´on lineal de los elementos de la base ordenada B1 :

Page (PS/TeX): 20 / 436, COMPOSITE

´ 5.2 SECCION

Representaciones matriciales de transformaciones lineales 437

f1 = a11e1 + a12e2 + · · · + a1nen , f2 = a21e1 + a22e2 + · · · + a2nen , .. .. .. . . . fn = an1e1 + an2e2 + · · · + annen . Entonces u = α1 f1 + α2 f2 + · · · + αn fn = α1 (a11e1 + a12e2 + · · · + a1nen ) + α2 (a21e1 + a22e2 + · · · + a2nen ) +··· + αn (an1e1 + an2e2 + · · · + annen ) = (α1 a11 + α2 a21 + · · · + αn an1 )e1 + (α1 a12 + α2 a22 + · · · + αn an2 )e2 +··· + (α1 a1n + α2 a2n + · · · + αn ann )en . Esto es,

⎡ ⎢ ⎢ [u]B1 = ⎢ ⎣ ⎡ ⎢ ⎢ =⎢ ⎣

α1 a11 + α2 a21 + · · · + αn an1 α1 a12 + α2 a22 + · · · + αn an2 .. . α1 a1n + α2 a2n + · · · + αn ann ⎤⎡ a11 a21 · · · an1 α1 ⎢ α2 a12 a22 · · · an2 ⎥ ⎥⎢ .. ⎥ ⎢ .. .. .. .. . . ⎦⎣ . . . a1n

···

a2n

⎤ ⎥ ⎥ ⎥ ⎦ ⎤ ⎥ ⎥ ⎥. ⎦

αn

ann

Entonces, si ⎡ ⎢ ⎢ P=⎢ ⎣

a11 a12 .. .

a21 a22 .. .

··· ··· .. .

an1 an2 .. .

a1n

a2n

···

ann

⎤ ⎥ ⎥ ⎥ ⎦

y conocemos el vector de coordenadas del vector u relativo a la base B2 , podemos conocer tambi´en el vector de coordenadas de u relativo a la base B1 mediante la matriz P: [u]B1 = P [u]B2

(5.4)

Ahora escribamos los vectores de la base ordenada B1 como combinaciones lineales de los vectores de la base B2 : e1 = b11 f1 + b12 f2 + · · · + b1n fn , e2 = b21 f1 + b22 f2 + · · · + b2n fn , .. .. . .

.. .

en = bn1 f1 + bn2 f2 + · · · + bnn fn .

Page (PS/TeX): 21 / 437, COMPOSITE

438 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

Sea

⎡ ⎢ ⎢ Q=⎢ ⎣

b11 b12 .. .

b21 b22 .. .

··· ··· .. .

bn1 bn2 .. .

b1n

b2n

···

bnn

⎤ ⎥ ⎥ ⎥, ⎦

entonces, por analog´ıa, se tiene [u]B2 = Q [u]B1 .

(5.5)

Es decir, podemos calcular el vector de coordenadas de u relativo a la base B2 si conocemos el vector de coordenadas del mismo vector relativo a la base B1 multiplicando e´ ste por la matriz Q. Ahora bien, de (5.4) y (5.5) tenemos [u]B1 = P [u]B2   = P Q [u]B1 = (PQ) [u]B1 para todo vector [u]B1 ∈ Rn . Esto implica, por el lema 5.1, que PQ = In ; es decir, P es invertible y P−1 = Q. Hemos probado as´ı el siguiente teorema. Teorema 5.13 Sean B1 = (e1 ,e2 , . . . ,en ) y B2 = (f1 , f2 , . . . , fn ) dos bases ordenadas de un mismo espacio vectorial. Sean ai j ∈ R escalares tales que f1 f2 .. . fn y sea11

= = .. .

a11e1 + a12e2 + · · · + a1nen a21e1 + a22e2 + · · · + a2nen .. .

=

an1e1 + an2e2 + · · · + annen ⎡

⎢ ⎢ P=⎢ ⎣

a11 a12 .. .

a21 a22 .. .

··· ··· .. .

an1 an2 .. .

a1n

a2n

···

ann

⎤ ⎥ ⎥ ⎥. ⎦

Entonces, la matriz P es invertible y para todo u ∈ E se tiene: 1.

[u]B1 = P [u]B2 .

2.

[u]B2 = P−1 [u]B1 .

Definici´on 5.11 Sean las condiciones del teorema anterior. 1. A la matriz P se le dice matriz cambio de base de la base B2 a la base B1 . 2. A la matriz P−1 se le dice matriz cambio de base de la base B1 a la base B2 .

1Observe que P es la transpuesta de la matriz de los coeficientes de los vectores ei del sistema (5.6).

11

Page (PS/TeX): 22 / 438, COMPOSITE

(5.6)

´ 5.2 SECCION

Representaciones matriciales de transformaciones lineales 439

 Ejemplo 5.30 Sean e1 = (1, 0), e2 = (0, 1), f1 = (1, 1), f2 = (−1, 0) y B1 = {e1 ,e2 }, B2 = {f1 , f2 }. Ambas son bases de R2 y f1 = 1 ·e1 + 1 ·e2 f2 = (−1)e1 + 0 ·e2 . Entonces,  P=

1 1

−1 0



y P−1 =



0 1 −1 1



luego, [u]B2 = P−1 [u]B1 . As´ı, por ejemplo, podemos escribir (−4, 3) como combinaci´on lineal de f1 , f2 , al hallar [(−4, 3)]B2 ; pues [(−4, 3)]B2 = P−1 [(−4, 3)]B1    0 1 −4 = −1 1 3   3 = ; 7 y por tanto (−4, 3) = 3f1 + 7f2 , como el lector puede comprobar f´acilmente.  Ejemplo 5.31 En el ejemplo 5.29 vimos que B2 = {(1, 1, 0), (−1, 2, −1), (3, −1, 2)} es una base de R3 . Sea B1 = {(1, 0, 0), (0, 1, 0), (0, 1, 0)} la base can´onica de este espacio. Entonces para este caso, claramente ⎤ ⎡ 1 −1 3 2 −1 ⎦ . P=⎣ 1 0 −1 2 Calculemos P−1 por el m´etodo de Gauss-Jordan: ⎡

1 ⎣ 1 0

Page (PS/TeX): 23 / 439, COMPOSITE

−1 2 −1

3 −1 2

 ⎤ ⎡  1 0 0 1   0 1 0 ⎦∼⎣ 0   0 0 1 0 ⎡ 1 ∼⎣ 0 0 ⎡ 1 ∼⎣ 0 0

 −1 3  3 −4  −1 2   −1 3  3 −4  0 2   −1 3  3 −4  0 1 

⎤ 1 0 0 −1 1 0 ⎦ 0 0 1 ⎤ 1 0 0 −1 1 0 ⎦ −1 1 3

⎤ 1 0 0 −1 1 0 ⎦ −1/2 1/2 3/2

440 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios



1 ∼⎣ 0 0 ⎡ 1 ∼⎣ 0 0 ⎡ 1 ∼⎣ 0 0

 ⎤ 1 0 0 −1 3  −3 3 6 ⎦ 3 0  0 1  −1/2 1/2 3/2  ⎤ −1 0  5/2 −3/2 −9/2 −1 1 2 ⎦ 1 0  1/2 3/2 0 1  −1/2  ⎤ 0 0  3/2 −1/2 −5/2 1 2 ⎦ 1 0  −1  1/2 3/2 0 1 −1/2

y por tanto ⎤ 3/2 −1/2 −5/2 −1 1 2 ⎦. P−1 = ⎣ −1/2 1/2 3/2 ⎡

As´ı, si [u]B1 es el vector de coordenadas de u relativo a la base can´onica B1 , entonces el vector de coordenadas de e´ ste relativo a la base B2 es [u]B2 = P−1 [u]B1 . ⎡ ⎤ 2 Por ejemplo, si u = (2, 1, 3), por tanto, [u]B1 = ⎣ 1 ⎦ y 3 ⎤ ⎤ ⎡ ⎤⎡ ⎡ −5 2 3/2 −1/2 −5/2 −1 1 2 ⎦⎣ 1 ⎦ = ⎣ 5 ⎦. [u]B2 = ⎣ 4 3 −1/2 1/2 3/2 Que es el mismo resultado que obtuvimos en el ejemplo 5.29. P Nota 5.3 Aunque en el ejemplo anterior no hicimos e´ nfasis por medio de notaci´on, hemos considerado las dos bases como bases ordenadas. Esto lo haremos frecuentemente en aras de brevedad; es decir, toda base, a lo largo de lo que resta de este cap´ıtulo, se considera una base ordenada aun si esto no se hace notar expl´ıcitamente.  Ejemplo 5.32 Sean las bases B1 = {1, x} y B2 = {4, 2 − x} del espacio de polinomios de grado a lo m´as 1 (note que en ambos casos claramente los respectivos elementos de cada conjunto son L.I. y recuerde que la dimensi´on de P1 es 2; raz´on por la que ambas son, efectivamente, bases de este espacio). 1. Encontrar la matriz cambio de base de la base B1 a la base B2 . 2. Hallar el vector de coordenadas del polinomio p(x) = 4 − 5x relativo a la base B2 . 3. Escribir el polinomio p(x) como combinaci´on lineal de los elementos de la base B2 . ´ Solucion

1. Tenemos que 4 = 4·1+0·x 2 − x = 2 · 1 + (−1)x

por lo que

 P=

Page (PS/TeX): 24 / 440, COMPOSITE

4 2 0 −1



´ 5.2 SECCION

Representaciones matriciales de transformaciones lineales 441

y, por el m´etodo de la adjunta, P−1 = −

1 4



−1 −2 0 4

 .

La cual es la matriz cambio de base de B1 a B2 . 2. Ya que p(x) = 4 · 1 + (−5) x,

 [p(x)]B1 =

4 −5

 .

Entonces [p(x)]B2 = P−1 [p(x)]B1    1 −1 −2 4 =− 0 4 −5 4   −3/2 = . 5 3. Finalmente

  3 4 + (5) (2 − x) p (x) = − 2

como el lector puede f´acilmente verificar. 

5.2.2 Representaciones matriciales de un operador lineal Ahora generalizaremos el concepto de representaci´on matricial que se dio para transformaciones lineales de Rn en Rm a operadores lineales en un espacio vectorial; esto es, para transformaciones lineales de un espacio en s´ı mismo cuando e´ ste tiene dimensi´on finita. Para ello, sean T ∈ L (E, E) un operador lineal y B = {e1 ,e2 , . . . ,en } una base del espacio E. Sean ai j ∈ R escalares tales que T (e1 ) T (e2 ) .. .

= = .. .

a11e1 + a12e2 + · · · + a1nen a21e1 + a22e2 + · · · + a2nen .. .

T (en )

=

an1e1 + an2e2 + · · · + annen .

Sea u = α1e1 + α2e2 + · · · + αnen ∈ E; entonces [u]B = (α1 , α2 , . . . , αn ) y T (u) = T (α1e1 + α2e2 + · · · + αnen ) = α1 T (e1 ) + α2 T (e2 ) + · · · + αn T (en ). Por tanto T (u) = α1 (a11e1 + a12e2 + · · · + a1nen ) +α2 (a21e1 + a22e2 + · · · + a2nen ) +··· +αn (an1e1 + an2e2 + · · · + annen )

Page (PS/TeX): 25 / 441, COMPOSITE

(5.7)

442 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

= (α1 a11 + α2 a21 + · · · + αn an1 )e1 +(α1 a12 + α2 a22 + · · · + αn an2 )e2 +··· +(α1 a1n + α2 a2n + · · · + αn ann )en ; luego ⎡ ⎢ ⎢ [T (u)]B = ⎢ ⎣ ⎡ ⎢ ⎢ =⎢ ⎣

α1 a11 + α2 a21 + · · · + αn an1 α1 a12 + α2 a22 + · · · + αn an2 .. . α1 a1n + α2 a2n + · · · + αn ann ⎤⎡ α1 a11 a21 · · · an1 ⎢ α2 a12 a22 · · · an2 ⎥ ⎥⎢ .. ⎥ ⎢ .. .. .. .. . . ⎦⎣ . . . a1n

a2n

···

⎤ ⎥ ⎥ ⎥ ⎦ ⎤ ⎥ ⎥ ⎥. ⎦

αn

ann

Lo cual motiva la definici´on 5.12 y prueba el teorema 5.14. Definici´on 5.12 Sean T : E → E un operador lineal en el espacio E, B = {e1 ,e2 , . . . ,en } una base (ordenada) de este espacio y ai j ∈ R escalares tales que se tiene el sistema de igualdades (5.7); a la matriz denotada y definida como ⎡ ⎢ ⎢ [T ]B = ⎢ ⎣

a11 a12 .. .

a21 a22 .. .

··· ··· .. .

an1 an2 .. .

a1n

a2n

···

ann

⎤ ⎥ ⎥ ⎥ ⎦

se12 le llama la representaci´on matricial del operador T relativa a la base B.

Teorema 5.14 Sean E, T , B y [T ]B como en la definici´on 5.12. Entonces [T (u)]B = [T ]B [u]B

(5.8)

para todo u ∈ E.  Ejemplo 5.33 En P3 sean T : P3 → P3 el operador lineal definido por T (p) = p , B = {1, x, x2 , x3 }, y p(x) = −3 + 8x − 5x2 − 7x3 ∈ P3 . Entonces: T (1) =

0 = 0 · 1 + 0 · x + 0 · x2 + 0 · x3

T (x) =

1 = 1 · 1 + 0 · x + 0 · x 2 + 0 · x3

T (x2 ) = 2x = 0 · 1 + 2 · x + 0 · x2 + 0 · x3 T (x3 ) = 3x2 = 0 · 1 + 0 · x + 3 · x2 + 0 · x3 . 1Observe que [T ]B es la matriz transpuesta de coeficientes de los ei del sistema de igualdades (5.7).

12

Page (PS/TeX): 26 / 442, COMPOSITE

´ 5.2 SECCION

Representaciones matriciales de transformaciones lineales 443

As´ı,



0 ⎢ 0 [T ]B = ⎢ ⎣ 0 0

1 0 0 0

0 2 0 0

⎤ 0 0 ⎥ ⎥ 3 ⎦ 0

y

T (p(x)) = 8 − 10x − 21x2 = 8 · 1 + (−10) · x + (−21) · x2 + 0 · x3 .

Por tanto,

⎤ 8 ⎢ −10 ⎥ ⎥ [T (p(x))]B = ⎢ ⎣ −21 ⎦ . 0 ⎡

Por otro lado,



0 ⎢ 0 [T ]B [p(x)]B = ⎢ ⎣ 0 0

1 0 0 0

0 2 0 0

⎤⎡ −3 0 ⎢ 8 0 ⎥ ⎥⎢ 3 ⎦ ⎣ −5 −7 0

⎤ 8 ⎥ ⎢ −10 ⎥ ⎥ ⎥=⎢ ⎦ ⎣ −21 ⎦ = [T (p(x))]B . 0 ⎤



P Nota 5.4 Supongamos que T es un operador lineal en un espacio de dimensi´on finita E; con [T ]B la representaci´on de este operador relativa a una base B. Supongamos que A es una matriz cuadrada de orden n tal que [T (u)]B = A [u]B

(5.9)

para todo u ∈ E. Entonces [T ]B [u]B = [T (u)]B = A [u]B ; y por tanto ([T ]B − A)x = 0Rn

∀x ∈ Rn .

Por el lema 5.1 se tiene entonces [T ]B − A = O; esto es, [T ]B = A. Es decir, la u´ nica matriz cuadrada de orden n que satisface (5.9) para todo u ∈ E es la representaci´on matricial, [T ]B , del operador T relativa a la base B. Como acabamos de ver, en la nota 5.4, la representaci´on matricial de un operador lineal, relativa a una base B, es la u´ nica matriz que satisface (5.9); sin embargo, si se toma otra base B1 del espacio E, tambi´en se cumple (5.8) del teorema 5.14 con B = B1 . ¿C´omo est´an relacionadas entonces las representaciones matriciales de un mismo operador lineal relativas a distintas bases? Para responder esta pregunta supongamos que B1 y B2 son distintas bases del mismo espacio vectorial E y [T ]B1 , [T ]B2 son sendas representaciones matriciales del operador T relativas a estas bases. Sea P la matriz

Page (PS/TeX): 27 / 443, COMPOSITE

444 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

cambio de base de la base B2 a la base B1 ; entonces [u]B2 = P−1 [u]B1 y [u]B1 = P [u]B2 para todo u ∈ E. Luego [T (u)]B2 = P−1 [T (u)]B1   = P−1 [T ]B1 [u]B1    = P−1 [T ]B1 P [u]B2   = P−1 [T ]B1 P [u]B2 para todo u ∈ E. Por la unicidad de la representaci´on matricial de un operador mostrada en la nota 5.4, se tiene que [T ]B2 = P−1 [T ]B1 P. Hemos probado as´ı el siguiente teorema. Teorema 5.15 Sean E un espacio vectorial; B1 y B2 bases del mismo; T un operador lineal en E; y [T ]B1 , [T ]B2 las respectivas representaciones matriciales de T relativas a estas bases. Si P es la matriz cambio de base de B2 a B1 , entonces [T ]B2 = P−1 [T ]B1 P.  Ejemplo 5.34 Sea el operador lineal T : R2 → R2 , definido por T (x, y) = (4x − 2y, 2x + y) y B1 = {(1, 0)(0, 1)}, B2 = {(1, 1), (1, 0)}. Entonces T (1, 0) = (4, 2) = 4(1, 0) + 2(0, 1), T (0, 1) = (−2, 1) = −2(1, 0) + 1(0, 1), y (1, 1) = 1(1, 0) + 1(1, 0), (1, 0) = 1(1, 0) + 0(0, 1). As´ı que

 [T ]B1 =

y

 P=

Luego,

Page (PS/TeX): 28 / 444, COMPOSITE

1 1 1 0

 ,P

4 2

−1

−2 1  =



0 1

1 −1

 .

[T ]B2 = P−1 [T ]B1 P     0 1 4 −2 1 1 = 1 −1 2 1 1 0    2 1 1 1 = 2 −3 1 0   3 2 = . −1 2

´ 5.2 SECCION

Representaciones matriciales de transformaciones lineales 445

Definici´on 5.13 Si A y B son matrices cuadradas de orden n, se dice que A es similar a B si existe una matriz cuadrada C del mismo orden tal que B = C−1 AC. Para denotar que la matriz A es similar a la matriz B escribiremos A  B. Las siguientes propiedades, contenidas en el teorema 5.16, son sencillas de probar y la demostraci´on de cada una de ellas se deja como ejercicio al lector. Teorema 5.16 Sean A, B,C, D ∈ Mn . Entonces: 1. 2. 3. 4. 5.

A  A. A  B ⇒ B  A. A  B y B  D ⇒ A  D. Si A  B, entonces det(A) = det(B). Si A  B, entonces A es invertible si y s´olo si B es invertible.

P Nota 5.5 1. Por el inciso 2 del teorema precedente, A  B ⇒ B  A, diremos que dos matrices son similares si cumplen con la definici´on 5.13. 2. El teorema 5.15 implica que dos representaciones cualesquiera de un operador lineal T ∈ L (E, E) son similares. Por el teorema 5.16, inciso 4, cualquier par de representaciones matriciales relativas a diferentes bases de un operador lineal en un espacio tienen el mismo determinante, pues son matrices similares. Hacemos patente este hecho en la siguiente definici´on. Definici´on 5.14 (Determinante de un operador) Si E es un espacio de dimensi´on finita y T es un operador lineal en este espacio, se define el determinante de T , det(T ), como el determinante de cualquier representaci´on matricial de T .  Ejemplo 5.35 Sea T el operador lineal definido en el ejemplo 5.34. Vimos en este ejemplo que si B1 = {(1, 0)(0, 1)} y B2 = {(1, 1), (1, 0)},  [T ]B1 = entonces

4 2

  4 det(T ) =  2

−2 1



 y [T ]B2 =

3 2 −1 2

 ,

   −2   3 2  = 8. = 1   −1 2 

P Nota 5.6 Dado que dos representaciones matriciales cualesquiera de un operador son similares, por el teorema 5.16, si una de ellas es una matriz invertible todas las dem´as tambi´en lo son.

Page (PS/TeX): 29 / 445, COMPOSITE

446 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

Vimos en el teorema 5.9, inciso 5 (cfr. p´ag. 432), que para que un operador lineal definido en Rn sea inyectivo (y por tanto biyectivo) es necesario y suficiente que su representaci´on matricial (relativa a la base can´onica) sea una matriz invertible. Tenemos el caso general de operadores lineales en espacios vectoriales contemplado en el siguiente teorema.

Teorema 5.17 Sea E un espacio vectorial de dimensi´on n y T : E → E un operador lineal. Entonces T es inyectivo (y por tanto biyectivo) si y s´olo si cualquier representaci´on matricial de T es una matriz invertible (si y s´olo si det(T ) = 0); en tal caso, si [T ]B es la representaci´on matricial de T on matricial del operador lineal inverso13 T −1 relativa relativa a una base B, [T ]−1 B es la representaci´ a la misma base.

´ DEMOSTRACION

Q Sea [T ]B una representaci´on matricial del operador T . 1. Supongamos que la matriz [T ]B es no singular y sea u ∈ Ker(T ). Entonces [T ]B [u]B = [T (u)]B = 0Rn . Luego ([T ]B )−1 ([T ]B [u]B ) = ([T ]B )−10Rn = 0Rn y por tanto, [u]B = 0Rn ; lo cual implica u = 0E . 2. Supongamos ahora que T es inyectivo, entonces T es suprayectivo pues dim(Ker(T )) + dim(T (E)) = n. 

0

Por tanto, T es biyectivo. Sea T −1 : E → E la transformaci´on inversa de T ; sabemos, del teorema

5.11, que T −1 es tambi´en lineal. Sea T −1 B la representaci´on matricial de T −1 relativa a la base B. Sea v ∈ E, como T es suprayectiva existe u ∈ E tal que T (u) =v; i.e., u = T −1 (v). Entonces

T −1 (v)

B

= [T −1 ]B [v]B

= T −1 B [T (u)]B

= T −1 B [T ]B [u]B

  = T −1 B [T ]B [T −1 (v)]B .

1Recuerde que la transformaci´on inversa de un operador lineal tambi´en es un operador lineal (cfr. teorema 5.11).

13

Page (PS/TeX): 30 / 446, COMPOSITE

´ 5.2 SECCION

Representaciones matriciales de transformaciones lineales 447

  Por tanto T −1 B [T ]B x = x para todo14 x ∈ Rn . Del lema 5.1 (cfr. p´ag. 436) se sigue que −1 −1 T B [T ]B = In . Luego [T ]B es invertible y [T ]−1 . Q B = T B

5.2.3 Representaciones matriciales de transformaciones lineales As´ı como es posible encontrar representaciones matriciales de operadores lineales, tambi´en se pueden hallar representaciones matriciales para transformaciones lineales en general. El procedimiento es completamente an´alogo al que realizamos en la subsecci´on anterior; por lo que dejamos al lector que llene los detalles, en cuanto a deducciones y demostraciones, en forma similar a como lo hicimos antes, de las definiciones y teoremas que damos a continuaci´on. Definici´on 5.15 Sean E, F espacios de dimensiones finitas; B1 = {e1 ,e2 , . . . ,en }, B2 = {f1 , f2 , . . . , fm } bases de sendos espacios; T ∈ L (E, F) y ai j escalares tales que T (e1 )

=

T (e2 ) .. .

= .. .

T (en )

=

a11 f1 + a12 f2 + · · · + a1m fm a21 f1 + a22 f2 + · · · + a2m fm .. .

(5.10)

an1 f1 + an2 f2 + · · · + anm fm

Se define la representaci´on matricial de T relativa a las bases B1 y B2 como15 ⎡ ⎢ ⎢ B [T ]B21 = ⎢ ⎣

a11 a12 .. .

a21 a22 .. .

... ... .. .

an1 an2 .. .

a1m

a2m

...

anm

⎤ ⎥ ⎥ ⎥. ⎦

Teorema 5.18 Sean E, B1 , B2 y T como en la definici´on precedente, entonces B

[T (u)]B2 = [T ]B21 [u]B1

∀u ∈ E.

 Ejemplo 5.36 Sea la transformaci´on lineal T : R3 → R2 definida por T (x, y, z) = (3x + 2y − 4z, x − 5y + 3z) y B1 = {(1, 1, 1), (1, 1, 0), (1, 0, 0)}, B2 = {(1, 3), (2, 5)}. Encontrar la representaci´on matricial de T relativa a las bases B1 y B2 . ´ Solucion

T (1, 1, 1) = (1, −1) , T (1, 1, 0) = (5, −4) , T (1, 0, 0) = (3, 1) .

1Es f´acil demostrar, lo cual se deja como ejercicio al lector, que si x = (x1 , . . . , xn ) ∈ Rn , existe v ∈ E tal que [v]B =x. 2  1Note que [T ]B B1 es la matriz transpuesta de los coeficientes de los vectores f i del sistema de igualdades (5.10).

14 15

Page (PS/TeX): 31 / 447, COMPOSITE

448 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

Se requiere encontrar escalares ai j tales que (1, −1) = a11 (1, 3) + a12 (2, 5), (5, −4) = a21 (1, 3) + a22 (2, 5), (3, 1) = a31 (1, 3) + a32 (2, 5). Esto es, las soluciones de los sistemas (con la misma matriz de coeficientes): 

1 2 3 5



a11 a12









1 −1

=

1 2 3 5



1 3

, 

2 5



a31 a32

 =



3 1

a21 a22



 =

5 −4

 y

 .

Resolvamos estos sistemas con la misma matriz de coeficientes (cfr. el m´etodo expuesto en la p´ag. 27). 

 1 2  1 3 5  −1

 ∴ 

a11 a12 a31 a32

5 3 −4 1



 =



 =

Entonces, B

[T ]B21 =





 2  1 −1  −4   1 0  −7 ∼ 0 −1  −4 



−7 4 −13 8

−7 4

5 3 −19 −8

1 0





; 

a21 a22



 =

−33 −13 −19 −8 −33 19

  ;

 y

.

−33 −13 19 8

 .



P Nota 5.7 Sean B1 , B2 bases de los espacios E y F, respectivamente. Si T ∈ L (E, F) y A es una matriz de tama˜no m × n tal que A[u]B1 = [T (u)]B2 ∀u ∈ E

(5.11)

se tiene entonces (A − [T ]B21 )x = 0Rm B

∀x ∈ Rn ;

por el lema 5.1 se sigue que16 B

A − [T ]B21 = O. Es decir, la u´ nica matriz que cumple (5.11) es la representaci´on matricial de T relativa a estas bases del teorema 5.18.

1Cfr. nota 5.4, p´agina 443.

16

Page (PS/TeX): 32 / 448, COMPOSITE

´ 5.2 SECCION

Representaciones matriciales de transformaciones lineales 449

Veamos ahora qu´e sucede con una representaci´on matricial cuando se cambian bases en los espacios vectoriales. Teorema 5.19 Sean E, F espacios de dimensiones finitas; B1 , B  1 bases de E; B2 , B  2 bases de F; y T ∈ L (E, F). Sean P la matriz cambio de base de B  1 a B1 (i.e. [u]B1 = P[u]B 1 ) y Q la matriz cambio de base de B  2 a B2 (es decir, [v]B2 = Q[v]B 2 ), entonces B

B

[T ]B 21 = Q−1 [T ]B21 P.

´ DEMOSTRACION

Q Sea u ∈ E, entonces B

B

(Q−1 [T ]B21 P)[u]B1 = (Q−1 [T ]B21 )P[u]B1 B

= (Q−1 [T ]B21 )[u]B1 B

= Q−1 ([T ]B21 [u]B1 ) = Q−1 [T (u)]B2 = [T (u)]B2 y de la nota 5.7 se desprende que B

B

Q−1 [T ]B21 P = [T ]B2 . 1

Q

 Ejemplo 5.37 Sea T : R3 → R2 la transformaci´on lineal del ejemplo 5.36; es decir, T (x, y, z) = (3x + 2y − 4z, x − 5y + 3z). Sean B1 la base can´onica de R3 y la base B1 = {(1, 1, 1), (1, 1, 0), (1, 0, 0)}; B2 la base can´onica de R2 y la base B2 = {(1, 3), (2, 5)}. Entonces, puesto que T (1, 0, 0) = (3, 1) = 3(1, 0) + 1(0, 1) T (0, 1, 0) = (2, −5) = 2(1, 0) − 5(0, 1) T (0, 0, 1) = (−4, 3) = −4(1, 0) + 3(0, 1) se tiene B [T ]B21

 =

3 1

2 −4 −5 3

 .

Por otra parte, ya que (1, 1, 1) = 1(1, 0, 0) + 1(0, 1, 0) + 1(0, 0, 1) (1, 1, 0) = 1(1, 0, 0) + 1(0, 1, 0) + 0(0, 0, 1) (1, 0, 0) = 1(1, 0, 0) + 0(0, 1, 0) + (0, 0, 1) y (1, 3) = 1(1, 0) + 3(0, 1) (2, 5) = 2(1, 0) + 5(0, 1),

Page (PS/TeX): 33 / 449, COMPOSITE

450 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

se concluye que ⎤    1 1 1 1 2 −5 , y Q−1 = P = ⎣ 1 1 0 ⎦, Q = 3 5 3 1 0 0 ⎡

2 −1

 .

Entonces B

B

[T ]B2 = Q−1 [T ]B21 P 1

 =  =

−5 3 −7 4



2 −4 −5 3  −33 −13 . 19 8

2 −1

3 1



⎤ 1 1 1 ⎣ 1 1 0 ⎦ 1 0 0 ⎡

Que es el mismo resultado que obtuvimos en el ejemplo 5.36.

Representaciones diagonales de transformaciones lineales Toda transformaci´on lineal de un espacio en otro tiene diversas representaciones matriciales seg´un las bases con las que se trabaje. De entre todas estas representaciones ser´ıa conveniente buscar aquellas que sean suficientemente “sencillas”. De la experiencia adquirida a lo largo de este libro, sabemos que las matrices con mayor n´umero de entradas nulas y, m´as a´un, aquellas que son muy parecidas a una matriz diagonal, son matrices que se prestan mucho para minimizar c´alculos y conjeturar propiedades de las mismas y, por tanto, de las transformaciones que representan. En el siguiente teorema, dada una transformaci´on lineal, veremos c´omo es posible construir bases de tal manera que la correspondiente representaci´on sea una matriz con entradas nulas fuera de la diagonal principal y unos en ella. Teorema 5.20 Sean E y F espacios vectoriales de dimensiones n y m, respectivamente, y T ∈ L (E, F). Entonces existen bases B1 = {e1 , . . . ,en } y B2 = { f1 , . . . , fm }, de sendos espacios, tales B que la representaci´on matricial de la transformaci´on lineal relativa a estas bases, [T ]B21 = [ai j ], tiene unos en la diagonal principal y ceros fuera de ella; esto es,  ai j =

´ DEMOSTRACION

1 0

si i = j en otro caso

(5.12)

Q Sea r el rango de T ; es decir, dim(T (E)) = r. Sea {f1 , . . . , fr } una base de T (E) y completemos e´ sta a una base de F;17 digamos B2 = {f1 , . . . , fr , fr+1 , . . . , fm }. Puesto que f1 , . . . , fr ∈ T (E), existen e1 , . . . ,er ∈ E tales que T (ei ) = fi

para i = 1, . . . , r

1Cfr. el procedimiento que se dio en la p´agina 167 para completar un subconjunto L.I. a una base de un espacio.

17

Page (PS/TeX): 34 / 450, COMPOSITE

(5.13)

´ 5.2 SECCION

Representaciones matriciales de transformaciones lineales 451

Sea k = dim (Ker(T )), entonces, por (5.2) del teorema 5.8 (cfr. p´ag. 431), n = r + k. Sea {er+1 , . . . ,er+k } una base de Ker(T ). Por construcci´on, B2 es una base de F. Afirmamos que B1 = {e1 , . . . ,er ,er+1 , . . . ,er+k } es una base de E. En efecto, puesto que B1 tiene n elementos, basta probar que e´ stos son L.I., lo cual es cierto pues si α1 , . . . , αr , αr+1 , . . . , αr+k son n-escalares tales que α1e1 + · · · + αrer + αr+1er+1 + · · · + αr+ker+k = 0E

(5.14)

Entonces, dado que T es lineal, α1 T (e1 ) + · · · + αr T (er ) + αr+1 T (er+1 ) + · · · + αr+k T (er+k ) = 0F y puesto que er+1 , . . . ,er+k ∈ Ker(T ), de (5.13) y la precedente igualdad se concluye que α1 f1 + · · · + αr fr = 0F .

(5.15)

Como los vectores f1 , . . . , fr son L.I. (pues forman una base de T (E)), (5.15) implica α1 = · · · = αr = 0

(5.16)

αr+1er+1 + · · · + αr+ker+k = 0E

(5.17)

De (5.16) y (5.14) se tiene

y ya que er+1 , . . . ,er+k son L.I. (pues forman una base de Ker(T )), (5.17) implica αr+1 = · · · = αr+k = 0

(5.18)

De (5.16) y (5.18) se desprende que los vectores e1 , . . . ,er ,er+1 , . . . ,er+k son L.I. Finalmente, puesto que T (ei ) = fi = 0 · f1 + · · · + 0 · fi−1 + 1 · fi + 0 · fi+1 + · · · + 0 · fm para i = 1, . . . , r y T (e j ) = 0F = 0 · f1 + · · · + 0 · fm para j = r + 1, . . . , r + k, se sigue que B

[T ]B21 = [ai j ] con los ai j dados por (5.12). Q  Ejemplo 5.38 Sea T : P3 → P2 la transformaci´on derivaci´on; esto es, T (p) = p . Construyamos, siguiendo el proceso dado en la demostraci´on del teorema 5.20, bases de P3 y P2 tales que la representaci´on matricial de T relativa a e´ stas tenga unos en la diagonal principal y ceros fuera de ella. Para ello notemos antes los dos siguientes hechos: 1. T (P3 ) = P2 (T es suprayectiva). Efectivamente, si q(x) = ax2 + bx + c ∈ P2 , entonces p(x) = 1 1 3 2 3 ax + 2 bx + cx satisface T (p(x)) = p (x) = ax2 + bx + c = q(x).

Page (PS/TeX): 35 / 451, COMPOSITE

452 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

2. Ker(T ) = gn(1). En efecto, p ∈ Ker(T ) ⇔ p (x) = 0 ⇔ p(x) = c ⇔ p ∈ gn(1). Por el inciso 1 podemos tomar como base de T (P3 ) la base can´onica de P2 , B2 = {1, x, x2 } ( f1 = 1, f2 = x, f3 = x2 ). Sean e1 = x, e2 = 12 x2 y e3 = 13 x3 , entonces T (e1 ) = 1, T (e2 ) = x y T (e3 ) = x2 (los valores de los ei se encuentran por simple inspecci´on o integrando). Siguiendo el proceso del teorema 5.20, la base B1 se construye adjuntando a e1 , e2 y e3 los elementos de la base de Ker(T ), en este caso el polinomio constante 1; esto es,   B1 = x, 12 x2 , 13 x3 , 1 . Puesto que T (x) = 1 = 1 · 1 + 0 · x + 0 · x2 ,  1 2 T 2 x = x = 0 · 1 + 1 · x + 0 · x2 ,   T 13 x3 = x2 = 0 · 1 + 0 · x + 1 · x2 , T (1) = 0 = 0 · 1 + 0 · x + 0 · x2 , se tiene ⎤ 1 0 0 0 = ⎣ 0 1 0 0 ⎦ . 0 0 1 0 ⎡

B

[T ]B21

5.2.4 Isomorfismos Entre dos idiomas diferentes no existe un diccionario perfecto con el cual se pueda traducir literalmente del uno al otro. La estructura ling¨u´ıstica es demasiado compleja, convencional, evolutiva y var´ıa de un pa´ıs a otro incluso entre dos regiones de un mismo pa´ıs. Sin embargo, en las matem´aticas es usual que existan “traductores” perfectos entre entes distintos cuando e´ stos tienen una estructura algebraica con un origen com´un. En a´ lgebra lineal, cierto tipo de transformaciones lineales son los “traductores” que se emplean de manera natural entre distintos espacios vectoriales porque son funciones que preservan la estructura de las operaciones. En este breve apartado veremos c´omo es posible construir estos traductores y probaremos que cualquier espacio vectorial de dimensi´on finita, salvo los sustantivos empleados para designar a sus elementos, es en esencia el espacio de vectores Rn . Definici´on 5.16 Sean E y F un par de espacios vectoriales y T : E → F una transformaci´on lineal. 1. T es un isomorfismo18 si T es una transformaci´on biyectiva. 2. Si existe un isomorfismo del espacio E sobre el espacio F, se dice que E es isomorfo a F y se escribe E ∼ = F.

1Del griego iso-morfo (igual forma o estructura).

18

Page (PS/TeX): 36 / 452, COMPOSITE

´ 5.2 SECCION

Representaciones matriciales de transformaciones lineales 453

 Ejemplo 5.39 Sean E = R3 y F = P2 , el espacio de polinomios de grado a lo m´as 2, y T : E → F definida por T (a, b, c) = a + bx + cx2 . Mostrar que T es un isomorfismo. ´ DEMOSTRACION

Q Sean (a, b, c), (a1 , b1 , c1 ) ∈ R3 y α, β ∈ R, entonces T (α(a, b, c) + β(a1 , b1 , c1 )) = T (αa + βa1 , αb + βb1 , αc + βc1 ) = (αa + βa1 ) + (αb + βb1 )x + (αc + βc1 )x2 = α(a + bx + cx2 ) + β(a1 + b1 x + c1 x2 ) = αT (a, b, c) + βT (a1 , b1 , c1 ); as´ı que T es lineal. Si (a, b, c) ∈ Ker(T ), entonces T (a, b, c) = 0; y por tanto, a + bx + cx2 = 0 de donde a = b = c = 0, y por ende Ker(T ) = {0R3 }; luego T es inyectiva. Si p(x) = a + bx + cx2 ∈ F, claramente T (a, b, c) = p(x); por lo que T es suprayectiva. Hemos mostrado que T es lineal y biyectiva, as´ı que T es un isomorfismo. Q A continuaci´on probamos que ∼ = es una relaci´on de equivalencia entre los espacios vectoriales reales. Teorema 5.21 Sean E, F y G espacios vectoriales. Entonces ∼ E. 1. E = 2. E ∼ =F⇒F∼ = E. ∼ F, F = ∼G⇒E∼ 3. E = = G.

´ DEMOSTRACION

Q 1. Sea T : E → E la transformaci´on identidad; es decir, T (u) = u ∀u ∈ E. Claramente T es lineal y biyectiva. 2. Sea T : E → F un isomorfismo. Como T es biyectiva, entonces es invertible, y por el teorema 5.11, T −1 : F → E es lineal y biyectiva; luego F ∼ = E. 3. Se deja de ejercicio al lector. Q ∼F⇒F∼ P Nota 5.8 Por el inciso 2 del teorema precedente, E = = E, diremos simplemente que E y F son isomorfos si se cumple la propiedad 2 de la definici´on 5.16.  Ejemplo 5.40 Sean los espacios vectoriales C[0, 1] y C[2, 3]. Mostrar que son isomorfos.

´ DEMOSTRACION

Q Sea T : C[0, 1] → C[2, 3] la transformaci´on definida por T ( f ) = g, donde g(x) = f (x − 2) ∀x ∈ [2, 3]. Geom´etricamente la transformaci´on T asigna a cada funci´on f ∈ C[0, 1] su traslaci´on al intervalo [2, 3] como se ilustra en la figura 5-4.

Page (PS/TeX): 37 / 453, COMPOSITE

454 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

Sean f1 , f2 ∈ C[0, 1] y α, β ∈ R. Entonces ∀x ∈ [2, 3] se tiene

g

f

T (α f1 + β f2 )(x) = (α f1 + β f2 )(x − 2) 1

= α f1 (x − 2) + β f2 (x − 2)

3

2

= (αT ( f1 ))(x) + (βT ( f2 ))(x);

Figura 5-4 •

luego T (α f1 + β f2 ) = αT ( f1 ) + βT ( f2 ) lo cual prueba que T es lineal. Sea f ∈ Ker(T ), entonces T ( f ) = θ , el neutro aditivo de C[2, 3], por lo que f (x − 2) = 0

∀x ∈ [2, 3].

Sea u ∈ [0, 1], entonces x = u + 2 ∈ [2, 3], as´ı que f (u) = f (x − 2) = 0, y por tanto, f (u) = 0 para todo u ∈ [0, 1]; i.e., f = θ, el neutro aditivo de C[0, 1]; luego Ker(T ) = {θ} y entonces T es inyectiva. Sean g ∈ C[2, 3] y f : [0, 1] → R la funci´on definida por f (x) = g(x + 2) (puesto que 0 ≤ x ≤ 1, se tiene 2 ≤ x + 2 ≤ 3). Entonces, ya que g y la funci´on x → x + 2 son continuas, f es continua en [0, 1]; y para todo u ∈ [2, 3] T ( f )(u) = f (u − 2) = g(u) es decir, T ( f ) = g; lo cual prueba que T es suprayectiva. Con esto hemos demostrado que T es un isomorfismo y por tanto C[0, 1] ∼ = C[2, 3]. Q Del inciso 5 del teorema 5.10 (cfr. p´ag. 432) se tiene como consecuencia inmediata el siguiente resultado. Teorema 5.22 Si E y F son espacios vectoriales isomorfos y uno de ellos tiene dimensi´on finita n, entonces el otro tiene tambi´en dimensi´on n.  Ejemplo 5.41 Sean E y F un par de espacios vectoriales reales de dimensiones n y m, respectivamente. Entonces L (E, F) ∼ = Mm×n . En efecto, sean B1 = {e1 , . . . ,en } y B2 = {f1 , . . . , fm } bases de E B y F, respectivamente. Para cada T ∈ L (E, F) sea [T ]B21 la representaci´on matricial de T relativa a estas B

bases. Definimos Ψ : L (E, F) → Mm×n como Ψ(T ) = [T ]B21 . Entonces:

1. Sean α, β ∈ R, T1 , T2 ∈ L (E, F). Para todo u ∈ E se tiene, por 5.12 y 5.12 del teorema 5.12, p´ag. 436, B

B

B

B

(α[T1 ]B21 + β[T2 ]B21 )[u]B1 = α[T1 ]B21 [u]B1 + β[T2 ]B21 [u]B1 = α[T1 (u)]B2 + β[T2 (u)]B2 = [αT1 (u) + βT2 (u)]B2 .

Page (PS/TeX): 38 / 454, COMPOSITE

´ 5.2 SECCION

Representaciones matriciales de transformaciones lineales 455

De la unicidad de la representaci´on matricial relativa a bases dadas de una transformaci´on lineal (cfr. nota 5.7, p´ag. 448), se tiene B

B

B

[αT1 + βT2 ]B21 = α[T1 ]B21 + β[T2 ]B21 ; es decir, Ψ(αT1 + βT2 ) = αΨ(T1 ) + βΨ(T2 ). 2. Sea T ∈ Ker(Ψ), entonces Ψ(T ) = O, la matriz cero de tama˜no m × n. Es decir, B

[T ]B21 = O; por tanto, para todo u ∈ E, [T ]B21 [u]B1 = 0Rm , B

luego [T (u)]B2 = 0Rm . De 4 del teorema 5.12, la igualdad precedente implica T (u) = 0F

∀u ∈ E.

Es decir, T es la transformaci´on cero, el neutro aditivo de L (E, F); lo cual prueba que Ψ es inyectiva. 3. Sea A ∈ Mm×n . Definimos T : E → F, para cada u ∈ E, por T (u) = α1 f1 + · · · + αm fm , donde (α1 , . . . , αm ) = A[u]B1 . Dado que u = v ⇔ [u]B1 = [v]B1 , se desprende que T est´a bien definida. Sean α, β ∈ R y u,v ∈ E, entonces [αu + βv]B1 = α[u]B1 + β[v]B1 , y por tanto A[αu + βv]B1 = αA[u]B1 + βA[v]B1 ; de donde T (αu + βv) = αT (u) + βT (v). Luego T ∈ L (E, F). Puesto que

se tiene A =

Page (PS/TeX): 39 / 455, COMPOSITE

B [T ]B21 ;

[T (u)]B2 = A[u]B1 esto es

∀u ∈ E,

456 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

Ψ(T ) = A. Lo cual prueba que T es suprayectiva. Hemos mostrado as´ı que Ψ es un isomorfismo y por tanto L (E, F) ∼ = Mm×n . Como consecuencia del ejemplo anterior y del teorema 5.22, dim(L (E, F)) = mn si dim(E) = n y dim(F) = m. Ahora mostraremos que cualquier espacio vectorial real de dimensi´on finita es isomorfo a Rn . Teorema 5.23 Sea E un espacio vectorial real de dimensi´on n, entonces E ∼ = Rn .

´ DEMOSTRACION

Q Sea B = {e1 , . . . ,en } una base de E. Sea T : E →Rn definida como T (u) = [u]B . Entonces, por las propiedades 1 y 2 del teorema 5.12 se tiene T (αu + βv) = [αu + βv]B = α[u]B + β[v]B = αT (u) + βT (v); por lo que T es lineal. Si (α1 , . . . , αn ) ∈ Rn , sea u = α1e1 + · · · + αnen ∈ E, entonces T (α1e1 + · · · + αnen ) = (α1 , . . . , αn ); as´ı que T es suprayectiva. Si T (u) = 0Rn , entonces [u]B = 0Rn y por la propiedad 5.12 del teorema 5.12 se desprende u =0E ; lo cual demuestra que T es inyectiva. Hemos probado as´ı que T es un isomorfismo, y por tanto E ∼ = Rn . Q Si E y F son espacios vectoriales reales con dimensiones iguales a n, entonces, por el teorema precedente, E ∼ = Rn y F ∼ = Rn ; por tanto, del tercer inciso del teorema 5.21, E ∼ = F. Con lo que queda demostrado el siguiente teorema. Teorema 5.24 Cualquier par de espacios vectoriales que tienen la misma dimensi´on (finita) son isomorfos.  Ejemplo 5.42 1. Pn ∼ = Rn+1 . 2. Mm×n ∼ = Rmn . 3. L (Pn−1 , Pn−1 ) ∼ = Mn (las matrices cuadradas de orden n).

Page (PS/TeX): 40 / 456, COMPOSITE

´ 5.3 SECCION

´ Valores y vectores propios, diagonalizacion 457

´ 5.3 Valores y vectores propios, diagonalizacion Las propiedades de un operador lineal T , definido en un espacio de dimensi´on finita, que son independientes del sistema de coordenadas (la base) con el que se trabaje en el espacio (es decir, que son independientes de la representaci´on matricial), se denominan propiedades intr´ınsecas del operador; por ejemplo, el determinante de cualquier representaci´on matricial de un operador lineal es independiente de la representaci´on y, por tanto, es una propiedad intr´ınseca de e´ ste. Entonces, como mencionamos antes, es sumamente importante encontrar alguna representaci´on matricial lo suficientemente sencilla para identificar, a partir de esta representaci´on, propiedades que sean intr´ınsecas del operador. En la secci´on anterior probamos, en el teorema 5.20, que dada una transformaci´on lineal T : E → F, se pueden construir bases {ei } y {f j } de tal suerte que la representaci´on matricial de T relativa a estas bases tiene unos en la diagonal principal y ceros fuera de ella; es decir, una representaci´on diagonal19 en ese sentido. Para operadores lineales las representaciones matriciales se definen a partir de una sola base {ei } para el espacio vectorial; en este caso no siempre es posible construir una representaci´on matricial diagonal sin emplear otra base m´as. El objetivo ahora, en esta secci´on, es determinar qu´e tipo de operadores tienen representaciones matriciales (relativas a una sola base para el espacio) que sean diagonales y c´omo encontrar dichas representaciones.

5.3.1 Valores y vectores propios Supongamos que E es un espacio con dimensi´on finita n y T : E → E es un operador lineal que tiene una representaci´on matricial [T ]B , relativa a la base B = {e1 , . . . ,en }, que es una matriz diagonal. Sean aii = λi , i = 1, . . . , n, los elementos de la diagonal de la matriz [T ]B . Entonces, dado que i

[ei ]B = (0, . . . , 0, 1, 0, . . . , 0), para i = 1, . . . , n, y20 [T ]B = diag(λ1 , . . . , λn ), [T (ei )]B = [T ]B [ei ]B ⎤ ⎡ 0 ⎢ .. ⎥ ⎢ . ⎥ ⎥ ⎢ ⎢ 0 ⎥ ⎥ ⎢ ⎥ = ⎢ ⎢ λi ⎥ ( → fila i ). ⎢ 0 ⎥ ⎥ ⎢ ⎢ .. ⎥ ⎣ . ⎦ 0 Por tanto, T (ei ) = λiei

para cada i = 1, . . . , n.

(5.19)

1Recordemos que una matriz cuadrada es diagonal si todas las componentes fuera de la diagonal son nulas. Abusando un poco del lenguaje, entenderemos que una matriz no cuadrada es diagonal si todas las componentes fuera de la diagonal principal son nulas; donde la diagonal principal est´a formada por las entradas de la forma aii . 20 1Cfr. definici´on 1.4, p´agina 8. 19

Page (PS/TeX): 41 / 457, COMPOSITE

458 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

Ahora supongamos que existe una base B = {e1 , . . . ,en } del espacio E y escalares λ1 , . . . , λn tales que se cumple la igualdad (5.19). Entonces T (ei ) = λiei = 0 ·e1 + · · · + 0 ·ei−1 + λi ·ei + 0 ·ei+1 + · · · + 0 ·en para cada i = 1, . . . , n; luego [T ]B = diag(λ1 , . . . , λn ). Esto es, para que un operador lineal T tenga una representaci´on matricial diagonal es necesario y suficiente que existan n-vectores L.I., e1 , . . . ,en , y n-escalares λ1 , . . . , λn que cumplan la igualdad (5.19). Resumimos lo hasta aqu´ı demostrado en el siguiente teorema. Teorema 5.25 Sean E un espacio vectorial de dimensi´on n y T : E → E un operador lineal. Entonces T tiene una representaci´on matricial diagonal si y s´olo si existen e1 , . . . ,en ∈ E, vectores L.I., y un correspondiente conjunto de escalares λ1 , . . . , λn , tales que T (ei ) = λiei

para cada i = 1, . . . , n.

En ese caso la representaci´on diagonal es [T ]B = diag(λ1 , . . . , λn ), donde B = {e1 , . . . ,en }.

De esta manera, el problema de hallar representaciones matriciales diagonales de operadores lineales se reduce a encontrar los vectores L.I. y los correspondientes escalares que satisfacen (5.19). El primer paso para resolver este tipo de problemas es encontrar escalares λ y vectores correspondientes u tales que T (u) = λu. Motivados con este primer objetivo damos la siguiente definici´on. Definici´on 5.17 (Valores propios de operadores lineales) Sean E un espacio vectorial (no necesariamente de dimensi´on finita) y T : E → E un operador lineal. 1. Se dice que λ ∈ R es un valor propio (valor caracter´ıstico, eigenvalor, autovalor) de T si existe un vector u ∈ E, con u = 0E , tal que T (u) = λu

(5.20)

2. Si λ es un valor propio de T y u ∈ E es un vector no nulo que satisface (5.20), entonces se dice que u es un vector propio (vector caracter´ıstico, eigenvector, autovector) del operador T correspondiente al valor propio λ.

P Nota 5.9 1. Si λ es valor propio del operador lineal T , entonces existe u ∈ E − {0E } que satisface (5.20); luego, si c ∈ R − {0} es un escalar, T (cu) = cT (u) = c(λu) = λ(cu) y, por tanto, cu ∈ E − {0E } es vector propio de T correspondiente a λ. As´ı que un valor propio tiene una infinidad de vectores propios correspondientes.

Page (PS/TeX): 42 / 458, COMPOSITE

´ 5.3 SECCION

´ Valores y vectores propios, diagonalizacion 459

2. Supongamos que λ, μ son valores propios con un mismo vector propio correspondiente u, entonces λu = T (u) = μu, lo cual implica (λ − μ)u = 0E , y por ende λ = μ (pues u = 0E , cfr. la propiedad 9 del teorema 3.4, p´ag. 138). Es decir, existe un u´ nico valor propio correspondiente a un vector propio dado. 3. Si en la definici´on 5.17 se permitiera que u = 0E , entonces todo escalar λ ser´ıa valor propio de T ; pues 0E = T (0E ) = λ0E . El restringir los vectores propios a vectores no nulos es porque se quieren encontrar vectores L.I. que satisfagan (5.20), y si 0E se incluye en esta lista entonces este conjunto se convierte en linealmente dependiente. Otra raz´on es que se rompe la unicidad de valores propios correspondientes a un vector propio dado que se mostr´o en el segundo inciso. 4. Aunque los vectores propios no pueden ser nulos, los valores propios s´ı. Por ejemplo, si T es un operador lineal no inyectivo, entonces T (u) = 0E = 0 ·u para todo u ∈ Ker(T ); puesto que T no es inyectivo, el n´ucleo contiene elementos no nulos y as´ı λ = 0 es valor propio de T . 5. Es evidente que λ es valor propio del operador T si y s´olo si Ker(T − λI) = {0E }; es decir, si el operador lineal T − λI es no inyectivo, donde I es el operador identidad del espacio E (cfr. ejemplo 5.8, p´ag. 418).  Ejemplo 5.43 Sea el espacio vectorial C ∞ (−∞, ∞) = { f : R → R | f tiene derivada de todo orden para cada x ∈ R} y sea el operador lineal T : C ∞ (−∞, ∞) → C ∞ (−∞, ∞), T ( f ) = f  , el operador derivaci´on. Encontrar los valores propios y vectores propios correspondientes de T . ´ Solucion

1. Si λ = 0 T(f) = λf = 0· f = θ ⇒ f

= θ ⇒



f (x) = 0 ∀x ; por tanto, f es una constante. Las funciones constantes distintas de cero son los vectores propios correspondientes al valor propio λ = 0. 2. Si λ = 0 T(f) = λf ⇒ f = λf ⇒ df = λf ⇒ dx   df = λ dx ⇒ f ln | f | = λx + c ⇒ f = keλx Vectores propios para λ:

Page (PS/TeX): 43 / 459, COMPOSITE

(k = ±ec ).

f (x) = keλx ; k = 0.

460 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

En s´ıntesis: todo n´umero real λ es valor propio de T . Si λ = 0 los vectores propios correspondientes son todas las funciones constantes no nulas. Si λ = 0, los vectores propios correspondientes a λ son las funciones f (x) = keλx , k = 0.  No todo operador lineal tiene valores propios, como hacemos patente en el siguiente ejemplo.  Ejemplo 5.44 (Un operador sin valores propios) Sea T : C[0, 1] → C[0, 1] el operador definido por T ( f ) = g, donde g(x) = Por ejemplo, si f (x) = x2 , entonces g(x) = de T . ´ Solucion



x

f (t)dt,

0



x 0

t 2 dt =

x ∈ [a, b].

x3 . Encontrar, si es que existen, los valores propios 3

Supongamos que λ es un valor propio de T . Si f = θ es una funci´on propia de λ se debe

tener T(f) = λf. Luego, λ f (x) =



x 0

f (t)dt

∀x ∈ [0, 1].

(5.21)

Entonces, 

(λ f (x)) =

 0

x

f (t)dt



y al aplicar el teorema fundamental del c´alculo21 se obtiene f (x) = λ f  (x). De aqu´ı que λ debe ser distinto de cero, pues en caso contrario f = θ (la funci´on constante cero). La igualdad precedente se puede escribir como df 1 = f dx λ que equivale a df 1 = dx f λ e integrando se tiene ln | f | = 1Si f ∈ C[a, b] y F(x) =



21

Page (PS/TeX): 44 / 460, COMPOSITE

a

x

1 x +C, λ

f (t)dt, entonces F es derivable y F  (x) = f (x) ∀x ∈ [a, b].

´ 5.3 SECCION

´ Valores y vectores propios, diagonalizacion 461

que al tomar exponencial en ambos lados produce f (x) = ke x/λ , con k = ±eC = 0. Sin embargo, la funci´on f (x) = ke x/λ no satisface el requerimiento (5.21): λk = λ f (0) =

 0

0

f (t)dt = 0

pues λk = 0. Luego T no tiene valores propios. 

Espacio propio Sea T : E → E un operador lineal y sea λ un valor propio de T ; si u,v ∈ E son vectores propios correspondientes a λ y α, β ∈ R, entonces T (αu + βv) = αT (u) + βT (v) = α(λu) + β(λv) = λ(αu + βv). Por lo que si αu + βv = 0E , e´ ste es tambi´en un vector propio correspondiente al valor propio λ. As´ı, el conjunto de todos los vectores u tales que T (u) = λu es un subespacio vectorial de E (este conjunto tambi´en contiene a 0E , ya que T (0)E = 0E = λ0E ) que contiene a todos los vectores propios correspondientes a λ. Hacemos patente este concepto en la siguiente definici´on. Definici´on 5.18 Sean E un espacio vectorial, T : E → E un operador lineal y λ ∈ R un valor propio de T . Al subespacio vectorial de E Eλ = {u ∈ E | T (u) = λu} se le llama el espacio propio del valor propio λ. Es decir, el espacio propio de un valor propio λ es el conjunto de todos los vectores propios correspondientes a λ uniendo al mismo el vector neutro aditivo del espacio. Sea A una matriz cuadrada de orden n y consideremos el operador matricial TA : Rn → Rn , TA (u) = Au. Entonces λ es valor propio de TA si y s´olo si existe u ∈ Rn −0Rn tal que Au = λu. De esta manera, la definici´on 5.17 tiene como caso particular la siguiente definici´on. Definici´on 5.19 (Valores propios de matrices) Sea A una matriz cuadrada de orden n. Se dice que λ ∈ R es un valor propio (valor caracter´ıstico, autovalor o eigenvalor) de A si existe u ∈ Rn − {0Rn } tal que Au = λu. En tal caso a u se le llama vector propio (vector caracter´ıstico, autovector o eigenvector) de la matriz A correspondiente a λ.

Page (PS/TeX): 45 / 461, COMPOSITE

462 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

  Ejemplo 5.45 Si A =

2 2 3 1 

 , 2 2 3 1



1 1



 =

4 4



 =4

1 1

 .

As´ı, 4 es valor propio de A.  Ejemplo 5.46 Sea A la matriz del ejemplo precedente. Encontrar los vectores propios correspondientes al valor propio 4 y E4 (el espacio propio del valor propio 4). ´ Solucion Los vectores propios de A, correspondientes a este valor propio, son las soluciones no triviales del sistema

Au = 4u que equivalen a las soluciones no triviales del sistema homog´eneo (A − 4I2 )u = 0R2 . Resolvamos entonces este sistema: 

Luego

2−4 2 3 1−4

 u =

x y



 =

r r





 −2 2 = 3 −3   1 −1 ∼ . 0 0



 =r

1 1

 ,

r = 0.

Es decir, el conjunto de vectores propios correspondientes al valor propio 4 son todos los vectores de la forma r(1, 1) con r = 0 y el espacio propio es E4 = gn((1, 1)).  Teorema 5.26 Sean A, B matrices cuadradas de orden n que son similares. Entonces A y B tienen los mismos valores propios.

´ DEMOSTRACION

Q Sean λ un valor propio de la matriz A, u ∈ Rn − {0Rn } un vector propio correspondiente, y P una matriz cuadrada de orden n tal que A = P−1 BP. Entonces B(Pu) = P(Au) = P(λu) = λ (Pu) . Puesto que u = 0Rn y P es una matriz invertible, se tiene que Pu = 0Rn ; por tanto, λ es valor propio de B. Sea μ un valor propio de B y v ∈ Rn − {0Rn } un vector propio correspondiente. Entonces A(P−1v) = P−1 (Bv) = P−1 (μv) = μ(P−1v) y nuevamente, dado que P−1 es invertible y v =0Rn , P−1v =0Rn y, por tanto μ es valor propio de B.

Page (PS/TeX): 46 / 462, COMPOSITE

Q

´ 5.3 SECCION

´ Valores y vectores propios, diagonalizacion 463

Ya que en un espacio vectorial de dimensi´on finita cualquier par de representaciones matriciales de un operador lineal son similares, el teorema precedente tiene como consecuencia inmediata el siguiente corolario. Corolario 5.1 Si E es un espacio de dimensi´on finita y T : E → E es un operador lineal, entonces todas las representaciones matriciales de T tienen los mismos valores propios.

¿Cu´al es entonces la relaci´on entre los valores propios de un operador lineal y los valores propios de cualquiera de sus representaciones matriciales? Seguramente el lector ya sabe cu´al es la respuesta; pero para hacerla patente la probamos en la siguiente proposici´on. Teorema 5.27 Sean E un espacio vectorial de dimensi´on finita n y T : E → E un operador lineal. Si [T ]B es cualquier representaci´on matricial de T relativa a una base B = {e1 , . . . ,en }, entonces el operador T y la matriz [T ]B tienen los mismos valores propios.

´ DEMOSTRACION

Q Supongamos que λ es un valor propio de T con u ∈ E − {0E } un vector propio correspondiente, entonces T (u) = λu. Por tanto, [λu]B = [T (u)]B = [T ]B [u]B . Luego [T ]B [u]B = λ [u]B y dado que22 u =0E ⇒ [u]B =0Rn , se tiene que λ es valor propio de la matriz [T ]B . Ahora supongamos que μ es un valor propio de la matriz [T ]B , con un vector propio correspondiente v = (v1 , . . . , vn ) ∈ Rn − {0Rn }. Sea u = v1e1 + · · · + vnen , entonces23 u ∈ E − {0E } y [T (u)]B = [T ]B [u]B = [T ]B v = μv = μ [u]B = [μu]B lo cual implica T (u) = μu y por ende μ es valor propio de T . Q

1Cfr. teorema 5.12, p´agina 436. 1Cfr. teorema 5.12, p´agina 436.

22 23

Page (PS/TeX): 47 / 463, COMPOSITE

464 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

En resumen, si T : E → E es un operador lineal y E tiene dimensi´on finita, los valores propios de T son los valores propios de cualquier representaci´on matricial del mismo. Por tanto, el problema de hallar los valores propios de un operador lineal definido en un espacio de dimensi´on finita se reduce a encontrar los valores propios de una matriz (de una representaci´on matricial cualquiera del mismo). Esta es una enorme ventaja, pues podemos aprovechar toda la herramienta matricial que hemos desarrollado a lo largo de este libro para este fin. Por esta raz´on es que ser´a suficiente restringir nuestro estudio de encontrar valores propios al caso de matrices cuadradas de orden n.

´ Calculo de valores y vectores propios de matrices En el ejemplo 5.46 vimos c´omo calcular los valores propios de una matriz cuadrada resolviendo un siste´ es la idea general para calcular valores y vectores propios de una matriz cuadrada. ma homog´eneo. Esta Sea A una matriz cuadrada de orden n; dado que un sistema cuadrado homog´eneo tiene soluciones no triviales si y s´olo si la matriz de coeficientes del mismo tiene determinante cero, tenemos: λ es valor propio de A ⇔ existe u ∈ Rn − {0Rn } tal que Au = λu ⇔ el sistema homog´eneo (A − λIn )x = 0Rn tiene soluciones no triviales ⇔ det(A − λIn ) = 0 donde In es la matriz identidad de orden n. Ahora, si λ ∈ R es un valor propio de la matriz A, entonces debe existir una soluci´on no trivial del sistema homog´eneo (A − λIn )x = 0Rn . As´ı, los vectores propios correspondientes a λ son las soluciones no triviales de este sistema homog´eneo. Hemos probado as´ı el siguiente resultado. Teorema 5.28 Sea A una matriz cuadrada de orden n. Entonces 1. Las soluciones reales de la ecuaci´on det (A − λIn ) = 0 son los valores propios de A. 2. Y si λ ∈ R es un valor propio de A, las soluciones no triviales del sistema homog´eneo (A − λIn )x = 0Rn son los vectores propios correspondientes a λ.  Ejemplo 5.47 Sea  A=

2 2 3 1

 .

Encontrar sus valores propios y los vectores propios correspondientes.

Page (PS/TeX): 48 / 464, COMPOSITE

(5.22)

´ 5.3 SECCION

´ Valores y vectores propios, diagonalizacion 465

  2−λ 2 det(A − λI2 ) =  3 1−λ

´ Solucion

   

= (2 − λ)(1 − λ) − 6 = λ2 − 3λ − 4 = (λ − 4)(λ + 1) y las soluciones de det(A − λI2 ) = 0 son los valores propios de A: λ = 4 y λ = −1. Si λ = 4, el sistema homog´eneo (5.22) en este caso es 



2−4 2 3 1−4



x y

 =

0 0

 ;

que podemos resolver por el m´etodo de Gauss llevando a forma escalonada 



−2 2 3 −3

 ∼

1 0





−1 0



y haciendo sustituci´on regresiva 



x y

r r 

= =r

1 1

 .

As´ı, los vectores propios correspondientes a λ = 4 son todos los vectores de la forma r(1, 1) con r = 0. An´alogamente si λ = −1, el sistema homog´eneo (5.22) para este caso es 

2+1 2 3 1+1



x y



 =

0 0



y 

por tanto,



3 2 3 2

x y





 ∼

 = 

3 2 0 0

−(2/3)s s

−(2/3)3t = 3t   −2 =t . 3



 

Luego los vectores propios correspondientes a λ = −1 son todos los vectores de la forma t(−2, 3) con t = 0. 

Page (PS/TeX): 49 / 465, COMPOSITE

466 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios



 2 2 En el ejemplo precedente obtuvimos det(A − λI2 ) = λ − 3λ − 4 para la matriz A = . En 3 1 el caso general, si se desarrolla det(A − λIn ) para una matriz cuadrada A de orden n, se obtiene un polinomio en λ de grado n. Veamos algunos casos particulares: 2

1. Si n = 2

  a −λ det(A − λI2 ) =  11 a21

 a12  a22−λ 

= (a11 − λ)(a22 − λ) − a12 a21 = λ2 − (a11 + a22 )λ + a11 a22 − a12 a21 . 2. Si n = 3, empleando el inciso 1 tenemos   a11 − λ  a21 det(A − λI3 ) =   a31

a12 a22 − λ a32

  a −λ = (a11 − λ)  22 a32

         a a23  − a21  12 a33 − λ  a32 a13 a23 a33 − λ

a13 a33 − λ

    a12  + a31    a22 − λ

 a13  a23 

= (a11 − λ) (λ2 − (a22 + a33 )λ + a22 a33 − a23 a32 )      a12  a12 a13  a13    + a31  −a21  a32 a33 − λ  a22 − λ a23  y ya que los dos u´ ltimos t´erminos son claramente polinomios de grado a lo m´as uno, se deduce que det(A − λI3 ) = −λ3 + (a22 + a33 + a11 ) λ2 + α1 λ + α0 donde α1 , α0 ∈ R. 3. Si n = 4, empleando los incisos anteriores,   a11 − λ a12 a13   a a − λ a 21 22 23 det(A − λI4 ) =  a31 a32 a33 − λ   a41 a42 a43   a22 − λ a23  a32 a33 − λ = (a11 − λ)   a42 a43   a12 a13 a14  a34 −a21  a32 a33 − λ  a42 a43 a44 − λ   a12 a13 a14  a23 a24 −a41  a22 − λ  a32 a33 − λ a34

         a24  a34  a44 − λ      a12    + a31  a22 − λ     a42       a14 a24 a34 a44 − λ

a13 a23 a43

a14 a24 a44 − λ

2 = (a11 − λ)(−λ3 + (a22 + a33 + a44  )λ +α1 λ + α0 )  a12   a12 a a a14 13 14    a34  − a31  a22 − λ a24 −a21  a32 a33 − λ  a42  a43 a44 − λ  a42 a44 − λ    a12 a13 a14   a23 a24  −a41  a22 − λ  a32 a33 − λ a34 

Page (PS/TeX): 50 / 466, COMPOSITE

a13 a23 a43

     

     

´ 5.3 SECCION

´ Valores y vectores propios, diagonalizacion 467

Por los dos incisos anteriores,24 es claro que al desarrollar los determinantes de los u´ ltimos tres t´erminos se obtienen polinomios de grado 2. As´ı que det(A − λI4 ) = λ4 − (a11 + a33 + a44 + a22 ) λ3 + c2 λ2 + c1 λ + c0 con c2 , c1 , c0 ∈ R. Hemos hecho plausible la demostraci´on, que puede hacerse por inducci´on, del teorema 5.29; la cual se deja como ejercicio al lector. Teorema 5.29 Sea A una matriz de orden n, entonces det(A − λIn ) = (−1)n λn + cn−1 λn−1 + · · · + c1 λ + c0 , donde los ci ∈ R; es decir, det(A − λIn ) es un polinomio de grado n. Adem´as el coeficiente del t´ermino principal (el coeficiente de λn ) es (−1)n y25 cn−1 = (−1)n−1 tra(A).

Definici´on 5.20 Sea A una matriz cuadrada de orden n e In la matriz identidad de orden n. 1. Se denota y define el polinomio caracter´ıstico de la matriz A como pA (λ) = det(A − λIn ). 2. A la ecuaci´on pA (λ) = 0; esto es, det(A − λIn ) = 0, se le llama ecuaci´on caracter´ıstica de la matriz A. Con esta terminolog´ıa los valores propios de A son las ra´ıces reales del polinomio caracter´ıstico de A; es decir, las soluciones reales de la ecuaci´on caracter´ıstica. Vimos, en el teorema 5.26, que dos matrices similares tienen los mismos valores propios; ahora veamos que tambi´en tienen el mismo polinomio caracter´ıstico. Teorema 5.30 Sean A y B un par de matrices cuadradas de orden n que son similares. Entonces A y B tienen el mismo polinomio caracter´ıstico.

´ DEMOSTRACION

Q Sea P una matriz cuadrada invertible de orden n tal que A = P−1 BP. Entonces, A − λIn = P−1 BP − λIn = P−1 BP − λP−1 P = P−1 (B − λIn )P

1Note que intercambiamos dos columnas del determinante que multiplica a31 . 1Cfr. definici´on 4.2, p´agina 242.

24 25

Page (PS/TeX): 51 / 467, COMPOSITE

468 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

y por tanto det(A − λIn ) = det(P−1 (B − λIn )P) = det(P−1 ) det(B − λIn ) det(P) = (det(P))−1 det(B − λIn ) det(P) = det(B − λIn ); esto es, pA (λ) = pB (λ).

Q

Como consecuencia inmediata del teorema anterior tenemos que cualquier par de representaciones matriciales de un mismo operador lineal en un espacio de dimensi´on finita, por ser matrices similares, tiene el mismo polinomio caracter´ıstico. Definici´on 5.21 Si E es un espacio vectorial de dimensi´on finita y T : E → E es un operador lineal, se define el polinomio caracter´ıstico de T , pT (λ), como el polinomio caracter´ıstico de cualquier representaci´on matricial de T .

De lo precedente se concluye que una matriz cuadrada tiene a lo m´as n valores propios, pues un polinomio de grado n tiene a lo m´as n ra´ıces reales. Lo mismo ocurre obviamente para un operador lineal en un espacio de dimensi´on finita n. Teorema 5.31 1. Si A es una matriz cuadrada de orden n, entonces A tiene a lo m´as n valores propios. 2. Si T : E → E es un operador lineal y dim(E) = n, entonces T tiene a lo m´as n valores propios.

´ Metodo sintetizado para encontrar los valores y vectores propios correspondientes de una matriz Resumimos a continuaci´on la informaci´on precedente para calcular los valores y vectores propios correspondientes de una matriz cuadrada A de orden n: 1. Se calculan las soluciones reales, λi , de la ecuaci´on caracter´ıstica det(A − λIn ); es decir, las ra´ıces reales del polinomio caracter´ıstico pA (λ). 2. Para cada λi se encuentran las soluciones no triviales del sistema no homog´eneo (A − λi In )x = 0Rn y dichas soluciones ser´an los vectores propios correspondientes a λi .

Page (PS/TeX): 52 / 468, COMPOSITE

´ 5.3 SECCION

´ Valores y vectores propios, diagonalizacion 469

P Nota 5.10 1. Dado que un polinomio de grado n puede tener ra´ıces m´ultiples26 (o repetidas), es obvio que el paso 2 u´ nicamente se lleva a cabo para los valores propios λi distintos entre s´ı; es decir, para las ra´ıces simples del polinomio caracter´ıstico. 2. Si E es un espacio de dimensi´on finita y T : E → E es un operador lineal, para calcular los valores propios y vectores propios correspondientes de T se aplica el procedimiento precedente a cualquier representaci´on matricial de T . ⎤ ⎡ 2 1 0  Ejemplo 5.48 Sea A = ⎣ −1 0 1 ⎦. 1 3 1 1. Encontrar los valores propios de A. 2. Hallar los vectores y espacios propios correspondientes. 3. Calcular las dimensiones de los espacios propios. Primero encontremos las ra´ıces del polinomio caracter´ıstico. Para ello desarrollamos por cofactores |A − λI3 | por la tercera columna: ´ Solucion

pA (λ) = |A − λI3 |   2−λ 1  =  −1 −λ  1 3   2−λ 1 = −  1 3

0 1 1−λ

     

     + (1 − λ)  2 − λ   −1

 1  −λ 

= −(3(2 − λ) − 1) + (1 − λ)(−λ(2 − λ)) + 1) = −(5 − 3λ) + (1 − λ)(λ2 − 2λ + 1) = −(λ − 1)3 − (5 − 3λ). Sin embargo, este resultado no produce una factorizaci´on adecuada para calcular las ra´ıces. Pero si desarrollamos el determinante por la primera fila obtenemos   −λ 1 pA (λ) = (2 − λ)  3 1−λ

    −1 −   1

 1  1−λ 

= (2 − λ)[−λ(1 − λ) − 3] − (λ − 1 − 1) = (2 − λ)[λ2 − λ − 3] − (λ − 2) = (2 − λ)[λ2 − λ − 3] + (2 − λ) = (2 − λ)(λ2 − λ − 3 + 1) = (2 − λ)(λ2 − λ − 2) = (2 − λ)(λ − 2)(λ + 1) = −(λ − 2)(λ − 2)(λ + 1) = −(λ − 2)2 (λ + 1). 1Por ejemplo, el polinomio de grado tres p(λ) = (1 − λ)2 (λ + 2) tiene las ra´ıces distintas λ = 1 (ra´ız de multiplicidad 2) y la ra´ız simple λ = −2.

26

Page (PS/TeX): 53 / 469, COMPOSITE

470 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

As´ı que las ra´ıces de pA (λ) son λ = 2 (ra´ız doble) y λ = −1 (ra´ız simple). 1. Valores propios distintos: λ1 = 2 y λ2 = −1. 2. Los valores propios de λi , i = 1, 2, son las soluciones del sistema homog´eneo (A − λi I3 )v = 0R3 . ⎡ Para λ1 = 2:

0 ⎣ −1 1

⎤ ⎤ ⎡ 1 3 −1 1 0 −2 1 ⎦ ∼ ⎣ −1 −2 1 ⎦ 0 1 0 3 −1 ⎤ ⎡ 1 3 −1 0 ⎦ ∼⎣ 0 1 0 1 0 ⎤ ⎡ 1 3 −1 0 ⎦; ∼⎣ 0 1 0 0 0 ⎡ ⎤ ⎤ ⎡ x1 r ∴ ⎣ x2 ⎦ = ⎣ 0 ⎦ r x3 ⎡ ⎤ 1 = r⎣ 0 ⎦. 1

Luego el conjunto de vectores propios para λ1 = 2 es {(r, 0, r) | r = 0}. ⎡ Para λ2 = −1:

3 ⎣ −1 1

⎤ ⎤ ⎡ 3 1 0 0 1 ⎦∼⎣ 0 4 3 ⎦ 0 8 6 2 ⎤ ⎡ 3 1 0 ∼ ⎣ 0 4 3 ⎦; 0 0 0 ⎡ ⎤ ⎤ ⎡ x1 s ∴ ⎣ x2 ⎦ = ⎣ −3r ⎦ 4r x3 ⎤ ⎡ 1 = r ⎣ −3 ⎦ 4 1 1 3

y el conjunto de vectores propios de λ2 = −1 es {(r, −3r, 4r) | r = 0}. 3. Por lo precedente E2 = gn((1, 0, 1)) y Por tanto

Page (PS/TeX): 54 / 470, COMPOSITE

E−1 = gn((1, −3, 4)).

dim(E2 ) = 1, dim(E−1 ) = 1.



´ 5.3 SECCION

´ Valores y vectores propios, diagonalizacion 471

En el ejemplo precedente pA = −(λ − 1)3 − (5 − 3λ) no tiene una forma adecuada para factorizar y calcular las ra´ıces. Pero si desarrollamos, obtenemos pA (λ) = −λ3 + 3λ2 − 4 y la ecuaci´on caracter´ıstica se puede escribir entonces como λ3 − 3λ2 + 4 = 0. Las ra´ıces se pueden hallar mediante divisi´on sint´etica. Recuerde que en un polinomio que tiene coeficientes enteros y es m´onico (el coeficiente de la mayor potencia es 1) si una ra´ız es entera, entonces debe dividir exactamente al t´ermino independiente, en este caso 4; y que si r es ra´ız del polinomio, entonces el residuo de dividir el polinomio entre λ − r es cero. Para este caso, los divisores de 4 son ±1, ±2, ±4. Al hacer divisi´on sint´etica se obtiene 1

−3 2

0 −2

4 −4

1

−1

−2

0

2 .

Los coeficientes del cociente son los primeros tres n´umeros de la u´ ltima fila y el residuo est´a dado en la u´ ltima columna de esta fila (0); por tanto, λ3 − 3λ2 + 4 = (λ − 2)(λ2 − λ − 2); esto es, λ3 − 3λ2 + 4 = (λ − 2)(λ − 2)(λ + 1) = (λ − 2)2 (λ + 1). Las ra´ıces son entonces λ = 2 (doble o de multiplicidad 2) y λ = 1 (simple o de multiplicidad 1), que son las mismas que encontramos antes.

´ 5.3.2 Diagonalizacion Al inicio de esta secci´on planteamos la posibilidad de encontrar una representaci´on diagonal de un operador lineal T en un espacio de dimensi´on finita n; y en el teorema 5.25 (cfr. p´ag. 458) mostramos que las condiciones necesarias y suficientes para este fin son que existan n escalares reales λ j y n vectores L.I. e j , j = 1, . . . , n, tales que T (e j ) = λ je j ∀ j. Esto es, que T tenga n valores propios λ j con sendos vectores propios correspondientes e j que sean linealmente independientes; es decir, que formen una base del espacio. En tal caso dicha representaci´on diagonal es diag(λ1 , . . . , λn ). Si A es la representaci´on matricial de T relativa a una base B, los valores propios de T y de A son los mismos; por tanto, que T tenga una representaci´on matricial diagonal equivale a que exista una matriz C tal que D = C−1 AC, donde D = diag(λ1 , . . . , λn ); pues las representaciones matriciales del operador T son matrices similares. Entonces el objetivo se limita nuevamente a trabajar con matrices cuadradas y determinar bajo qu´e condiciones se puede llevar a efecto esta “diagonalizaci´on”.

Definici´on 5.22 Sea A ∈ Mn una matriz cuadrada real de orden n. A es diagonalizable si existe un par de matrices C, D ∈ Mn , con D una matriz diagonal y C una matriz invertible, tales que D = C−1 AC. Se dice entonces que el par (C, D) es una diagonalizaci´on para la matriz A.

Page (PS/TeX): 55 / 471, COMPOSITE

472 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

Sea A una matriz diagonalizable de orden n, y (C, D) una diagonalizaci´on para A, con D = diag (λ1 , . . . , λn ). Puesto que A y D son similares tienen los mismos valores propios (cfr. teorema 5.26); de 1, . . . , K  n las columnas de la matriz C; entonces, ah´ı que los valores propios de A son27 λ1 , . . . , λn . Sean K puesto que AC = CD, se tiene, de (1.2), p´agina 11,  2 · · · AK  n ] = [λ1 K  1 AK  1 λ2 K  2 · · · λn K  n ]; [AK  i es un vector propio de la matriz A correspondiente al valor propio  i y por ende K  i = λi K por lo que AK λi para cada i = 1, . . . , n. De esto y del teorema 5.25, con T = TA , se demuestra el siguiente teorema. Teorema 5.32 Sea A una matriz cuadrada de orden n. Entonces A es diagonalizable si y s´olo si A tiene n valores propios λ j ∈ R con vectores propios correspondientes u j , de sendos valores propios, linealmente independientes; es decir, los vectores propios u1 , . . . ,un forman una base de Rn . En tal caso una diagonalizaci´on para A est´a dada por el par (C, D); donde C es la matriz cuyas columnas son los vectores u j , j = 1, 2, . . . , n, y D = diag(λ1 , λ2 , . . . , λn ). Necesitaremos del siguiente lema para tener una consecuencia inmediata del teorema anterior y poder probar el principal resultado de esta secci´on (el teorema 5.33).

Lema 5.2 1. Sean T un operador lineal definido en un espacio vectorial y λ1 , . . . , λk valores propios de T distintos entre s´ı. Supongamos que {u11 , . . . ,u1m1 } es un conjunto de vectores propios L.I correspondientes a λ1 , {u21 , . . . , u2m2 es un conjunto de vectores propios L.I. correspondientes a λ2 , etc., y {uk1 , . . . ,ukmk } es un conjunto de vectores propios L.I. correspondientes a λk . Entonces los vectores u11 , . . . ,u1m1 ,u21 , . . . ,u2m2 , . . . ,uk1 , . . . ,ukmk

(5.23)

son linealmente independientes. 2. Sean A una matriz cuadrada de orden n y λ1 , . . . , λk valores propios de A distintos entre s´ı. Sean {u j1 , . . . ,u jm j } conjuntos L.I. de vectores propios correspondientes a λ j para cada j = 1, . . . , k. Entonces los vectores u11 , . . . ,u1m1 ,u21 , . . . ,u2m2 , . . . ,uk1 , . . . ,ukmk son linealmente independientes.

´ DEMOSTRACION

Q 1. Procedamos por inducci´on sobre k. Si k = 1, por hip´otesis {u11 , . . . ,u1m1 } es L.I. Sea k un entero mayor a 1 y supongamos que el resultado es cierto para todo conjunto de k − 1 valores propios de T distintos entre s´ı. Si uno de los vectores en (5.23) es combinaci´on lineal de los dem´as, digamos ukmk (de ser necesario podemos renombrar estos vectores y los valores propios para que esto suceda as´ı), entonces existen escalares α11 , . . . , α1m1 , α21 , . . . , α2m2 , . . . , αk1 , . . . , αkmk −1 1Es evidente que los valores propios de una matriz diagonal D = diag(λ1 , . . . , λn ) son los elementos λi de su diagonal.

27

Page (PS/TeX): 56 / 472, COMPOSITE

´ 5.3 SECCION

´ Valores y vectores propios, diagonalizacion 473

tales que m1

m2

mk −1

i=1

i=1

i=1

ukmk = ∑ α1iu1i + ∑ α2iu2i + · · · +



αkiuki

(5.24)

Por tanto m1

m2

mk −1

i=1

i=1

i=1

m1

m2

mk −1

i=1

i=1

i=1

m1

m2

mk −1

i=1

i=1

i=1

T (ukmk ) = ∑ α1i T (u1i ) + ∑ α2i T (u2i ) + · · · +



αki T (uki )

y entonces λkukmk = ∑ α1i λ1u1i + ∑ α2i λ2u2i + · · · +



αki λkuki

(5.25)

αki λkuki

(5.26)

Pero, por (5.24), λkukmk = ∑ α1i λku1i + ∑ α2i λku2i + · · · +



De (5.25) y (5.26) se desprende m1

mk−1

i=1

i=1

∑ α1i (λ1 − λk )u1i + · · · +

∑ α(k−1)i (λk−1 − λk )u(k−1)i = 0E

(5.27)

Por hip´otesis de inducci´on, ya que los λ j , j = 1, . . . , k − 1, son distintos entre s´ı, se tiene que los vectores u11 , . . . ,u1m1 ,u21 , . . . ,u2m2 , . . . ,u(k−1)1 , . . . ,u(k−1)mk−1 son L.I.; as´ı que (5.27) implica α11 (λ1 − λk ) α21 (λ2 − λk )

= ··· = = ··· = .. .

α1m1 (λ1 − λk ) α2m2 (λ2 − λk )

= 0 = 0

α(k−1)1 (λk−1 − λk ) = · · · = α(k−1)mk−1 (λk−1 − λk ) = 0 y puesto que λ j − λk = 0 para todo j = 1, 2, . . . , k − 1, se concluye que α11 α21

= ··· = = ··· =

α1m1 α2m2 .. .

= 0 = 0

α(k−1)1 = · · · = α(k−1)mk−1 = 0. Al sustituir estos αi j en (5.24) obtenemos ukmk =

mk −1



αkiuki

i=1

que es imposible, pues por hip´otesis los vectores uk1 , . . . ,u1mk son L.I. Luego, los vectores en (5.23) tienen que ser independientes. 2. Es consecuencia inmediata del inciso anterior al tomar T = TA .

Page (PS/TeX): 57 / 473, COMPOSITE

Q

474 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

Corolario 5.2 Si A es una matriz cuadrada de orden n que tiene n valores propios λ1 , . . . , λn distintos entre s´ı, entonces A es diagonalizable y una diagonalizaci´on para A es el par (C, D); donde C es la matriz cuya columna j, j = 1, . . . , n, es un vector propio u j correspondiente al valor propio λ j y D = diag(λ1 , . . . , λn ).

´ DEMOSTRACION

Q Por el lema 5.2 los vectores propios u j , j = 1, . . . , n, son L.I. y por ende {u1 , . . . ,un } es una base de Rn ; y la conclusi´on es entonces consecuencia inmediata del teorema 5.32. Q   Ejemplo 5.49 Sea A =

1 2 2 1

 . Entonces   1−λ 2 pA (λ) =  2 1−λ

   

= (1 − λ)2 − 4 = λ2 − 2λ − 3 = (λ − 3)(λ + 1); as´ı que los valores propios de A son λ1 = 3 y λ2 = −1, n = 2 valores propios distintos. Por el corolario 5.2, A es diagonalizable. Para hallar una diagonalizaci´on necesitamos calcular vectores propios.  Para λ1 :

1 − λ1 2

2 1 − λ1





1−3 2 2 1−3   −2 2 = 2 −2   1 −1 ∼ 0 0



=

y por tanto los vectores propios correspondientes tienen la forma   1 r , r = 0. 1     1 − (−1) 2 2 1 − λ2 = Para λ2 : 2 1 − (−1) 2 1 − λ2   2 2 = 2 2   1 1 ∼ 0 0 y entonces los vectores propios correspondientes tienen la forma   1 r , r = 0. −1 As´ı,

 C=

es una diagonalizaci´on para A.

Page (PS/TeX): 58 / 474, COMPOSITE

1 1 1 −1



 ,D=

3 0

0 −1



´ 5.3 SECCION

Comprobaci´on:

 

 AC =  =



3 −1 3 1

= y



1 1 1 −1

CD =

1 2 2 1

´ Valores y vectores propios, diagonalizacion 475



3 −1 3 1



3 0

1 1

0 −1

1 −1





Por tanto AC = CD que equivale a D = C−1 AC. El corolario 5.2 u´ nicamente establece condiciones suficientes para que una matriz sea diagonalizable; es decir, puede ser que una matriz sea diagonalizable aunque su polinomio caracter´ıstico tenga ra´ıces m´ultiples (cfr. ejemplo 5.50). De hecho, vamos a establecer condiciones necesarias y suficientes para que una matriz sea diagonalizable (teorema 5.33) que cubrir´an todos esos casos. Antes de ello necesitamos un poco m´as de terminolog´ıa. Definici´on 5.23 1. Sean E un espacio vectorial de dimensi´on finita n, T un operador lineal en E y λ un valor propio de T . (a) A la multiplicidad de λ como ra´ız del polinomio caracter´ıstico de T se le llama la multiplicidad algebraica de este valor propio y la denotaremos, en este libro, por μa (λ). (b) A la dimensi´on del espacio propio Eλ se le dice multiplicidad geom´etrica de λ y la representaremos, en este texto, mediante el s´ımbolo μg (λ). 2. Sea A una matriz de orden n y λ un valor propio de A. (a) Se llama multiplicidad algebraica de λ a la multiplicidad de este valor propio como ra´ız del polinomio caracter´ıstico de la matriz A y se le representa por el s´ımbolo μa (λ). (b) Se define la multiplicidad geom´etrica de λ como la dimensi´on del espacio propio Eλ ; esto es, μg (λ) = dim(Eλ ). P Nota 5.11 1. Sabemos, del teorema 5.12, que si u1 , . . . ,uk son vectores de un espacio vectorial E de dimensi´on finita n, B es una base de este espacio y [ui ]B , i = 1, . . . , k, son los respectivos vectores de coordenadas relativos a dicha base, entonces los vectores ui son L.I. en E si y s´olo si los vectores [ui ]B son L.I. en Rn . De esto se desprende que la multiplicidad geom´etrica de un valor propio λ de un operador lineal T : E → E es la misma que la multiplicidad geom´etrica de este valor propio para cualquier representaci´on matricial de T . 2. Si A es una matriz cuadrada, es evidente que los conceptos de multiplicidad algebraica y geom´etrica son exactamente los mismos que los correspondientes conceptos para el operador TA .

Page (PS/TeX): 59 / 475, COMPOSITE

476 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

Un resultado preliminar para lograr el objetivo final de dar condiciones necesarias y suficientes para la diagonalizaci´on de una matriz est´a contenido en el lema 5.3. Lema 5.3 . 1. Sean T un operador lineal en un espacio vectorial de dimensi´on n y λ0 un valor propio de este operador, entonces μg (λ0 ) ≤ μa (λ0 ).

(5.28)

2. Sea A una matriz de orden n. Entonces, para cada valor propio λ0 de A se tiene (5.28).

´ DEMOSTRACION

Q 1. Sean m = μg (λ0 ) y B = {e1 , . . . ,em } una base del subespacio propio Eλ0 . Completemos B a una base {e1 , . . . ,em ,em+1 , . . . ,en } de E mediante el procedimiento dado en la p´agina 167. Entonces T (ei ) = λ0ei

∀i = 1, . . . , m.

De aqu´ı se sigue que la representaci´on matricial de T relativa a esta base tiene la forma   D B1 , [T ]B = O B2 donde D = diag(λ0 , . . . , λ0 ), B1 y B2 son matrices de tama˜nos m × (n − m) y (n − m) × (n − m),  m

respectivamente y O es la matriz cero de tama˜no (n − m) × m. Entonces     D − λIm B1 . pT (λ) =  O B2 − λIn−m  Es f´acil mostrar que   D − λIm   O

  B1  = det(D − λIm ) det(B2 − λIn−m ); B2 − λIn−m 

por tanto, pT (λ) = (λ0 − λ)m det(B2 − λIn−m ). De aqu´ı que λ0 es ra´ız del polinomio caracter´ıstico de multiplicidad al menos m; esto es, μg (λ0 ) ≤ μa (λ0 ). 2. Es inmediata al aplicar el primer inciso a T = TA .

Q

Supongamos ahora que A es una matriz cuadrada de orden n con n valores propios tal que para cada uno de e´ stos la multiplicidad algebraica coincide con la multiplicidad geom´etrica. Esto es, si A tiene k valores propios distintos entre s´ı, λ1 , . . . , λk , entonces μg (λi ) = μa (λi ) = mi , para cada i = 1, . . . , k. Sean entonces u1j , . . . ,umj j vectores propios L.I. correspondientes al valor propio λ j , para cada j = 1, . . . , k. En virtud del lema 5.2 inciso 2, ya que los valores propios λ1 , . . . , λk son distintos entre s´ı, el conjunto {u11 , . . . ,u1m1 ,u21 , . . . ,u2m2 , . . . ,uk1 , . . . ,ukmk }

Page (PS/TeX): 60 / 476, COMPOSITE

´ 5.3 SECCION

´ Valores y vectores propios, diagonalizacion 477

es linealmente independiente. Finalmente, ya que m1 + m 2 + · · · + m k = n (pues la suma de las multiplicidades de las ra´ıces distintas de un polinomio es igual al grado del mismo), del teorema 5.32, se concluye que A es diagonalizable con diagonalizaci´on la matriz C que tiene por columnas a los vectores u11 , . . . ,u1m1 ,u21 , . . . ,u2m2 , . . . ,uk1 , . . . ,ukmk y D = diag(λ1 , . . . , λ1 , λ2 , . . . , λ2 , . . . , λk , . . . , λk ).    m1

m2

mk

Inversamente, supongamos que la matriz es diagonalizable. Sea (C, D) una diagonalizaci´on para esta matriz con D = diag(β1 , β2 , . . . , βn ). Entonces, si λ1 , λ2 , . . . , λk , son los valores distintos entre s´ı de la diagonal de D, se tiene pA (λ) = (λ1 − λ)m1 (λ2 − λ)m2 · · · (λk − λ)mk ; donde mi = μa (λi ) para cada i = 1, . . . , k. De aqu´ı, ya que las columnas de C son vectores L.I. por ser e´ sta una matriz invertible, existen por lo menos mi vectores L.I. en Eλi para cada i = 1, . . . , k; pues, para  j de C, AK  j = β jK  j (cfr. la discusi´on que sigue de la definici´on 5.22); lo cual prueba que cada columna K

μa (λi ) ≤ μg (λi )

para cada i = 1, . . . , k.

(5.29)

De (5.28) del lema 5.3 y (5.29) se desprende μa (λi ) = μg (λi ) para cada valor propio de A. Hemos probado as´ı el resultado que da condiciones necesarias y suficientes para que una matriz sea diagonalizable y que hacemos patente en el teorema 5.33.

Condiciones necesarias y suficientes para que una matriz sea diagonalizable Teorema 5.33 Sea A una matriz cuadrada de orden n que tiene n valores propios. Entonces A es diagonalizable si y s´olo si para cada valor propio de A la multiplicidad algebraica coincide con la multiplicidad geom´etrica; esto es, μa (λ) = μg (λ) para cada valor propio λ de A. En este caso, si λ1 , . . . , λk son los valores propios de A distintos entre s´ı con sendas multiplicidades algebraicas μa (λ j ) = m j , j = 1, . . . , k, y u1j , . . . ,umj j son vectores L.I. correspondientes a cada valor propio λ j , entonces una diagonalizaci´on para A es el par (C, D), donde C es la matriz que tiene por columnas a los vectores u11 , . . . ,u1m1 ,u21 , . . . ,u2m2 , . . . ,uk1 , . . . ,ukmk y D = diag(λ1 , . . . , λ1 , λ2 , . . . , λ2 , . . . , λk , . . . , λk ).    m1

Page (PS/TeX): 61 / 477, COMPOSITE

m2

mk

478 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

 Ejemplo 5.50 Determinar si la matriz ⎡

1 A=⎣ 0 0

⎤ −3 3 −5 6 ⎦ −3 4

es diagonalizable y encontrar, en su caso, una diagonalizaci´on para ella.   1−λ  pA (λ) =  0  0

´ Solucion

−3 −5 − λ −3

  −5 − λ = (1 − λ)  −3

       6  4−λ  3 6 4−λ

= (1 − λ)(−(5 − λ)(4 − λ) + 18) = (1 − λ)(λ2 + λ − 2) = (1 − λ)(λ + 2)(λ − 1) = −(1 − λ)2 (λ + 2). As´ı que los vectores propios de A, distintos entre s´ı, son λ1 = 1 y λ2 = −2; con multiplicidades algebraicas μa (λ1 ) = 2 y μa (λ2 ) = 1. Para λ1 = 1: ⎡

0 (A − λ1 I3 ) = ⎣ 0 0

−3 −6 −3

⎤ ⎤ ⎡ ⎤ ⎡ 0 −1 1 0 −3 3 3 0 0 ⎦; 0 0 ⎦∼⎣ 0 6 ⎦∼⎣ 0 0 0 0 0 0 0 3

luego ⎡

⎡ ⎤ ⎡ ⎤ ⎤ ⎡ ⎤ x1 0 1 s ⎣ x2 ⎦ = ⎣ r ⎦ = s ⎣ 0 ⎦ + r ⎣ 1 ⎦ . 1 0 r x3 Por tanto, μg (λ1 ) = dim(E1 ) = 2. Para λ2 = −2: ⎡

3 (A + 2I3 ) = ⎣ 0 0

⎤ ⎡ 1 −3 3 −3 6 ⎦ ∼ ⎣ 0 0 −3 6

⎤ ⎡ 1 −1 1 1 −2 ⎦ ∼ ⎣ 0 0 −3 6

luego ⎡

⎤ ⎤ ⎡ ⎤ ⎡ x1 1 r ⎣ x2 ⎦ = ⎣ 2r ⎦ = r ⎣ 2 ⎦ . 1 r x3 Por tanto, μg (λ2 ) = dim(E−2 ) = 1.

Page (PS/TeX): 62 / 478, COMPOSITE

⎤ −1 1 1 −2 ⎦ ; 0 0

´ 5.3 SECCION

´ Valores y vectores propios, diagonalizacion 479

Puesto que μa (λ1 ) = μg (λ1 ) y μa (λ2 ) = μg (λ2 ), A es diagonalizable y una diagonalizaci´on para A es el par (C, D), donde ⎤ ⎤ ⎡ ⎡ 1 0 0 1 0 1 0 ⎦ C=⎣ 0 1 2 ⎦ yD=⎣ 0 1 0 0 −2 0 1 1 de acuerdo con el teorema 5.33. El lector puede comprobar, verificando la igualdad de los productos28 AC y CD, que efectivamente D = C−1 AC.  ⎤ 2 1 0  Ejemplo 5.51 Sea A = ⎣ −1 0 1 ⎦. En el ejemplo 5.48 (cfr. p´ag. 469) vimos que los valores 1 3 1 propios de A son λ1 = 2 y λ2 = −1 con multiplicidades algebraicas μa (λ1 ) = 2 y μa (λ2 ) = 1; y que dim(E2 ) = 1 y dim(E−1 ) = 1. Luego μa (λ1 ) = μg (λ1 ); por tanto, A no es diagonalizable. ⎡

 Ejemplo 5.52 Sea



1 ⎢ 0 A=⎢ ⎣ 3 3

3 −2 3 3

⎤ 0 0 0 0 ⎥ ⎥. 1 −3 ⎦ 0 −2

Determinar si A es diagonalizable y, en caso afirmativo, encontrar una diagonalizaci´on para esta matriz.

´ Solucion

            −2 − λ 0 0   3 1−λ −3  = (1 − λ)   3 0 −2 − λ     1−λ −3   = (1 − λ)(−2 − λ)  0 −2 − λ 

  1−λ   0 pA (λ) =   3  3

3 −2 − λ 3 3

0 0 1−λ 0

0 0 −3 −2 − λ

= (1 − λ)(−2 − λ)(1 − λ)(−2 − λ) = (1 − λ)2 (2 + λ)2 , por lo que los valores propios distintos de A son λ1 = −2 y λ2 = 1, con multiplicidades algebraicas μa (λ1 ) = 2 y μa (λ2 ) = 2. Resolvamos los sistemas (A − λi I4 )u = 0Rn para i = 1, 2. Para λ1 = −2:



3 ⎢ 0 A − (−2)I4 = ⎢ ⎣ 3 3 ⎡ 1 ⎢ 0 ∼⎢ ⎣ 0 0

3 0 3 3 1 0 0 0

⎤ ⎤ ⎡ 1 1 1 −1 0 0 ⎢ 0 ⎥ 0 0 ⎥ ⎥ ⎥∼⎢ 1 1 0 ⎣ ⎦ 1 1 0 0 ⎦ 3 −3 0 0 0 0 0 0 ⎤ ⎡ 1 1 1 −1 1 −1 ⎢ 0 0 −1 1 −1 1 ⎥ ⎥∼⎢ 0 0 −1 1 ⎦ ⎣ 0 0 0 0 0 0 0 0

1Observe que se comprueba la igualdad de los productos AC y CD para evitar el c´alculo de C−1 .

28

Page (PS/TeX): 63 / 479, COMPOSITE

⎤ ⎥ ⎥, ⎦

480 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

por lo que x4 = x3 , x1 = −x2 − x3 + x4 = −x2 ; esto es, la soluci´on del sistema homog´eneo es ⎡ ⎤ ⎡ ⎤ ⎤ ⎡ 0 −1 −s x1 ⎢ 0 ⎢ 1 ⎥ ⎢ x2 ⎥ ⎢ s ⎥ ⎢ ⎥ ⎢ ⎥ ⎥ ⎢ ⎢ ⎣ x3 ⎦ = ⎣ r ⎦ = s ⎣ 0 ⎦ + r ⎣ 1 1 0 r x4 ⎡

⎤ ⎥ ⎥ ⎦

y entonces dim(E−2 ) = 2. Para λ2 = 1:



0 ⎢ 0 A − I4 = ⎢ ⎣ 3 3 ⎡ 1 ⎢ 1 ∼⎢ ⎣ 0 0 ⎡ 1 ⎢ 0 ∼⎢ ⎣ 0 0 ⎡ 1 ⎢ 0 ∼⎢ ⎣ 0 0

⎤ 3 0 0 −3 0 0 ⎥ ⎥ 3 0 −3 ⎦ 3 0 −3 ⎤ 1 0 −1 1 0 −1 ⎥ ⎥ 1 0 0 ⎦ −1 0 0 ⎤ 1 0 −1 0 0 0 ⎥ ⎥ 1 0 0 ⎦ −1 0 0 ⎤ 1 0 −1 1 0 0 ⎥ ⎥, 0 0 0 ⎦ 0 0 0

de donde x2 = 0, x1 = x4 ; por tanto, la soluci´on del sistema homog´eneo es ⎤ ⎡ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ 0 1 r x1 ⎢ 0 ⎥ ⎢ 0 ⎥ ⎢ x2 ⎥ ⎢ 0 ⎥ ⎥ ⎢ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎣ x3 ⎦ = ⎣ s ⎦ = r ⎣ 0 ⎦ + s ⎣ 1 ⎦ , 0 1 r x4 as´ı que dim(E1 ) = 2. Puesto que μa (λ1 ) = 2 = μg (λ1 ) y μa (λ2 ) = 2 = μa (λ2 ), A es diagonalizable y una diagonalizaci´on para esta matriz est´a dada por ⎤ ⎤ ⎡ ⎡ −2 0 0 0 −1 0 1 0 ⎢ 0 −2 0 0 ⎥ ⎢ 1 0 0 0 ⎥ ⎥. ⎥ ⎢ C=⎢ ⎣ 0 1 0 1 ⎦ y D=⎣ 0 0 1 0 ⎦ 0 0 0 1 0 1 1 0 Comprobaci´on:



1 3 0 0 ⎢ 0 −2 0 0 AC = ⎢ ⎣ 3 3 1 −3 3 3 0 −2 ⎡ 2 0 1 0 ⎢ −2 0 0 0 =⎢ ⎣ 0 −2 0 1 0 −2 1 0

Page (PS/TeX): 64 / 480, COMPOSITE

⎤⎡

−1 ⎥⎢ 1 ⎥⎢ ⎦⎣ 0 0 ⎤ ⎥ ⎥ ⎦

0 0 1 1

1 0 0 1

⎤ 0 0 ⎥ ⎥ 1 ⎦ 0

´ 5.3 SECCION

´ Valores y vectores propios, diagonalizacion 481

y ⎡

−1 ⎢ 1 CD = ⎢ ⎣ 0 0 ⎡ 2 ⎢ −2 =⎢ ⎣ 0 0

0 0 1 1

1 0 0 1

0 0 −2 −2

⎤⎡ −2 0 0 ⎢ 0 −2 0 ⎥ ⎥⎢ 0 1 ⎦⎣ 0 0 0 0 ⎤ 1 0 0 0 ⎥ ⎥.  0 1 ⎦ 1 0

⎤ 0 0 0 0 ⎥ ⎥ 1 0 ⎦ 0 1

Propiedades de matrices diagonalizables Sea A una matriz cuadrada de orden n que es diagonalizable, con diagonalizaci´on (C, D) y D = diag (λ1 , . . . , λn ). Entonces D = C−1 AC, de donde det(A) = det(D) = λ1 · · · λn ; esto es, el determinante de A es el producto de los valores propios de A. Por otro lado, D2 = (C−1 AC)(C−1 AC) = C−1 A2C, de donde se infiere, lo cual se puede probar por inducci´on, que Dm = C−1 AmC m para todo entero positivo m; y puesto que Dm = diag(λm 1 , . . . , λn ), se tiene m −1 Am = C diag(λm 1 , . . . , λn )C .

Resumimos la informaci´on precedente en el siguiente teorema.

Teorema 5.34 Si A es una matriz cuadrada de orden n que es diagonalizable con diagonalizaci´on (C, D), D = diag(λ1 , . . . , λn ), entonces λ1 , . . . , λn son los valores propios de A y 1. det(A) = λ1 · · · λn .

(5.30)

2. Para todo entero positivo m, m −1 Am = C diag(λm 1 , . . . , λn )C .

P Nota 5.12 En realidad mostraremos, en el siguiente apartado, que la igualdad (5.30) es v´alida para toda matriz A aunque ella nos sea diagonalizable (cfr. teorema 5.36, p´ag. 486); esto es, que el determinante de toda matriz cuadrada es el producto de los valores propios de la misma.

Page (PS/TeX): 65 / 481, COMPOSITE

482 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

´ sobre C 5.3.3 Valores propios complejos y diagonalizacion Valores propios complejos, propiedades Sabemos de educaci´on elemental que las ra´ıces de un polinomio no siempre son todas ellas n´umeros reales; de hecho, aun en casos muy simples, se obtienen ra´ıces complejas. El campo C de n´umeros complejos contiene, algebraicamente, al campo R de los n´umeros reales mediante la inclusi´on a → a + 0i. Es entonces evidente que las matrices con entradas reales, Mm×n , pueden incluirse algebraicamente en el conjunto de matrices con entradas complejas, Mm×n (C), mediante la identificaci´on antes mencionada de los n´umeros reales a con los n´umeros complejos de la forma a+0i. De esta manera podemos extender los conceptos de valores y vectores propios a este tipo de matrices para considerar los casos en los que el polinomio caracter´ıstico tenga ra´ıces complejas. Lejos de ser una simple generalizaci´on esta idea resulta sumamente u´ til tanto en aspectos te´oricos como en aplicaciones y su uso, a estas alturas, es inevitable.29 Definici´on 5.24 (Valores propios complejos de una matriz) Sea A una matriz cuadrada de orden n con entradas complejas, i.e., A ∈ Mn (C). Se dice que λ ∈ C es un valor propio de A si existe un vector u ∈ Cn , u = (0, 0, . . . , 0), tal que Au = λu. En este caso, a u se le llama vector propio de A  correspondiente a λ.

n

Todo lo que hemos desarrollado, relativo a valores y vectores propios de matrices cuadradas con componentes reales, sigue siendo v´alido para matrices cuadradas con entradas complejas simplemente considerando la definici´on 5.24 en lugar del caso particular de e´ sta contenido en la definici´on 5.19.   Ejemplo 5.53 Sea A =

1 −1 1 2

 . Encontrar los valores y vectores propios correspondientes de la

matriz A.   1−λ det(A − λI2 ) =  1

 −1  2−λ 

= (1 − λ)(2 − λ) + 1 = 2 − 3λ + λ2 + 1 = λ2 − 3λ + 3. Las ra´ıces del polinomio caracter´ıstico son entonces √ 3 ± 9 − 12 λ = 2 √ −3 3 = ± 2 2 √ 3i2 3 = ± 2 2 √ 3 3 i. = ± 2 2 1El lector que hasta aqu´ı ha omitido las subsecciones 1.1.5, 1.2.8, 2.1.5, 2.2.5, 3.5 y la secci´on B.1 del ap´endice B, e´ ste es el momento para invertir un poco de tiempo en su estudio; el esfuerzo no ser´a demasiado y bien valdr´a la pena.

29

Page (PS/TeX): 66 / 482, COMPOSITE

´ 5.3 SECCION

As´ı, los valores propios de A son λ1 = 32 + (A − λ j I2 )u = 0C = [ 0 0 ]t : • Para λ1 = 32 +

√ 3 2 i

´ Valores y vectores propios, diagonalizacion 483

y λ2 = 32 −



3 2 i.

Resolvamos los sistemas homog´eneos



3 2 i:



1 − 32 − 1

√ 3 2 i



−1 √ 3 2 − 2 − 23 i



− 12 − 1

=  

3 2 i

1√ − 12 − 23 i

∼ ∼



1 2

1 0



− 23 i 0

−1√ 3 1 2− 2 i 1 2





− 23 i −1

 

y por tanto, 

x y



  √   − 12 + 23 i r = r √   3 1 − + 2 2 i =r . 1

Luego, los vectores propios correspondientes a λ1 son todos los vectores en C2 de la forma   √ r − 12 + 23 i, 1 con r cualquier n´umero complejo distinto de cero. • Para λ2 = 32 −



3 2 i:



1 − 32 + 1

√ 3 2 i



−1 √ 2 − 32 + 23 i



− 12 + 1

= 



3 2 i

1√ 1 − 2 + 23 i

∼ 



1 2

1 0



+ 23 i 0

−1√ 3 1 + 2 2 i 1 2





+ 23 i −1

 

por lo que 

x y



 =







1 2

=s

1 2

+ r







+ 23 i −1

3 2 i

r



 .

  √ Entonces los vectores propios correspondientes a λ2 tienen la forma s 12 + 23 i, −1 con s ∈ C − {0}.    1 √3   3 √3  −2 + 2 i −2 + 2 i 1 −1 = y Comprobaci´on: Para λ1 , √ 1 2 3 3 1 2+ 2 i 

Page (PS/TeX): 67 / 483, COMPOSITE

3 2

+

√  3 2 i



− 12 + 1



3 2 i



 =



− 32 +√ 23 i 3 3 2+ 2 i

 .

484 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

 Para λ2 ,

1 1

−1 2



1 2

+

√ 3 2 i

−1 

3 2







i  Ejemplo 5.54 Sea A = ⎣ 0 0



√ 3 2 i = √ −3 + 3i  2 √2 3 1 √  3 2+ 2 i i 2 3 2

+

−1

 y 

 =

√ 3 2 i √ − 32 + 23 i 3 2

+

 .



⎤ −i i 1 1 ⎦. Encontrar: −1 1

1. Los valores propios de A. 2. Los vectores propios correspondientes a cada valor propio. 3. Los espacios propios y sus respectivas dimensiones. ´ Solucion

1. Valores propios:   i−λ   0   0

−i 1−λ −1

i 1 1−λ

    = (i − λ)((1 − λ)(1 − λ) + 1)   = (i − λ)(λ2 − 2λ + 2).

Por tanto,

λ=i y √ 2± 4−8 λ= √2 2 ± 4i2 = 2 = 1 ± i.

As´ı que los valores propios son λ1 = i, λ2 = 1 + i y λ3 = 1 − i. 2. Vectores propios. Para encontrar los vectores propios se tienen que encontrar las soluciones no triviales de los sistemas homog´eneos (A − λ j I3 )u = 0C3 , para j = 1, 2, 3. λ1 = i: ⎡

0 −i ⎣ 0 1−i 0 −1

y por tanto

Page (PS/TeX): 68 / 484, COMPOSITE

⎤ ⎤ ⎡ 0 1 −1 + i i ⎦ 1 1 ⎦ ∼ ⎣ 0 1−i 0 −i i 1−i ⎤ ⎡ 0 1 −1 + i ∼ ⎣ 0 0 −2 − 2i ⎦ 0 0 −1 − i ⎤ ⎡ 0 1 −1 + i ∼ ⎣ 0 0 1+i ⎦; 0 0 0

⎤ ⎡ ⎤ ⎤ ⎡ 1 r x ⎣ y ⎦ = ⎣ 0 ⎦ = r⎣ 0 ⎦. 0 0 z ⎡

´ 5.3 SECCION

´ Valores y vectores propios, diagonalizacion 485

As´ı que los vectores propios correspondientes a λ1 tienen la forma (r, 0, 0) con r ∈ C − {0}. λ2 = 1 + i: ⎡

−1 −i ⎣ 0 −i 0 −1

⎤ ⎤ ⎡ −1 −i i i −i 1 ⎦ 1 ⎦∼⎣ 0 0 −1 −i −i ⎤ ⎡ −1 −i i ∼ ⎣ 0 −i 1 ⎦ ; 0 0 0

por ende ⎤ ⎤ ⎡ ⎤ ⎡ (−1 + i) (−1 + i)r x ⎦. ⎦ = r⎣ ⎣ y ⎦=⎣ −i −ir 1 r z ⎡

Luego, los vectores propios correspondientes a λ2 tienen la forma r(−1 + i, −i, 1), con r ∈ C y r = 0. λ3 = 1 − i: ⎡

−1 + 2i ⎣ 0 0

⎤ ⎡ −1 + 2i −i i 0 i 1 ⎦∼⎣ 0 −1 i

−i i 0

⎤ i 1 ⎦, 0

por lo que ⎤ ⎤ ⎡ ⎤ ⎡ (−1 + 3i) (−1 + 3i)r x ⎦. ⎦ = r⎣ ⎣ y ⎦=⎣ 5i 5ir 5 5r z ⎡

Entonces los vectores propios correspondientes a λ3 tienen la forma r(−1 + 3i, 5i, 5) con r ∈ C, r = 0. 3. Por lo precedente, Ei = gn((1, 0, 0)), E1+i = gn((−1 + i, −i, 1)), E1−i = gn((−1 + 3i, 5i, 5)); y por ende, dim(Ei ) = 1, dim(E1+i ) = 1, dim(E1−i ) = 1.



Dado que un polinomio de grado n con coeficientes reales y/o complejos tiene n ra´ıces complejas (recuerde que un n´umero real se puede considerar como un n´umero complejo), contando multiplicidades, se tiene la validez del siguiente teorema.

Page (PS/TeX): 69 / 485, COMPOSITE

486 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

Teorema 5.35 Sea A una matriz cuadrada de orden n (con componentes reales y/o complejas). Entonces A tiene exactamente n valores propios reales y/o complejos (contando multiplicidades, es decir ra´ıces m´ultiples o repetidas del polinomio caracter´ıstico).  Ejemplo 5.55   1 0 1. Sea A = . Entonces 1 1 pA (λ) = det(A − λI2 )   1−λ 0 =  1 1−λ

   

= (1 − λ)(1 − λ) = 1 − λ2 . Entonces los valores propios de A son λ1 = λ2 = 1, ra´ıces repetidas (λ = 1 es ra´ız doble o de multiplicidad 2) del polinomio caracter´ıstico. 2. Sea ⎡

3 ⎢ −1 A=⎢ ⎣ −4 0

0 3 5 6

⎤ 0 0 0 0 ⎥ ⎥. i 0 ⎦ −7 i

Entonces det(A − λI4 ) = (3 − λ)2 (i − λ)2 . Luego, los valores propios de A son λ1 = 3, λ2 = 3, λ3 = i y λ4 = i. λ = 3 con multiplicidad 2 y λ = i con multiplicidad 2.

Propiedades de los valores propios Los valores propios tienen propiedades algebraicas directamente relacionadas con la matriz de la cual provienen. Teorema 5.36 Sea A una matriz cuadrada de orden n (con entradas reales y/o complejas) y sean λ1 , λ2 , . . . , λn los valores propios de A (reales y/o complejos); es decir, las ra´ıces del polinomio caracter´ıstico consideradas con distintos sub´ındices aun si algunas coinciden; es decir, si son ra´ıces m´ultiples del polinomio caracter´ıstico. Sea30 pA (λ) = (−1)n λn + cn−1 λn−1 + · · · + c1 λ + c0 este polinomio. Entonces 1.

c0 = det(A) = λ1 λ2 · · · λn .

2.

tra(A) = λ1 + λ2 + · · · + λn .

1Cfr. teorema 5.29, p´agina 467.

30

Page (PS/TeX): 70 / 486, COMPOSITE

´ 5.3 SECCION

´ DEMOSTRACION

´ Valores y vectores propios, diagonalizacion 487

Q 1. Dado que λ j , j = 1, . . . , n, son las ra´ıces del polinomio caracter´ıstico, se tiene pA (λ) = (−1)n (λ − λ1 )(λ − λ2 ) · · · (λ − λn ) =

(5.31)

(λ1 − λ)(λ2 − λ) · · · (λn − λ),

y ya que pA (λ) = det(A − λIn ), se sigue que c0 = det(A) = pA (0) = λ1 λ2 · · · λn . 2. Del teorema 5.29 sabemos que cn−1 = (−1)n−1 tra(A). Entonces pA (λ) = (−1)n λn + (−1)n−1 tra(A)λn−1 + cn−2 λn−2 + · · · + c1 λ + c0 . Al desarrollar el lado derecho de (5.31) y comparar con la precedente igualdad se obtiene (−1)n−1 tra(A) = (−1)n−1 (λ1 + λ2 + · · · + λn ) ; de donde tra(A) = λ1 + λ2 + · · · + λn .  Ejemplo 5.56 Sea

 A=

−1 2

1 1

Q

 ,

la matriz del ejemplo 5.53. Ah´ı vimos que los valores propios de A son λ1 = 32 + Entonces, de acuerdo con el teorema 5.36,  √  √  det(A) = λ1 λ2 = 32 + 23 i 32 − 23 i 9 3 + 4 4 =3

=

y tra(A) = λ1 + λ2 = 32 +



3 3 2 i+ 2



√ 3 2

= 3. Comprobaci´on:

  1 det(A) =  1

 −1  = 2 + 1 = 3, 2 

tra(A) = a11 + a22 = 1 + 2 = 3.

Page (PS/TeX): 71 / 487, COMPOSITE

√ 3 2 i

y λ2 = 32 −

√ 3 2 i.

488 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

P Nota 5.13 1. Observe que si una matriz tiene componentes reales, su determinante y su traza son tambi´en n´umeros reales no importando si los valores propios son o no n´umeros complejos; sin embargo, el determinante es el producto de los valores propios y la traza es la suma de e´ stos. Entonces, aunque los valores propios de una matriz con componentes reales sean n´umeros complejos, su producto y suma son n´umeros reales como se ilustr´o en el ejemplo 5.56. ¡Sorprendente!, ¿verdad? En realidad no tanto, es un hecho conocido y f´acil de probar, que las ra´ıces complejas de polinomios con coeficientes reales aparecen en pares conjugados; i.e., si z = a + bi es ra´ız, tambi´en z = a − bi es ra´ız. Entonces, ya que el producto y la suma de n´umeros complejos son asociativos y conmutativos, podemos arreglar λ1 λ2 · · · λn y λ1 + λ2 + · · · + λn de tal suerte que pares conjugados est´en uno tras otro; de esta forma, puesto que zz = a2 + b2 ∈ R y z + z = 2a ∈ R, λ1 λ2 · · · λn y λ1 + λ2 + · · · + λn ser´an n´umeros reales. 2. Por otro lado, si las componentes de la matriz son n´umeros complejos, entonces el determinante y la traza pueden o no ser n´umeros reales, y el polinomio caracter´ıstico tendr´a posiblemente coeficientes complejos. Sin embargo, sigue siendo v´alido que la suma y el producto de los valores propios son, respectivamente, la traza y el determinante de dicha matriz. Veamos esto con algunos casos particulares: con la informaci´on dada en el ejemplo 5.53, tra(A) = 2 + i = λ1 + λ2 + λ3 , det(A) = 2i = λ1 λ2 λ3 y pA (λ) = −λ3 + (2 + i) λ2 + (−2 − 2i) λ + 2i, como el lector f´acilmente puede comprobar. Mientras que con los datos  del inciso 5.55 del ejemplo 5.55, tra(A) = 6 + 2i y 1 i det(A) = −9. Y, finalmente, si A = , pA (λ) = λ2 − 2λ + 1, det(A) = 1, tra(A) = 2. 0 1

´ sobre el campo C Diagonalizacion Ya vimos que una matriz con componentes reales puede tener valores propios complejos; entonces no puede ser diagonalizable de acuerdo con la definici´on 5.22. Sin embargo, si se permite que los escalares y las componentes de los vectores propios sean n´umeros complejos en el sentido de la definici´on 5.24, es posible que este tipo de matrices sean “diagonalizables” en el campo C; esto es, que existan un par de matrices C, D, con componentes complejas, tales que C−1 AC sea una matriz diagonal.   Ejemplo 5.57 Si A =

1 −1

2 −1

 , entonces   2  −1 − λ 

  1−λ pA (λ) =  −1

= −(1 − λ2 ) + 2 = λ2 + 1. As´ı que los valores propios de A en C son λ1 = i y λ2 = −i. Para λ1 = i, 

1−i −1

2 −1 − i



 ∼

1+i 2

1 1−i



 ∼

por lo que los vectores propios para λ1 tienen la forma  α

Page (PS/TeX): 72 / 488, COMPOSITE

−1 − i 1

 ,

α ∈ C−{0}.

1 1+i 0 0

 ;

´ 5.3 SECCION

´ Valores y vectores propios, diagonalizacion 489

Para λ2 = −i, 

1+i −1



2 −1 + i

 ∼

1−i 2

1 1+i



 ∼

1 1−i 0 0

 ;

luego los valores propios correspondientes a λ2 tienen la forma  β  Entonces, si C =

−1 − i −1 + i 1 1

1 C AC = − 2i −1

=−

1 2i

 

−1 + i 1

 ,

β ∈ C−{0}. 

 , se tiene C

1 −1

1−i −1 − i

1 −1

1−i −1 − i  0 −2 

−1

 

=

1 −2i

1 −1 1−i i

1−i −1 − i

1 −1

2 −1



1+i −i

 y

−1 − i −1 + i 1 1





 1 2 =− 2i 0  1 −i 0 = 1 0 i   i 0 = . 0 −i Es decir,

C−1 AC = diag(i, −i). Es natural entonces extender el concepto de diagonalizaci´on sobre el campo C. Definici´on 5.25 Sea A ∈ Mn (C) una matriz cuadrada de orden n con entradas complejas. La matriz A es diagonalizable sobre el campo C si existe un par de matrices C, D ∈ Mn (C), con C una matriz invertible y D = diag(λ1 , . . . , λn ) una matriz diagonal, tales que D = C−1 AC. Al par (C, D) se le llama entonces una diagonalizaci´on para la matriz A. Toda la teor´ıa relativa a la diagonalizaci´on que se desarroll´o en el apartado 5.22 es v´alida para la diagonalizaci´on sobre el campo C y se transfiere directamente permitiendo que los escalares y las componentes de las matrices sean n´umeros complejos y que los vectores propios “habiten” en Cn .  Ejemplo 5.58 Sea



i A=⎣ 0 0

−14 + 14i 2−i −2 − 2i

⎤ 7 + 7i −1 − i ⎦ . −1 + 2i

Determinar si A es diagonalizable (en C). En caso afirmativo encontrar una diagonalizaci´on para A.

Page (PS/TeX): 73 / 489, COMPOSITE

490 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

  i−λ  pA (λ) =  0  0

´ Solucion

  = (i − λ) 

−14 + 14i 7 + 7i 2−i−λ −1 − i −2 − 2i −1 + 2i − λ   2−i−λ −1 − i  −2 − 2i −1 + 2i − λ 

     

= (i − λ) ((2 − i − λ)(−1 + 2i − λ) − (−1 − i)(−2 − 2i))   = (i − λ) 5i − λ − iλ + λ2 − 4i = (i − λ)(λ2 − (1 + i)λ + i) = (i − λ)(λ − i)(λ − 1) = (λ − i)2 (1 − λ). Los valores propios distintos son entonces λ1 = i, λ2 = 1 con multiplicidades algebraicas μa (λ1 ) = 2 y μa (λ1 ) = 1. Resolvamos los sistemas (A − λ j I3 )u = 0R3 , j = 1, 2. Para λ1 : ⎡

0 ⎣ 0 0

−14 + 14i 2 − 2i −2 − 2i

⎤ ⎡ 0 7 + 7i ← − − − − − − − − − → −1 − i ⎦ R2 ↔ −iR1 − iR2 ⎣ 0 0 −1 + i

−2 + 2i 0 0

⎤ 1+i 0 ⎦; 0

por lo que y = −(1 + i)(−2 + 2i)−1 z = 12 iz, y entonces ⎤ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ 0 1 α x ⎣ y ⎦ = ⎣ iβ ⎦ = α ⎣ 0 ⎦ + β ⎣ i ⎦ ; α, β ∈ C. 2 0 2β z ⎡

Para λ2 : ⎡

i−1 ⎣ 0 0

⎤ ⎡ i−1 −14 + 14i 7 + 7i ← − − − − − − − − → 1−i −1 − i ⎦ R3 ↔ 2iR2 + R3 ⎣ 0 0 −2 − 2i −2 + 2i−

⎤ −14 + 14i 7 + 7i 1−i −1 − i ⎦ , 0 0

por lo que y = (1 + i)(1 − i)−1 z = iz y x = ((14 − 14i)y + (−7 − 7i)z)(i − 1)−1 = ((14 − 14i)iz + (−7 − 7i)z)(i − 1)−1 = −7iz; es decir, ⎤ ⎤ ⎡ ⎤ ⎡ −7i −7iγ x ⎣ y ⎦ = ⎣ iγ ⎦ = γ ⎣ i ⎦ ; γ ∈ C. 1 γ z ⎡

Entonces

μg (λ1 ) = dim(Ei ) = 2, μg (λ2 ) = dim(E1 ) = 1.

Page (PS/TeX): 74 / 490, COMPOSITE

´ 5.3 SECCION

´ Valores y vectores propios, diagonalizacion 491

Ya que μg (λ1 ) = 2 = μa (λ1 ) y μg (λ2 ) = 1 = μa (λ2 ), A es diagonalizable y una diagonalizaci´on para esta matriz es ⎤ 1 0 −7i i ⎦ C=⎣ 0 i 0 2 1





Comprobaci´on:



i −14 + 14i 2−i AC = ⎣ 0 0 −2 − 2i ⎡ −1 0 −7i i = ⎣ 0 −i 0 −2 1 y

y

⎤⎡ i 7 + 7i −1 − i ⎦ ⎣ 0 0 −1 + 2i ⎤

⎤ 0 0 ⎦. 1

⎤ 0 −7i −1 i ⎦ 2i 1



⎤ ⎤⎡ i 0 0 i 0 −7i i ⎦⎣ 0 i 0 ⎦ CD = ⎣ 0 −1 0 0 1 0 2i 1 ⎤ ⎡ −1 0 −7i −i i ⎦, =⎣ 0 0 −2 1 ⎡

lo cual implica que AC = CD; es decir, C−1 AC = D.   Ejemplo 5.59 Sea A =

i 0 D=⎣ 0 i 0 0

i 0

1 i



 . Determinar si A es diagonalizable.   i−λ pA (λ) =  0

´ Solucion

 1  = (i − λ)2 . i−λ 

Entonces los valores propios de A son λ = λ1 = λ2 = i con multiplicidad algebraica μa (λ) = 2. Puesto que   0 1 A − λI2 = , 0 0 los vectores propios de λ est´an dados por 

x y



 =α

1 0

 , α ∈ C − {0}.

Por lo que dim(Ei ) = 1; y por tanto, μa (λ) = μg (λ), as´ı que A no es diagonalizable.



´ 5.3.4 Operadores autoadjuntos y matrices simetricas En la pr´actica dif´ıcilmente podremos evitar encontrar matrices reales que tengan valores propios complejos; sin embargo, existe un tipo especial de matrices para las cuales todos los valores propios son

Page (PS/TeX): 75 / 491, COMPOSITE

492 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

´ n´umeros reales. Estas son las matrices sim´etricas, que aparecen con mucha frecuencia en aplicaciones. El objetivo de este u´ ltimo apartado es probar que efectivamente los valores propios de cualquier matriz sim´etrica en R son n´umeros reales y, m´as a´un, que toda matriz sim´etrica con componentes reales es diagonalizable. Para alcanzar este fin, de la manera m´as breve y directa, necesitamos trabajar en espacios complejos y extender el concepto de producto interior a este tipo de espacios. Invitamos nuevamente al lector a consultar los apartados 1.1.5, 1.2.8, 2.1.5, 2.2.5, 3.5 y la secci´on B.1 del ap´endice B para la mejor comprensi´on de este segmento. Definici´on 5.26 Sea E un espacio vectorial sobre el campo de los n´umeros complejos. Un producto interior (o producto escalar) en E es una funci´on que a cada par de vectores u,v ∈ E les asigna un n´umero complejo denotado por u,v, tal que: 1. u,v = v,u,

∀u,v ∈ E.

2. u,v + w = u,v + u,w, ∀u,v,w ∈ E. 3. αu,v = α u,v,

∀u,v ∈ E, ∀α ∈ C.

4. u,u ≥ 0,

∀u ∈ E. 5. u,u = 0 ⇔ u = 0E . Observe que la definici´on 5.26 es exactamente la misma que la definici´on 4.1 (cfr. p´ag. 236) de producto interior en espacios reales salvo la propiedad 1 que difiere de la propiedad de simetr´ıa en espacios reales; pues en la propiedad 1 del producto interior en espacios complejos est´a involucrado el conjugado de un n´umero complejo.31 Por esta raz´on es que la definici´on precedente tiene como caso particular a la definici´on 4.1 al restringirse a espacios reales; pues z = z¯ si z ∈ R. P Nota 5.14 1. Si u = (z1 , . . . , zn ) ∈ Cn , utilizaremos la notaci´on u para representar el vector de Cn que tiene por componentes los conjugados de las componentes del vector u; i.e., u = (¯ z1 , . . . , z¯n ). De manera an´aloga, si A ∈ Mm×n (C) es una matriz, representamos a la matriz cuyas componentes son los conjugados de la matriz A por el s´ımbolo A. 2. Es f´acil mostrar que si A ∈ Mm×n (C) y u ∈ Cn , entonces Au = Au. Lo cual se deja de ejercicio al lector. 3. Si A es una matriz con componentes reales, es evidente que A = A.  Ejemplo 5.60 No es dif´ıcil probar que si se define para cada u = (z1 , . . . , zn ) ∈ Cn y v = (w1 , . . . , wn ) ∈ Cn , u,v = u ·v =

n

∑ z jw j, j=1

entonces u,v es un producto interior en Cn . Se le llama el producto interior can´onico en Cn . Utilizando la notaci´on que convenimos en 5.14, este producto interior se puede escribir como el producto matricial u,v = u tv. 1Recuerde que si z = a + bi ∈ C, el conjugado de z es z¯ = a − bi.

31

Page (PS/TeX): 76 / 492, COMPOSITE

´ 5.3 SECCION

´ Valores y vectores propios, diagonalizacion 493

 Ejemplo 5.61

⎤ 2+i 1 i ]⎣ 1 ⎦ i ⎤ ⎡ 2−i 1 i ]⎣ 1 ⎦ −i ⎡

(1 − i, 1, i), (2 + i, 1 + i, 2) = [ 1 − i

= [ 1−i

= (1 − i)(2 − i) + (1)(1) + (i)(−i) = 3 − 3i.  Ejemplo 5.62 En Mm×n (C) se define, para cada A, B ∈ Mm×n (C), A, B = tra(B¯t A). Se puede probar, de manera an´aloga a como se hizo en el caso real (cfr. ejemplo 4.8 p´ag. 242), que e´ ste es un producto interior en Mm×n (C). Hay una peque˜na, pero notable caracter´ıstica del producto interior en espacios complejos que es importante que el lector tenga presente; la primera propiedad del siguiente teorema, cuya demostraci´on es sencilla, se deja como ejercicio al lector. Teorema 5.37 Sea E un espacio complejo y ·, · un producto interior en este espacio. Entonces 1. u, αv = α u,v para todo α ∈ C y para todo par de vectores u,v ∈ E. 2. u +v,w = u + w,v + w ∀u,v,w ∈ E.

Definici´on 5.27 Si E es un espacio vectorial complejo con producto interior ·, ·, se define, para cada u ∈ E, u = u,u1/2 y se le llama la norma del vector u inducida por el producto interior. Se puede probar, de manera an´aloga al caso real, que el producto interior en un espacio vectorial complejo satisface la desigualdad de Schwarz, |u,v| ≤ u v ∀u,v ∈ E, y que la norma inducida es en efecto una norma en el sentido de la definici´on 4.11. Se define ortogonalidad de manera an´aloga al caso real; esto es, dos vectores son ortogonales si su producto interior es nulo. Para abreviar diremos que un espacio vectorial real o complejo con producto interior ·, · definido en e´ l es un espacio euclidiano. El teorema de ortogonalizaci´on de Gram-Schmidt es tambi´en v´alido en espacios euclidianos complejos. Si E es un espacio complejo, como en el caso real, un operador lineal en e´ l es una transformaci´on T : E → E que satisface: • T (u + v) = T (u) + T (v) ∀u,v ∈ E. • T (αu) = αT (u) ∀u ∈ E, ∀α ∈ C.

Page (PS/TeX): 77 / 493, COMPOSITE

494 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

Los operadores lineales en espacios complejos tienen las mismas propiedades que los operadores lineales en espacios reales, pero trabajando con escalares complejos; as´ı que haremos uso libre de e´ stas en todo lo que sigue. En el caso de espacios euclidianos, los valores propios y vectores propios correspondientes de un operador lineal est´an relacionados con el producto interior, como hacemos patente en la siguiente proposici´on. Teorema 5.38 Sean E un espacio euclidiano y T : E → E un operador lineal. Si λ es un valor propio de T con vector propio correspondiente u, entonces λ=

´ DEMOSTRACION

T (u),u u2

.

(5.32)

T (u),u = λu,u

Q de donde se tiene (5.32).

= λ u,u , Q

Definici´on 5.28 Sea E un espacio euclidiano. Se dice que un operador lineal T : E → E es autoadjunto (o hermitiano) si T (u),v = u, T (v)

∀u,v ∈ E.

 Ejemplo 5.63 Sea A ∈ Mn una matriz sim´etrica con componentes reales, entonces TA , con TA (u) = Au ∀u ∈ Cn , es un operador autoadjunto en Cn con el producto interior can´onico en este espacio (cfr. ejemplo 5.60). En efecto, como A es sim´etrica, At = A; y como A es real , A = A; luego TA (u),v = (TA (u))t v = (Au)tv = (u)t Atv = (u)t Av = u t Av = u t Av = u, Av = u, TA (v) . Mostremos a continuaci´on que los valores propios de un operador autoadjunto y, en particular, de una matriz real sim´etrica, son todos n´umeros reales. Teorema 5.39 1. Sean E un espacio euclidiano y T : E → E un operador lineal autoadjunto. Si λ es un valor propio de T , entonces λ es real. 2. Sea A una matriz sim´etrica cuyas componentes son n´umeros reales, entonces los valores propios de A son (todos) n´umeros reales.

Page (PS/TeX): 78 / 494, COMPOSITE

´ 5.3 SECCION

´ DEMOSTRACION

´ Valores y vectores propios, diagonalizacion 495

Q 1. Sea λ un valor propio de T con vector propio correspondiente u ∈ E, entonces, por (5.32) del teorema 5.38, λ= = =

T (u),u u2 u, T (u) u2 T (u),u u2

= λ. Puesto que λ = λ se concluye32 que λ ∈ R. 2. Por el ejemplo 5.63, el operador TA es autoadjunto y tiene los mismos valores propios que A; as´ı que esta afirmaci´on es consecuencia del inciso precedente. (Recuerde que una matriz cuadrada de orden n tiene n valores propios en C contando multiplicidades.) Q ⎡

1  Ejemplo 5.64 Sea A = ⎣ −1 2

⎤ −1 2 −1 1 ⎦. El lector puede verificar, efectuando el c´alculo, que 1 2 pA (λ) = λ3 − 2λ2 − 7λ + 5.

Haciendo divisi´on sint´etica o evaluando es f´acil comprobar que ±1 y ±5 no son ra´ıces enteras de este polinomio; as´ı el polinomio caracter´ıstico no tiene ra´ıces racionales. Sin embargo, puesto que A es sim´etrica, todos sus valores propios deben ser reales, como se hace patente en la figura 5-5. 10 5

pA (λ) λ1

λ3

0 λ2

_5 _10 _15 _20 _3

_2

_1

0

1

2

3

4

Figura 5-5 • Gr´afica del polinomio caracter´ıstico pA (λ) que interseca al eje x en tres puntos: los valores caracter´ısticos de la matriz A. Aunque no es simple calcular estos valores en forma exacta, existen y son n´umeros reales por ser la matriz sim´etrica.

Una propiedad trascendente de los operadores autoadjuntos es que los vectores propios que corresponden a valores propios distintos de este tipo de operadores son ortogonales. Probamos a continuaci´on este importante resultado. 1z = a + bi = z = a − bi ⇒ 2bi = 0 ⇒ b = 0 ⇒ z = a ⇒ z ∈ R.

32

Page (PS/TeX): 79 / 495, COMPOSITE

496 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

Teorema 5.40 Sean E un espacio euclidiano y T : E → E un operador lineal autoadjunto. Si λ1 y λ2 son valores propios diferentes de T con vectores propios correspondientes u y v, respectivamente, entonces u y v son ortogonales; esto es, u,v = 0.

´ DEMOSTRACION

Q Como T es autoadjunto, por el inciso 5.39 del teorema 5.39, λ1 , λ2 ∈ R. Entonces λ1u,v = T (u),v = u, T (v) = u, λ2v = λ¯2 u,v = λ2 u,v , de donde λ1 u,v = λ2 u,v ; y por tanto, (λ1 − λ2 ) u,v = 0; y ya que λ1 = λ2 , se tiene u,v = 0.

Q

Mostramos a continuaci´on el resultado m´as importante de esta secci´on y que tiene como caso particular el hecho de que toda matriz real sim´etrica es diagonalizable. Teorema 5.41 Sean E un espacio euclidiano de dimensi´on finita y T : E → E un operador lineal autoadjunto. Entonces existe una base ortonormal del espacio E formada por vectores propios de T . En particular, en virtud del teorema 5.25, T es diagonalizable.

´ DEMOSTRACION

Q Procederemos por inducci´on sobre la dimensi´on del espacio E. Si n = 1, sea u ∈ E con u = 1; entonces B = {u} es una base ortonormal de E y T (u) = λu para alg´un escalar λ ∈ R; por lo que u es un vector propio de T . Supongamos que el resultado es cierto para cualquier espacio vectorial de dimensi´on n − 1. Sea λ1 un valor propio de T (λ1 existe porque E tiene dimensi´on finita y es real porque T es autoadjunto) y sea u1 ∈ E un vector propio correspondiente con u1  = 1. Sean S = gn(u1 ) y S⊥ = {v ∈ E | v,u1  = 0}. Es decir, S⊥ es el complemento ortogonal de S. Es f´acil probar que S⊥ es un subespacio33 de E. Completemos34 la base B a una base ortonormal {u1 ,v2 , . . . ,vn } de E (si es necesario se debe aplicar el 1Cfr. ejercicio propuesto 95 del cap´ıtulo 4. 1Cfr. el procedimiento dado para este fin en la p´agina 167.

33 34

Page (PS/TeX): 80 / 496, COMPOSITE

´ 5.4 SECCION

Ejercicios resueltos y ejercicios propuestos 497

proceso de ortogonalizaci´on de Gram-Schmidt en esta construcci´on). Sean v ∈ S⊥ y α1 , α2 , . . . , αn escalares tales que v = α1u1 + α2v2 + · · · + αnvn , entonces 0 = v,u1  = α1 u1 ,u1  + α2 v2 ,u1  + · · · + αn vn ,u1  = α1 , pues {u1 ,v2 , . . . ,vn } es ortonormal. Entonces v = α2v2 + · · · + αnvn ; y puesto que los vectores v j ∈ S⊥ ({u1 ,v2 , . . . ,vn } son un conjunto ortonormal y por tanto, (vi ⊥ u1 ∀ j), se concluye que S⊥ = gn(v2 , . . . ,vn ); y ya que los vectores v j son L.I., se tiene dim(S⊥ ) = n − 1. Si v ∈ S⊥ , entonces v,u1  = 0; y dado que T es autoadjunto, u1 , T (v) = T (u1 ),v = λ1u1 ,v = λ1 u1 ,v = 0, as´ı que T (v) ∈ S⊥ ; por lo que T es un operador lineal autoadjunto en el espacio vectorial S⊥ de dimensi´on n − 1. Por hip´otesis de inducci´on existe una base ortonormal de vectores propios de T para este espacio, digamos {u2 , . . . ,un }. Entonces {u1 ,u2 , . . . ,un } es una base ortonormal de vectores propios para E. Q Como corolario a este teorema tenemos el resultado final de este cap´ıtulo. Teorema 5.42 Si A es una matriz sim´etrica real, entonces A es diagonalizable.

´ DEMOSTRACION

Q Puesto que A es una matriz sim´etrica con componentes reales, entonces, por el ejemplo 5.63, el operador lineal TA es autoadjunto y la afirmaci´on es consecuencia inmediata del teorema 5.41. Q

5.4 Ejercicios resueltos y ejercicios propuestos 5.4.1 Ejercicios resueltos Transformaciones lineales 11 Sean E un espacio vectorial de dimensi´on finita n y F un espacio vectorial arbitrario. Probar que si

{e1 , . . . ,en } es una base de E y f1 , . . . , fn son vectores cualesquiera en F, entonces existe una u´ nica transformaci´on lineal T : E → F tal que T (ei ) = fi para cada i = 1, . . . , n.

Page (PS/TeX): 81 / 497, COMPOSITE

498 CAPI´TULO 5 ´ DEMOSTRACION

Transformaciones lineales, valores y vectores propios

Q Sea u ∈ E cualquier vector; dado que {e1 , . . . ,en } es una base de E, existen escalares u´ nicos αi tales que u = ∑ni=1 αiei . Se define T : E → F como n

T (u) = ∑ αi fi . i=1

Por la unicidad de los escalares se tiene que la transformaci´on T est´a bien definida. Entonces (a) Claramente T (ei ) = fi para todo i = 1, . . . , n. (ei = 0e1 + · · · + 0ei−1 + 1ei + 0ei+1 + · · · + 0en ) (b) Si a, b ∈ R y u = ∑ni=1 αiei , v = ∑ni=1 βiei son un par de vectores en E, 

n

n

a ∑ αiei + b ∑ βiei

T (au + bv) = T

i=1



i=1

n

n

i=1

i=1

∑ aαiei + ∑ bβiei

=T 

n

∑ (aαiei + bβiei )

=T

i=1



n

∑ (aαi + bβi )ei

=T

i=1 n

= ∑ (aαi + bβi ) fi i=1 n

n

= a ∑ αi fi + b ∑ βi fi i=1

i=1

= aT (u) + bT (v). Por tanto, T ∈ L (E, F). (c) Sea T1 ∈ L (E, F) tal que T1 (ei ) = fi para todo i = 1, . . . , n. Si u = ∑ni=1 αiei es cualquier vector de E, entonces  T1 (u) = T1

n

∑ αiei

i=1 n

= ∑ αi T1 (ei ) i=1 n

= ∑ αi fi i=1

= T (u); y por tanto, T = T1 .

Q

12 Encontrar la transformaci´on lineal T : P2 → P1 tal que T (1) = 0, T (x) = 1 y T (x2 ) = 2x.

El conjunto {1, x, x2 } es una base de P2 , por el ejercicio precedente T : P2 → P1 definida, para cada a + bx + cx2 ∈ P2 , por ´ Solucion

Page (PS/TeX): 82 / 498, COMPOSITE

´ 5.4 SECCION

Ejercicios resueltos y ejercicios propuestos 499

T (a + bx + cx2 ) = a · 0 + b · 1 + c · 2x = b + 2cx es lineal. Note que T (p) = p .



13 (Transformaci´on rotaci´on). Encontrar la transformaci´on lineal T : R2 → R2 que a cada vector u lo

transforme en el vector que se obtiene girando 45◦ a u en sentido contrario a las manecillas del reloj y que tiene la misma norma de u. √ √ √ √ Por el ejercicio 1, T : R2 → R2 , con T (1, 0) = ( 2/2, 2/2), T (0, 1) = (− 2/2, 2/2) y si (x, y) ∈ R2 , ´ Solucion

√ √ √ √ T (x, y) = x( 2/2, 2/2) + y(− 2/2, 2/2) √ 2 (x − y, x + y) = 2 es una transformaci´on lineal. Sea w = T (x, y) =



2 2 (x − y, x + y),

entonces

√ 2 (x − y, x + y) w =  2 √ 2! 2 = 2(x + y2 ) 2 ! = x2 + y2 = u , √ 2 (x − y, x + y) u · w = (x, y) · 2 √ 2 = (x, y) · (x − y, x + y) √2 2 2 = (x + y2 ); 2 y por tanto u · w = u v



2 2 2 2 (x + y ) 2 2 x +y

√ 2 . = 2

As´ı que el a´ ngulo entre u y su imagen w = T (u) es √ 2 φ = arc cos 2

= 45◦ .



14 Sean E y F espacios vectoriales, con dim(E) = n, y f1 , . . . , fm vectores dados de F. Probar que existe

una transformaci´on lineal T : E → F cuya imagen est´a generada por los vectores f1 , . . . , fm .

Page (PS/TeX): 83 / 499, COMPOSITE

500 CAPI´TULO 5 ´ DEMOSTRACION

Transformaciones lineales, valores y vectores propios

Q Sea {e1 , . . . ,en } una base de E. (a) Si n ≤ m, por el ejercicio 1 existe una transformaci´on lineal T : E → F tal que T (ei ) = fi para cada i = 1, . . . , n. Por el teorema 5.7 (cfr. p´ag. 429), dado que los vectores ei generan a E, los vectores T (ei ) = fi , i = 1, . . . , n, generan la imagen de T ; por tanto, tambi´en los vectores fi , i = 1, . . . , m. (b) Si n > m, sean f j = 0F para j = m + 1, . . . , n; por el ejercicio 1 existe una transformaci´on lineal T : E → F tal que T (ei ) = fi para i = 1, . . . , n. Puesto que los vectores ei generan a E, por el teorema 5.7, los vectores fi , i = 1, . . . , n, generan a la imagen de T y, por tanto, tambi´en los vectores fi , i = 1, . . . , m. Q

15 Encontrar una transformaci´on lineal T : R3 → R3 tal que su imagen est´e generada por los vectores

(−1, 2, 1) y (1, 1, 3). ´ Solucion

Sean T (1, 0, 0) = (−1, 2, 1), T (0, 1, 0) = (1, 1, 3) y T (0, 0, 1) = (0, 0, 0). Se define entonces T (x, y, z) = xT (1, 0, 0) + yT (0, 1, 0) + zT (0, 0, 1) = x(−1, 2, 1) + y(1, 1, 3) + z(0, 0, 0) = (−x + y, 2x + y, x + 3y)

Por el ejercicio T es lineal y su imagen est´a generada por los vectores (−1, 2, 1) y (1, 1, 3).



16 Sean E y F espacios vectoriales. Si la dimensi´on de E es infinita y T ∈ L (E, F), probar que por lo

menos uno de los subespacios Ker(T ) o T (E) tiene tambi´en dimensi´on infinita. ´ DEMOSTRACION

Q Suponga que ambos subespacios tienen dimensi´on finita. Sean {e1 , . . . ,er } y {T (f1 ), . . . , T (fm )} bases de Ker(T ) y T (E), respectivamente. Sea u ∈ E cualquier vector, entonces existen escalares βi tales     que T (u) = ∑m u − ∑m u − ∑m i=1 βi T ( f i ), y por tanto, T ( i=1 βi f i ) = 0F ; as´ı que i=1 βi f i ∈ Ker(T ); luego existen m r  escalares αi tales que u − ∑i=1 βi fi = ∑i=1 αiei y por ende, r

m

i=1

i=1

u = ∑ αiei + ∑ βi fi . De donde se concluye que E est´a generado por los vectores e1 , . . . ,er , f1 , . . . , fm ; lo cual es una contradicci´on a la hip´otesis de que E tiene dimensi´on infinita. Por tanto, uno de los dos subespacios, al menos, debe tener dimensi´on infinita. Q 17 Sea f ∈ C[a, b] y

g(x) =

 a

b

f (t) cos(x − t)dt

para cada x ∈ [a, b]. (a) Mostrar que g ∈ C[a, b]. (b) Sea T : C[a, b] → C[a, b] definido, para cada f ∈ C[a, b], por la funci´on T ( f ) donde T ( f )(x) =



b a

para cada x ∈ [a, b]. Demostrar que T es lineal.

Page (PS/TeX): 84 / 500, COMPOSITE

f (t) cos(x − t)dt

´ 5.4 SECCION

Ejercicios resueltos y ejercicios propuestos 501

(c) Encontrar una base y la dimensi´on de la imagen de T . (d) Determinar la dimensi´on del n´ucleo de T . ´ Solucion

(a) Para todo x ∈ [a, b], 

g(x)= =

b

a



g(x)= (

b

a

 a

f (t) cos(x − t)dt f (t)(cos x cos t + sen x sen t)dt b

f (t) cos t dt) cos x + (



b a

es decir,

f (t)sen t dt)sen x

(5.33)

y, por tanto, dado que las funciones y = cos x y y = sen x son continuas en todo punto, se tiene que g ∈ C[a, b]. (b) Sean f1 , f2 ∈ C[a, b] y α, β ∈ R, entonces, para todo x ∈ C[a, b], T (α f1 + β f2 )(x) = = =



b

a



b

a



b

a



(α f1 + β f2 )(t) cos(x − t)dt (α f1 (t) + β f2 (t)) cos(x − t)dt α f1 (t) cos(x − t)dt +



b a



b

a

f1 (t) cos(x − t)dt + β

β f2 (t) cos(x − t)dt



b a

f2 (t) cos(x − t)dt

= αT ( f1 )(x) + βT ( f2 )(x); por tanto, T (α f1 + β f2 ) = αT ( f1 ) + βT ( f2 ). Lo cual prueba la linealidad de T . (c) Sea f ∈ C[a, b] y g = T ( f ), entonces por (5.33) g(x) = α cos x + β sen x donde α =

 a

b

f (t) cos t dt y β =

 a

b

∀x ∈ [a, b]

f (t) sen t dt. Por tanto, T (C[a, b]) = gn(cos x, sen x); y ya

que las funciones seno y coseno son L.I. en C[a, b], se desprende que dim(T (C[a, b])) = 2. (d) Puesto que C[a, b] es un espacio vectorial de dimensi´on infinita y dim(T (C[a, b])) = 2, del ejercicio 6 se concluye que la dimensi´on de T (E) es infinita.  18 Sean E, F un par de espacios vectoriales. Probar que si T ∈ L (E, F) y V < F, entonces la imagen inversa

de V bajo la transformaci´on T , esto es T −1 (V ) = {u ∈ E | T (u) ∈ V }, es un subespacio de E.

Page (PS/TeX): 85 / 501, COMPOSITE

502 CAPI´TULO 5 ´ DEMOSTRACION

Transformaciones lineales, valores y vectores propios

Q Dado que V < F, 0F ∈ V y puesto que T (0E ) = 0F , se tiene 0E ∈ T −1 (V ). Sean α, β ∈ R y u1 ,u2 ∈ T −1 (V ), entonces, ya que V < F, T (αu1 +βu2 ) = αT (u1 )+βT (u2 ) ∈ V . Por tanto, αu1 +βu2 ∈ T −1 (V ). Luego T −1 (V ) < E. Q

19 Sean E un espacio vectorial de dimensi´on finita n y H < E. Se dice que H es un hiperplano de E si

dim(H) = n − 1. Probar que las siguientes condiciones son equivalentes a pares respecto a cualquier subespacio H de E: (a) H es un hiperplano de E. (b) Existe f ∈ L (E, R), una forma lineal no nula, tal que Ker( f ) = H. (c) Para toda base ordenada (e1 , . . . ,en ) de E, existen escalares α1 , . . . , αn , no todos cero, tales que α1 x1 + α2 x2 + · · · + αn xn = 0 es una ecuaci´on impl´ıcita de H; es decir, (x1 , x2 , . . . , xn ) ∈ Rn es soluci´on de esta ecuaci´on si y s´olo si u = ∑ni=1 xien ∈ H. ´ DEMOSTRACION

Q (a) ⇒ (b) Sea {u1 , . . . ,un−1 } una base de H. Por el procedimiento dado en el apartado de la p´agina 167 se puede completar e´ sta a una base {u1 , . . . ,un−1 ,un } del espacio E. Por el ejercicio resuelto 1 existe una transformaci´on lineal f : E → R tal que f (uk ) = 0 para k = 1, . . . , n − 1 y f (un ) = 1. Entonces f = θ, la transformaci´on constante cero, y n

u = ∑ aiui ∈ Ker( f ) ⇔ i=1

0 = f (u) =

n−1

∑ ai f (ui ) + an f (un )

i=1

= an f (un ) = an ⇔ u ∈ H. Luego Ker( f ) = H. (b) ⇒ (c) Sea (e1 , . . . ,en ) una base ordenada de E. Sean αi = f (ei ), i = 1, . . . , n; dado que f no es nula, alguno de los αi debe ser distinto de cero. Si u = ∑ni=1 xiei , entonces f (u) = α1 x1 + α2 x2 + · · · + αn xn ; luego u ∈ Ker( f ) = H ⇔ α1 x1 + α2 x2 + · · · + αn xn = 0. (c) ⇒ (a) Sean (e1 , . . . ,en−1 ,en ) una base ordenada de E y αi , i = 1, . . . , n, escalares no todos nulos tales que n

u = ∑ xiei ∈ H ⇔ α1 x1 + α2 x2 + · · · + αn xn = 0. i=1

Page (PS/TeX): 86 / 502, COMPOSITE

´ 5.4 SECCION

Ejercicios resueltos y ejercicios propuestos 503

Se puede suponer, sin perder generalidad, que αn = 0. Sea u = ∑ni=1 xiei ∈ H, entonces xn = −

1 n−1 ∑ αi xi αn i=1

y por tanto u = x1e1 + · · · + xn−1en−1 + xnen 1 n−1 ∑ αi xien αn i=1 α1 αn−1 = x1e1 + · · · + xn−1en−1 − ( x1 + · · · + xn−1 )en αn αn α1 α2 αn−1 = x1 (e1 − en ) + x2 (e2 − en ) + · · · + xn−1 (en−1 − en ), αn αn αn = x1e1 + · · · + xn−1en−1 −

luego H = gn(f1 , . . . , fn−1 ) donde fk =ek − αk ek αn para k = 1, . . . , n − 1. Si βk ∈ R son n − 1 escalares tales que β1 f1 + · · · + βn−1 fn−1 = 0E , entonces 0E = β1e1 − β1 α1 en + β2e2 − β2 α2 en + · · · + βn−1en−1 − βn−1 αn−1 en αn αn αn = β1e1 + · · · + βn−1en−1 + (−

1 n−1 ∑ βi αi )en αn i=1

y ya que los vectores ei , i = 1, . . . , n, son L.I., se debe tener β1 = · · · = βn−1 = 0 Por tanto los vectores f1 , . . . , fn−1 forman una base para H. Luego dim(H) = n − 1 por ende H es un hiperplano de E.

Q

10 Demostrar que si T : Rn → Rn es un operador lineal invertible, A ∈ Mn es su representaci´on matricial re-

lativa a la base can´onica de Rn y T −1 es su operador inverso, entonces A es invertible y la representaci´on matricial de T −1 relativa a la base can´onica de Rn es A−1 . ´ DEMOSTRACION

Q Por el teorema 5.9 A es invertible. Sea v ∈ Rn , puesto que T es suprayectivo (ya que es invertible), existe u ∈ Rn tal que T (u) =v. Entonces

Page (PS/TeX): 87 / 503, COMPOSITE

504 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

A−1v = A−1 (Au) = Inu = u = T −1 (v).

Q

11 Sea T : R2 → R2 la aplicaci´on definida por

T (x, y) = (x − y, x + y) (a) Probar que T es un operador lineal. (b) Mostrar que T es invertible. (c) Hallar T −1 . ´ DEMOSTRACION



1 1 1 −1

Q (a) T (1, 0) = (1, 1), T (0, 1) = (−1, 1). Si A = 

1 1

1 −1



x y



 =

 , entonces

x+y x−y

 = T (x, y);

es decir, TA (x, y) = T (x, y) para todo (x, y) ∈ R2 ; por tanto, T es lineal y A es la representaci´on matricial de T relativa a la base can´onica de R2 .     1 1 1 1 (b) ∼ ∼ I2 1 −1 0 −2 Por lo que A es invertible y por tanto T tambi´en (cfr. 5.9). (c) Por el ejercicio anterior, A−1 = −

1 2



−1 −1 −1 1



es la representaci´on matricial de T −1 ; entonces, T

−1

1 (x, y) = − 2  1 =

para todo (x, y) ∈ R2 .



−1 −1

1 2x+ 2y 1 1 2x− 2y

−1 1 



x y



Q

12 Sean T1 , T2 un par de operadores lineales en un espacio vectorial E. Se define la composici´on del opera-

dor T2 con el operador T1 , T2 ◦ T1 , como la funci´on T2 ◦ T1 : E → E definida, para todo u ∈ E, por (T2 ◦ T1 )(u) = T2 (T1 (u)). Probar que T2 ◦ T1 es tambi´en un operador lineal. La composici´on T2 ◦ T1 tambi´en se denota por T2 T1 ; i.e., T2 T1 = T2 ◦ T1 .

Page (PS/TeX): 88 / 504, COMPOSITE

´ 5.4 SECCION

´ DEMOSTRACION

Ejercicios resueltos y ejercicios propuestos 505

Q Sean u,v ∈ E vectores arbitrarios y α, β cualquier par de escalares. Entonces (T2 ◦ T1 )(αu + βv) = T2 (T1 (αu + βv)) = T2 (αT1 (u) + βT1 (v)) = αT2 (T1 (u)) + βT2 (T1 (v)) = α(T2 ◦ T1 )(u) + β(T2 ◦ T1 )(v).

Q

13 Sean T1 , T2 : E → E dos operadores lineales, demostrar lo siguiente.

(a) Si T1 y T2 son inyectivos, entonces T2 T1 y T1 T2 tambi´en son inyectivos. (b) Si T1 T2 no es inyectivo, entonces al menos uno de los operadores T1 , T2 no es inyectivo. (c) Si adem´as T1 , T2 son suprayectivos y uno de ellos (al menos) no es inyectivo, entonces T1 T2 y T2 T1 no son inyectivos. ´ DEMOSTRACION

Q (a) Sea u ∈ Ker(T2 T1 ), entonces 0E = (T2 T1 )(u) = T2 (T1 (u)) y puesto que T2 es inyectivo, se debe tener T1 (u) = 0E ; y ya que este u´ ltimo operador tambi´en es inyectivo, se concluye u = 0E y, por tanto, Ker(T2 T1 ) = {0E }. An´alogamente se demuestra la igualdad Ker(T1 T2 ) = {0E }, lo cual prueba que T2 T1 y T1 T2 son inyectivos. (b) Si T1 y T2 son inyectivos, por el inciso anterior, T1 T2 es inyectivo; lo cual es una contradicci´on. Por lo que uno de los dos operadores, por lo menos, no es inyectivo. (c) Se prueba que T1 T2 no es inyectivo, la demostraci´on de que T2 T1 no es inyectivo es entonces inmediata por simetr´ıa. (i) Si T2 no es inyectivo, existe u ∈ E − {0E } tal que T2 (u) = 0E ; entonces (T1 T2 )(u) = T1 (T2 (u)) = T1 (0E ) = 0E y por tanto T1 T2 no es inyectivo. (ii) Si T1 no es inyectivo, existe w ∈ E − {0E } tal que T1 (w) = 0E . Ya que T2 es suprayectivo, existeu ∈ E con T2 (u) = w; y como T2 es lineal y w =0E , se desprende queu =0E . Entonces (T1 T2 )(u) = T1 (T2u) = T1 (w) = 0E . De donde se concluye que T1 T2 no es inyectivo.

Q

14 Sean E un espacio vectorial e I : E → E el operador lineal identidad; i.e., I(u) = u para todo u ∈ E (cfr.

ejemplo 5.8). Probar que un operador lineal T en E es invertible si y s´olo si existe un operador lineal T1 en E tal que T1 ◦ T = I = T ◦ T1 . En tal caso T1 = T −1 .

Page (PS/TeX): 89 / 505, COMPOSITE

506 CAPI´TULO 5 ´ DEMOSTRACION

Transformaciones lineales, valores y vectores propios

Q Si se supone que T es no singular (invertible), entonces claramente T1 = T −1 satisface la condici´on T1 ◦ T = I = T ◦ T1 . Suponga que existe T1 ∈ L (E, E) con T1 ◦ T = I = T ◦ T1 . Si u ∈ Ker(T ), entonces u = I(u) = T1 (T (u)) = T1 (0E ) = 0E y por tanto, Ker(T ) = {0E }; luego T es inyectiva. Si v ∈ E, sea u = T1 (v), entonces T (u) = T (T1 (v)) = I(v) =v por ende T es suprayectiva. As´ı, T es biyectiva y por tanto invertible. Debido a la unicidad de T −1 se tiene T −1 = T1 . Q

15 Sean E un espacio vectorial y T un operador lineal en e´ l. Se representan por T 2 el operador composici´on

de T consigo mismo; i.e., T 2 = T ◦ T (cfr. el ejercicio resuelto 12 de esta secci´on) y por I el operador identidad, I(u) = u para todo u ∈ E. Si T 2 = I y T = ±I probar lo siguiente: (a) Existe v ∈ E − {0E } tal que T (v) =v. (b) Existe w ∈ E − {0E } tal que T (w) = −w. ´ DEMOSTRACION

Q Dado que T 2 = I, se tiene T (T (u)) = u para todo u ∈ E. (a) Puesto que T = −I, existe u ∈ E tal que T (u) +u = 0E . Si v = T (u) +u, entonces v = 0E y T (v) = T (T (u) +u) = T (T (u)) + T (u) = u + T (u) =v. (b) Ya que T = I, existe u ∈ E tal que T (u) −u = 0E . Sea w = T (u) −u, entonces w = 0E y T (w) = T (T (u) −u) = T (T (u)) − T (u) = u − T (u) = −w.

Q

16 Sean T el operador lineal del ejercicio anterior; esto es, T 2 = I y T = ±I en el espacio E;

S1 = {v ∈ E | T (v) =v}; S2 = {v ∈ E | T (v) = −v}.

Page (PS/TeX): 90 / 506, COMPOSITE

´ 5.4 SECCION

Ejercicios resueltos y ejercicios propuestos 507

Probar que: (a) S1 y S2 son subespacios de E. (b) S1 = {0E } = S2 . (c) E = S1 ⊕ S2 , la suma directa de S1 con S2 (cfr. ejercicio resuelto 27 del cap´ıtulo 3). ´ DEMOSTRACION

Q (a) Ya que T es lineal T (0E ) = 0E , y por ello 0E ∈ S1 ∩ S2 . Sean α, β ∈ R y u1 ,v1 ∈ S1 , u2 ,v2 ∈ S2 ; entonces T (αu1 + βv1 ) = αT (u1 ) + βT (v1 ) = αu1 + βv1 y T (αu2 + βv2 ) = −αT (u2 ) − βT (v2 ) = −(αu2 + βv2 ). Lo cual prueba S1 < E y S2 < E. (b) Es consecuencia inmediata del ejercicio precedente. (c) Si u ∈ S1 ∩ S2 , entonces u = T (u) = −u; de donde u = 0E . Sea v ∈ E y u1 = 12 (v + T (v)), u2 = 12 (v − T (v)). Entonces 1 T (u1 ) = (T (v) +v) = u1 , 2 1 T (u2 ) = (T (v) −v) = −u2 ; 2 por tanto u1 ∈ S1 y u2 ∈ S2 . Y ya que v = u1 +u2 se desprende que E = S1 ⊕ S2 .

Q

17 Sean E un espacio vectorial y S1 < E. Una proyecci´on sobre S1 es una funci´on T : E → E tal que:

(i) Existe S2 < E que satisface E = S1 ⊕ S2 . (ii) Para todo u =x1 +x2 , con xi ∈ Si , i = 1, 2, se tiene T (u) =x1 . Mostrar que si T es una proyecci´on sobre S1 , entonces: (a) T es lineal. (b) S1 = {u ∈ E | T (u) = u}. (c) S1 = T (E). (d) S2 = Ker(T ).

Page (PS/TeX): 91 / 507, COMPOSITE

508 CAPI´TULO 5 ´ DEMOSTRACION

Transformaciones lineales, valores y vectores propios

Q (a) Si α, β ∈ R y u =x1 +x2 ∈ E, v =y1 +y2 ∈ E, con xi ∈ S1 y yi ∈ S2 , i = 1, 2; entonces T (αu + βv) = T ((αx1 + βy1 ) + (αx2 + βy2 )) = αx1 + βy1 = αT (u) + βT (v). (b) x1 ∈ S1 ⇒x1 =x1 +0E ⇒ T (x1 ) = T (x1 +0E ) =x1 .u =x1 +x2 ,u = T (u) ⇒x1 +x2 =x1 ⇒u ∈ S1 . (c) Si x1 ∈ S1 , entonces x1 = T (x1 ) ∈ T (E) y por tanto S1 ⊂ T (S1 ). Si T (x1 +x2 ) ∈ T (E), entonces T (x1 +x2 ) =x1 ∈ S1 y por ende T (E) ⊂ S1 . Luego T (E) = S1 . (d) u = x1 +x2 ∈ Ker(T ) ⇒ x1 = T (x1 +x2 ) = 0E ⇒ u = x2 ∈ S2 ; ∴ Ker(T ) ⊂ S2 . x2 ∈ S2 ⇒ x2 = 0E +x2 ⇒ T (x2 ) = 0E ⇒ S2 ⊂ Ker(T ). Luego Ker(T ) = S2 . Q

18 Sean E un espacio vectorial, T un operador lineal en e´ l y S = {u ∈ E | T (u) =u}; por el ejercicio anterior

S es un subespacio de E. (a) Si T 2 = T , demostrar que E = S ⊕ Ker(T ). (b) Inversamente, si E = S ⊕ Ker(T ), probar que T 2 = T . ´ DEMOSTRACION

Q (a) Si u ∈ E, entonces u = T (u) + (u − T (u)) y T (T (u)) = T 2 (u) = T (u), T (u − T (u)) = T (u) − T 2 (u) = 0E . Por tanto, T (u) ∈ S, u − T (u) ∈ Ker(T ) y E = S + Ker(T ). Si u ∈ S ∩ Ker(T ), u = T (u) = 0E ; luego S ∩ Ker(T ) = {0E }. (b) Sea u ∈ E, entonces existen u1 ∈ S y u2 ∈ Ker(T ) tales que u = u1 +u2 ; por lo que T (u) = T (u1 ) + T (u2 ) = u1 y entonces T 2 (u) = T (T (u)) = T (u1 ) = T (u). Q

Representaciones matriciales de transformaciones lineales 19 Sean las bases B1 = {(1, −1), (2, −1)} y B2 = {(−1, 1), (0, 1)} del espacio R2 .

(a) Encontrar la matriz cambio de base de la base B2 a la base B1 . (b) Encontrar la matriz cambio de base de la base B1 a la base B2 . ´ Solucion

(a) Se tienen que resolver los sistemas con la misma matriz de coeficientes 

Page (PS/TeX): 92 / 508, COMPOSITE

1 −1

2 −1



a11 a12



 =

−1 1



´ 5.4 SECCION

y



1 −1



2 −1

Ejercicios resueltos y ejercicios propuestos 509



a21 a22

 =

0 1

 .

Dado que 

1 −1

     1 2  −1 0 2  −1 0 ∼ 0 1  0 1 −1  1 1    1 0  −1 −2 ∼ 1 0 1  0

se tiene 

a11 a12



 =

−1 0



 y

a21 a22



 =

−2 1

 ;

esto es,  P=

−1 0

−2 1



es la matriz cambio de base de la base B2 a la base B1 . (b) La matriz cambio de base de B1 a B2 est´a dada por   1 2 P−1 = −1 0 −1   −1 −2 = .  0 1 20 Sean T1 , T2 operadores lineales en un espacio vectorial E que tiene dimensi´on finita y B una base de E.

Si T = T2 ◦ T1 es el operador composici´on definido en el ejercicio resuelto 12 de este apartado y [T1 ]B , [T2 ]B son las representaciones matriciales de estos operadores relativas a la base B, mostrar que [T2 ◦ T1 ]B = [T2 ]B [T1 ]B o, con la notaci´on T2 T1 = T2 ◦ T1 , [T2 T1 ]B = [T2 ][T1 ]B . ´ DEMOSTRACION

Q Si u ∈ E cualquier vector, entonces [(T2 ◦ T1 )u]B = [T2 (T1 (u))]B = [T2 ]B [T1 (u)]B = [T2 ]B ([T1 ]B [u]B ) = ([T2 ]B [T1 ]B )[u]B . De donde se desprende, debido a la unicidad de la representaci´on matricial de un operador, que [T2 ◦ T1 ]B = [T2 ]B [T1 ]B .

Page (PS/TeX): 93 / 509, COMPOSITE

Q

510 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

21 Sean E un espacio de dimensi´on finita dotado de un producto interior ·, ·, B = {e1 , . . . ,en } una base

ortonormal de este espacio y T : E → E un operador lineal. Encontrar la representaci´on matricial de T relativa a la base B. ´ DEMOSTRACION

Q Si ai j ∈ R son tales que T (ei ) = ai1e1 + · · · + ai jei + · · · + ainen entonces, para cada j = 1, . . . , n, T (ei ),e j  = ai1e1 + · · · + ai jei + · · · + ainen ,e j  = ai j y por tanto ⎡ ⎢ ⎢ [T ]B = ⎢ ⎣

T (e1 ),e1  T (e1 ),e2  .. .

T (e2 ),e1  T (e2 ),e2  .. .

··· ··· .. .

T (en ),e1  T (en ),e2  .. .

T (e1 ),en 

T (e2 ),en 

···

T (en ),en 

⎤ ⎥ ⎥ ⎥. ⎦

Q

22 Sean E un espacio vectorial y Hn una sucesi´on de subespacios tales que Hn  Hn+1 para todo n. Probar

que existe una sucesi´on infinita (un ) de vectores L.I. en E y que por tanto E tiene dimensi´on infinita. ´ DEMOSTRACION

Q Se puede suponer, sin perder generalidad, que H1 = {0E }. Entonces existe u ∈ H1 − {0E }; sea u1 =u. Puesto que Hn−1 = Hn , existe, para cada n = 2, 3, . . . , un ∈ Hn − Hn−1 . La sucesi´on de vectores (un ) as´ı formada es L.I. Para probar esto basta mostrar que para todo n el conjunto finito {u1 ,u2 , . . . ,un } es L.I. Se procede por inducci´on sobre n: si n = 1, {u1 } es L.I. porque u1 = 0E . Sea k > 1 y suponga que la afirmaci´on es cierta para n = k − 1. Sean αi , i = 1, . . . , k, escalares tales que α1 u1 + · · · + αk−1uk−1 + αkuk = 0E . Si αk = 0, entonces uk = −

α1 αk−1 u1 − · · · − uk−1 ∈ Hk−1 αk αk

pues H1 ⊂ H2 ⊂ · · · ⊂ Hk−1 ; por tanto, αk debe ser cero. Luego α1 u1 + · · · + αk−1uk−1 = 0E y por la hip´otesis de inducci´on se concluye que α1 = · · · = αk−1 = αk = 0; por ende, {u1 , . . . ,uk−1 ,uk } es L.I. Q En los ejercicios 23 a 27 E es un espacio vectorial y T : E → E un operador lineal en el espacio E. Se define T 2 = T ◦ T y, por recurrencia, T n = T ◦ T n−1 , n = 2, 3, . . . , esto es (cfr. ejercicio resuelto 12 de esta secci´on),

Page (PS/TeX): 94 / 510, COMPOSITE

´ 5.4 SECCION

Ejercicios resueltos y ejercicios propuestos 511

T n = T ◦ T

◦ · · · ◦ T n

y si I es el operador lineal identidad, I(u) = u para todo u ∈ E, se define T 0 = I. Suponga que E tiene dimensi´on finita. 23 Probar que Ker(T n ) ⊂ Ker(T n+1 ) para todo n = 0, 1, 2, . . . ´ DEMOSTRACION

u ∈ Ker(T n ) ⇒ T n (u) = 0E ⇒ T (T n (u)) = 0E

Q

⇒ T n+1 (u) = 0E ⇒ u ∈ Ker(T n+1 ) ⇒ Ker(T n ) ⊂ Ker(T n+1 ).

Q

24 Mostrar que T n+1 (E) ⊂ T n (E) para todo n = 0, 1, 2, . . . ´ DEMOSTRACION

Q Si w ∈ T n+1 (E), existe u ∈ E tal que T n+1 (u) = w y por tanto T n (T (u)) = w; luego w ∈ T n (E). Lo cual prueba T n+1 (E) ⊂ T n (E). Q

25 Mostrar que existe n0 tal que:

(a) Si n ≥ n0 : (i) Ker(T n ) = Ker(T n+1 ). (ii) T n+1 (E) = T n (E). (b) Si n < n0 : (i) Ker(T n ) = Ker(T n+1 ). (ii) T n+1 (E) = T n (E). ´ DEMOSTRACION

Q Si Ker(T n )  Ker(T n+1 ) para todo n, entonces, por ejercicio resuelto 22, E tendr´ıa dimensi´on infinita; por tanto, deben existir enteros no negativos n tales que Ker(T n ) = Ker(T n+1 ); sea n0 el menor de e´ stos. (a) Sea n un entero con n > n0 . (i) Si u ∈ Ker(T n+1 ), entonces 0E = T n+1 (u) = T n−n0 +n0 +1 (u) = T n0 +1 (T n−n0 (u)) y por tanto T n−n0 (u) ∈ Ker(T n0 +1 ) = Ker(T n0 ) luego T n (u) = T n0 (T n−n0 (u)) = 0E ,

Page (PS/TeX): 95 / 511, COMPOSITE

512 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

por lo que u ∈ Ker(T n ). As´ı que Ker(T n ) = Ker(T n+1 ). (ii) Puesto que Ker(T n+1 ) = Ker(T n ), dim(Ker(T n+1 )) + dim(T n+1 (E)) = dim(E) = dim(Ker(T n )) + dim(T n (E)); implica dim(T n (E)) = dim(T n+1 (E)) y ya que T n+1 (E) < T n (E), se concluye que T n+1 (E) = T n (E). (b) Sea n0 un entero no negativo con n < n0 . . (i) Por definici´on de n0 Ker(T n ) = Ker(T n+1 ). (ii) Por el inciso precedente, se concluye que dim(T n+1 (E)) = dim(T n (E)), y por ende, T n+1 (E) = T n (E). Q 26 Probar que si n ≥ n0 , entonces (cfr. el ejercicio resuelto 27 del cap´ıtulo 3, p´ag. 187).

E = Ker(T n ) ⊕ T n (E). ´ DEMOSTRACION

Q Si u ∈ Ker(T n ) ∩ T n (E), existe w ∈ E tal que T n (w) = u y por ello 0E = T n (u) = T 2n (w); por tanto, w ∈ Ker(T 2n ) = Ker(T n ), entonces u = T n (w) = 0E .

Page (PS/TeX): 96 / 512, COMPOSITE

´ 5.4 SECCION

Ejercicios resueltos y ejercicios propuestos 513

Puesto que dim(Ker(T n ) + T n (E)) = dim(Ker(T n )) + dim(T n (E)) − dim(Ker(T n ) ∩ T n (E)) = dim(Ker(T n )) + dim(T n (E)), se tiene dim(E) = dim(Ker(T n )) + dim(T n (E)) = dim(Ker(T n ) + dim(T n (E)) y por tanto, E = Ker(T n ) + T n (E). Lo cual prueba que E = Ker(T n ) ⊕ T n (E). Q 27 Encontrar n0 del ejercicio precedente para el operador lineal T : R4 → R4 definido por

T (x1 , x2 , x3 , x4 ) = (−x1 − x2 , x1 + x2 , −x1 − 2x2 − x3 + x4 , −x1 − 2x2 − 3x3 + 3x4 ). ´ Solucion

Puesto que T (1, 0, 0, 0) = (−1, 1, −1, −1) , T (0, 1, 0, 0) = (−1, 1, −2, −2) , T (0, 0, 1, 0) = (0, 0, −1, −3) y T (0, 0, 0, 1) = (0, 0, 1, 3)

la representaci´on matricial relativa a la base can´onica de R4 para T es ⎡

−1 −1 0 ⎢ 1 1 0 A=⎢ ⎣ −1 −2 −1 −1 −2 −3

⎤ 0 0 ⎥ ⎥. 1 ⎦ 3

Ya que, al hacer operaciones entre columnas, ⎡

−1 −1 ⎢ 1 1 A∼⎢ ⎣ −1 −2 −1 −2

0 0 −1 −3

⎤ 0 0 ⎥ ⎥ 0 ⎦ 0

se deduce que Rang(A) = 3; por tanto, dim(Ker(T )) = 4 − 3 = 1. En el ejercicio resuelto 20 de este apartado se prob´o que la representaci´on matricial de T 2 es A2 ; y por ello la representaci´on matricial de T n es An . Entonces, ya que

Page (PS/TeX): 97 / 513, COMPOSITE

514 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios



−1 ⎢ 1 A2 = ⎢ ⎣ −1 −1 ⎡ 0 ⎢ 0 =⎢ ⎣ −1 −1 ⎡ −1 ⎢ 0 ∼⎢ ⎣ 0 0

−1 0 1 0 −2 −1 −2 −3 0 0 0 0 −1 −2 −1 −6 −1 0 0 0

−2 −4 0 0

⎤2 0 0 ⎥ ⎥ 1 ⎦ 3 ⎤ 0 0 ⎥ ⎥ 2 ⎦ 6 ⎤ 2 4 ⎥ ⎥, 0 ⎦ 0



⎤ 0 0 0 0 0 0 ⎥ ⎥ 0 −4 4 ⎦ 0 −12 12 ⎤ 0 −4 4 0 0 0 ⎥ ⎥ 0 0 0 ⎦ 0 0 0



⎤ 0 0 0 0 0 0 ⎥ ⎥ 0 −8 8 ⎦ 0 −24 24 ⎤ 0 −8 8 0 0 0 ⎥ ⎥ 0 0 0 ⎦ 0 0 0

0 ⎢ 0 A3 = ⎢ ⎣ 0 0 ⎡ 0 ⎢ 0 ∼⎢ ⎣ 0 0 y 0 ⎢ 0 A4 = ⎢ ⎣ 0 0 ⎡ 0 ⎢ 0 ∼⎢ ⎣ 0 0 se tiene

dim(Ker(T 2 )) = 2, dim(Ker(T 3 )) = 3, dim(Ker(T 4 )) = 3. Por lo que n0 = 3.



28 Sean E un espacio vectorial, B = (e1 , . . . ,en ) una base de e´ l y T un operador lineal en E. Para cada

k = 1, . . . , n sea Sk = gn(e1 , . . . ,ek ). Mostrar que las siguientes condiciones son equivalentes. (a) [T ]B es triangular superior. (b) Para cada k = 1, . . . , n, T (ei ) ∈ Sk para todo i = 1, . . . , k. (c) T (Sk ) ⊂ Sk para todo k = 1, . . . , n.

Page (PS/TeX): 98 / 514, COMPOSITE

´ 5.4 SECCION

´ DEMOSTRACION

Ejercicios resueltos y ejercicios propuestos 515

Q (a) ⇒ (b): Si [T ]B = [ai j ] es triangular superior, entonces T (ek ) = ∑ki=1 aikei ∈ Sk para todo k = 1, . . . , n. (b) ⇒ (c): Si u ∈ Sk , existen αi ∈ R tales que u = ∑ki=1 αiei y por tanto T (u) = ∑ki=1 αi T (ei ) ∈ Sk . (c) ⇒ (a): Puesto que T (ek ) ∈ Sk , existen a1k , . . . , akk ∈ R tales que T (ek ) = ∑ki=1 akiei ; de donde [T ]B = [ai j ] es triangular superior. Q

29 Sean E un espacio vectorial y T un operador lineal en e´ l tal que T 2 = −I.

(a) Demostrar que T es invertible. (b) Sean u1 , . . . ,um ∈ E tales que u1 , . . . ,um , T (u1 ), . . . , T (um−1 ) son L.I., probar que u1 , . . . ,um , T (u1 ), . . . , T (um−1 ), T (um ) son L.I. (c) Si E tiene dimensi´on finita distinta de cero, mostrar que E tiene una base de la forma B = {u1 , . . . ,um , T (u1 ), . . . , T (um−1 ), T (um )} y por tanto su dimensi´on par. (d) Encontrar la representaci´on matricial de T relativa a la base B del inciso anterior. ´ DEMOSTRACION

Q (a) T (−T ) = −T 2 = −(−I) = I; (−T )T = −T 2 = −(−I) = I. As´ı T es invertible y T −1 = −T . (b) Siu1 , . . . ,um , T (u1 ), . . . , T (um ) son L.D., entonces existen escalares αi , βi , i = 1, . . . , m, con alguno de ellos distinto de cero, tales que m

m

i=1

i=1

0E = ∑ αiui + ∑ βi T (ui ). βm debe ser distinto de cero; pues en caso contrario los vectores u1 ,u2 , . . . ,um , T (u1 ), . . . , T (um−1 ) ser´ıan L.D. Entonces existen escalares γi y δ j , i = 1, . . . , m, j = 1, . . . , m − 1, tales que m

m−1

i=1

i=1

T (um ) = ∑ γiui +

∑ δi T (ui )

−um = T 2 (um )

por lo que

= T T (um ) =

de donde

0E = =

m

m−1

i=1

i=1

Page (PS/TeX): 99 / 515, COMPOSITE

i=1

i=1

m−1

∑ δiui ,

m−1

∑ γi T (ui ) + γm T (um ) − ∑ δiui +um

m−1



i=1

m

m−1

i=1

i=1

∑ γi T (ui ) + γm ∑ γiui + ∑ δi T (ui )

i=1

=

m−1

∑γi T (ui ) −

∑ γi T (ui ) − ∑ δiui +um i=1

=

m

m−1

m−1

i=1

i=1



m−1

∑ δiui +um

i=1

∑ (γi + γm δi )T (ui ) + ∑ (γm γi − δi )ui + (γm2 + 1)um .

516 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

Lo cual implica, puesto que γm2 + 1 = 0, que los vectores u1 , . . . ,um , T (u1 ), . . . , T (um−1 ) son L.D., que es una contradicci´on de la hip´otesis inicial. Luego los vectores u1 , . . . ,um , T (u1 ), . . . , T (um ) deben ser L.I. (c) Sea u1 ∈ E − {0E }. Si existe k ∈ R tal que T (u1 ) = ku1 , entonces −u1 = T 2 (u1 ) = T (T (u1 )) = T (ku1 ) = kT (u1 ) = k2u1 luego (k2 + 1)u1 = 0E ; lo cual es imposible pues u1 = 0E . Por tanto, u1 y T (u1 ) son L.I. Si no existe un vector u2 ∈ E tal que {u1 , T (u1 ),u2 } es L.I., entonces {u1 , T (u1 )} es una base para E y dim(E) = 2. Si existe u2 ∈ E tal que u1 , T (u1 ),u2 son L.I., entonces, por el inciso anterior, u1 ,u2 , T (u1 ), T (u2 ) son L.I. Si no existe u3 ∈ E tal que u1 ,u2 , T (u1 ), T (u2 ),u3 son L.I., entonces {u1 ,u2 , T (u1 ), T (u2 )} es una base de E y dim(E) = 4. Continuando este proceso se debe llegar a un primer n´umero entero m tal que u1 , . . . ,um , T (u1 ), . . . , T (um ) son L.I. y para cualquier vector u ∈ E el conjunto {u1 , . . . ,um , T (u1 ), . . . , T (um ),u} es L.D.; pues E tiene dimensi´on finita. Luego {u1 , . . . ,um , T (u1 ), . . . , T (um )} es una base de E y dim(E) = 2m. (d) Si B = {u1 , . . . ,um , T (u1 ), . . . , T (um )}, entonces T (T (ui )) = −ui para i = 1, . . . , m luego

 [T ]B =

O Im

−Im O



donde la submatriz Im es la identidad de orden m y la submatriz O es la matriz cero de orden m × m. Q 30 (Espacio dual y base dual). Sea E un espacio vectorial; se denota por E∗ el espacio vectorial L (E, R)

y a toda transformaci´on lineal f ∈ E∗ se le dice funcional lineal (o forma lineal) en E y a E∗ se le llama el espacio dual de E. Si E tiene dimensi´on finita y B = {e1 , . . . ,en } es una base de E, encontrar una base B ∗ = {φi } del dual del espacio E; esto es, una base de E∗ a partir de esta base y probar que dim(E∗ ) = n y por tanto E ∼ = E∗ . La base B ∗ = {φi } se llama base dual de la base {ei }.

Page (PS/TeX): 100 / 516, COMPOSITE

´ 5.4 SECCION

´ Solucion

Ejercicios resueltos y ejercicios propuestos 517

Sea i ∈ {1, . . . , n}, por el ejercicio resuelto 1 existe un u´ nico funcional lineal φi : E → R tal

que " φi (e j ) = δi j =

1 si i = j 0 si i = j

(al s´ımbolo δi j se le dice delta de Kronecker). Entonces {φ1 , φ2 , . . . , φn } es una base de E∗ : (a) Sean αi n-escalares tales que α1 φ1 + · · · + αi φi + · · · + αn φn = θ, la forma lineal constante cero en E∗ ; entonces, para cada i = 1, . . . , n, αi = α1 φ1 (ei ) + · · · + αi φi (ei ) + · · · + αn φn (ei ) = θ(ei ) =0 as´ı que {φ1 , φ2 , . . . , φn } es L.I. (b) Sea f ∈ E∗ y u = a1e1 + · · · + aiei + · · · + anen , entonces φi (u) = a1 φi (e1 ) + · · · + ai φi (ei ) + · · · + an φn (en ) = ai y por tanto u = φ1 (u)e1 + · · · + φi (u)ei + · · · + φn (u)en . Entonces f (u) = φ1 (u) f (e1 ) + · · · + φi (u) f (ei ) + · · · + φn (u) f (en ); es decir, f = f (e1 )φ1 + · · · + f (ei )φi + · · · + f (en )φn . Luego dim(E∗ ) = n.



31 Construir una base para el espacio dual de R2 , (R2 )∗ , a partir de la base {(1, 2), (1, 1)} de R2 por

medio del procedimiento dado en el ejercicio precedente; es decir, encontrar la base dual de la base {(1, 2), (1, 1)}. ´ Solucion Por el procedimiento del ejercicio precedente φ1 (1, 2) = 1, φ1 (1, 1) = 0, φ2 (1, 2) = 0 y φ2 (1, 1) = 1. Puesto que los φi son lineales se debe tener

φ1 (x, y) = ax + by, φ2 (x, y) = cx + dy para ciertas constantes a, b, c, d. Entonces

Page (PS/TeX): 101 / 517, COMPOSITE

518 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

1 = φ1 (1, 2) = a + 2b, 0 = φ1 (1, 1) = a + b, 0 = φ2 (1, 2) = a + 2d, 1 = φ2 (1, 1) = c + d y dado que 

 1 2  1 1 1  0

0 1



 ∼

  1 2  1 0 , 0 −1  −1 1

se obtiene 

a b



 =

−1 1



 y

c d



 =

2 −1



y por tanto φ1 (x, y) = −x + y, φ2 (x, y) = 2x − y son los elementos de la base del espacio dual (R2 )∗ .



32 Si E es un espacio vectorial y E∗ su espacio dual, se denota por E∗∗ el espacio dual de E∗ ; esto es,

E∗∗ = (E∗ )∗ = L (E∗ , R). Al espacio E∗∗ se le llama espacio bidual (o doble dual) del espacio E. Sea u ∈ E un elemento fijo (que se ha escrito sin la flecha encima por simplicidad en la notaci´on); se define u# : E∗ → R por u#( f ) = f (u). (a) Probar que u# ∈ E∗∗ . (b) Sea Φ : E → E∗∗ definida por Φ(u) = u#. Probar que Φ es lineal. (c) Si dim(E) = n es finita, probar que Φ es un isomorfismo (el llamado isomorfismo natural o can´onico) y por tanto E ∼ = E∗∗ . ´ DEMOSTRACION

Q (a) Si f1 , f2 ∈ E∗ y α, β ∈ R, entonces u#(α f1 + β f2 ) = (α f1 + β f2 )(u) = α f1 (u) + β f2 (u) = α# u( f1 ) + β# u( f2 ) y por ende u# ∈ E∗∗ . (b) Sean u, v ∈ E, α, β ∈ R y f cualquier elemento de E∗ , entonces  αu + βv( f ) = = = =

Page (PS/TeX): 102 / 518, COMPOSITE

f (αu + βv) f (αu) + f (βv) α f (u) + β f (v) α# u( f ) + β# v( f )

´ 5.4 SECCION

Ejercicios resueltos y ejercicios propuestos 519

y por tanto,  αu + βv = α# u + β# v;

i.e.,

Φ(αu + βv) = αΦ(u) + βΦ(v). (c) Sean {e1 , . . . ,en } una base de E y {φ1 , . . . , φn } la base dual correspondiente. Sea ψ ∈ E∗∗ y f ∈ E∗ un funcional cualquiera. Entonces, por el ejercicio resuelto 30, f = f (e1 )φ1 + · · · + f (en )φn ; luego ψ( f ) = ψ( f (e1 )φ1 + · · · + f (en )φn ) = f (e1 )ψ(φ1 ) + · · · + f (en )ψ(φn ) = f (ψ(φ1 )e1 + · · · + ψ(φn )en ). Entonces, si u = ψ(φ1 )e1 + · · · + ψ(φn )en ∈ E, se tiene ψ( f ) = f (u) = u#( f ) = Φ(u)( f ) y por tanto Φ(u) = ψ. Luego Φ es suprayectiva. Si u ∈ Ker(Φ), entonces u#( f ) = f (u) = 0 para todo funcional f ; luego (cfr. el ejercicio resuelto 30 de esta secci´on) u = φ1 (u)e1 + · · · + φn (u)en = 0E . Lo cual prueba que Ker(Φ) = {0E }. Entonces Φ es un isomorfismo; por tanto, E ∼ = E∗∗ .



33 Sea E un espacio vectorial de dimensi´on finita n y E∗ su espacio dual. Probar que si B ∗ = {φ1 , . . . , φn }

es una base de E∗ , entonces existe una base B = {e1 , . . . ,en } de E tal que B ∗ es la base dual de B. ´ DEMOSTRACION

Q Dado que E∗∗ ∼ = E, dim(E∗∗ ) = n. Sea {Ψ1 , . . . , Ψn } la base dual de la base {φ1 , . . . , φn } del espacio ∗∗ E . Entonces,  1 si i = j Ψi (φ j ) = δi j = 0 si i = j Por el ejercicio 32 existen u´ nicos e1 , . . . ,en ∈ E tales que e#i = Φ(ei ) = Ψi

Page (PS/TeX): 103 / 519, COMPOSITE

520 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

para cada i = 1, . . . , n; y por tanto φ j (ei ) = e#i (φ j ) = Ψi (φ j ) = δi j ; y ya que Φ es un isomorfismo y {Ψ1 , . . . , Ψn } es una base, {e1 , . . . ,en } es base de E. Luego {φ1 , . . . , φn } es la base dual de la base {e1 , . . . ,en }. Q 34 Sean f1 , f2 : R2 → R los funcionales lineales definidos por f1 (x, y) = 2x − y y f2 (x, y) = x + y.

(a) Probar que { f1 , f2 } es una base de (R2 )∗ . (b) Encontrar una base {u1 ,u2 } de R2 cuya base dual sea { f1 , f2 }. ´ Solucion

(a) Ya que dim(R2 )∗ = dim(R2 ) = 2, basta probar que f1 y f2 son L.I. Sean λ1 , λ2 ∈ R tales

que λ1 f 1 + λ 2 f 2 = θ es decir, λ1 f1 (x, y) + λ2 f2 (x, y) = 0

∀(x, y) ∈ R2 .

Entonces, en particular, 0 = λ1 f1 (1, 0) + λ2 f2 (1, 0) = 2λ1 + λ2

y

0 = λ1 f1 (0, 1) + λ2 f2 (0, 1) = −λ1 + λ2 ; es decir, 2λ1 + λ2 = 0 −λ1 + λ2 = 0 de donde λ1 = λ2 = 0 y, por tanto, f1 y f2 son L.I. (b) Por el ejercicio precedente existe una base {e1 ,e2 }, e1 = (a, b) y e2 = (c, d) cuya base dual es { f1 , f2 }; entonces 1 = f1 (a, b) = 2a − b, 0 = f1 (c, d) = 2c − d, 0 = f2 (a, b) = a + b, 1 = f2 (c, d) = c + d. Y ya que 

se tiene

2 1

   2 −1  1 0 ∼ 0 1  0 1

 −1  1 −3  1

0 −2

(a, b) = (1/3, −1/3) y (c, d) = (1/3, 2/3);

es decir, {e1 ,e2 } = {(1/3, −1/3), (1/3, 2/3)}.

Page (PS/TeX): 104 / 520, COMPOSITE

Q



´ 5.4 SECCION

Ejercicios resueltos y ejercicios propuestos 521

35 (Hiperespacio). Sean E un espacio vectorial no trivial y H < E. Se dice que H es un hiperespacio de E

si se cumplen las siguientes condiciones: (i) H = E. (ii) Si S < E y H ⊂ S, entonces S = H o S = E. Es decir, H es un subespacio propio maximal. Mostrar que un subespacio H es un hiperespacio de E si y s´olo si existe u0 ∈ E − H tal que E = H + gn(u0 ). ´ DEMOSTRACION

Q (⇒) Como H = E, existe u0 ∈ E − H. Entonces H  H + gn(u0 ) ⊂ E y ya que H es un hiperespacio, se deduce que H + gn(u0 ) = E. (⇐) Sea u0 ∈ E − H tal que E = H + gn(u0 ), entonces H = E. Sea S < E tal que H ⊂ S. Dado que E = H + gn(u0 ), todos los elementos de S tienen la forma u = u1 + βu0 para alg´un u1 ∈ H y para cierto β ∈ R. Si para alguno de e´ stos β = 0, se tiene u0 = (1/β)(u −u1 ) ∈ S y entonces E = H + gn(u0 ) = S. En caso contrario u ∈ H para todo u ∈ S; es decir, S = H. Q

36 Sean E un espacio vectorial no trivial y f ∈ E∗ . Demostrar lo siguiente (cfr. ejercicio resuelto 9 de esta

secci´on): (a) Si f es un funcional lineal en E no nulo ( f = θ, el funcional lineal constante cero), entonces H = Ker( f ) es un hiperespacio. (b) Si H es un hiperespacio existe un funcional lineal f en E∗ no nulo tal que Ker( f ) = H. ´ DEMOSTRACION

Q (a) Sea u0 ∈ E tal que f (u0 ) = 0. Si u ∈ E, entonces u −

f (u) u0 ∈ H = Ker( f ) f (u0 )

pues f (u −

f (u) f (u) u0 ) = f (u) − f (u0 ) = 0. f (u0 ) f (u0 )

Por tanto, existe u1 ∈ H tal que

u −

f (u) u0 = u1 ; f (u0 )

luego u = u1 +

f (u) u0 ∈ H + gn(u0 ). f (u0 )

Por el ejercicio precedente se concluye que H = Ker( f ) es un hiperespacio.

Page (PS/TeX): 105 / 521, COMPOSITE

522 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

(b) Sea H un hiperespacio y u0 ∈ E − H. Entonces, por el ejercicio precedente, E = H + gn(u0 ). y m´as a´un, puesto que H ∩ gn(u0 ) = {0E }, se tiene E = H ⊕ gn(u0 ). Entonces para todo u ∈ E existen u´ nicos u1 ∈ H y β ∈ R tales que u = u1 + βu0 . Sea f : E → R definida por f (u) = β. Si u1 + β1 u0 ,u2 + β2u0 ∈ E = H ⊕ gn(u0 ), y λ ∈ R, entonces f (u1 + β1 u0 +u2 + β2u0 ) = f (u1 +u2 + (β1 + β2 )u0 ) = β1 + β 2 = f (u1 + β1 u0 ) + f (u2 + β2u0 ) y f (λ(u1 + β1 u0 )) = f (λu1 + λβ1 u0 ) = λβ1 = λ f (u1 + β1 u0 ). Finalmente, u = u1 + βu0 ∈ Ker( f ) ⇔β=0 ⇔ u = u1 ∈ H. Es decir, Ker( f ) = H. Q 37 (Teorema de representaci´on de Riesz). Sean E un espacio con producto interior ·, · y f ∈ E∗ un

funcional lineal. Si E tiene dimensi´on finita n, probar que existe un u´ nico u f ∈ E tal que f (x) = x,u f  para todo x ∈ E. ´ DEMOSTRACION

Q Sea {e1 , . . . ,en } una base ortonormal de E y x ∈ E, entonces x = x,e1 e1 + · · · + x,en en

Page (PS/TeX): 106 / 522, COMPOSITE

´ 5.4 SECCION

Ejercicios resueltos y ejercicios propuestos 523

y por tanto, f (x) = f (x,e1 e1 + · · · + x,en en ) = x,e1  f (e1 ) + · · · + x,en  f (en ) = x, f (e1 )e1  + · · · + x, f (en )en  = x, f (e1 )e1 + · · · + f (en )en  Luego, si u f = f (e1 )e1 + · · · + f (en )en , se tiene f (x) = x,u f  para todo x ∈ E. Sea v ∈ E tal que x,u f  = f (x) = x,v para todo x ∈ E, entonces x,u f −v = 0

∀x ∈ E

y por ende u f =v.

Q

38 (Operador adjunto). Sea E un espacio vectorial con producto interior ·, ·. Si E tiene dimensi´on finita

y T : E → E es un operador lineal, demostrar que existe un u´ nico operador lineal T ∗ : E → E tal que T (u),v = u, T ∗ (v) para todo u,v ∈ E. Al operador T ∗ se le llama el operador adjunto de T . ´ DEMOSTRACION

Q Es f´acil probar que para cada v ∈ E la aplicaci´on f (u) = T (u),v es lineal y por tanto un elemento de E∗ . Por el ejercicio resuelto 37 (teorema de representaci´on de Riesz), existe, para cada v ∈ E, un u´ nico v∗ ∈ E tal que f (u) = u,v∗ 

∀u ∈ E.

Sea T ∗ : E → E definida por T (v) = v∗ . Entonces T (u),v = f (u) = u,v∗  = u, T ∗ (v) para todo u,v ∈ E. Si v1 ,v2 ∈ E, α, β ∈ R y u es cualquier vector en E, se tiene u, T ∗ (αv1 + βv2 ) = T (u), αv1 + βv2  = α T (u),v1  + β T (u),v2  = α u, T ∗ (v1 ) + β u, T ∗ (v2 ) = u, αT ∗ (v1 ) + u, βT ∗ (v2 ) = u, αT ∗ (v1 ) + βT ∗ (v2 )

Page (PS/TeX): 107 / 523, COMPOSITE

524 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

de donde u, T ∗ (αv1 + βv2 ) − (αT ∗ (v1 ) + βT ∗ (v2 )) = 0

∀u ∈ E;

luego T ∗ (αv1 + βv2 ) − (αT ∗ (v1 ) + βT ∗ (v2 )) = 0E y por tanto T ∗ (αv1 + βv2 ) = αT ∗ (v1 ) + βT ∗ (v2 ). Lo cual prueba que T ∗ es lineal. Si T1 es un operador lineal tal que para todo u,v ∈ E T (u),v = u, T1 (v) entonces u, T1 (v) = u, T ∗ (v) por lo que u, T1 (v) − T ∗ (v) = 0

∀u,v ∈ E;

de donde se desprende T1 = T ∗ .

Q

39 Sean E, T y T ∗ como en el ejercicio anterior. Probar que si B = {e1 , . . . ,en } es una base ortonormal

de E, A es la representaci´on matricial de T relativa a esta base y B es la representaci´on matricial de T ∗ relativa a la misma base, entonces B = At . ´ DEMOSTRACION

Q Por el ejercicio resuelto 21 de este cap´ıtulo, la representaci´on matricial de T est´a dada por la matriz A = [ai j ]t donde ai j = T (ei ),e j ; por el mismo ejercicio B = [T ∗ ]B = [bi j ]t donde bi j = T ∗ (ei ),e j  = ei , T (e j ) = a ji y por tanto B = [bi j ]t = At .

Q

40 (Anuladores). Si E es un espacio vectorial y S es un subconjunto no vac´ıo de E, se define

S 0 = {φ ∈ E∗ | φ(u) = 0

∀u ∈ S}.

(a) Probar que S 0 es un subespacio de E∗ . A S 0 se le llama el anulador de S. (b) Si E tiene dimensi´on finita y S es un subespacio de E, demostrar que dim(S) + dim(S 0 ) = dim(E).

Page (PS/TeX): 108 / 524, COMPOSITE

´ 5.4 SECCION

´ DEMOSTRACION

Ejercicios resueltos y ejercicios propuestos 525

Q (a) Claramente el operador constante cero, θ, pertenece a S 0 . Si f , g ∈ S 0 y α, β ∈ R, entonces, para todo u ∈ S, (α f + βg)(u) = α f (u) + βg(u) = 0+0 = 0. (b) Sea {u1 , . . . ,un } una base de S; se completa e´ sta a una base {u1 , . . . ,um ,vm+1 , . . . ,vn } de E, y sea {φ1 , . . . , φn } su base dual. Entonces si k ≥ m + 1 φk (u j ) = 0 ∀ j y por tanto φm+1 , . . . , φn ∈ S 0 . Si u ∈ E y φ ∈ S 0 , entonces φ(u) = φ(u1 )φ1 (u) + · · · + φ(um )φm (u)+ = φ(vm+1 )φm+1 (u) + · · · + φ(vn )φm (u) = 0 + · · · + 0 + φ(vm+1 )φm+1 (u) + · · · + φ(vn )φm (u) = φ(vm+1 )φm+1 (u) + · · · + φ(vn )φm (u). Luego φm+1 , . . . , φn generan a S 0 y ya que las funciones φm+1 , . . . , φn son L.I., {φm+1 , . . . , φn } es una base de S 0 . De donde dim(E) − dim(S) = dim(S 0 ).

Q

41 (Primer teorema de isomorfismo). Sean E y F un par de espacios vectoriales y T : E → F una trans-

formaci´on lineal suprayectiva. Si H = Ker(T ), probar que E/H ∼ =F donde E/H es el espacio cociente (cfr. el ejercicio resuelto 29 del cap´ıtulo 3). ´ DEMOSTRACION

Q Sea Φ : E/H → F la transformaci´on definida, para cada [u] ∈ E/H, por Φ([u]) = T (u); entonces, (a) Φ est´a bien definida: si [u] ∈ E/H y v ∈ [u], entonces u −v ∈ H = Ker(T ) y por tanto T (u −v) = 0F ; i.e., T (u) = T (v). (b) Φ es lineal: si [u], [v] ∈ E/H y α, β ∈ R, se tiene Φ(α[u] + β[v]) = Φ([αu + βv]) = T (αu + βv) = αT (u) + βT (v) = αΦ([u]) + βΦ([v]).

Page (PS/TeX): 109 / 525, COMPOSITE

526 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

(c) Φ es inyectiva: si [u] ∈ Ker(Φ), entonces T (u) = Φ([u]) = 0F y por tanto u ∈ Ker(T ) = H; as´ı que [u] = H = [0E ] = 0E/H . (d) Φ es suprayectiva: si w ∈ F, dado que T es suprayectiva, existe u ∈ E tal que T (u) = w, luego Φ([u]) = T (u) = w.

Q

42 Sean P el espacio de polinomios y p(x) un polinomio dado de grado grad(p) = n.

(a) Probar que H = {p f | f ∈ P} es un subespacio de P. (b) Mostrar que P/H ∼ = Rn .

´ DEMOSTRACION

Q (a) Si θ es el polinomio constante cero, entonces pθ = θ y por tanto θ ∈ H. Sean p f1 , p f2 ∈ H y α, β ∈ R, entonces α(p f1 ) + β(p f2 ) = p(α f1 + β f2 ) ∈ H. (b) Por el algoritmo de divisi´on para cada g(x) ∈ P existen u´ nicos polinomios q(x) y r(x), r(x) = 0 o 0 ≤ grad(r) ≤ n − 1 (grad(g) representa el grado del polinomio g), tales que g(x) = p(x)q(x) + r(x). Sea T : P → Pn−1 dada por T (g(x)) = r(x). Si g1 (x) = p(x)q1 (x) + r1 (x) y g2 (x) = p(x)q2 (x) + r2 (x) y α ∈ R, con 0 ≤ grad(r1 ), grad(r2 ) ≤ n − 1 o r1 (x) = 0 y/o r2 (x) = 0, entonces g1 (x) + g2 (x) = p(x)(q1 (x) + q2 (x)) + r1 (x) + r2 (x), αg1 (x) = p(x)(αq(x)) + (αr1 (x)), 0 ≤ grad(r1 + r2 ) ≤ n − 1 (o r1 + r2 = θ)

y

0 ≤ grad(αr1 ) ≤ n − 1 por lo que T (g1 (x) + g2 (x)) = r1 (x) + r2 (x) = T (g1 (x)) + T (g2 (x))

y

T (αg1 (x)) = αr1 (x) = αT (g1 (x)). Lo cual prueba que T es lineal. Si r(x) ∈ Pn−1 , entonces r(x) = p(x)θ(x) + r(x) y por tanto T (r(x)) = r(x); as´ı que T es suprayectiva. Por otra parte

Page (PS/TeX): 110 / 526, COMPOSITE

´ 5.4 SECCION

Ejercicios resueltos y ejercicios propuestos 527

g(x) ∈ Ker(T ) ⇔ T (g(x)) = r(x) = 0 ⇔ g(x) = p(x)q(x) ⇔ g(x) ∈ H. Por el ejercicio anterior P/H ∼ = Pn−1 y dado que dim(Pn−1 ) = n = dim(Rn ), del teorema 5.24 (cfr. p´ag. 456) se tiene Pn−1 ∼ = Rn y entonces P/H ∼ = Rn .

Q

´ Valores y vectores propios, diagonalizacion 43 Sean E un espacio vectorial y S un subespacio de e´ l. Si T : S → E es una transformaci´on lineal tambi´en

se acostumbra decir que T es un operador lineal en E (aunque S sea distinto de E). Un escalar λ es valor propio de T si existe u ∈ S − {0E } tal que T (u) = λu. Sean E = C(−∞, ∞) el espacio vectorial x de funciones continuas en todo punto x ∈ R y S el conjunto de funciones f ∈ E tales que −∞ f (t)dt converge para todo x ∈ R. (a) Mostrar que S es un subespacio de E. (b) Se define T : S → E, para cada f ∈ S, T ( f ) = g donde g(x) =



x

−∞

f (t)dt.

Mostrar T es un operador lineal de S en E. (c) Encontrar los valores propios y vectores propios correspondientes. ´ Solucion (a) Claramente la funci´on constante cero, θ, pertenece a S. Sean f1 , f2 ∈ S; α, β ∈ R un par de escalares y x ∈ R, entonces



x

−∞

(α f1 + β f2 )(t)dt = l´ım



r→∞ −r

= α l´ım =α 

y por tanto

x −∞

x



(α f1 (t) + β f2 (t))dt x

r→∞ −r  x −∞

f1 (t)dt + β l´ım

f1 (t)dt + β

(b) Si f ∈ S, entonces f es continua en todo punto y



x −∞

Page (PS/TeX): 111 / 527, COMPOSITE

r→∞ −r

−∞

f2 (t)dt

f2 (t)dt

f (t)dt converge para todo x ∈ R. Dado que

f es continua en todo punto de R, la funci´on G(x) = α=

x

x

(α f1 + β f2 )tdt converge para todo x ∈ R; luego α f1 + β f2 ∈ S; lo cual prueba que S es

subespacio de E.







0

−∞

f (t)dt, entonces



0

x

f (t)dt es continua en todo x ∈ R. Si

528 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

g(x) =



x −∞

f (t)dt =



0

−∞

f (t)dt +



x 0

f (t)dt

= α + G(x) y por tanto g ∈ E = C(−∞, ∞). Lo cual prueba que efectivamente T ( f ) ∈ E = C(−∞, ∞) para toda f ∈ S. Sean a, b ∈ R y f1 , f2 ∈ S, entonces, para todo x ∈ R, T (a f1 + b f2 )(x) =



=a

x

(a f1 + b f2 )(t)dt

−∞  x

−∞

f1 (t)dt + b



x −∞

f2 (t)dt

= aT ( f1 )(x) + bT ( f2 )(x); esto es, T (a f1 + b f2 ) = aT ( f1 ) + bT ( f2 ). 

(c) Si

x −∞

f (t)dt = 0 para todo x ∈ R y a, b ∈ R son cualquier par de n´umeros reales, con a < b,

entonces  a



As´ı que

b a

b



f (t)dt =

b −∞

f (t)dt −



a −∞

f (t)dt = 0.

f (t)dt = 0 en todo intervalo [a, b]. Si existe x0 ∈ R tal que f (x0 ) = 0, digamos f (x0 ) >

0, entonces, por continuidad de f , existe un intervalo [x0 − δ, x0 + δ] tal que f (x) > 0 en todo este 

intervalo, luego

x0 +δ

x0 −δ

f (t)dt > 0. Lo cual es una contradicci´on al hecho descubierto de que la 

integral de f es nula en todo intervalo cerrado. Por tanto,

x

−∞

f (t)dt = 0 para todo x ∈ R implica

f (x) = 0 para todo punto x. Esto significa que λ = 0 no puede ser valor propio de T; pues la

u´ nica funci´on en S tal que T ( f ) = 0, es la funci´on f (x) = 0 para todo x ∈ R. Si G(x) =

x

0

f (t)dt

por el teorema fundamental del c´alculo, ya que f es continua en todo punto, G es derivable y adem´as G (x) = f (x) para todo x ∈ R. Por el inciso anterior, si g = T ( f ), g(x) = α + G(x) donde α =

0

−∞

f (t)dt; luego g es derivable en todo punto y g (x) = G (x) = f (x)

para todo x ∈ R. Si λ = 0 satisface T ( f ) = λ f se debe tener 

x

−∞

f (t)dt = λ f (x)

para todo punto x. Al derivar respecto a x en ambos lados de la precedente igualdad se obtiene f (x) = λ f  (x) esto es, df 1 = f dx λ

Page (PS/TeX): 112 / 528, COMPOSITE

´ 5.4 SECCION

Ejercicios resueltos y ejercicios propuestos 529

que, al separar variables (suponiendo f = 0), produce 

df 1 = f λ



dx;

es decir, ln | f | =

1 x +C λ

y por tanto f = Ae x/λ para alguna constante A = 0. Si λ > 0, g(x) =



x

−∞

Ae t/λ dt

= A l´ım



x

r→∞ −r

e t/λ dt

$ % = Aλ l´ım e x/λ − e−r/λ r→∞

= Aλe x/λ = λ f (x) 

y

x −∞

Ae t/λ dt diverge si λ < 0. As´ı, todo λ > 0 es valor propio de T con vectores propios co-

rrespondientes f (x) = Ae x/λ para cualquier constante A distinta de cero (cfr. ejemplo 5.44, p´ag. 460).  44 Sean T , R : E → E dos operadores lineales suprayectivos en el espacio E. Demostrar que T R y RT

tienen los mismos valores propios, donde T R = T ◦ R y RT = R ◦ T (cfr. el ejercicio resuelto 12 de este cap´ıtulo). ´ DEMOSTRACION

Q Sea λ un valor propio de T R, se prueba entonces que λ tambi´en es valor propio de RT . La demostraci´on de que todo valor propio de RT es tambi´en valor propio de T R es completamente sim´etrica. (a) Si λ = 0, entonces el operador T R no es inyectivo (Ker(T R − 0I) = {0E }, cfr. nota 5, p´ag. 459); y por tanto, del ejercicio resuelto 13(b) de este apartado, al menos uno de los dos operadores T , R no es inyectivo; entonces, del ejercicio resuelto 13(c), RT no es inyectivo, luego λ = 0 es valor propio de RT pues al no ser inyectivo Ker(T R − 0I) = {0E }. (b) Suponga λ = 0 y sea u ∈ E − {0E } tal que (T R)(u) = λu, entonces T (R(u)) = λu. Sea w = R(u); si w = 0E se tiene 0E = = = =

Page (PS/TeX): 113 / 529, COMPOSITE

T (w) T (R(u)) (T R)(u) λu

530 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

lo cual es imposible pues λ = 0 y u = 0E ; por tanto w = 0E . Y puesto que (RT )(w) = = = = =

RT (R(u)) R((T R)(u)) R(λu) λR(u) λw

se concluye que λ es tambi´en valor propio de RT . Q 45 Sea T : Pn → Pn el operador definido, para cada p ∈ P2 , por T (p) = q donde

q(x) = p(x) + (x + 1)p (x). (a) Probar que T es un operador lineal. (b) Encontrar los valores propios de T . (c) Determinar si T es diagonalizable y en caso positivo hallar una diagonalizaci´on para T . (d) ¿Existe una base B de Pn tal que la representaci´on matricial relativa a e´ sta del operador T es diagonal? Si la respuesta es positiva exhibir dicha base B. ´ Solucion

(a) Sean p1 , p2 ∈ Pn y α, β ∈ R. Entonces, para todo x ∈ R, T (αp1 + β p2 )(x) = (αp1 + β p2 )(x) + (x + 1)(αp1 + β p2 ) (x) = (αp1 (x) + β p2 (x)) + (x + 1)(αp1 (x) + β p2 (x)) = αp1 (x) + α(x + 1)p1 (x) + β p2 (x) + β(x + 1)p2 (x) = αT (p1 )(x) + βT (p2 )(x)

y por tanto, T (αp1 + β p2 ) = αT (p1 ) + βT (p2 ). (b) Si p = θ, donde θ es el polinomio constante cero, es un polinomio propio de T (un vector propio) y λ es un valor propio correspondiente, entonces p + (x + 1)p = λp de donde (x + 1)

dp = (λ − 1)p. dx

Al separar variables se obtiene 

dp = (λ − 1) p



dx ; x+1

y por ende, ln |p| = ln |x + 1|λ−1 +C

Page (PS/TeX): 114 / 530, COMPOSITE

´ 5.4 SECCION

Ejercicios resueltos y ejercicios propuestos 531

para alguna constante C. Luego p = C1 (x + 1)λ−1 con C1 una constante distinta a cero. Dado que p debe pertenecer a Pn , se deduce que los valores propios de T son λk = k con k = 1, 2, . . . , n + 1 y los vectores propios correspondientes a cada valor propio λk son los polinomios pk (x) = C(x + 1)k−1 , C = 0. (c) Ya que los valores propios de T , λk = k, k = 1, . . . , n + 1, son distintos entre s´ı y dim(Pn ) = n + 1, T es diagonalizable. Una diagonalizaci´on para T consiste en el par D, P donde D = diag(1, 2, . . . , n + 1) y P = [ C1

· · · Cn+1 ]

donde la columna Ck es el vector de coordenadas del polinomio propio pk (x) = (1 + x)k−1 correspondiente al valor propio λk = k; i.e., Ck es el vector que tiene como componentes los coeficientes de (1 + x)k−1 : C1 = (1, 0, . . . , 0)  n+1

    k k Ck = (1, ,..., , k, 1, 0, . . . , 0).  1 k−2 n−k

(d) S´ı, por el inciso anterior la base es B = {1, 1 + x, (1 + x)2 , . . . , (1 + x)n }.



Del ejercicio 46 al u´ ltimo ejercicio de este apartado de problemas resueltos, los espacios vectoriales, operadores lineales y matrices tratados en ellos se consideran sobre el campo de los n´umeros complejos C en forma impl´ıcita (cfr. 5.3.3). Sin embargo, se puede restringir a los n´umeros reales suponiendo que todos los valores propios de cualquier operador o matriz, as´ı como todas las ra´ıces de los polinomios involucrados son n´umeros reales. 46 Sea la matriz de tama˜no k × k



0 0 ⎢ 1 0 ⎢ ⎢ A=⎢ ⎢ 0 1 ⎢ .. .. ⎣ . . 0 0

··· ··· ··· .. . 0

⎤ −a0 −a1 ⎥ ⎥ ⎥ −a2 ⎥ ⎥. ⎥ .. ⎦ . 0 1 −ak−1 0 0 .. .

Demostrar que el polinomio caracter´ıstico de A es pA (λ) = (−1)k (a0 + a1 λ + a2 λ2 + · · · + ak−1 λk−1 + λk ).

Page (PS/TeX): 115 / 531, COMPOSITE

(5.34)

532 CAPI´TULO 5 ´ DEMOSTRACION

Transformaciones lineales, valores y vectores propios

Q Se procede por inducci´on sobre k: si k = 1, entonces pA (λ) = det (−a0 − λ) = −a0 − λ = (−1)1 (a0 + λ1 ) y el resultado es cierto para este caso. Sea n un entero mayor a 1 y suponga que la f´ormula 5.34 es v´alida para el caso k = n − 1. Entonces     0−λ 0 ··· 0 −a0     1 0−λ ··· 0 −a1     .. . 1 ··· . −a2 pA (λ) =  0    .. . .. . . .   . . 0−λ . .    0 0 0 1 −an−1 − λ  Al desarrollar por cofactores en la primera fila y hacer uso de la hip´otesis de inducci´on se obtiene     0−λ 0 ··· 0 −a1     1 0−λ ··· 0 −a2     ..  . −a3 1 ··· pA (λ) = −λ  0    .. . .. . . .   . . 0−λ . .    0 0 0 1 −an−1 − λ     1 0−λ ··· 0    ..   0 .  1 ··· + (−1)n+1 (−a0 )  .  . .. ..  .. . 0 − λ    0 0 0 1  = −λ(−1)n−1 (a1 + a2 λ + a3 λ2 + · · · an−1 λn−2 + λn−1 ) + (−1)n a0 = (−1)n (a0 + a1 λ + a2 λ2 + · · · + an−1 λn−1 + λn ). Luego 5.34 vale para todo k ∈ N.

Q

47 Sean E un espacio vectorial de dimensi´on finita, T un operador en E y S un subespacio T -invariante;

esto es, T (S) ⊂ S. Sea TS : S → S el operador lineal TS (u) = T (u) para todo u ∈ S; es decir, TS es la restricci´on de T al subespacio T -invariante S. Demostrar que si pTS (λ) es el polinomio caracter´ıstico de TS y pT (λ) es el polinomio caracter´ıstico de T , entonces pTS (λ) divide a pT (λ). ´ DEMOSTRACION

Q Sea {u1 , . . . ,uk } una base de S, entonces se puede completar e´ sta a una base B = {u1 , . . . ,uk ,vk+1 , . . . ,vn } de E. Por tanto, por ser S un subespacio T -invariante se tiene k

T (u j ) = ∑ ai ju j i=1

para j = 1, . . . , k. As´ı, A = [ai j ] t es la representaci´on matricial de TS relativa a la base {u1 , . . . ,uk } y  [T ]B =

Page (PS/TeX): 116 / 532, COMPOSITE

A B O C

 ;

´ 5.4 SECCION

Ejercicios resueltos y ejercicios propuestos 533

donde B es una matriz de tama˜no k × (n − k), C es una matriz de tama˜no (n − k) × (n − k) y O es la matriz cero de tama˜no (n − k) × k. Entonces pT (λ) = det([T ]B − λIn )   A − λIk B =  O C − λIn−k

   

= det(A − λIk ) det(C − λIn−k ) = pTS (λ)pC (λ) donde pC (λ) es el polinomio caracter´ıstico de la matriz C. Lo cual prueba que pTS (λ) divide a pT (λ). . Q 48 Sean T un operador lineal en un espacio vectorial E no trivial de dimensi´on finita y u ∈ E − {0E }.

Al subespacio S generado por los vectores u,T (u), T 2 (u), . . .; esto es S = L ({u, T (u), T 2 (u), . . .}) (cfr. el ejercicio resuelto 31 del cap´ıtulo 3, p´ag. 190) se le llama el subespacio T -c´ıclico generado por el vector u. (a) Demostrar que existe un entero k tal que {u, T (u), T 2 (u), . . . , T k−1 (u)} es una base de S. (b) Probar que S es T -invariante. (c) Sean a0 , a1 , . . . , ak−1 los u´ nicos escalares tales que T k (u) = −a0u − a1 T (u) − a2 T 2 (u) − · · · − ak−1 T k−1 (u). y TS la restricci´on del operador T al subespacio S como en el ejercicio anterior. Demostrar que pTS (λ) = (−1)k (a0 + a1 λ + a2 λ2 + · · · + ak λk ) es el polinomio caracter´ıstico del operador TS . ´ DEMOSTRACION

Q (a) Dado que u = 0E , {u} es L.I. y, puesto que la dimensi´on de E es finita, existe un menor entero k ≥ 1 tal que el conjunto {u, T (u), T 2 (u), . . . , T k−1 (u)} es L.I. Entonces u, T (u), T 2 (u), . . . , T k−1 (u), T k (u) son L.D. y por tanto T k (u) ∈ W = gn(u, T (u), T 2 (u), . . . , T k−1 (u)) ⊂ S. Si v ∈ W , existen escalares α0 , α1 , . . . , αk−1 tales que v = α0u + α1 T (u) + α2 T 2 (u) + · · · + αk−1 T k−1 (u) y por tanto, T (v) = T (α0u + α1 T (u) + α2 T 2 (u) + · · · + αk−1 T k−1 (u) = α0 T (u) + α1 T 2 (u) + α2 T 3 (u) + · · · + αk−1 T k−1 (u) ∈ W. As´ı que W = gn(u, T (u), T 2 (u), . . . , T k−1 (u)) es T -invariante. Dado que u ∈ W y este subespacio es T -invariante, se desprende que T r (u) ∈ W para todo r ∈ N. Luego W es un subespacio que

Page (PS/TeX): 117 / 533, COMPOSITE

534 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

contiene a {u, T (u), T 2 (u), . . .} y ya que S = L ({u, T (u), T 2 (u), . . .}) es el menor subespacio que contiene a este subconjunto (cfr. el ejercicio resuelto 31 del cap´ıtulo 3), se tiene S ⊂ W y por tanto S = W . Puesto que B = {u, T (u), T 2 (u), . . . , T k−1 (u)} es L.I. y genera a W = S, se concluye que es una base de S. (b) En el inciso anterior se demostr´o que S = W y que W es T -invariante. (c) Sean TS la restricci´on del operador T al subespacio T -c´ıclico S, B = {u, T (u), . . . , T k−1 (u)} la base que se construy´o en el primer inciso para e´ ste y a j , j = 0, 1, . . . , m − 1, los u´ nicos escalares tales que T k (u) = −a0u − a1 T (u) − a2 T 2 (u) − · · · − ak−1 T k−1 (u), entonces ⎡

0 0 ⎢ 1 0 ⎢ ⎢ [TS ]B = ⎢ ⎢ 0 1 ⎢ .. .. ⎣ . . 0 0

··· ··· ··· .. . 0

⎤ −a0 −a1 ⎥ ⎥ ⎥ −a2 ⎥ ⎥. ⎥ .. ⎦ . 0 1 −ak−1 0 0 .. .

Por el ejercicio resuelto 46 de este apartado, el polinomio caracter´ıstico de esta matriz est´a dado por la f´ormula (5.34), luego pTS (λ) = (−1)k (a0 + a1 λ + · · · + ak−1 λk−1 + λk ).

Q

Para los ejercicios 49 a 53 considerar lo siguiente: si T es un operador lineal en un espacio vectorial de dimensi´on finita n y p(x) = a0 + a1 x + · · · + am x m es un polinomio, se define el operador lineal p(T ) = a0 I + a1 T + · · · + am T m (cfr. el ejercicio propuesto 400 de este cap´ıtulo) donde I es el operador identidad en E. Se puede interpretar a p(T ) como la evaluaci´on del polinomio p en el operador T . De manera an´aloga si A es una matriz cuadrada de orden n, se define la matriz del mismo tama˜no p(A) = a0 I + a1 A + · · · + am Am , donde I es la matriz identidad del mismo tama˜no de A y se interpreta p(A) como la evaluaci´on del polinomio p en la matriz A. 49 Sean T un operador lineal en un espacio vectorial de dimensi´on finita n, A la representaci´on matricial de k T relativa a una base B de E y p(x) = ∑m k=0 ak x un polinomio. Demostrar que p(T ) = θ, el operador constante cero, si y s´olo si p(A) = O, la matriz cero del mismo orden de A.

´ DEMOSTRACION

Q Por el teorema 5.12 (cfr. p´ag. 436) [p(T )u]B = [a0 I(u) + a1 T (u) + a2 T 2 (u) + · · · + am T m (u)]B = a0 [u]B + a1 [T (u)]B + a2 [T 2 (u)]B + · · · + am [T m (u)]B = a0 [u]B + a1 A[u]B + a2 A2 [u]B + · · · + am Am [u]B = (a0 I + a1 A + a2 A2 + · · · + am Am )[u]B .

Page (PS/TeX): 118 / 534, COMPOSITE

´ 5.4 SECCION

Ejercicios resueltos y ejercicios propuestos 535

De donde p(T ) = θ ⇔ p(T )u = 0E ∀u ∈ E ⇔ [p(T )u]B = 0Rn ∀u ∈ E ⇔ (a0 I + a1 A + a2 A2 + · · · + am Am )[u]B = 0Rn ∀u ∈ E ⇔ (a0 I + a1 A + a2 A2 + · · · + am Am )x = 0Rn ∀x ∈ Rn ⇔ (a0 I + a1 A + a2 A2 + · · · + am Am ) = O ⇔ p(A) = O.

Q

50 (Teorema de Cayley-Hamilton). Demostrar el siguiente teorema:

(a) Si T es un operador en un espacio vectorial de dimensi´on finita y pT (λ) es su polinomio caracter´ıstico, entonces pT (T ) = θ donde θ es el operador constante cero; es decir, pT (T )(u) = 0E ∀u ∈ E. Lo cual significa que en un espacio vectorial de dimensi´on finita todo operador es un cero de su polinomio caracter´ıstico. (b) Si A es una matriz cuadrada y pA (λ) es su polinomio caracter´ıstico, entonces pA (A) = O donde O es la matriz cero del mismo orden que la matriz A. Lo cual se interpreta diciendo que toda matriz cuadrada es un cero de su polinomio caracter´ıstico. ´ DEMOSTRACION

Q (a) Sea u ∈ E, si u = 0E , entonces claramente pT (T )(u) = 0E porque T es lineal. Suponga que u ∈ E − {0E } y sea S el espacio T -c´ıclico generado por u considerado en el ejercicio resuelto 48 de este apartado. Por el ejercicio resuelto 48 existen un entero k ≥ 1 y escalares u´ nicos a j tales que {u, T (u), . . . , T k−1 (u)} es una base de S; S es un subespacio T -invariante; T k (u) = −a0 − a1 T (u) − · · · − ak−1 T k−1 (u); pTS (λ) = (−1)k (a0 + a1 λ + · · · + ak−1 λk−1 + λk ) es el polinomio caracter´ıstico de TS , la restricci´on de T al subespacio S. Entonces, por el ejercicio resuelto 47 de este cap´ıtulo, pTS (λ) divide al polinomio caracter´ıstico de pT (λ) y por tanto existe un polinomio q(λ) tal que pT (λ) = pTS (λ)q(λ).

Page (PS/TeX): 119 / 535, COMPOSITE

536 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

Y ya que (cfr. ejercicio resuelto 48 de este apartado) pTS (T )u = (−1)k (a0 I + a1 T + · · · + ak−1 T k−1 + T k )u = (−1)k (a0u + a1 T (u) + · · · + ak−1 T k−1 (u) + T k (u)) = (−1)k0E = 0E se desprende que pTS (T ) = θ. (b) Es consecuencia inmediata del inciso anterior al tomar T = TA .

Q

51 Sea p(x) = a0 + a1 x + · · · + am x m un polinomio de grado m.

(a) Si T es un operador lineal en un espacio vectorial E, λ es un valor propio de T y p se anula en T ; esto es, a0 I + a1 T + · · · am T m = θ, el operador constante cero, demostrar que p(λ) = 0. (b) Si A es una matriz cuadrada, λ es un valor propio de A y p se anula en A; esto es, a0 I + a1 A + · · · + am Am = O , la matriz cero, demostrar que p(λ) = 0. ´ DEMOSTRACION

Q (a) Sea u ∈ E − {0E } un vector propio correspondiente al valor propio λ. Entonces 0E = θ(u) = p(T )u = a0 I(u) + a1 T (u) + a2 T 2 (u) + · · · + am T m (u) = a0u + a1 λu + a2 λ2u + · · · + am λmu = (a0 + a1 λ + a2 λ2 + · · · + am λm )u y, ya que u = 0E , se concluye p(λ) = a0 + a1 λ + a2 λ2 + · · · + am λm = 0. (b) Es inmediata del inciso anterior al poner T = TA .

Q

52 (Polinomio m´ınimo).

(a) Sean E un espacio vectorial de dimensi´on finita y T un operador lineal en E. (i) Probar que existe un polinomio m´onico m (el coeficiente de la mayor potencia es uno) de grado m´ınimo tal que T es un cero de m; es decir, m(T ) = θ.

. .

(ii) Demostrar que si p es cualquier otro polinomio y T es un cero de p, entonces m divide a p. En particular m divide al polinomio caracter´ıstico de T . (iii) Mostrar que s´olo puede existir un polinomio m´onico de grado m´ınimo que se anula en T. Al polinomio m´onico m de grado m´ınimo que se anula en T se le llama el polinomio m´ınimo del operador T . (b) Sea A una matriz cuadrada. (i) Probar que existe un polinomio m´onico m (el coeficiente de la mayor potencia es uno) de grado m´ınimo tal que T es un cero de m; es decir, m(A) = O.

Page (PS/TeX): 120 / 536, COMPOSITE

´ 5.4 SECCION

. .

Ejercicios resueltos y ejercicios propuestos 537

(ii) Demostrar que si p es cualquier otro polinomio con A es un cero de p; entonces m divide a p. En particular m divide al polinomio caracter´ıstico de A. (iii) Mostrar que s´olo puede existir un polinomio m´onico de grado m´ınimo que se anula en A. Al polinomio m´onico m, de grado m´ınimo y que se anula en A, se le llama el polinomio m´ınimo de la matriz A.

´ DEMOSTRACION

Q (a) (i) Por el teorema de Cayley-Hamilton (ejercicio resuelto 50) existe al menos un polinomio que se anula en T , el polinomio caracter´ıstico de T . De entre todos los polinomios que se anulan en T hay al menos uno, m, de grado m´ınimo. Es claro que de ser necesario se puede dividir entre el coeficiente principal (el coeficiente de la mayor potencia) y hacer que m(x) sea un polinomio m´onico. (ii) Sea p(x) cualquier polinomio tal que p(T ) = θ. Por algoritmo de divisi´on existen un par de polinomios q, r tales que p(x) = m(x)q(x) + r(x) con r(x) = 0, el polinomio constante cero, o 0 ≤ grad(r) ≤ grad(m) − 1 (grad(w) denota el grado del polinomio w). Entonces θ = p(T ) = m(T )q(T ) + r(T ) = θ + r(T ) = r(T ) y por tanto r(T ) = θ. As´ı T se anula en el polinomio r(x) el cual es el polinomio constante cero o tiene grado menor que el grado del polinomio m; por la definici´on de m la u´ ltima alternativa no puede ser, entonces se concluye que r(x) es el polinomio constante cero. Luego m divide a p. (iii) Sea p1 (x) un polinomio m´onico de grado m´ınimo que se anula en T . Entonces m y p1 tienen el mismo grado y por el inciso anterior existe un escalar c tal que p1 (x) = cm(x) y puesto que ambos son m´onicos, se desprende que c = 1 y por tanto p1 (x) = m(x). (b) Es consecuencia inmediata del inciso anterior al poner T = TA . Q

53 Demostrar que el polinomio m´ınimo y el polinomio caracter´ıstico de un operador T , en un espacio de

dimensi´on finita, o de una matriz cuadrada, tienen las mismas ra´ıces y por ende, los mismos factores irreducibles. ´ DEMOSTRACION

Q Sean pT (x) y m(x) los polinomios caracter´ıstico y m´ınimo del operador T . Por el ejercicio resuelto 51 de este segmento, toda ra´ız del polinomio pT (x) es ra´ız del polinomio m´ınimo, pues toda ra´ız del polinomio caracter´ıstico es valor propio del operador T . Inversamente, puesto que m(x) divide al polinomio pT (x), toda ra´ız del polinomio m´ınimo es ra´ız del polinomio caracter´ıstico. Si λi , i = 1, . . . , k, son los valores propios distintos entre s´ı del operador T , entonces los factores irreducibles pT son (x − λ1 ), . . . , (x − λk )

Page (PS/TeX): 121 / 537, COMPOSITE

538 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

y, ya que ambos polinomios tienen las mismas ra´ıces, e´ stos son tambi´en los factores irreducibles de m. El caso para una matriz cuadrada A es consecuencia inmediata de lo precedente al tomar T = TA . Q 54 Encontrar el polinomio m´ınimo del operador lineal T : R3 → R3 definido por T (x, y, z) = (−y, 2x +

3y, −x − y + z). T (1, 0, 0) = (0, 2, −1),

´ Solucion

T (0, 1, 0) = (−1, 3, −1), T (0, 0, 1) = (0, 0, 1). Por tanto,



0 −1 3 [T ]B = ⎣ 2 −1 −1

⎤ 0 0 ⎦ 1

y   0−λ  pT (λ) =  2  −1

−1 3−λ −1

0 0 1−λ    −λ −1   = (1 − λ)  2 3−λ 

     

= (1 − λ)(λ2 − 3λ + 2) = −(λ − 1)(λ − 1)(λ − 2) = −(λ − 1)2 (λ − 2). Puesto que el polinomio m´ınimo m(λ) divide a pT (λ), ambos tienen los mismos factores lineales y m es m´onico, entonces m(λ) es uno de estos polinomios p1 (λ) = (λ − 1)2 (λ − 2), p2 (λ) = (λ − 1)(λ − 2) = λ2 − 3λ + 2. Y como p1 ([T ]B ) = −pT ([T ]B ) = −O = O y p2 ([T ]B ) = (A − I)(A − 2I) ⎤⎡ ⎡ −2 −1 −1 −1 0 1 2 0 ⎦⎣ 2 =⎣ 2 −1 −1 −1 −1 0 ⎤ ⎡ 0 0 0 = ⎣ 0 0 0 ⎦, 0 0 0 se tiene que m(λ) = p2 (λ) = λ2 − 3λ + 2 es el polinomio m´ınimo de T .

Page (PS/TeX): 122 / 538, COMPOSITE



⎤ 0 0 ⎦ −1

´ 5.4 SECCION

Ejercicios resueltos y ejercicios propuestos 539

5.4.2 Ejercicios propuestos El lector encontrar´a la respuesta a los ejercicios en cursiva en el ap´endice E al final del libro.

Transformaciones lineales (respuestas en p´aginas 1084-1086) En los ejercicios 1 a 20 utilizar la definici´on 5.1 para determinar si la transformaci´on T : E → F, definida por la f´ormula dada para todo vector en E, es o no lineal. En caso afirmativo probar rigurosamente que se cumplen las dos condiciones de esta definici´on y en caso contrario mostrar las propiedades que no se cumplen mediante contraejemplos. 1 T : R2 → R3 , T (x, y) = (−x, x + y, 2x − 2y). 2 T : R → R2 , T (x, y) = (e x , ey ). 3 T : R → R2 , T (x) = (x, e x ). 4 T : R2 → R2 , T (x, y) = (x, 0). 5 T : R3 → R3 , T (x, y, z) = (x, y, 0). 6 T : R3 → R3 , T (x, y, z) = (0, 0, z). 7 T : R3 → R2 , T (x, y, z) = (−x + 2y + z, 2x − y + z). 8 T : R2 → R2 , T (x, y) = (y, x). 9 T : R2 → R2 , T (x, y) = (x, −y). 10 T : R2 → R2 , T (x, y) = (−x, y). 11 T : R2 → R2 , T (x, y) = (x2 , y2 ). 12 T : R2 → R2 , T (x, y) = (x, x). 13 T : R2 → R, T (x, y) = xy. 14 T : R2 → R, T (x, y) = −3x + 2y. 15 T : C[0, 1] → R, T ( f ) = f (0). 16 T : C[0, 1] → R2 , T ( f ) = ( f (0), f (1)). 17 T : C1 [−1, 1] → R2 , T ( f ) = ( f  (1/2),

1

−1

f (x)dx).

18 T : Mn → R, T (A) = det(A). 19 T : P → P, T (p) = q, donde q(x) = p(x − 1).

Page (PS/TeX): 123 / 539, COMPOSITE

540 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

20 T : L1 [a, ∞) → R, T ( f ) =

de la p´agina 372.



∞ a

f (x)dx, donde L1 [a, ∞) es el espacio vectorial del ejercicio resuelto 37

En los ejercicios 21 a 30 determinar si la transformaci´on T : Rn → Rm es lineal encontrando, si es posible, una representaci´on matricial relativa a las bases can´onicas de los espacios Rn y Rm como se hizo en el ejemplo 5.11. 21 T : R3 → R4 ,

T (x1 , x2 , x3 ) = (−5x1 − x3 , −3x1 − 7x2 , 2x2 + x3 , −3x1 + 3x2 − x3 ). 22 T : R3 → R3 , T (x, y, z) = (x + z, −x + y + z, −2x + y + 3z) 23 T : R3 → R3 , T (x, y, z) = (yx + x, xz − y, x + y + z). 24 T : R3 → R3 , T (x, y, z) = (x, −y, x + y + z). 25 T : R2 → R3 , T (x, y) = (2x − 3y, −x + y). 26 T : R4 → R3 ,

T (x1 , x2 , x3 , x4 ) = (x1 − x2 + 2x3 − x4 , −2x1 − x2 + x4 , x1 − x2 + x3 − 3x4 ). 27 T : R2 → R2 , T (x, y) = (x − y, x2 − y2 ). 28 T : R3 → R, T (x, y, z) = −2x + 3y − z. 29 T : R3 → R2 , T (x, y, z) = (x + 3y − z, 2x − y + 2z). 30 T : R4 → R2 , T (x1 , x2 , x3 , x4 ) = (x1 + x2 − x3 − x4 , x1 + x2 ).

En los ejercicios 31 a 37 utilizar el ejercicio resuelto 1 de esta secci´on para encontrar una transformaci´on lineal T : Rn → Rm tal que T (ei ) = fi . 31 T : R3 → R4 , T (1, 0, 1) = (−1, 1, 2, 1), T (−1, 1, 1) = (−2, 3, 2, 4) y T (0, 1, 1) = (−2, 1, 3, 0). 32 T : R2 → R3 , T (1, 2) = (1, −1, 1) y T (−1, 1) = (−2, 3, 1). 33 T : R4 → R3 , T (1, 0, 1, 1) = (1, 1, −1), T (0, −1, 1, 1) = (2, 0, 1), T (−2, 1, 2, 1) = (1, 0, 1) y T (−1, 0, 1, 1) =

(−2, 1, 2). 34 T : R3 → R3 , T (1, 2, 1) = (1, 2, −1) y T (−1, 1, 0) = (2, −2, 1) y T (−1, 1, 3) = (1, 2, −1). 35 T : R2 → R2 , T (1, 1) = (1, 2) y T (−1, 1) = (1, 2). 36 T : P2 → P3 , T (1) = x, T (2x) = x2 , T (3x2 ) = x3 .

Page (PS/TeX): 124 / 540, COMPOSITE

´ 5.4 SECCION

Ejercicios resueltos y ejercicios propuestos 541



     1 0 0 1 −1 0 = (−1, 2, 1, 1), T = (1, 0, 1, −1), T = 37 T : M2 → R , T 0 1 1 0 1 1   1 0 (2, −1, 1, 0) y T = (0, 0, 1, 1). 0 0 4

38 Si E, F son dos espacios vectoriales y T : E → E es una transformaci´on, probar que T es lineal si y s´olo

si T (αu + βv) = αT (u) + βT (v) para todo par de vectores u,v ∈ E y para todo par de escalares α, β. 39 Encontrar la aplicaci´on lineal T : R2 → R2 tal que a todo vector u lo transforma en el vector que se

obtiene al girar φ radianes en sentido contrario a las manecillas del reloj a u y que tiene la misma norma que este vector. 40 Encontrar la aplicaci´on lineal T : R2 → R2 que a todo vector u lo transforma en la reflexi´on de e´ ste

respecto al eje x. 41 Encontrar la aplicaci´on lineal T : R2 → R2 que a todo vector u lo transforma en la reflexi´on de e´ ste

respecto al eje y. 42 Encontrar la aplicaci´on lineal T : R3 → R3 tal que a todo vector u lo transforma en el vector que se

obtiene al girar φ radianes en sentido contrario a las manecillas del reloj a u alrededor del eje z y que tiene la misma norma que este vector. En los ejercicios 43 a 50 utilizar los ejercicios resueltos 4 y 5 para encontrar una transformaci´on lineal T : E → F cuya imagen est´e generada por los vectores fi del espacio F. 43 E = R3 , F = R4 , f1 = (−1, 2, 1, 1), f2 = (−1, 0, 1, 1) y f3 = (2, −1, 0, 2). 44 E = R2 , F = R2 , f1 = (−1, 1) y f2 = (3, 1). 45 E = R3 , F = R3 , f1 = (1, 1, 1) y f2 = (2 − 1, 1). 46 E = R2 , F = R4 , f1 = (1, 0, 1, 1), f2 = (0, −1, 1, 1) y f3 = (2, 1, 1, 2). 47 E =gn(1, x, x2 ) < P, F = P, f1 = x2 − 2x, f2 = x3 + 1. 48 E =gn(1, x + 1, x2 − x) < P, F = P, f1 = 1, f2 = x2 + 1, f3 = 3x − 2. 49 E = gn(cos x, sen x) < F(R), F = R2 , f1 = (1, 1), f2 = (−1, 2). 50 E el espacio de matrices sim´etricas 2 × 2, F = R3 , f1 = (1, 0, 0), f2 = (0, 1, 0) y f3 = (0, 0, 1). 51 Probar que si E es un espacio de dimensi´on finita n; F es un espacio vectorial cualquiera; e1 , . . . ,em , con

0 < m < n, son vectores L.I. del espacio E y dim(F) > n − m; entonces existe T ∈ L (E, F), no nula, tal que Ker(T ) = gn(e1 , . . . ,em ).

Page (PS/TeX): 125 / 541, COMPOSITE

542 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

En los ejercicios 52 a 57 encontrar, utilizando el ejercicio precedente, una transformaci´on T ∈ L (E, F) cuyo n´ucleo est´e generado por los vectores dados del espacio E. 52 E = R4 , F = R3 , e1 = (−1, 2, 1, 0), e2 = (1, 0, 1, 1). 53 E = R4 , F = R3 , e1 = (−1, 1, −1, 0), e2 = (−2, 0, 1, 1). 54 E = R3 , F = R3 , e1 = (−1, 0, 1). 55 E = R3 , F = R4 , e1 = (1, 0, 1), e2 = (−1, 0, 1). 56 E = P3 , F = P, e1 = x − 1, e2 = x.

 57 E = M2 , F = R4 , e1 =

1 0 −1 2



 , e2 =

1 0 0 1

 .

58 Encontrar una transformaci´on lineal T : R3 → R3 cuyo n´ucleo est´e generado por (−1, 2, 1) y cuya ima-

gen est´e generada por (−2, 1, 3) y (−1, 0, 1). 59 Encontrar una transformaci´on lineal T : R3 → R4 cuyo n´ucleo est´e generado por (−1, 0, 1), (0, −1, 1) y

cuya imagen est´e generada por (1, −1, 0, 2) y (3, −1, 0, 1). 60 Hallar una transformaci´on lineal T : P3 → P cuyo n´ucleo est´e generado por x − 2, x2 y cuya imagen

est´e generada por x − 1, x3 . 61 Encontrar una transformaci´on lineal T : P4 → P tal que su n´ucleo est´e generado por x − 1, 2 − x y la

imagen est´e generada por x2 − 2, 4 − x2 , x3 + 1. 62 Sea T : Rn → Rm una transformaci´on (no necesariamente lineal); entonces T (u) = (T1 (u), . . . , Tm (u)),

donde Ti : Rn → R, i = 1, . . . , m. A las tranformaciones Ti se les llaman funciones componentes de la aplicaci´on T . Por ejemplo, si T : R3 → R2 est´a definida por T (x, y, z) = (x2 − yz, xz + y2 ) para todo (x, y, z) ∈ R3 , entonces las funciones componentes de T son T1 (x, y, z) = x2 − yz y T2 (x, y, z) = xz + y2 . (a) Sea T : Rn → R una transformaci´on. Probar que T es lineal si y solo si existen ai ∈ R, i = 1, . . . , n, tales que T (x1 , . . . , xn ) = a1 x1 + · · · + an xn . (b) Sea T : Rn → Rm una transformaci´on con funciones componentes Ti : Rn → R, i = 1, . . . , m. Probar que T es lineal si y s´olo si todas sus funciones componentes son lineales. (c) Sea T : Rn → Rm una transformaci´on con funciones componentes Ti : Rn → R, i = 1, . . . , m. Probar que T es lineal si y s´olo si todas sus funciones componentes son de la forma n

T j (x1 , . . . , xn ) = ∑ a ji xi i=1

para ciertos escalares a ji .

Page (PS/TeX): 126 / 542, COMPOSITE

´ 5.4 SECCION

Ejercicios resueltos y ejercicios propuestos 543

En los ejercicios 63 a 77 utilice el ejercicio 62(c) para determinar por simple inspecci´on si la transformaci´on T : Rn → Rm , definida por la f´ormula indicada para todo u ∈ Rn , es lineal o no. 63 T : R3 → R2 , T (x, y, z) = (x − y, x + y + z). 64 T : R3 → R2 , T (x, y, z) = (x + y, x + y2 + z). 65 T : R4 → R3 , T (x1 , x2 , x3 , x4 ) = (0, x1 − x2 , 2x1 + x2 + 3x3 − x4 ). 66 T : R4 → R2 , T (x1 , x2 , x3 , x4 ) = (x1 x2 + x3 , x1 + x4 ). 67 T : R2 → R2 , T (x, y) = (x cos θ, y sen θ), donde θ ∈ R es dado. 68 T : R2 → R2 , T (x, y) = (θ cos x, θ sen y), donde θ ∈ R es dado. 69 T : R4 → R4 , T (x1 , x2 , x3 , x4 ) = (x1 + 1, x2 + 1, x3 + 1, x4 + 1). 70 T : R3 → R3 , T (x, y, z) = (x, 2y, 3z). 71 T : R2 → R2 , T (x, y) = (x, y2 ). 72 T : R2 → R2 , T (x, y) = (x, ey ). 73 T : R2 → R2 , T (x, y) = (x, |y|). 74 T : R3 → R3 , T (x, y, z) = (y, −x, z). 75 T : Rn → R, T (x1 , . . . , xn ) =

1 n

∑ni=1 xi .

76 T : Rn → R, T (x1 , . . . , xn ) =

1 n

∏ni=1 xi = 1n x1 , . . . , xn .

77 T : Rn → Rn , T (x1 , . . . , xn ) = (x1 , x1 + x2 , . . . , x1 + · · · + xn ). 78 Sean E un espacio con producto interior ·, ·, v ∈ E − {0E } un vector dado, S = gn(v) y π : E → S

definida por π(u) = pu donde pu es el vector proyecci´on de cada u ∈ E sobre v. (a) Probar que π es lineal. (b) Determinar el n´ucleo de π. 79 Sean E = Rn , e1 , . . . ,em ∈ E vectores L.I. dados, S = gn(e1 , . . . ,em ) y T : E → S definida por π(u) = pu

donde pu es el vector proyecci´on de cada u ∈ E sobre S. (a) Probar que π es lineal. (b) Determinar el n´ucleo de π. 80 Sean E un espacio con producto interior ·, ·, S = {0E } un subespacio de dimensi´on finita de E y

π : E → S definida por π(u) = pu donde pu es el vector proyecci´on de cada u ∈ E sobre S. (a) Probar que π es lineal. (b) Determinar el n´ucleo de π.

Page (PS/TeX): 127 / 543, COMPOSITE

544 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

En los ejercicios 81 a 90 T : Rn → Rm es una transformaci´on definida por la f´ormula dada para todo u ∈ Rn . (i) Por simple inspecci´on, utilizando el ejercicio 62(c), verificar que T es lineal; (ii) hallar una matriz A ∈ Mm×n tal que T = TA (cfr. la discusi´on dada en la p´ag. 420); (iii) hallar una base y dim(T (Rn )); (iv) encontrar una base y la dimensi´on de Ker(T ); (v) determinar si T es inyectiva y (vi) determinar si T es suprayectiva. 81 T : R3 → R2 , T (x, y, z) = (−x + 2y − 3z, x + y − z). 82 T : R2 → R2 , T (x, y) = (x + y, −y). 83 T : R3 → R3 , T (x, y, z) = (−x + y + z, −2x + y + 3z, x − 2z). 84 T : R2 → R3 , T (x, y) = (x + y, y, 0). 85 T : R4 → R3 , T (x1 , x2 , x3 , x4 ) = (x1 − x2 + 3x3 , −x2 + x1 , −x1 + x2 − 4x3 + x4 ). 86 T : R4 → R4 , T (x1 , x2 , x3 , x4 ) = (x1 , x2 + x3 , x1 − x4 , x1 + x2 + x3 ). 87 T : R3 → R3 , T (x, y, z) = (x − y + z, 2x − y − 3z, 3x − y − 7z). 88 T : R3 → R4 , T (x, y, z) = (x − y + z, x + 3y − 4z, x − 2y + z, 3x − 4y − z). 89 T : R4 → R4 , T (x1 , x2 , x3 , x4 ) = (x1 − x2 , x1 + x3 − x4 , −x1 − 2x2 − 3x3 + 3x4 , −x2 − x3 ). 90 T : R3 → R3 , T (x, y, z) = (x − y + z, −2x + y + z, x − y + 2z). 91 Sea T ∈ L (Rn , R), probar que T es suprayectiva o T es la aplicaci´on constante cero. 92 Sea T ∈ L (R, Rn ), probar que T es inyectiva o T es la aplicaci´on constante cero. 93 Mostrar que si T1 y T2 son transformaciones lineales de un espacio vectorial E de dimensi´on finita en

un espacio F y {u1 , . . . ,un } es una base de E, entonces T1 = T2 si y s´olo si T1 (ui ) = T2 (ui ) para todo i = 1, . . . , n. 94 Sean E, F dos espacios vectoriales con dim(E) finita, S < E y T ∈ L (E, F). Demostrar que

dim(S) = dim(S ∩ Ker(T )) + dim(T (S)). 95 Sean E, F espacios vectoriales y T ∈ L (E, F). Mostrar que si T (u1 ), . . . , T (um ) son L.I. en F, entonces

u1 , . . . ,um son L.I. en E. ¿Es cierto el rec´ıproco? Si la respuesta es negativa, dar un contraejemplo. 96 Sean E y F un par de espacios vectoriales y T1 , T2 : E → F dos transformaciones lineales tales que

T1 (E) ∩ T2 (E) = {0F }, mostrar que T1 y T2 son L.I. en el espacio vectorial L (E, F) (cfr. el ejercicio resuelto 31 del cap´ıtulo 3, p´ag. 190).

97 Sean P el espacio de polinomios y n ≥ 1 un entero. Para cada k = 1, . . . , n sea Tk el operador lineal en P

definido por Tk (p) = p(k) , donde p(k) es la k-´esima derivada del polinomio p. Demostrar que T1 , . . . , Tn son L.I.

Page (PS/TeX): 128 / 544, COMPOSITE

´ 5.4 SECCION

Ejercicios resueltos y ejercicios propuestos 545

98 Probar que si T ∈ L (E, F), entonces

dim(T (E)) ≤ dim(F). 99 Sean A ∈ Mm×n y B ∈ Mn×p , probar que

Rang(AB) ≤ Rang(B)

y

Rang(AB) ≤ Rang(A). 100 Sea T : R∞ → R∞ la funci´on definida por T ((an )) = (a2n ) para cada sucesi´on (an ) ∈ R∞ .

(a) Demostrar que T es un operador lineal en el espacio de sucesiones R∞ . (b) Probar que T es suprayectivo. (c) Demostrar que T es singular (no inyectivo). (d) Sea c00 el subespacio de sucesiones finitas (cfr. el ejercicio propuesto 357 del cap. 3, p´ag. 228). Demostrar que T (c00 ) = c00 . (e) Mostrar que (cfr. el ejercicio resuelto 8 de esta secci´on) c00 ⊂ T −1 (c00 ) pero c00 = T −1 (c00 ). 101 Sea T : C[0, 1] → C[0, 1] el operador definido por T ( f ) = g donde g(x) =

x 0

f (t)dt, mostrar que T es

inyectivo pero no suprayectivo. 102 Sean E y F un par de espacios vectoriales con dimensi´on de E finita, V < F, T ∈ L (E, F) y T −1 (V ) la

imagen inversa del subespacio V (cfr. el ejercicio resuelto 8). Probar que dim(T −1 (V )) = dim(Ker(T ) + dim(V ∩ T (E)). En los ejercicios 103 a 107 E = Mn es el espacio de matrices de orden n y T : E → E es el operador definido como T (A) =

A + At 2

para toda A ∈ E. 103 Probar que T es un operador lineal en E. 104 Probar que Ker(T ) es el subespacio S2 matrices antisim´etricas (cfr. el ejercicio resuelto 28, p´ag. 187). 105 Demostrar que T (E) es el subespacio de todas las matrices sim´etricas (cfr. el ejemplo 3.25). 106 En el ejercicio propuesto 353 del cap´ıtulo 3 (p´ag. 227), se pide encontrar la dimensi´on del subespacio

de matrices sim´etricas. Utilizar ese resultado para calcular la dimensi´on del subespacio de matrices antisim´etricas.

Page (PS/TeX): 129 / 545, COMPOSITE

546 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

107 Sea L : E → E el operador definido, para cada A ∈ E, por

L(A) =

A − At . 2

(a) Probar que L es lineal. (b) Describir Ker(L), encontrar una base para este subespacio y su dimensi´on. (c) Determinar L(E), encontrar un base y la dimensi´on de este subespacio. 108 Sean F (R) el espacio de funciones reales con dominio en R y T : F (R) → F (R) el operador definido,

para cada f ∈ F (R), por T ( f ) = g donde g(x) =

f (x) + f (−x) 2

para todo x ∈ R. (a) Probar que T es lineal. (b) Determinar el n´ucleo y la imagen de T (cfr. los ejercicios 124 y 125 del cap´ıtulo 3). 109 Sean F (R) el espacio de funciones reales con dominio en R y T : F (R) → F (R) el operador definido,

para cada f ∈ F (R), por T ( f ) = g donde g(x) =

f (x) − f (−x) 2

para todo x ∈ R. (a) Probar que T es lineal. (b) Determinar el n´ucleo y la imagen de T (cfr. los ejercicios 124 y 125 del cap´ıtulo 3). En los ejercicios 110 a 124 se define una transformaci´on T entre los espacios vectoriales indicados E y F. (i) Probar que T es lineal; (ii) determinar el n´ucleo y la imagen de T ; (iii) calcular las dimensiones de Ker(T ) y T (E) y en caso de ser finitas hallar bases para estos subespacios. 110 E = F = Pn , T : E → F definida por T (p) = q donde, para cada p ∈ E, q(x) = p(x − 1) para todo x. 111 E = F = P3 , T : E → F definida por T ( f ) = g donde, para cada f ∈ E, g(x) = x f  (x) para todo x. 112 E = F = P3 , T : E → F definida por T ( f ) = g donde, para cada f ∈ E, g(x) = f  (x) para todo x. 113 E = P, F = R, T : E → F definida por T ( f ) = f (0). 114 E = P3 , F = R, T : E → F definida por T ( f ) = f (0). 115 E = M2 , F = R, T : E → F, T (A) = tra(A), la traza de la matriz A (la suma de los elementos de la

diagonal). 116 E = M3 , F = R, T : E → F, T (A) = tra(A), la traza de la matriz A (la suma de los elementos de la

diagonal).

Page (PS/TeX): 130 / 546, COMPOSITE

´ 5.4 SECCION

Ejercicios resueltos y ejercicios propuestos 547

117 E = P2 , F = P3 , T : E → F, T (p) = q, donde q(x) = xp(x) + p (x). 118 E = C1 (R), el espacio de funciones con valores reales derivables con continuidad en R; F = C(R), el

espacio de funciones con valores reales continuas en R; T : E → F definida por T ( f ) = g(x), donde g(x) = x f (x) + f  (x) para todo x ∈ R. 119 E = F = P3 , T : E → F definida por T ( f ) = g donde, para cada f ∈ E, g(x) = x f  (x) para todo x. 120 E = F = C[−1, 1], T : E → F definida por T ( f ) = g donde, para cada f ∈ E, g(x) = x f  (x) para todo

x ∈ [−1, 1]. 121 E = F = C[a, b], T : E → F definida por T ( f ) = g donde, para cada f ∈ E,

g(x) =

 a

b

f (t)e x−t dt

para todo x ∈ [a, b]. En este caso se debe primero probar que efectivamente g ∈ C[a, b]. 122 E = F = C[a, b], T : E → F definida por T ( f ) = g donde, para cada f ∈ E,

g(x) =



b a

f (t) sen(x − t)dt

para todo x ∈ [a, b]. En este caso se debe primero probar que efectivamente g ∈ C[a, b]. 123 E = C2 [a, b], F = C[a, b], T : E → F definida por T ( f ) = f  + 2 f  − 3 f para cada f ∈ C 2 [a, b]. 124 E = F el espacio de sucesiones convergentes (cfr. el ejercicio 112 de la p´ag. 213), T : E → F definida,

para cada (an ) ∈ E, por T ((an )) = (yn ) donde yn = a − an para todo n y a = l´ımn→∞ an . En los ejercicios 125 a 129 E = C[−π, π], S es el subconjunto de E de funciones f tales que 

π

−π

f (x)dx = 0,



π −π

f (x) cos xdx = 0 y



π −π

f (x) sen xdx = 0.

125 Probar que S es un subespacio de E. 126 Probar que las funciones fn (x) = cos(nx) y gn (x) = sen(nx) pertenecen a S para todo n = 2, 3, . . . 127 Probar que S tiene dimensi´on infinita. 128 Sea T : E → E el operador definido, para cada f ∈ E, por T ( f ) = g(x) donde

g(x) =



π −π

(1 + cos(x − t)) f (t)dt

para todo x ∈ [−π, π], probar que T es lineal. 129 Sea T el operador lineal definido en el ejercicio anterior.

(a) Probar que T (E) tiene dimensi´on finita, hallar una base para este subespacio y el rango de T (la dimensi´on de T (E)).

Page (PS/TeX): 131 / 547, COMPOSITE

548 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

(b) Encontrar el n´ucleo de T . (c) Hallar todas las funciones f ∈ C[−π, π] tales que T ( f ) = λ f para alguna constante λ ∈ R (las funciones propias de T ). 130 Sean E un espacio vectorial, T un operador lineal en e´ l que es inyectivo y E = T (E). Probar que T es

una transformaci´on lineal biyectiva del espacio E al espacio E y que por tanto es invertible. En los ejercicios 131 a 137 se define un operador T : Rn → Rn en el espacio Rn indicado. (i) Probar que T es un operador lineal; (ii) mostrar que T es biyectivo; (iii) encontrar T −1 (u) para todo u ∈ Rn . 131 R2 , T (x, y) = (x + 2y, x + y). 132 R2 , T (x, y) = (x − 2y, −x + 3y). 133 R2 , T (x, y) = (x − y, 2x − 3y) 134 R3 , T (x, y, z) = (x − y + z, x − 2y − z, −x + 3y − 2z). 135 R3 , T (x, y, z) = (x + y, x − y − z, −x + y − z). 136 R3 , T (x, y, z) = (x + y + 3z, x − y, x + z, ). 137 R3 , T (x, y, z) = (x + y, 3x + y + z, 2x − y + z).

En los ejercicios 138 a 148, E es un espacio vectorial y T , T1 , T2 : E → E son operadores lineales. Se acostumbra escribir T T1 en lugar de la notaci´on empleada para la composici´on T ◦T1 de estos operadores (cfr. el ejercicio resuelto 12 de esta secci´on). Se definen T 0 = I, donde I(u) = u para todo u ∈ E es el operador lineal identidad; T n = T · · ◦ T o, de manera m´as rigurosa: T 1 = T y por inducci´on T n =  ◦ ·

n

T ◦ T n−1 para n = 1, 2, . . . y, si T es adem´as invertible, se define T −n = (T −1 )n para todo n = 0, 1, 2, . . . Del ejercicio propuesto 12 de esta secci´on T T1 , T n son operadores lineales tambi´en. 138 Probar que T (αT1 ) = α(T T1 ) para todo α ∈ R. 139 Mostrar que (αT )(βT1 ) = αβ(T T1 ) para todo par de n´umeros reales α, β ∈ R. 140 Demostrar que T n T m = T n+m para todo par de n´umeros enteros no negativos n, m; y que esta misma

igualdad es v´alida para todo par de n´umeros enteros n, m si adem´as el operador T es invertible. 141 Mostrar que (T n )m = T nm para todo par de n´umeros enteros no negativos n, m y que esta misma igualdad

es v´alida para todo par de n´umeros enteros n, m si adem´as el operador T es invertible. 142 Demostrar que

T (T1 + T2 ) = T T1 + T T2 y (T1 + T2 )T = T1 T + T2 T.

Page (PS/TeX): 132 / 548, COMPOSITE

´ 5.4 SECCION

Ejercicios resueltos y ejercicios propuestos 549

143 Probar que T I = IT = T . 144 Dar un ejemplo de un espacio E y un par de operadores lineales T1 y T2 tales que T1 T2 = T2 T1 . 145 Si T1 y T2 conmutan; es decir, T1 T2 = T2 T1 , mostrar que (T1 T2 )n = T1n T2n para cualquier entero n ≥ 0. 146 Si T1 y T2 son invertibles, demostrar que T1 T2 es tambi´en invertible y (T1 T2 )−1 = T2−1 T1−1 ; i.e., (T1 ◦

T2 )−1 = T2−1 ◦ T1−1 .

147 Si T1 y T2 conmutan y son invertibles, probar que sus respectivos operadores inversos tambi´en conmutan. 148 Demostrar que si T1 y T2 conmutan entonces:

(a) (T1 + T2 )2 = T12 + 2T1 T2 + T22 . (b) (T1 + T2 )3 = T13 + 3T12 T2 + 3T1 T22 + T23 . (c) Indicar c´omo deben modificarse las f´ormulas de los dos incisos anteriores en el caso de que T1 T2 = T2 T1 . 149 Sean T1 , T2 : R3 → R3 los operadores lineales definidos por T1 (x, y, z) = (x, z, y) y T2 (x, y, z) = (x, x +

y, x + y + z) para cada (x, y, z) ∈ R3 . (a) Encontrar la imagen del punto (x, y, z) al aplicarle cada uno de los operadores lineales (i) T1 T2 ; (ii) T2 T1 ; (iii) T12 ; (iv) T22 ; (v) (T1 T2 − T2 T1 )2 . (b) Demostrar que T1 y T2 son invertibles y encontrar (i) T1−1 (x, y, z), (ii) T2−1 (x, y, z); (iii) (T1 T2 )−1 (x, y, z); (iv) (T2 T1 )−1 (x, y, z); para todo (x, y, z) ∈ R3 . (c) Encontrar (T − I)n (x, y, z) para todo (x, y, z) ∈ R3 y para cada n ≥ 1. 150 Sea E un espacio vectorial. Un proyector en E es un operador lineal T : E → E tal que T 2 = T . Probar

que si E es un espacio con producto interior ·, · y S es un subespacio no trivial de dimensi´on finita de E, entonces π : E → E, con π(u) el vector proyecci´on de u sobre S (cfr. el ejercicio propuesto 80 de esta secci´on), es un proyector en E. 151 Sean E un espacio vectorial y S1 un subespacio de e´ l. Si T : E → E es una proyecci´on sobre S1 (cfr. el

ejercicio 17 de esta secci´on), mostrar que T es un proyector en E (cfr. el ejercicio anterior). 152 Si E es un espacio vectorial y T es un operador lineal en e´ l, mostrar que T 2 = θ, el operador lineal

constante cero, si y s´olo si T (E) ⊂ Ker(T ). 153 Sean E un espacio vectorial de dimensi´on finita, T : E → E un operador lineal tal que Rang(T 2 ) =

Rang(T ). (a) Mostrar que T (E) ∩ Ker(T ) = {0E }. (b) Probar que E = T (E) ⊕ Ker(T ) (cfr. el ejercicio resuelto 27 del cap´ıtulo 3). 154 Sean P el espacio de polinomios y D, J : P → P los operadores derivaci´on, D(p) = p , y el operador x

integraci´on, J(p) = q(x) donde q(x) =

Page (PS/TeX): 133 / 549, COMPOSITE

0

p(t)dt para todo x ∈ R.

550 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

(a) Mostrar que DJ = I, el operador identidad en P; pero JD = I. (b) Hallar Ker(JD) y (JD)(P). (c) ¿Son invertibles estos operadores? (Cfr. el ejercicio resuelto 14 de esta secci´on.) 155 Sean P el espacio de polinomios, D el operador derivaci´on en P y T : P → P el operador definido por

T (p) = q donde q(x) = xp (x) para cada p ∈ P. (a) Si p(x) = 1 − 2x + 3x2 + x3 calcular la imagen de p bajo los operadores (i) D, (ii) T , (iii) DT , (iv) T D, (v) DT − T D, (vi) T 2 D2 − D2 T 2 . (b) Encontrar los polinomios p para los cuales T (p) = p. (c) Hallar los polinomios p para los cuales (DT − 2D)(p) = θ, el operador constante cero. (d) Hallar los polinomios p para los cuales (DT − T D)n (p) = Dn (p), n ≥ 2 un entero. 156 Sean P el espacio de polinomios; D(p) = p el operador derivaci´on; T (p) = q, donde q(x) = xp(x) para

cada p ∈ P; e I el operador identidad en P, I(p) = p. (a) Probar que T es un operador lineal en E. (b) Demostrar que DT − T D = I. (c) Mostrar que DT n − T n D = nT n−1 para cada entero n ≥ 1. 157 Sean E un espacio vectorial; T1 , T2 un par de operadores lineales en E; e I el operador identidad en E,

I(u) = u para todo u ∈ E. Si T1 T2 − T2 T1 = I, probar que T1 T2n − T2n T1 = nT2n−1 para todo entero n ≥ 1. 158 Sean E un espacio vectorial, T un operador lineal en e´ l, T 2 = T ◦ T el operador composici´on de T

consigo mismo (cfr. el ejercicio resuelto 12 de esta secci´on) e I el operador lineal identidad (I(u) = u ∀u ∈ E). Si T 2 = θ, el operador constante cero, probar que I − T es un operador lineal no singular (invertible). (Sugerencia: Utilice el ejercicio resuelto 14 de esta secci´on y el ejercicio precedente.) 159 Sea T un operador lineal en un espacio vectorial E tal que T 2 + 2T + I = θ, el operador constante cero;

mostrar que T es invertible. 160 Sean E un espacio vectorial, T un operador lineal en e´ l, T 3 = T ◦ T ◦ T el operador composici´on de T

consigo mismo tres veces (cfr. el ejercicio resuelto 12 de esta secci´on) e I el operador lineal identidad (I(u) = u ∀u ∈ E). Si T 3 = θ, el operador constante cero, probar que I − T es un operador lineal no singular (invertible). 161 Probar que si E es un espacio vectorial, T : E → E es un operador lineal, u ∈ E es un vector tal que

T 2 (u) = 0E y T (u) = 0E , entonces u y T (u) son L.I.

162 Sean E un espacio vectorial no nulo, T un operador en e´ l tal que T 2 = T , T = θ, el operador constante

cero, y T = I, el operador identidad. Mostrar que:

Page (PS/TeX): 134 / 550, COMPOSITE

´ 5.4 SECCION

Ejercicios resueltos y ejercicios propuestos 551

(a) Existe u ∈ E − {0E } tal que T (u) = u. (b) Existe v ∈ E − {0E } tal que T (u) = 0E . 163 Sean E y T como en el ejercicio precedente y

S1 = {u ∈ E | T (u) = u}, S2 = {u ∈ E | T (u) = 0E }. Mostrar que: (a) S1 < E y S2 < E. (b) S1 = {0E } y S2 = {0E }. (c) E = S1 ⊕ S2 , la suma directa de S1 con S2 (cfr. el ejercicio resuelto 27 del cap´ıtulo 3). 164 Sea T un operador lineal en un espacio vectorial E tal que T 2 = I. Suponer que existe u ∈ E − {0E } tal

que T (u) = αu para alg´un α ∈ R. Encontrar los posibles valores de α. 165 Sean E un espacio vectorial no nulo y T un operador lineal en e´ l tal que T 2 − 2T + I = θ, el operador

lineal constante cero. Mostrar que existe u ∈ E, con u = 0E tal que T (u) = u.

166 Sean E un espacio vectorial y T un operador lineal en e´ l tal que T 2 − 2T + I = θ, el operador lineal

constante cero. Probar que T es invertible y hallar T −1 . 167 Sean E un espacio vectorial, T un operador lineal en e´ l y αi ∈ R, i = 1, . . . , n, escalares con αn = 0.

Probar que si T satisface T n + α1 T n−1 + · · · + αn−1 T + αn I = 0 entonces T es invertible. Encontrar T −1 . 168 Sean E un espacio vectorial y T un operador lineal en e´ l. T es nilpotente (o nihilpotente) si existe un

entero no negativo n tal que T n = θ, el operador constante cero. Al menor entero no negativo ν tal que T ν = θ se le llama el ´ındice de nilpotencia (o nihilpotencia) de T . Probar que si u ∈ E es tal que T ν−1 (u) = 0E , entonces los vectores u, T (u), T 2 (u), . . . , T ν−1 (u) son L.I. 169 Sean E un espacio vectorial, T un operador nilpotente definido en E y ν el ´ındice de nilpotencia de e´ l

(cfr. el ejercicio precedente). (a) Probar que T m = θ para todo m ≥ ν. (b) Si dim(E) = n < ∞, demostrar que T n = θ. 170 Sea el operador lineal T : R4 → R4 definido por T (x) = Ax donde

⎤ 5 1 −6 −3 ⎢ −2 1 5 3 ⎥ ⎥. A=⎢ ⎣ 9 1 −13 −7 ⎦ −12 −3 14 7 ⎡

Demostrar que T es nilpotente encontrando su ´ındice de nilpotencia (cfr. el ejercicio propuesto 168 de esta secci´on).

Page (PS/TeX): 135 / 551, COMPOSITE

552 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

´ matricial (respuestas en p´aginas 1086-1090) Representacion En los ejercicios 171 a 186 probar que B = {e1 , . . . ,en } es una base del espacio E y hallar [u]B ∈ Rn , el vector de coordenadas para el vector dado u relativo a la base ordenada (e1 , . . . ,en ). 171 B = {(1, 2), (1, 1)}, E = R2 , u = (−1, 1). 172 B = {(1, 3), (1, 2)}, E = R2 , u = (2, 3). 173 B = {(−2, 2), (−1, 0)}, E = R2 , u = (3, 1). 174 B = {(3, −2), (−1, 4)}, E = R2 , u = (5, −1). 175 B = {(1, 0, 1), (−1, 1, 0), (1, −1, 1)}, E = R3 , u = (−1, 3, 1). 176 B = {(1, 2, 1), (−1, 1, 1), (−1, 1, 2)}, E = R3 , u = (1, 0, 1). 177 B = {(1, −1, 3), (−1, 2, −3), (2, −2, 5)}, E = R3 , u = (3, −3, 1). 178 B = {(1, −2, −2), (−2, 3, 1), (−1, 2, 1)}, E = R3 , u = (2, 1, −2). 179 B = {(1, −2, 3, 4), (−2, 5, −6, −8), (1, −2, 4, 4), (3, −5, 9, 11)}, E = R4 , u = (2, −3, 0, 1). 180 B = {(1, 2, −1, 0), (−1, −2, 9, −1), (2, 1, 1, 1), (−3, −1, 1, −2)}, E = R4 , u = (−1, 0, 1, 1). 181 B = {x − 1, x − 2, x2 + 1}, E = P2 , u = x2 − 2x + 3. 182 B = {1, x − 1, x2 − 2, x3 + 3}, E = P3 , u = 2x3 − x2 + 3x. 183 B = {x − 1, x − 2, x2 − 1}, E = P2 , u = x2 + 2x. 184 B = {2 − x, x2 − 1, x2 − 2, x3 − 1, x4 }, E = P4 , u = x + x4 .



       0 1 1 −1 −1 −2 2 3 185 B = , , , E el espacio de matrices sim´etricas 2 × 2, u = . 1 2 −1 1 −2 3 3 0           1 1 0 1 −1 0 0 1 1 1 186 B = , , , , E = M2 , u = . 1 2 1 −1 0 −1 0 −1 −1 3 En los ejercicios 187 a 196 encontrar la matriz cambio de base de la base can´onica B1 a la base dada B2 del espacio indicado E. 187 Del espacio E y la base B2 = B del ejercicio propuesto 171. 188 Del espacio E y la base B2 = B del ejercicio propuesto 172. 189 Del espacio E y la base B2 = B del ejercicio propuesto 177.

Page (PS/TeX): 136 / 552, COMPOSITE

´ 5.4 SECCION

Ejercicios resueltos y ejercicios propuestos 553

190 Del espacio E y la base B2 = B del ejercicio propuesto 178. 191 Del espacio E y la base B2 = B del ejercicio propuesto 179. 192 Del espacio E y la base B2 = B del ejercicio propuesto 180. 193 Del espacio E y la base B2 = B del ejercicio propuesto 181. 194 Del espacio E y la base B2 = B del ejercicio propuesto 182. 195 Del espacio E y la base B2 = B del ejercicio propuesto 184. 196 Del espacio E y la base B2 = B del ejercicio propuesto 185.

En los ejercicios 197 a 208 encontrar la matriz cambio de base (i) de la base B2 a la base B1 y (ii) de la base B1 a la base B2 , en el espacio indicado E. 197 B1 = ((1, 1), (1, 0)), B2 = ((−2, 1), (−3, 2)), E = R2 . 198 B1 = ((2, 1), (1, 1)), B2 = ((4, 1), (3, 1)), E = R2 . 199 B1 = ((1, −4), (0, 1)), B2 = ((5, 2), (9, 1)), E = R2 . 200 B1 = ((−3, 5), (1, −2)), B2 = ((2, 1), (1, 0)), E = R2 . 201 B1 = ((2, 1, 4), (3, 2, 5), (0, −1, 1)), B2 = ((1, 2, −1), (0, −1, 1), (0, 0, −1)), E = R3 . 202 B1 = ((1, 0, 0), (−1, 1, 1), (1, 1, 2)), B2 = ((1, −2, −2), (−2, 3, 1), (−1, 2, 1)), E = R3 . 203 B1 = ((1, −1, 3), (−1, 2, −3), (2, −2, 5)),

B2 = ((1, −3, 2), (−1, −2, 1), (1, 0, 0)), E = R3 . 204 B1 = ((1, −2, 3, 4), (−2, 5, −6, −8), (1, −2, 4, 4), (3, −5, 9, 11)), B2 la base can´onica de E = R4 . 205 B1 = (−x + x2 , 1 − 2x + 2x2 , −2x + x2 ), B2 = (−3 − 3x − x2 , 5 + 2x + 2x2 , x), E = P2 . 206 B1 = (1 − 2x − 2x2 , −2 + 3x + x2 , −1 + 2x + x2 ), B2 = (−2 + 3x − x2 , 5 − x + x2 , 3 − 2x + x2 ), E = P2 . 207 B1 = (1 − x + 3x2 , −1 + 2x − 3x2 , 2 − 2x + 5x2 ), B2 = (1 − x + 3x2 , −1 + 2x − 3x2 , 2 − 2x + 5x2 ), E = P2 . 208 B1 = (−1+3x −2x2 +2x3 , 2−5x +4x2 −4x3 , −1+3x −3x2 −2x3 , 1−3x +2x2 −x3 ), B2 = (1, x, x2 , x3 ),

E = P3 . 209 Sean B1 = (e1 , . . . ,en ) y B2 = (f1 , . . . , fn ) bases ordenadas de Rn , A la matriz que tiene por columnas

a los vectores ei y B la matriz que tiene por columnas a los vectores fi . Mostrar que si P es la matriz cambio de base de la base B2 a la base B1 , entonces P = A−1 B.

Page (PS/TeX): 137 / 553, COMPOSITE

554 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

En los ejercicios 210 a 218 se define un operador T : Rn → Rn . (i) Comprobar por simple inspecci´on (cfr. el ejercicio propuesto 62(c) de este apartado) que el operador es lineal; (ii) encontrar la representaci´on matricial [T ]B relativa a la base ordenada B; (iii) calcular [T (u)]B para el vector u. 210 T (x, y) = (x − y, x + 3y), B = ((−1, 1), (2, 1)) en R2 , u = (1, 2). 211 T (x, y) = (2x − y, x − y), B = ((1, −1), (2, −1)), en R2 , u = (−1, 3). 212 T (x, y) = (2x + y, 3x − 2y), B = ((3, 2), (1, 1)), en R2 , u = (2, −3). 213 T (x, y) = (x, x + y), B = ((−2, 1), (1, −1)), en R2 , u = (1, 0). 214 T (x, y, z) = (x − y + z, x + 3y, z), B = ((2, 1, 4), (3, 2, 5), (0, −1, 1)) en R3 , u = (−1, 2, 2). 215 T (x, y, z) = (x − 3y + 2z, −x − y + z, x + y), B = ((1, 0, 0), (−1, 1, 1), (1, 1, 2)) en R3 , u = (−1, 0, 1). 216 T (x, y, z) = (x, y + z, x − y − z), B = ((1, −1, 3), (−1, 2, −3), (2, −2, 5)) en R3 , u = (2, 1, 0). 217 T (x, y, z) = (z − y, x + 3z, z), B = ((0, −2, 3), (1, −3, 5), (0, 3, 4)) en R3 , u = (1, 1, 1). 218 T (x1 , x2 , x3 , x4 ) = (x1 , x1 − x3 , x2 − x4 , x4 ),

B = ((1, −2, 3, 4), (−2, 5, −6, −8), (1, −2, 4, 4), (3, −5, 9, 11)) en R4 , u = (−1, 0, 1, 1). 219 Hallar una transformaci´on lineal T : R2 → R2 tal que T (ˆı) =

− ıˆ y T ( ) = 2ˆı +

y para esta transfor-

maci´on: (a) Calcular T (2ˆı − 3 ) y T 2 (2ˆı − 3 ). (b) Encontrar T (xˆı + y ) para todo xˆı + y ∈ R2 . (c) Encontrar Ker(T ), T (E), bases y dimensiones de sendos subespacios. (d) Hallar [T ]B la representaci´on matricial de T relativa a la base can´onica B = {ˆı, }. (e) Hallar [T ]B la representaci´on matricial de T relativa a la base B = {ˆı − , 3 + ıˆ}. (f) Hallar [T 2 ]B la representaci´on matricial de T relativa a la base can´onica B = {ˆı, }. (g) Hallar [T 2 ]B la representaci´on matricial de T 2 relativa a la base B = {ˆı − , 3 + ıˆ}. 220 Sea P3 el espacio de polinomios de grado a lo m´as 3.

(a) Encontrar un operador lineal T : P3 → P3 tal que T (1) = x − 1, T (x) = x2 + 2, T (x2 ) = x − 3 y T (x3 ) = 5. (b) Calcular T (1 − 2x + x2 − 3x3 ). (c) Encontrar T (a0 + a1 x + a2 x2 + a3 x3 ) para todo a0 + a1 x + a2 x2 + a3 x3 ∈ P3 . (d) Encontrar Ker(T ) y T (P3 ), bases y dimensiones de sendos subespacios. (e) Hallar [T ]B la representaci´on matricial de T relativa a la base can´onica B = {1, x, x2 , x3 }. (f) Hallar [T ]B la representaci´on matricial de T 2 relativa a la base can´onica B = {1, x, x2 , x3 }. (g) Hallar [T ]B la representaci´on matricial de T relativa a la base B = {x − 1, 2 − x, x2 − 2, x3 + 1}. (h) Hallar [T ]B la representaci´on matricial de T 2 relativa a la base B = {x − 1, 2 − x, x2 − 2, x3 + 1}.

Page (PS/TeX): 138 / 554, COMPOSITE

´ 5.4 SECCION

Ejercicios resueltos y ejercicios propuestos 555

En los ejercicios 221 a 231 se define un operador T : E → E en el espacio E indicado. (i) Demostrar que T es lineal; (ii) encontrar la representaci´on matricial [T ]B relativa a la base ordenada B.         −1 1 0 −1 1 0 1 −1 t 221 T : M2 → M2 , T (A) = A , B = , , , 0 1 1 1 −1 1 1 0 222 T : P2 → P2 , T (p) = p (el operador derivaci´on), B = {x − 1, x − 2, x2 }. 223 T : P3 → P3 , T (p) = 224 T : P3 → P3 , T (p) =

x 0

x 0

p (t)dt, B = {1, x, x2 , x3 }. p (t)dt, B = {1, x + 1, x2 − 1, x3 }.

225 T : P3 → P3 , T (p) = q, donde q(x) = p(x + 1) B = (1, x, x2 , x3 ). 226 T : P2 → P2 , T (p) = q, donde q(x) = p(x + 1) B = (x − 1, x − 2, x2 ). 227 T : Pn → Pn , T (a0 + a1 x + · · · + an x n ) = ∑ni=0 ai + (∑ni=1 ai )x + (∑ni=2 ai )x2 + · · · + an x n ,

B = (1, x, x2 , . . . , x n ).

228 T : P3 → P3 , T (p) = q donde q(x) = xp (x), B = (1, x, x2 , x3 ). 229 T : P3 → P3 , T (p) = q donde q(x) = xp (x), B = (1 − x, x + 1, x2 − 1, x3 ). 230 T : E → E, T ( f ) = f  , donde E = gn(e x , e2x , e3x ), B = (e x + e2x , e2x + e3x , e x + e3x ). 231 T : P3 → P3 el operador lineal definido por T (1) = 1 + x, T (x) = (1 + x)2 , T (x2 ) = (1 + x)3 , T (x3 ) = x. 232 Sean E un espacio vectorial de dimensi´on n > 1, T un operador lineal nilpotente con ´ındice de nilpo-

tencia igual a n y u ∈ E − {0˜ E } tal que T n−1 (u) = 0E . Por el ejercicio propuesto 172(b) de este cap´ıtulo, B = {u, T (u), . . . , T n−1 (u)} es una base de E. Encontrar la representaci´on matricial [T ]B de este operador relativa a la base B.

En los ejercicios 233 a 237 E es un subespacio de F (R), el espacio de funciones, B es una base ordenada de E y D : E → E es el operador derivaci´on, D( f ) = f  . Hallar [T ]B , la representaci´on matricial de T relativa a la base B. 233 B = (cos x, sen x). 234 B = (1, x, x2 ). 235 B = (e x , xe x ). 236 B = (e3x cos x, e3x sen x). 237 B = (cos x, sen x, x cos x, x sen x). 238 Sean E un espacio vectoriales de dimensi´on finita y T1 , T2 ∈ L (E, E). Probar que si B es una base de

E y [T1 ]B , [T2 ]B son las representaciones matriciales de T1 , T2 , respectivamente, relativas a esta base, entonces [T1 + T2 ]B = [T1 ]B + [T2 ]B [αT1 ]B = α[T1 ]B .

Page (PS/TeX): 139 / 555, COMPOSITE

y

556 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

En los ejercicios 239 a 245 D es el operador derivaci´on en P3 y T : P3 → P3 es el operador lineal T (p) = q, donde q(x) = xp (x) y B = (1, x, x2 , x2 ) es la base ordenada can´onica de P3 . Hallar. 239 [T ]B 240 [T ]B 241 [DT ]B 242 [T D]B 243 [T D − DT ]B 244 [T 2 ]B 245 [T 2 D2 − D2 T 2 ]B

En los ejercicios 246 a 255 encontrar la representaci´on matricial del operador lineal T : Rn → Rn relativa a la base B2 procediendo de la manera siguiente: (i) Hallar la matriz cambio de base, P, de la base B1 a la base can´onica B de Rn . (ii) Utilizar la f´ormula del teorema 5.15; esto es, [T ]B1 = P−1 [T ]B P. 246 T : R2 → R2 , T (x, y) = (2x − y, x + y), B1 = ((1, −1), (2, −1)). 247 T : R2 → R2 , T (x, y) = (x + 3y, x − y), B1 = ((2, 3), (1, 2)). 248 T : R2 → R2 , T (x, y) = (y, x), B1 = ((1, 1), (2, 1)). 249 T : R3 → R3 , T (x, y, z) = (x − y + z, x + y + 3z, −x − 2y), B1 = ((1, 0, 0), (−1, 1, 1), (1, 1, 2)). 250 T : R3 → R3 , T (x, y, z) = (x −2y+z, 3x −2y+4z, −x +2y+z), B1 = ((1, 2, −1), (−1, −1, 1), (1, 4, −2)). 251 T : R3 → R3 , T (x, y, z) = (3x − 2y + z, x + y, x − y), B1 = ((1, 0, 0), (2, 2, −1), (1, −1, 1)). 252 T : R3 → R3 , T (x, y, z) = (x − y + 2z, x + y + x, x − 2y − 3z), B1 = ((1, 2, −1), (1, 1, −1), (1, 2, −2)). 253 T : R4 → R4 , T (x1 , x2 , x3 , x4 ) = (x1 − x4 , x1 + x3 , x3 − x4 , x4 ),

B1 = ((1, 2, 1, 3), (−1, −1, −1, −3), (1, 2, 2, 3), (1, 2, 1, 2)). 254 T : R4 → R4 , T (x1 , x2 , x3 , x4 ) = (x1 − x3 + x4 , 2x1 − x2 , x3 , x4 ),

B1 = ((1, 4, −2, −1), (1, 3, −2, −1), (−1, −4, 3, 1), (1, 4, −2, −2)). 255 T : R4 → R4 , T (x1 , x2 , x3 , x4 ) = (x1 , x1 + x2 , x1 + x2 + x3 , x1 + x2 + x3 + x4 ),

B1 = ((1, 2, −1, −1), (−1, −1, 1, 1), (1, 2, 0, −1), (−1, −2, 1, 2)).

Page (PS/TeX): 140 / 556, COMPOSITE

´ 5.4 SECCION

Ejercicios resueltos y ejercicios propuestos 557

256 Sean T : P3 → P3 el operador lineal T (p) = q donde q(x) = xp (x) y la base ordenada B1 = (2 − x, x +

1, x2 − 1, x3 − 3)). (a) Hallar la matriz cambio de base de la base B1 a la base can´onica B = {1, x, x2 , x3 }. (b) Encontrar la representaci´on matricial [T ]B1 del operador T relativa a la base B1 . 257 Sean T : P3 → P3 el operador lineal T (p) = p y la base ordenada B1 = (2 − x, x + 1, x2 − 1, x3 − 3)).

(a) Hallar la matriz cambio de base de la base B1 a la base can´onica B = {1, x, x2 , x3 }. (b) Encontrar la representaci´on matricial [T ]B1 del operador T relativa a la base B1 . 258 Sean T : M2 → M2 el operador lineal T (A) = At y la base ordenada

 B1 =

1 1 0 0

       1 2 0 0 0 1 , , , . 0 0 1 1 1 0

(a) Hallar la matriz cambio de base de la base B1 a la base can´onica B de M2 . (b) Encontrar la representaci´on matricial [T ]B1 del operador T relativa a la base B1 . En los ejercicios 259 a 272 se define un operador T : E → E. (i) Mostrar que T es lineal; (ii) calcular det(T ), el determinante del operador; (iii) determinar si T es invertible y de ser as´ı encontrar T −1 (u) para todo u ∈ E. 259 T : R2 → R2 , T (x, y) = (x − 2y, x + y). 260 T : R2 → R2 , T (x, y) = (x + 2y, 2x + 3y). 261 T : R3 → R3 , T (x, y) = (x + y + z, −2x + y + 3z, 3y + 5z). 262 T : R3 → R3 , T (x, y, z) = (x − y + z, 3x − 2y + 5z, 2x − 2y + z). 263 T : R3 → R3 , T (x, y, z) = (x − 2y + 3z, −x + 4y, x + y + 8z). 264 T : R4 → R4 , T (x1 , x2 , x3 , x4 ) = (x1 − x2 + x3 + x4 , −x1 + 2x2 + 3x3 − 4x4 , 2x3 + x4 , 5x3 + 3x4 ). 265 T : R4 → R4 ,

T (x1 , x2 , x3 , x4 ) = (2x1 − x2 + 3x3 + x4 , −x1 + 2x2 + x3 + x4 , −x1 + 5x2 + 6x3 + 4x4 , −x1 + x2 − x3 + 2x4 ). 266 T : M2 → M2 , T (A) = At . 267 T : M2 → M2 , T (A) = 12 (A + At ). 268 T : M2 → M2 , T (A) = 12 (A − At ). 269 T : P3 → P3 , T (p) = p .

Page (PS/TeX): 141 / 557, COMPOSITE

558 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

270 T : P3 → P3 , T (p) = q donde q(x) = xp (x). 271 T : P3 → P3 , T (p) = q donde q(x) = p(x + 1). 272 T : P3 → P3 , T (p) = q donde, si p(x) = a0 + a1 x + a2 x2 + a3 x3 , p(x) = a0 + 12 a1 x + 13 a2 x2 + 14 a3 x3 . 273 Sea Mn el espacio vectorial de las matrices de orden n. Se recuerda que la traza de una matriz cuadrada

A = [ai j ] se define por tra(A) = ∑ni=1 aii . (a) Demostrar que si A, B ∈ Mn , entonces tra(AB) = tra(BA). (b) Probar que tra(A) = tra(At ) para toda matriz A ∈ Mn . 274 Sean E un espacio vectorial de dimensi´on finita y T un operador lineal en e´ l, B1 y B2 un par de bases

en e´ l. Sean A y B las representaciones matriciales de T relativas a sendas bases, demostrar que tra(A) = tra(B). Es decir, cualquier representaci´on matricial de T tiene la misma traza independientemente de la base que se elija en E. Se define entonces la traza del operador T , tra(T ), como la traza de cualquier representaci´on matricial de este operador. Luego tra(T ) es un invariante de T . 275 Sean E un espacio vectorial y T1 , T2 un par de operadores lineales, mostrar que tra(T2 T1 − T1 T2 ) = 0. 276 Sean E y F espacios vectoriales de dimensiones finitas y T1 , T2 ∈ L (E, F). Probar que si B1 y B2 son B

B

bases de sendos espacios y [T1 ]B21 , [T2 ]B21 son las representaciones matriciales de T1 , T2 , respectivamente, relativas a estas bases, entonces B

B

B

[T1 + T2 ]B21 = [T1 ]B21 + [T2 ]B21 B [αT1 ]B21

=

B α[T1 ]B21

y

.

277 Sean E, F y G espacios vectoriales; T1 : E → F y T2 : F → G un par de funciones. Se define la operaci´on

composici´on de T2 con T1 como la funci´on T2 ◦ T1 : E → G dada por (cfr. el ejercicio resuelto 12 de esta secci´on) (T2 ◦ T1 )(u) = T2 (T1 (u))

∀u ∈ E.

Nuevamente se acostumbra denotar T2 ◦ T1 por T2 T1 . (a) Probar que si T1 y T2 son lineales, entonces T2 ◦ T1 (= T2 T1 ) es tambi´en lineal. (b) Sean T1 , T2 : E → F dos funciones y T3 : F → G una transformaci´on lineal, mostrar que: i(i) T3 ◦ (T1 + T2 ) = (T3 ◦ T1 ) + (T3 ◦ T2 ). (ii) T3 ◦ (αT1 ) = α(T3 ◦ T1 ), para todo α ∈ R. (c) Sean T1 , T2 : F → G y T3 : E → F funciones, probar que (T1 + T2 ) ◦ T3 = (T1 ◦ T3 ) + (T2 ◦ T3 ).

Page (PS/TeX): 142 / 558, COMPOSITE

´ 5.4 SECCION

Ejercicios resueltos y ejercicios propuestos 559

278 Sean E, F y G espacios vectoriales; T1 : E → F y T2 : F → G transformaciones lineales. Demostrar:

(a) Si T2 T1 (= T2 ◦ T1 ) es inyectiva, entonces T1 es inyectiva. (b) Si T2 T1 es suprayectiva, entonces T2 es suprayectiva. (c) Si T1 y T2 son biyectivas, entonces T2 T1 es biyectiva. 279 Sean E, F y G espacios vectoriales de dimensiones finitas con sendas bases B1 , B2 y B3 . Si T1 : E → F

y T2 : F → G son transformaciones lineales, demostrar que la representaci´on matricial de T2 T1 = T2 ◦ T1 est´a dada por B

B

B

[T2 T1 ]B31 = [T2 ]B32 [T1 ]B21 . En los ejercicios 280 a 295 E, F son espacios vectoriales con sendas bases B1 y B2 y T : E → F es una transformaci´on definida por la f´ormula dada. (i) Comprobar que la transformaci´on es lineal. (ii) Verificar que efectivamente B1 y B2 son bases de E y F, respectivamente. B

(iii) Encontrar la representaci´on matricial de T relativa a las bases B1 y B2 ; es decir, [T ]B21 . 280 T : R3 → R2 , T (x, y, z) = (x − y + z, x + 2y − z),

B1 = ((1, −1, 1), (1, 0, −1), (−1, −1, 1)), B2 = ((1, 3), (1, 2)). 281 T : R3 → R2 , T (x, y, z) = (x + y − z, x + y − 3z),

B1 = ((0, −1, 1), (1, 0, −1), (1, −1, 1)), B2 = ((2, 1), (1, 1)). 282 T : R2 → R3 , T (x, y) = (x − y, x + 2y, x + y), B1 = ((1, 1), ((−1, 1)), B2 = ((1, 0, 0), (−1, 1, 1), (1, 1, 2)). 283 T : R2 → R3 , T (x, y) = (x, x + y, x − y), B1 = ((2, 1), ((−1, 0)),

B2 = ((1, 2, −1), (−1, −1, 1), (1, 4, −2)). 284 T : R2 → R3 , T (x, y) = (x − 2y, 2x + y, x − 3y), B1 = ((1, −1), (1, 0)),

B2 = ((1, 2, −1), (1, 1, −1), (1, 2, −2)). 285 T : R4 → R3 , T (x1 , x2 , x3 , x4 ) = (x1 − x4 , x1 + x3 , x2 + x3 − x4 ),

B1 = ((1, −1, 1, 1), (1, 0, −1, 1), (0, 1, 1, 1), (0, 1, 0, −1)), B2 = ((1, 5, 2), (−1, −4, −2), (1, 5, 1)). 286 T : R4 → R3 , T (x1 , x2 , x3 , x4 ) = (x1 − x2 , x1 − 2x3 , x2 − x3 − x4 ),

B1 = ((1, 0, −1, 1), (0, −1, 1, 1), (−1, 0, 0, 1), (0, 0, 0, 1)), B2 = ((1, 6, −1), (1, 5, −1), (−1, −6, 2)). 287 T : R2 → R4 , T (x, y) = (x + 2y, x − y, x + y, 3x − y), B1 = ((1, −2), (−1, 1)),

B2 = ((1, 2, 1, 3), (−1, −1, −1, −3), (1, 2, 2, 3), (1, 2, 1, 2)). 288 T : R2 → R4 , T (x, y) = (2x − 3y, x + 4y, x − y, 3x − 2y), B1 = ((1, 1), (1, −1)),

B2 = ((1, 4, −2, −1), (1, 3, −2, −1), (−1, −4, 3, 1), (1, 4, −2, −2)).

Page (PS/TeX): 143 / 559, COMPOSITE

560 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

289 T : R3 → R4 , T (x, y, z) = (x − y + z, x + z, x + y − z, x + y + z), B1 = ((1, 0, 1), (0, 1, 1), (1, 1, 0)),

B2 = ((1, 2, −1, −1), (−1, −1, 1, 1), (1, 2, 0, −1), (−1, −2, 1, 2)). 

 a b 290 T : M2 → P2 , T = a + b + +2dx + bx2 , c d         1 0 0 1 0 0 0 0 B1 = , , , , B2 = (1, x, x2 ). 0 0 0 0 1 0 0 1 

 a b 291 T : M2 → P2 , T = a + b + c + 2dx + bx2 , c d         1 1 1 2 0 0 0 1 B1 = , , , , B2 = (1 − x, x − 2, x2 ). 0 0 0 0 1 1 1 0 

 3p(1) , p (2)    0 0 0 0 , , B2 = (1, x, x2 ). 1 0 0 1



 3p(1) , p (2)    0 0 0 1 , , B2 = (1 − x, x − 2, x2 ). 1 1 1 0

p (0) 292 T : P2 → M2 , T (p) = 0      1 0 0 1 B1 = , , 0 0 0 0 p (0) 293 T : P2 → M2 , T (p) = 0      1 1 1 2 B1 = , , 0 0 0 0 294 T : M2 → R, T (A) = tra(A),   

B1 =

1 0 0 0

,

0 0

1 0

,

295 T : M2 → R, T (A) = tra(A),   

B1 =

1 1 0 0

,

1 0

2 0

,

0 0 1 0

   0 0 , , B2 = {1}. 0 1

0 0 1 1

   0 1 , , B2 = {1}. 1 0 B

En los ejercicios 296 a 302 encontrar [T (u)]B21 si: 296 T , B1 y B2 son la transformaci´on lineal y las bases del ejercicio propuesto 280 de esta secci´on y

u = (−1, 1, 2). 297 T , B1 y B2 son la transformaci´on lineal y las bases del ejercicio propuesto 283 de esta secci´on y

u = (−1, 4). 298 T , B1 y B2 son la transformaci´on lineal y las bases del ejercicio propuesto 286 de esta secci´on y

u = (−1, 0, 2, 2). 299 T , B1 y B2 son la transformaci´on lineal y las bases del ejercicio propuesto 289 de esta secci´on y

u = (2, 1, 4). 300 T , B 1 y B2 son  la transformaci´on lineal y las bases del ejercicio propuesto 291 de esta secci´on y

u =

−1 1 1 2

Page (PS/TeX): 144 / 560, COMPOSITE

.

´ 5.4 SECCION

Ejercicios resueltos y ejercicios propuestos 561

301 T , B1 y B2 son la transformaci´on lineal y las bases del ejercicio propuesto 293 de esta secci´on y

p(x) = 1 − x + x2 . 302 T , B 1 y B2 son  la transformaci´on lineal y las bases del ejercicio propuesto 295 de esta secci´on y

u =

−1 1 1 3

.

En los ejercicios 303 a 306 encontrar la representaci´on matricial del operador lineal T : Rn → Rm relativa a las bases B1 , B2 de Rn y Rm , respectivamente, procediendo de la manera siguiente: (i) Hallar la matriz cambio de base, P, de la base B1 a la base can´onica B1 de Rn . (ii) Hallar la matriz cambio de base, Q, de la base B2 a la base can´onica B2 de Rm . B

B

(ii) Utilizando la f´ormula el teorema 5.19; esto es, [T ]B2 = Q−1 [T ]B21 P. 1

303 T : R3 → R2 , T (x, y, z) = (x − y + z, x + y − z),

B1 = ((−1, 0, 1), (1, 0, 0), (0, −1, 1)), B2 = ((2, 1), (1, 1)). 304 T : R2 → R3 , T (x, y) = (x + 2y, −x + 3y, x − y), B1 = ((1, 1), (−1, 1)),

B2 = ((1, 5, 2), (−1, −4, −2), (1, 5, 1)).

305 T : R4 → R3 , T (x1 , x2 , x3 , x4 ) = (x1 , x1 − x3 , x2 + x4 ),

B1 = (1, 0, −1, 1), (0, 1, 1, 1), (−1, 1, 1, 0), (0, −1, 0, 0)), B2 = ((1, 6, 1), (1, 5, −1), (−1, −6, 2)). 306 T : R4 → R2 , T (x1 , x2 , x3 , x4 ) = (x1 − x2 + x3 − x4 , x1 + x2 + x3 + x4 ),

B1 = (1, 0, −1, 1), (0, 1, 1, 1), (−1, 1, 1, 0), (0, −1, 0, 0)), B2 = ((3, 1), (5, 2)). 307 Sea π un proyector (cfr. el ejercicio propuesto 150 de esta secci´on) en un espacio vectorial E que tiene

dimensi´on finita n. Si π tiene rango r; es decir dim(π(E)) = r, mostrar que E posee una base B tal que  [π]B =

Ir O2

O1 O3



donde Ir es la identidad r × r y las submatrices O1 , O2 y O3 son las matrices cero de tama˜nos r × (n − r), (n − r) × r y (n − r) × (n − r), respectivamente. 308 Sean E un espacio vectorial de dimensi´on finita n, S < E y T un operador lineal en E. Se dice que S es

T -invariante si T (S) ⊂ S. Mostrar que si S tiene dimensi´on r, entonces E posee una base B tal que  [T ]B =

A B O C



donde A es una matriz cuadrada de orden r, O es la matriz cero de tama˜no (n − r) × r, B ∈ Mr×(n−r) y C ∈ M(n−r)×(n−r) . 309 Sean E un espacio vectorial de dimensi´on finita, S1 < E y T : E → E una proyecci´on sobre S1 (cfr. el

ejercicio resuelto 17 de esta secci´on). Mostrar que E posee una base B tal que [T ]B es diagonal.

Page (PS/TeX): 145 / 561, COMPOSITE

562 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

310 Sea T : R2 → R3 la transformaci´on lineal que satisface T (1, 0) = (0, 1, 1) y T (0, 1) = (0, −1, 1).

(a) Calcular T (x, y) para todo (x, y) ∈ R2 . (b) Encontrar bases y dimensiones de Ker(T ) y T (R2 ). (c) Hallar la representaci´on matricial de T para las bases can´onicas de R2 y R3 . (d) Encontrar bases B1 = {e1 ,e2 } y B2 = {f1 , f2 , f3 } de R2 y R3 , respectivamente, tal que [T ]B21 sea diagonal (cfr. el teorema 5.20, p´ag. 450). B

311 Resolver el ejercicio precedente para la transformaci´on T , con T (1, 0) = (−1, 0, 1), T (0, 1) = (1, 1, 1). 312 Sean D, T : P3 → P3 los operadores lineales en D(p) = p , T (p)(x) = xp (x) y T D en P3 . Si F = {f }

(T D)(E), entonces T D : P3 → F; encontrar bases {ei } y {fi } de E y F, respectivamente, tal que [T D]{eii } sea diagonal (cfr. el teorema 5.20).

313 Sea f : R2 → R el funcional lineal definido por f (1, 2) = −1 y f (1, 1) = 2. Encontrar f (x, y) para todo

(x, y) ∈ R2 . En particular, hallar f (2, −3). 314 Sea f : R2 → R el funcional lineal definido por f (1, −1) = 3 y f (3, 1) = −4. Encontrar f (x, y) para todo

(x, y) ∈ R2 . En particular, hallar f (−2, 1). En los ejercicios 315 a 325 φ : E → R es una funci´on definida en el espacio E. Determinar si φ ∈ E∗ ; es decir, si φ es lineal. 315 E = C[0, 1], φ( f ) = f (0). 316 E = C[a, b], φ( f ) =

b a

f (x)dx.

317 E = P, φ(p) = p(0). 318 E = P, φ(p) = p (0). 319 E = Mn , φ(A) = tra(A). 320 E = P, φ(p) = p(2). 321 E = P2 , φ(a0 + a1 x + a2 x2 ) = a0 + 2a1 − 3a2 . 322 E = M2 , φ(A) = det(A). 323 Sean u2 , . . . ,un , n − 1 vectores fijos de Rn , E = Rn y φ(u) = det(A) donde A es la matriz con primera fila

u, e i-´esima fila ui , i = 2, . . . , n. 324 E = Rn , φ(x) =x ·a donde a es un vector fijo de Rn . 325 E = R2 , φ(x, y) = x2 − y2 .

Page (PS/TeX): 146 / 562, COMPOSITE

´ 5.4 SECCION

Ejercicios resueltos y ejercicios propuestos 563

En los ejercicios 326 a 333, para cada espacio E, B = {e1 , . . . ,en } es una base del mismo y E∗ el espacio dual definido en el ejercicio resuelto 30 de esta secci´on. Utilizar ese ejercicio para construir la base dual B ∗ para el espacio E∗ (cfr. el ejercicio resuelto 31 de este cap´ıtulo). 326 E = R2 , B = {(1, 1), (2, 1)}. 327 E = R2 , B = {(2, −3), (−1, 1)}. 328 E = R3 , B = {(1, 2, 3), (−1, −1, −3), (1, 2, 2)}. 329 E = R3 , B = {(1, 4, 3), (0, 1, 2), (1, 4, 2)}. 330 E = P2 , B = {1, x, x2 }. 331 E = P1 , B = {1 − x, 2 + x}. 332 E = P3 , B = {1 − x, 2 + x, x2 − 1, x3 }. 333 E = Rn , B = {ei } la base can´onica. 334 Sea E un espacio vectorial con bases B1 = {e1 , . . . ,en } y B2 = {f1 , . . . , fm }; E∗ el espacio dual definido

en el ejercicio resuelto 30 de esta secci´on. Si B1∗ y B2∗ son las bases duales de B1 y B2 , respectivamente y P es la matriz cambio de base de la base B1 a la base B2 , mostrar que la matriz cambio de base de la base B1∗ a la base B2∗ es (P t )−1 . En los ejercicios 335 a 345: (i) Probar que el conjunto B ∗ es una base del espacio dual E∗ del espacio dado E. (ii) Encontrar una base B del espacio E cuya base dual es B ∗ . 335 E = Rn , B ∗ = {π1 , . . . , πn }, donde πi (x1 , . . . , xi , . . . , xn ) = xi es la i-´esima proyecci´on del vector

(x1 , . . . , xi , . . . , xn ). 336 E = R2 , B ∗ = {φ1 , φ2 } donde φ1 (x, y) = x − 2y y φ2 (x, y) = −x + y. 337 E = R2 , B ∗ = {φ1 , φ2 } donde φ1 (x, y) = 3x + 4y y φ2 (x, y) = 2x + 3y. 338 E = R3 , B ∗ = {φ1 , φ2 , φ3 } donde φ1 (x, y, z) = x + 3y − 2z, φ2 (x, y, z) = −x − 2y + 2z, φ3 (x, y, z) = y − z. 339 E = R3 , B ∗ = {φ1 , φ2 , φ3 } donde φ1 (x, y, z) = x + y + 2z, φ2 (x, y, z) = y + z, φ3 (x, y, z) = −x − y − z. 340 E = P1 , B ∗ = {φ1 , φ2 } donde φ1 (p) =

1 0

p(x)dx y φ2 (p) =

2 0

p(x)dx, para todo p ∈ P1 .

341 E = P1 , B ∗ = {φ1 , φ2 } donde φ1 (a + bx) = 4a + 3b y φ2 (a + bx) = 3a + 2b, para todo p = a + bx ∈ P1 . 342 E = P2 , B ∗ = {φ1 , φ2 , φ3 } donde φ1 (p) = p(0), φ2 (p) = p (0) y φ3 (p) = p (0), para todo p(x) =

a0 + a1 x + a 2 x 2 ∈ P 2 .

Page (PS/TeX): 147 / 563, COMPOSITE

564 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

343 E = P2 , B ∗ = {φ1 , φ2 , φ3 } donde φ1 (p) = 2

1 0

p(x)dx, φ2 (p) = p(0) y φ3 (p) = p (1), para todo p(x) =

a0 + a1 x + a2 x ∈ P2 . 344 E = M2 , B ∗ = {φ1 , φ2 , φ φ1 (A) = a − b, φ2 (A) = 2a − b, φ3 (A) = b + c y φ4 (A) = −a + 3 , φ4 } donde 

b + c − d, para toda A =

a c

b d

∈ M2 .

345 E = M2 , B ∗ = {φ1 , φ2 , φ3 , φ4 } donde φ1 (A) = a − b + c− d, φ2 (A)  = 2a − b + 2c − 2d, φ3 (A) = a −

a b c d

b + 2c − d y φ4 (A) = −3a + 3b − 3c + 2d, para toda A =

∈ M2 .

346 Si E es un espacio vectorial de dimensi´on finita n y f ∈ E∗ y existe u ∈ E tal que f (u) = 0, ¿cu´al es el

valor de dim(Ker( f ))? 347 Sean E un espacio vectorial y f , g ∈ E∗ tales que f (u) = 0 ⇒ g(u) = 0; esto es, Ker( f ) ⊂ Ker(g). Probar

que g = k f para alg´un k ∈ R. 348 Mostrar que si E es un espacio vectorial, f , g ∈ E∗ , h : E →R se define por h(u) = f (u)g(u) y h ∈ E∗ ,

entonces f = θ o g = θ, el funcional constante cero. En los ejercicios 349 a 356 E es un espacio vectorial con producto interior ·, · y f : E → R es un funcional. Comprobar que f es lineal y consultar el ejercicio resuelto 37 de este cap´ıtulo para encontrar el elemento u f en E tal que f (x) = x,u f  para todo x ∈ E. 349 E = R2 , f (x, y) = 2x − 3y, x,y =x ·y. 350 E = R2 , f (x, y) = x − y, x,y =x ·y. 351 E = R3 , f (x, y, z) = x − y + z, x,y =x ·y. 352 E = R3 , f (x, y, z) = 2x + 3y − z, x,y =x ·y. 353 E = M2 , f (A) = a11 − 2a12 + 3a21 + a22 para toda A = [ai j ] ∈ M2 , A, B = tra(B t A). 354 E = M2 , f (A) = 2a11 − a12 + a21 − a22 para toda A = [ai j ] ∈ M2 , A, B = tra(B t A). 355 E = P2 , f (p(x)) =

1 0

p(x)dx para todo p ∈ P2 , p, q =

356 E = P2 , f (p(x)) = p (0) para todo p ∈ P2 , p, q =

1

−1

1

−1

p(x)q(x)dx.

p(x)q(x)dx.

357 Si E es un espacio vectorial de dimensi´on finita dotado de un producto interior ·, ·, por el ejercicio

resuelto 37 de este cap´ıtulo, para cada f ∈ E∗ existe un u´ nico u f ∈ E tal que f (x) = x,u f  para todo x ∈ E. Probar que la aplicaci´on Φ : E∗ → E definida por Φ( f ) = u f es un isomorfismo. 358 Sea E un espacio vectorial con producto interior ·, ·. Sean u ∈ E y fu : E → R definida por fu (x) = x,u

para todo x ∈ E. (a) Probar que fu ∈ E∗ .

Page (PS/TeX): 148 / 564, COMPOSITE

´ 5.4 SECCION

Ejercicios resueltos y ejercicios propuestos 565

(b) Si E tiene dimensi´on finita, demostrar que la funci´on Ψ : E → E∗ definida, para cada u ∈ E, por Ψ(u) = fu , es un isomorfismo. ¿Qu´e funci´on es la inversa de Ψ? 359 Sea E un espacio de dimensi´on finita. Si S ⊂ E es no vac´ıo y f ∈ E∗ , se dice que f es ortogonal a S si

f (u) = 0 para todo u ∈ S. Al conjunto de elementos en E que son ortogonales a S se le denota por S⊥ . (a) Mostrar que S⊥ es un subespacio de E∗ . (b) Probar que si S es un subespacio de E, entonces dim(S) + dim(S⊥ ) = dim(E). En los ejercicios 360 a 364 hallar el operador adjunto T ∗ , definido en el ejercicio propuesto 38 de este cap´ıtulo, para el operador lineal T en el espacio E dotado del producto interior ·, ·. 360 T : R2 → R2 , T (x, y) = (x + y, 2x − 5y), x,y =x ·y. 361 T : R3 → R3 , T (x, y, z) = (x + 3y, 2x + z, −4y), x,y =x ·y. 362 T : R4 → R4 , T (x1 , x2 , x3 , x4 )) = (x1 − x2 , 2x3 + x4 , x1 − 2x2 , x1 + 3x4 ), x,y =x ·y. 363 T : P3 → P3 , T (p) = p , p, q =

1 0

p(x)q(x)dx.

364 T : P2 → P2 , T (p) = q, donde q(x) = xp (x), p, q =

1 0

p(x)q(x)dx.

365 Probar que para el operador lineal D : P → P definido por D(p) = p no existe el operador adjunto D∗ si 1

se considera el producto interior en P: p, q =

0

p(x)q(x)dx.

366 Sean E un espacio de dimensi´on finita con producto interior ·, ·, T : E → E un operador lineal y T ∗ el

operador adjunto correspondiente definido en el ejercicio resuelto 38 de este cap´ıtulo. Mostrar que si S es un subespacio T -invariante, entonces S⊥ es T ∗ -invariante (cfr. el ejercicio propuesto 308). 367 (Transpuesta de una transformaci´on lineal). Sean E, F dos espacios vectoriales y T : E → F una

transformaci´on lineal. Se define T t : F∗ → E∗ , para cada φ ∈ F∗ , por T t (φ) = φ ◦ T , la composici´on de las transformaciones φ y T (cfr. el ejercicio propuesto 277). A T t se le llama la transpuesta de la transformaci´on T . (a) Probar que T t ∈ E∗ ; es decir, que T es lineal. B

(b) Si E y F tienen dimensiones finitas, B1 , B2 son bases de sendos espacios y A = [T ]B21 es la representaci´on de T relativa a las bases B1 , B2 , demostrar que B∗

[T t ]B2∗ = At , 1

donde B1∗ y B2∗ son las bases duales de B1 y B2 , respectivamente. (c) Si E y F tienen dimensiones finitas, probar que Rang(T ) = Rang(T t ).

Page (PS/TeX): 149 / 565, COMPOSITE

566 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

En los ejercicios 368 a 376 E es un espacio vectorial de dimensi´on finita y para cualquier S ⊂ E, S 0 denota el subespacio anulador de S definido en el ejercicio resuelto 40 de este cap´ıtulo. 368 Probar que S 0 = (L (S))0 , donde L (S) es el espacio generado por S (cfr. el ejercicio resuelto 31 del

cap´ıtulo 3). 369 Si W es un subespacio de E y u ∈ E −W , probar que existe f ∈ W 0 tal que f (u) = 0. 370 Probar que S 00 = L (Φ(S)); es decir, (S 0 )0 = L (Φ(S)) donde Φ es el isomorfismo entre los espacios

E y E∗∗ definido en el ejercicio resuelto 32 de este cap´ıtulo y L (Φ(S)) es el subespacio generado por el conjunto Φ(S) (cfr. el ejercicio resuelto 31 del cap´ıtulo 3). 371 Mostrar que si W1 ,W2 son dos subespacios de E, entonces W1 = W2 ⇔ W10 = W20 . 372 Si W1 ,W2 son subespacios de E, probar que (W1 +W2 )0 = W10 +W20 . 373 Si W1 ,W2 son subespacios de E y W1 ⊕W2 = E, entonces E∗ = W10 ⊕W20 . 374 Si T : E → E es un operador lineal y W es un subespacio de E, demostrar que W es T -invariante (cfr. el

ejercicio propuesto 308 de este cap´ıtulo) si y s´olo si W 0 es T t -invariante, donde T t es la transformaci´on transpuesta de T definida en el ejercicio propuesto 367 de este apartado. 375 Si E = R4 y los funcionales lineales fi definidos por

f1 (x1 , x2 , x3 , x4 ) = x1 + x2 − x3 + x4 , f2 (x1 , x2 , x3 , x4 ) = −x2 + x3 , f3 (x1 , x2 , x3 , x4 ) = −x1 + x2 − x3 . Encontrar S ⊂ R4 tal que S 0 = gn( f1 , f2 , f3 ). Hallar una base y la dimensi´on de S 0 . 376 Sea V = gn((1, 1, −2, 3), (1, 2, −1, 2), (−1, −2, 1, −2)), hallar una base de W 0 .

En los ejercicios 377 a 382 T t denota la transformaci´on transpuesta de T definida en el ejercicio propuesto 367 de esta secci´on. 377 Sea el funcional lineal φ : R2 → R definido por φ(x, y) = 2x − y. Determinar T t (φ) para cada transfor-

maci´on T : R3 → R2 si: (a) T (x, y, z) = (x − y + z, y − 2z). (b) T (x, y, z) = (2x − y, x + y − z). (c) T (x, y, z) = (−x + z, x − y − 3z). 378 Sean E = P1 , F = R2 , con sendas bases B1 = {1, x}, B2 = {(1, 0), (0, 1)} y T : E → F definido por

T (p) = (p(0) − p(1), 2p(0) + p (0)). (a) Mostrar que T ∈ L (E, F).

Page (PS/TeX): 150 / 566, COMPOSITE

´ 5.4 SECCION

Ejercicios resueltos y ejercicios propuestos 567

(b) Si f : F → R es el funcional lineal f (x, y) = x − y, encontrar T t ( f ) B∗

(c) Hallar [T t ]B2∗ directamente y sin recurrir al resultado del ejercicio propuesto 367. 1

B

(d) Encontrar [T ]B21 , transponer y comparar con el resultado del inciso anterior. 379 Si T1 ∈ L (E, F) y T2 ∈ L (F, G), mostrar que (T2 ◦ T1 )t = T1t ◦ T2t . 380 Si E, F son espacios vectoriales y T ∈ L (E, F), mostrar que

Ker(T t ) = (T t (F∗ ))0 . 381 Si E, F son espacios vectoriales, T ∈ L (E, F) y F tiene dimensi´on finita, utilizar el ejercicio precedente

y el ejercicio resuelto 40(b) para mostrar que Rang(T ) = Rang(T t ). 382 Si E, F son espacios vectoriales de dimensiones finitas y T ∈ L (E, F) probar que

(Ker(T ))0 = T t (F∗ ). 383 Sea c00 el espacio de sucesiones finitas (cfr. el ejercicio propuesto 357 del cap. 3, p´ag. 228); es decir,

c00 = {(an ) ∈ R∞ | an = 0 salvo un n´umero finito de ´ındices n}. Demostrar que c00 ∼ = P (el espacio de polinomios). 384 Si E y F son espacios vectoriales de dimensiones 2 y 3, respectivamente, y Ti ∈ L (E, F), i = 1, . . . , 7;

probar que existen constantes α1 , . . . , α7 , no todas nulas, tales ∑7i=1 αi Ti (u) = 0F para todo u ∈ E.

385 Sean α, β ∈ R con β = 0 y S el subespacio de R∞ de sucesiones (xn ) que satisfacen

xn+2 + αxn+1 + βxn = 0 ∀n Sea T : S → R2 definido por T ((xn )) = (x1 , x2 ). (a) Mostrar que S < R∞ . (b) Probar que T es un isomorfismo y determinar la dimensi´on de S. (c) Si λ, μ ∈ R son dos ra´ıces distintas de la ecuaci´on X 2 + αX + β = 0, mostrar que las sucesiones u = (λn ) y v = (β n ) son una base de S.

Page (PS/TeX): 151 / 567, COMPOSITE

568 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

386 Sean E, F dos espacios vectoriales y E×F el espacio producto de e´ stos definido en el ejercicio propuesto

133 del cap´ıtulo 3. Mostrar que E × F ∼ = F × E.

387 Si E es un espacio vectorial y S1 , S2 son subespacios de E tales que E = S1 ⊕ S2 , demostrar que E ∼ =

S1 × S2 . 388 Probar que Rm × Rn ∼ = Rmn . 389 Mostrar que Mm×n ∼ = Rmn , sin utilizar el hecho de que todo par de espacios vectoriales que tienen la

misma dimensi´on son isomorfos. 390 Probar que el espacio de matrices sim´etricas de orden 2 es isomorfo a R3 . 391 Encontrar un isomorfismo T : Pn → Rn+1 . 392 Sea P ∈ Mn una matriz invertible. Mostrar que T : Mn → Mn definida por T (A) = P−1 AP es un iso-

morfismo. 393 Sean E, F espacios vectoriales y U : E → F un isomorfismo. Se define Φ : L (E, E) → L (F, F) por

Φ(T ) = U −1 TU mostrar que Φ es un isomorfismo. 394 Sean E, F espacios vectoriales. Si T ∈ L (E, F), E tiene dimensi´on finita y B es una base de E. Probar

que T es un isomorfismo si y s´olo si T (B) es una base de F. 395 Sean E un espacio vectorial y U, W dos subespacios de E. Demostrar que

(U +W )/W ∼ = U/(U ∩W ). Donde U +V es la suma de subespacios (cfr. el ejercicio resuelto 26 del cap´ıtulo 3) y G/H es el espacio cociente (cfr. los ejercicios resueltos 29 y 41 de los cap´ıtulos 3 y 5, respectivamente). 396 Sea T una tranformaci´on lineal del espacio E sobre el espacio F. Si W < F y T −1 (W ) es el subespacio

imagen inversa de W bajo T (cfr. el ejercicio resuelto 8 de este cap´ıtulo), probar que: (a) Ker(T ) ⊂ T −1 (W ). (b) T −1 (W )/Ker(T ) ∼ = W. 397 Sean U,W dos subespacios de un espacio vectorial E y K = {(u,v) ∈ E × E |v = −u}, demostrar que

(U ×W )/K ∼ = U +W

´ (respuestas en p´aginas 1090-1092) Valores y vectores propios, diagonalizacion 398 Sean E un espacio vectorial, T : E → E un operador lineal, λ un valor propio de T y a un escalar;

demostrar que aλ es valor propio del operador lineal aT .

Page (PS/TeX): 152 / 568, COMPOSITE

´ 5.4 SECCION

Ejercicios resueltos y ejercicios propuestos 569

399 Sean T un operador lineal en un espacio vectorial E y λ un valor propio de T con u un vector propio

correspondiente. (a) Mostrar que λ2 es un valor propio de T 2 y que u es un vector propio correspondiente a λ2 . (b) Si n ∈ N mostrar que λn es un valor propio de T n y que u es un vector propio correspondiente a λn . 400 Sea p(x) = a0 + a1 x + a2 x2 + · · · + an x n un polinomio. Si T : E → E es un operador lineal en el espacio

E, se define el operador lineal p(T ) = a0 I + a1 T + a2 T 2 + · · · + an T n donde, como en ejercicios anteriores, T k = T · · ◦ T es la composici´on del operador T consigo mismo  ◦ ·

k

k-veces. Si λ es un valor propio de T con u un vector propio correspondiente, probar que μ = p(λ) es un valor propio del operador p(T ) con u un vector propio correspondiente. 401 Sea T : R2 → R2 el operador lineal que rota cada vector π/2 radianes en sentido contrario a las maneci-

llas del reloj conservando la norma (cfr. el ejercicio resuelto 3 de este cap´ıtulo). (a) Probar que T no tiene valores propios. (b) Mostrar que todo vector no nulo es vector propio de T 2 . 402 Si T : E → E es un operador lineal en el espacio E y λ2 es un valor propio del operador T 2 , mostrar que

λ o −λ es un valor propio de T . 403 Sean C∞ (0, 1) el espacio vectorial de funciones f : (0, 1) → R que tienen derivada de todo orden en cual-

quier punto del intervalo (0, 1) y T : C∞ (0, 1) → C∞ (0, 1) definido, para cada f ∈ C∞ (0, 1), por T ( f ) = g donde g(x) = x f  (x) para todo x ∈ (0, 1). Encontrar los valores y vectores propios correspondientes.

404 Sea el operador lineal T : M2 → M2 definido por T (A) = At . Encontrar los valores y vectores propios

correspondientes. 405 Sea E = C(−∞, ∞) el espacio de funciones continuas en todo punto y S el conjunto de funciones f ∈ E 

tales que

x

−∞

t f (t)dt converge para todo x ∈ R.

(a) Mostrar que S es un subespacio de E. (b) Sea, para cada f ∈ S, T ( f ) = g donde g(x) =



x

−∞

t f (t)dt. Mostrar que g ∈ E y que T : S → E

as´ı definido es un operador lineal (cfr. el ejercicio resuelto 43 de este cap´ıtulo). (c) Encontrar los valores y vectores propios correspondientes de T . 406 Sea T : Pn → Pn el operador lineal definido por T (p) = q donde q(x) = p(x + 1). Encontrar los valores

y vectores propios correspondientes de T . 407 Sean E = C[0, π] el espacio de funciones continuas en todo punto del intervalo [0, π], S el subconjunto

de E de funciones f dos veces derivables con continuidad que satisfacen f (0) = 0 = f (π). (a) Mostrar que S es un subespacio de E. (b) Sea T : S → E definido por T ( f ) = f  . Probar que T es lineal.

Page (PS/TeX): 153 / 569, COMPOSITE

570 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

(c) Encontrar los valores y vectores propios correspondientes del operador T . 408 Encontrar los valores y vectores propios correspondientes del operador T definido en el ejercicio pro-

puesto 124 de este cap´ıtulo. 409 Sea T : M2 → M2 el operador definido, para cada A ∈ M2 , por (cfr. el ejercicio propuesto 103 de este

cap´ıtulo) T (A) =

A + At . 2

Hallar los valores propios y vectores propios correspondientes de T . 410 Sea T : M2 → M2 el operador definido, para cada A ∈ M2 , por (cfr. el ejercicio propuesto 107 de este

cap´ıtulo) T (A) =

A − At . 2

Hallar los valores y vectores propios correspondientes de T . 411 Sean T un operador lineal en un espacio E, λ y μ (λ = μ) valores propios de T con sendos vectores

propios u y v. Mostrar que si au + bv es un vector propio de T , entonces a = 0 o b = 0. 412 Probar que si T es un operador lineal en un espacio E tal que todo vector no nulo de E es un vector

propio de T , entonces e´ ste tiene la forma T (u) = cu. 413 Sean T , R : E → E dos operadores lineales en el espacio E. Se supone que u es un vector propio de

T correspondiente a un valor propio λ de este operador y que R(u) = 0E , ¿R(u) es vector propio del operador T correspondiente al mismo valor propio λ?

414 Sea T : E → E un operador lineal en el espacio vectorial E.

(a) Demostrar que T es inyectivo si y s´olo si λ = 0 no es valor propio de T . (b) Si E tiene dimensi´on finita, mostrar que T es invertible si y s´olo si λ = 0 no es valor propio de T . (c) Si T es invertible probar que λ es valor propio de T si y s´olo si λ−1 es valor propio de T −1 . 415 Probar que los valores propios de una matriz cuadrada triangular superior o triangular inferior son los

elementos de la diagonal. 416 Si A es una matriz cuadrada demostrar que A y At tienen el mismo polinomio caracter´ıstico y por tanto

los mismos valores propios. 417 Sean E un espacio vectorial de dimensi´on finita, T : E → E un operador lineal y T t : E∗ → E∗ el operador

transpuesto de T definido en el ejercicio propuesto 367 de esta secci´on. Probar que T y T t tienen los mismos valores propios. 418 Sean E es un espacio vectorial de dimensi´on finita, T : E → E un operador lineal y T ∗ : E → E el

operador adjunto de T definido en el ejercicio resuelto 38 de este cap´ıtulo; mostrar que T y T ∗ tienen los mismos valores propios (cfr. el ejercicio resuelto 39 de este cap´ıtulo).

Page (PS/TeX): 154 / 570, COMPOSITE

´ 5.4 SECCION

Ejercicios resueltos y ejercicios propuestos 571

419 Probar que si A, B ∈ Mn y una de ellas es invertible, entonces AB y BA son similares y por tanto tienen

los mismos valores propios. 420 Sean A, B dos matrices cuadradas de orden n.

(a) Probar que si AB − In es invertible entonces BA − In es tambi´en invertible y que (BA − In )−1 = B(AB − I)−1 A − In . (b) Mostrar que AB y BA tienen los mismos valores propios. 

   −1 1 1 1 421 Si A = yB= , calcular los valores propios de AB y BA. Por el ejercicio pre1 2 1 1 cedente estos productos deben tener los mismos valores propios, ¿tienen los mismos vectores propios correspondientes? En los ejercicios 422 a 440, para la matriz A: (i) encontrar los valores propios; (ii) hallar los vectores y espacios propios correspondientes; (iii) calcular las dimensiones de los espacios propios.  422 A =

 423 A =

 424 A =

 425 A =

 426 A =

 427 A =

 428 A =

 429 A =

 430 A =

3 4 −1 −3 5 8



−2 −3

. 

0 −1 

−4 −7

−5 −2

.

.

12 5

 .



2 0

3 2

0 2

−1 3

3 2

2 1

.  .

 . 

−1 2

1 4

7 −3

16 −7

.  .

⎤ −3 2 0 3 0 ⎦. 431 A = ⎣ −4 4 −2 1 ⎡

Page (PS/TeX): 155 / 571, COMPOSITE

572 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

⎤ 0 0 ⎦. −1



−3 2 3 432 A = ⎣ −4 3 −3 ⎡

1 433 A = ⎣ 0 0

⎤ −3 4 4 −2 ⎦. 1 1

⎤ 1 0 0 434 A = ⎣ 2 −6 −4 ⎦. −1 8 6 ⎡

⎤ 5 0 −3 435 A = ⎣ 6 −1 −3 ⎦. 6 0 −4 ⎡

⎤ −1 −2 1 436 A = ⎣ −2 −1 1 ⎦. 2 −4 0 ⎡



5 437 A = ⎣ 2 0

⎤ 0 6 1 4 ⎦. −1 2

⎤ 1 0 0 438 A = ⎣ −3 −2 2 ⎦. 2 1 2 ⎡



1 439 A = ⎣ 0 0

⎤ −2 3 −3 1 ⎦. 1 −1

⎤ 6 −1 −2 1 −2 ⎦. 440 A = ⎣ 4 6 −2 −1 ⎡

En los ejercicios 441 a 463 determinar si la matriz A o el operador T es o no diagonalizable. En caso afirmativo encontrar una diagonalizaci´on para la matriz o el operador en cuesti´on. 441 A es la matriz del ejercicio propuesto 422 de este cap´ıtulo. 442 A es la matriz del ejercicio propuesto 424 de este cap´ıtulo.

 443 A =

2 −2 2 6

 .

444 A es la matriz del ejercicio propuesto 425 de este cap´ıtulo. 445 A es la matriz del ejercicio propuesto 426 de este cap´ıtulo.

⎤ 5 3 0 446 A = ⎣ −3 −1 0 ⎦. 1 1 3 ⎡

Page (PS/TeX): 156 / 572, COMPOSITE

´ 5.4 SECCION

Ejercicios resueltos y ejercicios propuestos 573

447 A es la matriz del ejercicio propuesto 431 de este cap´ıtulo.

⎤ 2 1 1 448 A = ⎣ 0 2 0 ⎦. −1 0 4 ⎡

⎤ 8 3 −3 6 ⎦. 449 A = ⎣ −6 −1 0 0 5 ⎡

450 A es la matriz del ejercicio propuesto 432 de este cap´ıtulo. 451 T (x, y, z) = (−y + 2z, 3x + 4y − 2z, −x + 4z). 452 T (x, y, z) = (−7x + 15y − 11z, −6x + 12y − 7z, z). 453 T : M2 → M2 , T (A) = At . 454 T : M2 → M2 , T (A) =

A+At 2 .

455 T : M2 → M2 , T (A) =

A−At 2 .

456 A es la matriz del ejercicio propuesto 438 de este cap´ıtulo. 457 A es la matriz del ejercicio propuesto 439 de este cap´ıtulo. 458 T (x, y, z) = (2x − 7y, 2x − 6y, −x − y + z).

⎤ 2 −6 0 0 ⎦. 459 A = ⎣ 2 −5 −3 5 −2 ⎡



⎤ 1 0 0 3 0 0 ⎥ ⎥. 4 −2 −3 ⎦ −3 3 4



⎤ 0 −2 −3 −2 0 0 ⎥ ⎥. 0 5 3 ⎦ 0 2 1

1 ⎢ −1 460 A = ⎢ ⎣ −4 3 −4 ⎢ 0 461 A = ⎢ ⎣ 7 2

⎤ 5 0 4 0 ⎢ 0 −3 0 0 ⎥ ⎥. 462 A = ⎢ ⎣ −8 0 −7 0 ⎦ 4 0 4 1 ⎡



2 ⎢ −4 463 A = ⎢ ⎣ −1 −1

Page (PS/TeX): 157 / 573, COMPOSITE

⎤ 0 2 −2 2 −3 2 ⎥ ⎥. 0 −1 2 ⎦ 0 0 1

574 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

464 Sea T : Pn → Pn definido por T (p) = q donde q(x) = p(x) + xp (x).

(a) Probar que T es un operador lineal. (b) Encontrar los valores propios de T . (c) Determinar si T es diagonalizable y en caso positivo hallar una diagonalizaci´on para T . En los ejercicios 465 a 467 para la transformaci´on T : E → E: (i) probar que T es lineal; (ii) determinar si T es diagonalizable y en caso afirmativo encontrar una base B de E tal que [T ]B sea diagonal. 465 T : P3 → P3 , T (p) = p + p . 466 T : P2 → P2 , T (a0 + a1 x + a2 x2 ) = a2 + a1 x + a0 x2 . 467 T : P2 → P2 , T (a0 + a1 x + a2 x2 ) = a0 + 12 a1 x + 13 a2 x2 . 468 Una matriz A ∈ Mn es escalar si A = λIn para alg´un escalar λ. Demostrar que si B es una matriz de

orden n y tiene un u´ nico valor propio, entonces B es una matriz escalar. ⎤ 2 0 1 469 ¿Es diagonalizable la matriz ⎣ 0 2 −1 ⎦? 0 0 2 ⎡

470 Encontrar   condiciones necesarias y suficientes, respecto a los par´ametros a, b, c, d, para que la matriz

a b c d

sea diagonalizable (sobre R).

471 Determinar las condiciones sobre los par´ametros a, b ∈ R para que la matriz



2a − b ⎣ 1 −a + b

0 a 0

⎤ 2a − 2b ⎦ 2 −a + 2b

sea diagonalizable. 472 Sea



1 ⎢ a A=⎢ ⎣ a1 a2

0 1 b b1

0 0 2 c

⎤ 0 0 ⎥ ⎥. 0 ⎦ 2

Encontrar condiciones sobre los par´ametros a1 , a2 , b, b1 ∈ R para que la matriz A sea diagonalizable. En los ejercicios 473 a 484 se consideran valores propios, vectores propios y diagonalizaci´on sobre el campo C. Para la matriz A: (i) encontrar los valores propios; (ii) bases para los espacios propios; (iii) determinar si la matriz A es diagonalizable y en caso afirmativo hallar una diagonalizaci´on para la matriz A.  473 A =

i 5 1 −i



Page (PS/TeX): 158 / 574, COMPOSITE

.

´ 5.4 SECCION

 474 A =

 475 A =

 476 A =

 477 A =

 478 A =

1 − 3i 4 1 −1 2 4

3i 4i



2 1 + 3i

.



2 1

. 

−2 −2

2+i 0

Ejercicios resueltos y ejercicios propuestos 575

. 3 2+i

−i −i

 .

 .

⎤ 1 1 −1 0 ⎦. 479 A = ⎣ 0 1 1 0 1 ⎡

⎤ 0 −1 0 1 0 ⎦. 480 A = ⎣ 0 −1 0 −i ⎡

⎤ i −1 + i −2 + i 481 A = ⎣ 0 −3 + 2i −3 + i ⎦. 0 6 − 2i 6−i ⎡



−i i 482 A = ⎣ −2 − 2i 1 + 2i −3 − 3i 3i

⎤ 0 0 ⎦. 1

⎤ −2i −1 − i 0 3+i 0 ⎦. 483 A = ⎣ 2 + 2i −1 − i −1 − i 1 − i ⎡



0 ⎢ 0 484 A = ⎢ ⎣ 0 1

1 0 0 0

0 1 0 0

⎤ 0 0 ⎥ ⎥. 1 ⎦ 0

En los ejercicios 485 a 489 hallar An para todo n, det(A) y tra(A) para la matriz diagonalizable A utilizando las propiedades de las matrices diagonalizables (teorema 5.34, p´ag. 481) y de los valores propios de una matriz (teorema 5.36, p´ag. 486). ⎤ 8 3 −3 6 ⎦. 485 A = ⎣ −6 −1 0 0 5 ⎡

⎤ 0 −3 −2 5 2 ⎦. 486 A = ⎣ 2 −2 −6 −3 ⎡

Page (PS/TeX): 159 / 575, COMPOSITE

576 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

⎤ −3i 0 2i 487 A = ⎣ 4i i −2i ⎦. −4i 0 3i ⎡



1 ⎢ 0 488 A = ⎢ ⎣ 0 0 ⎡

1 ⎢ 2 489 A = ⎢ ⎣ 2 0

0 −1 − 3i 1 −3 − i 0 −3i 0 −4i

⎤ 2i 2 ⎥ ⎥. 2i ⎦ 3i

⎤ 0 2 2 1 −4 −2 ⎥ ⎥. 0 2 3 ⎦ 0 −3 −2

490 Sea E un espacio vectorial complejo con producto interior ·, · y u0 un vector de E. Demostrar que la

funci´on f : E →C definida por f (v) = v,u0  es lineal. 491 Sea E un espacio vectorial complejo de dimensi´on finita y f : E → C un funcional lineal. Mostrar que

existe un u f ∈ E tal que f (u) = u,u f  para todo u ∈ E. 492 Sea T : C3 → C el funcional lineal definido por

f (z1 , z2 , z3 ) = (2 + i)z1 − z2 + (2 − i)z3 . Hallar u0 ∈ C3 tal que f (z) = z,u0  para todoz ∈ C3 , donde (z1 , z2 , z3 ), (w1 , w2 , w3 ) =z · w = ∑3i=1 zi wi es el producto can´onico en C3 (cfr. el ejemplo 5.60, p´ag. 492). 493 Sean E un espacio vectorial de dimensi´on finita sobre los n´umeros complejos, ·, · un producto interior

en E y T : E → E un operador lineal. Probar que existe un operador lineal T ∗ : E → E tal que T (u),v = u, T ∗ (v)

∀u,v ∈ E.

Al operador T ∗ se le dice el operador adjunto de T . 494 Sean E y T como en el ejercicio anterior. Probar que si A = [T ]B es la representaci´on matricial de

T relativa a una base ortonormal B y B = [T ∗ ]B es la representaci´on matricial del operador adjunto T ∗ , entonces B = At , donde M significa la matriz que tiene por componentes los conjugados de las componentes de la matriz M.

Page (PS/TeX): 160 / 576, COMPOSITE

´ 5.4 SECCION

Ejercicios resueltos y ejercicios propuestos 577

495 Sea T : C3 → C3 el operador lineal definido por

T (z1 , z2 , z3 ) = (iz1 + (2 − 3i)z2 , 2z1 + 3iz2 , z2 − iz3 ). Hallar T ∗ si se considera el producto interior z, w =z · w (cfr. el ejemplo 5.60). 496 Sea T un operador lineal en un espacio E. Probar que el subespacio S es T -invariante (T (S) ⊂ S) si:

(a) S = {0E }. (b) S = E. (c) S = T (E). (d) S = Ker(T ). (e) S = Eλ para cualquier valor propio λ del operador T. En los ejercicios 497 a 500 determinar si el subespacio S es T -invariante para la transformaci´on T : E → E; esto es, si T (S) ⊂ S. 497 T : P3 → P3 , T (p) = p , S = P2 . 498 T : P → P, T (p) = q donde q(x) = xp(x), S = P2 . 499 T : C[0, 1] → C[0, 1], T ( f ) = g donde g(x) = x

 500 T : M2 → M2 , T (A) =

1 0

f (t)dt, S = {g ∈ C[0, 1] | g(x) = a0 + a1 x, a0 , a1 ∈ R}.



0 1 1 0

A, S es subespacio de matrices sim´etricas.

501 Probar que si T : E → E es un operador lineal en el espacio E y Sα , α ∈ Λ, es una colecci´on de subes

pacios de E, entonces S = α∈Λ Sα es un subespacio T -invariante; es decir, T (S) ⊂ S (cfr. el ejercicio resuelto 30 del cap´ıtulo 3, p´ag. 190).

En los ejercicios 502 a 504 encontrar una base para el subespacio T -c´ıclico, definido en el ejercicio resuelto 48 de este cap´ıtulo, generado por el vector u. 502 T : P3 → P3 , T (p) = p , u = x3 .

⎤ 0 1 0 503 T : M3 → M3 , T (A) = At , u = ⎣ 1 0 1 ⎦. 0 1 0 ⎡

504 T : P2 → P2 , T (p) = p ,u = x2 .

En los ejercicios 505 a 514 encontrar el polinomio caracter´ıstico y el polinomio m´ınimo de la matriz A. En algunos casos se debe considerar trabajar sobre el campo C.  505 A =

1 0

Page (PS/TeX): 161 / 577, COMPOSITE

1 1

 .

578 CAPI´TULO 5

Transformaciones lineales, valores y vectores propios

 506 A =

 507 A =

0 0 0 0 1 1 1 1

 .  .

⎤ 4 3 0 508 A = ⎣ −6 −5 0 ⎦. 3 3 1 ⎡

⎤ −4 0 −3 3 ⎦. 509 A = ⎣ 3 −1 6 0 5 ⎡

⎤ −5 0 4 510 A = ⎣ 4 −1 −4 ⎦. −8 0 7 ⎡



−1 ⎢ 2 ⎢ 511 A = ⎣ −3 3

⎤ 0 1 −1 1 −1 1 ⎥ ⎥. 0 3 −1 ⎦ 0 −1 3



1 1 0 512 A = ⎣ 2 −3 −2 ⎡

0 ⎢ 1 513 A = ⎢ ⎣ 0 0

⎤ 0 2 ⎦. −1

⎤ −1 2 −1 0 1 2 ⎥ ⎥. 0 0 1 ⎦ 0 −1 0



−1 1 ⎢ −2 1 514 A = ⎢ ⎣ 3 1 2 −5

⎤ 0 0 0 0 ⎥ ⎥. 1 1 ⎦ −2 −1

515 Demostrar  el teorema  de Cayley-Hamilton (cfr. el ejercicio resuelto 50 de este cap´ıtulo) para una matriz

2 × 2, A =

a b c d

, utilizando directamente la f´ormula pA (λ) = λ2 − tra(A)λ + det(A)

para el polinomio caracter´ıstico de A para matrices de orden 2.

Page (PS/TeX): 162 / 578, COMPOSITE

III Aplicaciones, uso de tecnología, métodos numéricos

Page (PS/TeX): 1 / 579, COMPOSITE

Page (PS/TeX): 2 / 580, COMPOSITE

6 Aplicaciones

Se han seleccionado unas cuantas de las aplicaciones que tiene la materia de a´ lgebra lineal para formar parte de este cap´ıtulo. Van desde lo elemental hasta aplicaciones m´as sofisticadas. Todas deben considerarse como introducciones a temas que son bastos y complejos; sin embargo, algunas de ellas se han tratado con suficiente detalle para que este libro resulte, en la medida de lo posible, un texto autocontenido. Las primeras aplicaciones ilustran conceptos muy simples y cuestiones bastante elementales de a´ lgebra lineal; pero las dem´as involucran conceptos que en s´ı requieren de una formulaci´on conceptual m´as complicada. Las secciones 6.1, 6.2, 6.4, 6.5 y 6.6 necesitan, esencialmente, el conocimiento de matrices y sistemas lineales. La secci´on 6.3 requiere, adem´as, saber los conceptos b´asicos de matrices invertibles, as´ı que pueden abordarse inmediatamente que se hayan cubierto esos temas. Para lograr una mayor flexibilidad en el manejo de este cap´ıtulo se hacen patentes, al inicio de cada secci´on y donde es necesario, los requisitos de a´ lgebra lineal –mencionando los apartados donde est´an incluidos en el libro– y los conocimientos de otras ramas de las matem´aticas que son necesarios para su comprensi´on. Por tanto, su estudio puede llevarse a cabo en el orden que convenga y, no necesariamente, en el orden en el que aparecen los t´opicos. La u´ ltima secci´on contiene una serie de ejercicios propuestos al lector para su resoluci´on.

6.1 Matrices de incidencia y teor´ıa de grafos Requisitos:

Operaciones con matrices: 1.1.1 a 1.1.3

Una matriz de incidencia es una matriz cuadrada cuyas entradas son ceros o unos y, por conveniencia, todas las componentes de la diagonal son nulas.  Ejemplo 6.1 ⎡

0 ⎢ 1 A=⎢ ⎣ 1 0

0 0 1 1

1 0 0 1

⎤ 1 1 ⎥ ⎥ 0 ⎦ 0

es una matriz de incidencia. Estas matrices tienen una interpretaci´on muy sencilla que es de gran utilidad en varias aplicaciones. Supongamos que se tienen n personas, P1 , . . . , Pn , con ciertos dispositivos de comunicaci´on, de manera 581

Page (PS/TeX): 3 / 581, COMPOSITE

582 CAPI´TULO 6

Aplicaciones

que algunas personas pueden enviar (transmitir) mensajes a otras. Formamos una matriz A = [ai j ] para este esquema definiendo  ai j =

1, si i = j y Pi puede transmitir a Pj ; 0 en otro caso.

Entonces, A es una matriz de incidencia. Note que si ai j = 1 no necesariamente a ji = 1; esto es, si la persona Pi puede enviar mensajes a la persona Pj , no forzosamente la persona Pj puede transmitir a la persona Pi . Una forma de representar las relaciones de comunicaci´on de este tipo es por medio de un diagrama llamado grafo dirigido o digrafo. Por ejemplo, la figura 6-1 muestra el digrafo de la matriz de incidencia del P2 P4 ejemplo 6.1. En e´ l los individuos Pi , i = 1, . . . , 4, est´an representados por los puntos Pi que se llaman v´ertices del digrafo y las l´ıneas que unen ciertos v´ertices se llaman aristas; las flechas indican direcciones hacia donde es posible transmitir comunicaci´on. Aunque en el digrafo de la figura 6-1 P1 no se puede comunicar directamente con P2 , existe una cadena o trayectoria P3 a trav´es de la cual puede enviar mensajes a P2 , por ejemplo, P1 → P3 → P2 . Se dice que e´ sta es una 2-cadena porque Figura 6-1 para transmitir un mensaje es necesario hacerlo en dos etapas, esto es, recorrer una trayectoria que tiene dos aristas con un v´ertice intermedio. Otra trayectoria por la que P1 puede transmitir a P2 es la 3-cadena P1 → P4 → P3 → P2 . En general, en un digrafo cualquiera, una k-cadena, es una sucesi´on de la forma Pi → Pl → · · · → Pj por medio de la cual Pi puede enviar mensajes a Pj , donde esta cadena contiene k + 1 v´ertices y k aristas. Supongamos ahora que un digrafo tiene n > 1 v´ertices y estamos interesados en encontrar el n´umero de formas distintas en las que un individuo Pi puede transmitir al individuo Pj a trav´es de una 2-cadena; es decir, el n´umero total de 2-cadenas con v´ertice inicial Pi y v´ertice final Pj o, de manera equivalente, el n´umero de formas distintas en las que Pi puede transmitir a Pj con un intermediario, exactamente, Pi → Pl → Pj . Representemos por (A2 )i j la componente en la fila i y la columna j de la matriz A2 , donde A = [Ai j ] es la matriz de incidencia del digrafo. Entonces P1



(A2 )i j =



Ai1

···

Ain

⎤ A1 j

⎢ . ⎥ ⎣ .. ⎦ An j

n

= ∑ Ail Al j . l=1

Puesto que A es una matriz de incidencia, los t´erminos de la precedente sumatoria son iguales a 1, o iguales a 0; y ya que Ail Al j = 1 si y s´olo si Pi puede transmitir a Pl y Pl puede transmitir a Pj , se tiene que el resultado de esta sumatoria es el n´umero total de 2-cadenas con v´ertice inicial Pi y v´ertice final Pj . La generalizaci´on de este resultado es inmediata, se hace patente en el siguiente teorema y su demostraci´on se deja de ejercicio al lector.

Page (PS/TeX): 4 / 582, COMPOSITE

´ 6.1 SECCION

Matrices de incidencia y teor´ıa de grafos 583

Teorema 6.1 Sea un digrafo con n > 1 v´ertices y matriz de incidencia A. Si r ≥ 1 es un n´umero entero y (Ar )i j representa la componente i j de la matriz Ar , entonces (Ar )i j es el n´umero de r-cadenas con v´ertice inicial Pi y v´ertice final Pj o, equivalentemente, el n´umero de formas distintas en las que Pi puede transmitir a Pj con r − 1 intermediarios.  Ejemplo 6.2 Consideremos el digrafo que se muestra en la figura 6-1 cuya matriz de incidencia es la matriz del ejemplo 6.1; esto es, ⎤ ⎡ 0 0 1 1 ⎢ 1 0 0 1 ⎥ ⎥ A=⎢ ⎣ 1 1 0 0 ⎦. 0 1 1 0 Entonces, ⎡

1 ⎢ 0 2 ⎢ A =⎣ 1 2

2 1 0 1

1 2 1 0

⎤ 0 1 ⎥ ⎥ 2 ⎦ 1

As´ı, el individuo P1 puede transmitir en dos formas distintas al individuo P2 , con un relevo (intermediario) de por medio, las 2-cadenas: P1 → P4 → P2 y P1 → P3 → P2 ; el individuo P2 puede transmitir al individuo P3 en dos formas distintas con un relevo de por medio: P2 → P4 → P3 y P2 → P1 → P3 ; s´olo hay una 2-cadena con v´ertice inicial P1 y v´ertice final P4 : P1 → P2 → P4 (es decir, s´olo hay una forma de transmisi´on de P1 a P4 en dos etapas); hay cero 2-cadenas con v´ertice inicial P4 y v´ertice final P3 ; etc., lo cual se puede constatar observando la figura 6-1.  Ejemplo 6.3 Si A es la matriz de incidencia del ejemplo anterior, ⎡

3 ⎢ 3 3 A =⎢ ⎣ 1 1

1 3 3 1

1 1 3 3

⎤ 3 1 ⎥ ⎥. 1 ⎦ 3

Entonces (A3 )14 = 3, as´ı que existen tres 3-cadenas con v´ertice inicial P1 y v´ertice final P4 : P1 P1 P1

→ → →

P3 P4 P3

→ → →

P2 P2 P1

→ → →

P4 , P4 y P4 .

Es evidente que el teorema precedente incluye en el conteo r-cadenas que no son, en general, de inter´es en la pr´actica, son aquellas en las que se repiten v´ertices; estas cadenas se llaman redundantes. En el ejemplo anterior, las 3-cadenas P1 P1

→ →

P4 P3

→ →

P2 P1

→ →

P4 y P4

son 3-cadenas redundantes. Si A es una matriz de incidencia, entonces, por el teorema 6.1 (Ak )i j , k = 1, . . . , r, es el n´umero de k-cadenas con v´ertice inicial Pi y v´ertice final Pj , luego (A + A2 + · · · + Ar )i j es el n´umero de cadenas con a lo m´as r aristas con v´ertice inicial Pi y v´ertice final Pj . Hemos probado as´ı el siguiente corolario.

Page (PS/TeX): 5 / 583, COMPOSITE

584 CAPI´TULO 6

Aplicaciones

Corolario 6.1 Si un digrafo tiene n v´ertices Pi , A es su matriz de incidencia y r ≥ 1 es un entero, entonces (A + A2 + · · · + Ar )i j es el n´umero de formas distintas que Pi puede transmitir a Pj en a lo m´as r etapas.  Ejemplo 6.4 Para la matriz de incidencia



0 1 0 A=⎣ 1 0 1 0 1 0 ⎡ 1 0 1 A2 = ⎣ 0 2 0 1 0 1 ⎡ 0 2 0 A3 = ⎣ 2 0 2 0 2 0

⎤ ⎦: ⎤ ⎦

y

⎤ ⎦.

Entonces (A + A2 + A3 )12 = 3 es el n´umero de formas en las que P1 puede transmitir a P2 en a lo m´as 3 etapas. La figura 6-2 contiene el digrafo de esta matriz, donde se puede observar que las k-cadenas, con k = 1, 2, 3, con v´ertice inicial P1 y v´ertice final P2 son: P1 P1 P1

→ → →

P2 , P2 → P2 →

P1 P3

→ →

P2 , P2 .

P1

P2

P3

Figura 6-2 • Digrafo de la matriz.

Un problema importante que surge en la teor´ıa de grafos es determinar subconjuntos maximales de v´ertices que est´en intercomunicados. Un subconjunto S de un digrafo es un clan si: 1. S contiene 3 o m´as v´ertices. 2. Si Pi , Pj ∈ S, entonces Pi → Pj y Pj → Pi ; es decir, cualquier par de v´ertices en S se pueden comunicar directamente uno con otro. 3. No existe un subconjunto propio del digrafo que satisfaga las dos condiciones precedentes y contenga propiamente a S.

Page (PS/TeX): 6 / 584, COMPOSITE

´ 6.1 SECCION

Matrices de incidencia y teor´ıa de grafos 585

P1

P1

P4

P2

P4

P2

P5 P3

P3

(a)

(b)

Figura 6-3 •

 Ejemplo 6.5 En la figura 6-3(a) S1 = {P1 , P2 , P3 } y S2 = {P1 , P2 , P4 } son clanes. En la misma figura (b) ni {P1 , P2 , P3 } ni {P1 , P2 , P4 } son clanes, pues ambos subconjuntos est´an contenidos en S = {P1 , P2 , P3 , P4 }, el cual s´ı es un clan (el u´ nico) del digrafo. Supongamos ahora que se tiene un digrafo con matriz de incidencia A, se define la matriz A (A) = [bi j ] donde bi j = 1 si Pi y Pj pueden transmitir mensajes directos en forma mutua; es decir, en una etapa y en las dos direcciones; y bi j = 0 en otro caso. Llamaremos a A (A) la matriz asociada de la matriz A.  Ejemplo 6.6 Hallar la matriz de incidencia del digrafo de la figura 6-3(a) y su matriz asociada. ´ Solucion

De la figura 6-3(a) se desprende que ⎡

0 ⎢ 1 A=⎢ ⎣ 1 1

1 0 1 1

1 1 0 0

⎤ 1 1 ⎥ ⎥ 1 ⎦ 0

1 0 1 1

1 1 0 0

⎤ 1 1 ⎥ ⎥. 0 ⎦ 0

y ⎡

0 ⎢ 1 A (A) = ⎢ ⎣ 1 1



El siguiente teorema no es dif´ıcil de probar y su demostraci´on se deja de ejercicio al lector.

Teorema 6.2 Si un digrafo tiene n v´ertices con matriz de incidencia A y matriz asociada B = A (A), entonces Pi pertenece a un clan del digrafo si y s´olo si (B3 )ii > 0.

Page (PS/TeX): 7 / 585, COMPOSITE

586 CAPI´TULO 6

Aplicaciones

 Ejemplo 6.7 Consideremos el digrafo contenido en la figura 6-3(a). Por el ejemplo anterior, ⎡

0 ⎢ 1 B=⎢ ⎣ 1 1

1 0 1 1

1 1 0 0

⎤ 1 1 ⎥ ⎥ 0 ⎦ 0

5 4 5 5

5 5 2 2

⎤ 5 5 ⎥ ⎥, 2 ⎦ 2

ya que ⎡

4 ⎢ 5 3 B =⎢ ⎣ 5 5

todos los v´ertices P1 , P2 , P3 y P4 est´an en un clan. Efectivamente, en el ejemplo 6.5 vimos que este digrafo tiene dos clanes: S1 = {P1 , P2 , P3 } y S2 = {P1 , P2 , P4 }.  Ejemplo 6.8 Ahora consideremos el digrafo contenido en la figura 6-3(b), su matriz de incidencia es ⎡ ⎢ ⎢ A=⎢ ⎢ ⎣

0 1 1 1 0

1 0 1 1 0

1 1 0 1 0

1 1 1 0 0

0 0 1 0 0

0 1 1 1 0

1 0 1 1 0

1 1 0 1 0

1 1 1 0 0

0 0 0 0 0

⎤ ⎥ ⎥ ⎥; ⎥ ⎦

mientras que la matriz asociada a A es ⎡ ⎢ ⎢ B=⎢ ⎢ ⎣

⎤ ⎥ ⎥ ⎥. ⎥ ⎦

Puesto que ⎡ ⎢ ⎢ B3 = ⎢ ⎢ ⎣

6 7 7 7 0

7 6 7 7 0

7 7 6 7 0

7 7 7 6 0

0 0 0 0 0

⎤ ⎥ ⎥ ⎥ ⎥ ⎦

se desprende que todos los v´ertices, excepto P5 , est´an en un clan. De hecho, por el ejemplo 6.5, sabemos que {P1 , P2 , P3 , P4 } es el u´ nico clan de este digrafo.

Dominancia total Supongamos ahora que en un digrafo queremos representar una relaci´on entre ciertos individuos Pi que tiene que ver con el dominio, o influencia directa, que algunos ejercen sobre otros. Esta relaci´on puede ser, por ejemplo, de liderazgo o de alg´un tipo de influencia sicol´ogica o nuevamente de transmisi´on de informaci´on, de tal manera que si un individuo ejerce dominio sobre otro, e´ ste no lo hace sobre el

Page (PS/TeX): 8 / 586, COMPOSITE

´ 6.1 SECCION

Matrices de incidencia y teor´ıa de grafos 587

P2

P1

P3

P5

P4

Figura 6-4 • Digrafo.

primero. Si se supone adem´as que todo individuo domina, o es dominado, en forma directa por los dem´as miembros del grupo, entonces se dice que la relaci´on es de dominancia total. Por tanto, en el digrafo todo par de v´ertices Pi y Pj est´an conectados en la forma Pi → Pj o en la forma Pj → Pi , pero no en ambas. Luego, la matriz de incidencia, A = [ai j ], para una relaci´on de dominancia total tienen una caracter´ıstica m´as: ai j = 1 si y s´olo si a ji = 0. Como antes, la relaci´on de dominancia puede ejercerse a trav´es de k-cadenas, esto es, si Pi → Pj (y, por tanto, Pj  Pi ), puede existir una k-cadena tal que Pj → · · · → Pl → Pi . Por ejemplo, en el digrafo contenido en la figura 6-4, P4 → P2 y P2  P4 , pero P2 → P3 → P4 , esto es, P2 establece dominio sobre P4 en dos etapas.  Ejemplo 6.9 Consideremos el digrafo mostrado en la figura 6-4. Entonces, la matriz de incidencia es ⎡ ⎢ ⎢ A=⎢ ⎢ ⎣

0 0 1 0 1

1 0 0 1 1

0 1 0 0 1

1 0 1 0 0

0 0 0 1 0

⎤ ⎥ ⎥ ⎥. ⎥ ⎦

Por tanto, la relaci´on que representa el digrafo de la figura 6-4 es de dominancia total, ya que: las componentes de ai j de A son ceros o unos, aii = 0 para t