Álgebra matricial
 9788490486450, 849048645X

Table of contents :
Portada
Créditos
Índice
Capítulo 1. TEORÍA DE CONJUNTOS
1.1 EL ÁLGEBRA DE BOOLE DE LA TEORÍA DE CONJUNTOS
1.2 CARDINALIDAD DE CONJUNTOS
1.3 COMBINATORIA ELEMENTAL
1.4 UN POCO DE HISTORIA
1.5 EJERCICIOS RESUELTOS
Capítulo 2. FUNCIONES E INTERPOLACIÓN
2.1 APLICACIONES
2.2 FUNCIONES
2.3 REPRESENTACI´ON DE FUNCIONES
2.4 INTERPOLACI´ON
2.5 REGRESI´ON Y CORRELACI´ON
2.6 UN POCO DE HISTORIA
2.7 EJERCICIOS RESUELTOS
Capítulo 3. SISTEMAS DE NUMERACIÓN
3.1 SISTEMA DE NUMERACIÓN
3.2 SISTEMAS DE NUMERACIÓN USADOS EN COMPUTACIÓN
3.3 UN POCO DE HISTORIA
3.4 EJERCICIOS RESUELTOS
Capítulo 4. ESPACIOS VECTORIALES
4.1 ESPACIOS VECTORIALES
4.2 BASE DE UN ESPACIO VECTORIAL
4.3 PROCESO DE REDUCCI´ON DE GAUSS
4.4 UN POCO DE HISTORIA
4.5 EJERCICIOS RESUELTOS
Capítulo 5. MATRICES
5.1 EL ESPACIO VECTORIAL DE LAS MATRICES
5.2 EL ANILLO DE LAS MATRICES CUADRADAS
5.3 TIPOS ESPECIALES DE MATRICES
5.4 RANGO DE UNA MATRIZ
5.5 MATRICES ELEMENTALES
5.6 MATRICES POR BLOQUES
5.7 UN POCO DE HISTORIA
5.8 EJERCICIOS RESUELTOS
Capítulo 6. APLICACIONES LINEALES
6.1 APLICACIONES LINEALES
6.2 MATRICES Y APLICACIONES LINEALES
6.3 APLICACIONES LINEALES Y MATRICES INVERSIBLES
6.4 CAMBIOS DE BASE
6.5 UN POCO DE HISTORIA
6.6 EJERCICIOS RESUELTOS
Capítulo 7. DETERMINANTES
7.1 DETERMINANTE DE ORDEN n
7.2 DESARROLLO DE UN DETERMINANTE
7.3 MATRIZ INVERSIBLE
7.4 UN POCO DE HISTORIA
7.5 EJERCICIOS RESUELTOS
Capítulo 8. SISTEMAS DEECUACIONES LINEALES
8.1 SISTEMAS DE ECUACIONES LINEALES
8.2 RESOLUCI´ON DE SISTEMAS DE ECUACIONES LINEALES
8.3 ECUACIONES DELOS SUBESPACIOS DE Rn
8.4 RESOLUCIÓN NUM´ERICA DE SISTEMAS DE ECUACIONES LINEALES
8.5 UN POCO DE HISTORIA
8.6 EJERCICIOS RESUELTOS
Capítulo 9. DIAGONALIZACI´ON DEMATRICES
9.1 SUBESPACIOS PROPIOS
9.2 DIAGONALIZACI´ON DE MATRICES
9.3 UN POCO DE HISTORIA
9.4 EJERCICIOS RESUELTOS
Bibliografía
´Indice de t´erminos

Citation preview

Álgebra matricial

UPV 0634P05

ISBN 978-84-9048-644-3

Vicent Estruch Fuster Valentín Gregori Gregori Bernardino Roig Sala Álgebra matricial Vicent Estruch Fuster Valentín Gregori Gregori Bernardino Roig Sala

El libro se ha estructurado en capítulos que contienen varias secciones, y en cada uno de ellos los resultados se ilustran con ejemplos apropiados. Al final de cada capítulo aparece una lista de ejercicios resueltos que podrán poner a prueba la comprensión y adquisición de conocimientos por parte del lector. Estos ejercicios, en ocasiones, complementan la teoría. Colección Académica Colección de carácter multidisciplinar, orientada a los estudiantes y cuya finalidad es apoyar la gestión docente conforme a los planes de estudio de las titulaciones universitarias impartidas en la Universitat Politècnica de València, constituyendo bibliografía recomendada para el aprendizaje de una asignatura. Los títulos de la colección se clasifican en distintas series según el área de conocimiento y la mayoría de ellos están disponibles tanto en formato papel como electrónico.

Los capítulos que conforman la obra son, en este orden: Teoría de conjuntos, Funciones e interpolación, Sistemas de Numeración, Espacios vectoriales, Matrices, Aplicaciones lineales, Determinantes, Sistemas de ecuaciones lineales y Diagonalización de matrices

Catedrático de Universidad. Ejerce su docencia en la Escuela Politécnica Superior de Gandia de la Universitat Politècnica de València. Ha dirigido varias tesis doctorales y ha publicado libros docentes y un gran número de artículos de investigación sobre topología general y métricas fuzzy en revistas internacionales. Bernardino Roig Sala Actualmente profesor titular en la Escuela Politécnica Superior de Gandia de la Universitat Politècnica de València, también lo ha sido en otras universidades presenciales y no presenciales impartiendo asignaturas matemáticas. Es autor de libros y publicaciones docentes y especialista en mecánica computacional y otras aplicaciones numéricas de la matemática en donde es autor de un cierto número de publicaciones de investigación.

Todos los títulos de la colección están evaluados por el departamento de la Universitat Politècnica de València en el que se inscribe la materia, atendiendo a la oportunidad de la obra para el estudiante y la adecuación de la metodología empleada en su didáctica. Para conocer más información sobre la colección, los títulos que la componen y cómo adquirirlos puede visitar la web http://www.lalibreria.upv.es EDITORIAL

Inició su actividad docente en la Escuela Universitaria de Ingeniería Técnica Industrial. Actualmente es profesor titular de Universidad en la Escuela Politécnica Superior de Gandia de la Universitat Politècnica de València. Es autor de libros y publicaciones docentes y su investigación actual se centra en las aplicaciones matemáticas y estadísticas en el desarrollo y estudio de modelos en ciencias naturales y acuicultura, siendo autor de varios artículos.

Valentín Gregori Gregori

Álgebra matricial

El libro, como es usual en textos matemáticos, expone los resultados con una continuada argumentación, pero en este caso sin apenas demostraciones. No obstante, en letra pequeña se presentan pruebas abreviadas o extensiones de la teoría que el lector puede obviar en una primera lectura.

Vicent Estruch Fuster

EDITORIAL UNIVERSITAT POLITÈCNICA DE VALÈNCIA

Vicent Estruch Fuster Valentín Gregori Gregori Bernardino Roig Sala

Álgebra matricial

EDITORIAL UNIVERSITAT POLITÈCNICA DE VALÈNCIA

Colección Académica

Los contenidos de esta publicación han sido revisados por el Departamento de Matemàtica Aplicada de la Universitat Politècnica de València

Para referenciar esta publicación utilice la siguiente cita: Estruch Fuster, V., Gregori Gregori, V., Roig Sala, B. (2017). Álgebra matricial. Valencia: Universitat Politècnica de València

Primera edición, 2017 (versión impresa) Primera edición, 2017 (versión electrónica)

© Vicent Estruch Fuster Valentín Gregori Gregori Bernardino Roig Sala

© 2017, Editorial Universitat Politècnica de València distribución: www.lalibreria.upv.es / Ref.: 6413_01_01_01

ISBN: 978-84-9048-644-3 (versión impresa) ISBN: 978-84-9048-645-0 (versión electrónica)

La Editorial UPV autoriza la reproducción, traducción y difusión parcial de la presente publicación con fines científicos, educativos y de investigación que no sean comerciales ni de lucro, siempre que se identifique y se reconozca debidamente a la Editorial UPV, la publicación y los autores. La autorización para reproducir, difundir o traducir el presente estudio, o compilar o crear obras derivadas del mismo en cualquier forma, con fines comerciales/lucrativos o sin ánimo de lucro, deberá solicitarse por escrito al correo [email protected]

Presentaci´ on El presente libro contiene la parte de ´algebra que los autores han redactado ´ para la asignatura Algebra matricial y geometr´ıa, del Grado en Tecnolog´ıas Interactivas, que se imparte en la Escuela Polit´ecnica Superior de Gandia, por primera vez en el curso 2017-2018. El libro, como es usual en textos matem´aticos, expone los resultados con una continuada argumentaci´on, pero en este caso sin apenas demostraciones. No obstante, en letra peque˜ na se presentan pruebas abreviadas o extensiones de la teor´ıa que el lector puede obviar en una primera lectura. El libro se ha estructurado en cap´ıtulos que contienen varias secciones, y en cada uno de ellos los resultados se ilustran con ejemplos apropiados. Al final de cada cap´ıtulo aparece una lista de ejercicios resueltos que podr´ an poner a prueba la comprensi´on y adquisici´ on de conocimientos por parte del lector. Estos ejercicios, en ocasiones, complementan la teor´ıa. Los cap´ıtulos que conforman la obra son, en este orden: Teor´ıa de conjuntos, Funciones e interpolaci´ on, Sistemas de Numeraci´ on, Espacios vectoriales, Matrices, Aplicaciones lineales, Determinantes, Sistemas de ecuaciones lineales y Diagonalizaci´on de matrices. Para la comprensi´ on del texto se requieren conocimientos de ´algebra elemental. Los autores agradecer´an cualquier sugerencia tendente a mejorar el presente texto en ediciones posteriores. Los autores

´ NOTACION En este texto se ha evitado un lenguaje excesivamente simb´olico. No obstante, el lector debe conocer la siguiente terminolog´ıa b´ asica que se usa en matem´ aticas y ciencias tecnol´ogicas: ∀ Cuantificador universal. Se lee “para todo” o “para cada” ∃ Cuantificador existencial. Se lee “existe” ⇐⇒ Equivalencia proposicional. Se lee “si y s´olo si” sii Abreviatura de “si y s´olo si” ⇒ Implicaci´on proposicional. La proposici´on de la izquierda implica la de la derecha. Se lee “implica” | Se lee “tal (tales) que” : Se lee “tal (tales) que” i.e. En lat´ın id est y se lee “es decir” ∈ S´ımbolo de pertenencia ⊂ S´ımbolo de inclusi´ on ∪ S´ımbolo de uni´ on ∩ S´ımbolo de intersecci´ on N Conjunto de los n´ umeros naturales (incluye al cero) N∗ El conjunto N sin el cero Z El anillo de los n´ umeros enteros Q El cuerpo de los n´ umeros racionales R El cuerpo de los n´ umeros reales C El cuerpo de los n´ umeros complejos

´Indice 1 TEOR´ IA DE CONJUNTOS 13 ´ ´ 1.1 EL ALGEBRA DE BOOLE DE LA TEORIA DE CONJUNTOS . . . . . . . 13

1.2

1.3

1.1.1

Conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

1.1.2

Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

1.1.3

Representaciones gr´ aficas . . . . . . . . . . . . . . . . . . . . . . . . . 14

1.1.4

Uni´ on, intersecci´ on y complementaci´ on de conjuntos . . . . . . . . . . 15

1.1.5

Conjunto complementario y diferencia de conjuntos . . . . . . . . . . . 16

1.1.6

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

1.1.7

El ´ algebra de Boole de la teor´ıa de conjuntos . . . . . . . . . . . . . . 17

CARDINALIDAD DE CONJUNTOS . . . . . . . . . . . . . . . . . . . . . . 17 1.2.1

Partici´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

1.2.2

Cardinal de un conjunto . . . . . . . . . . . . . . . . . . . . . . . . . . 17

1.2.3

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

1.2.4

Producto cartesiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

1.2.5

Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

1.2.6

Variaciones con repetici´ on . . . . . . . . . . . . . . . . . . . . . . . . . 19

1.2.7

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

COMBINATORIA ELEMENTAL . . . . . . . . . . . . . . . . . . . . . . . . 20 1.3.1

Variaciones ordinarias . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

1.3.2

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

1.3.3

Permutaciones ordinarias . . . . . . . . . . . . . . . . . . . . . . . . . 20

1.3.4

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

1.3.5

Combinaciones ordinarias. N´ umeros combinatorios . . . . . . . . . . . 21

1.3.6

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

1.4

UN POCO DE HISTORIA . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

1.5

EJERCICIOS RESUELTOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

´ 2 FUNCIONES E INTERPOLACION 2.1

27

APLICACIONES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 2.1.1

Aplicaci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

´Indice

6 2.1.2

Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

2.1.3

Clases de aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

2.1.4

Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

2.1.5

Composici´ on de aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . 29

2.1.6

La aplicaci´ on identidad I . . . . . . . . . . . . . . . . . . . . . . . . . 29

2.1.7

Correspondencia inversa . . . . . . . . . . . . . . . . . . . . . . . . . . 30

2.1.8

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

2.1.9

Nota . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

2.1.10 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 2.1.11 Caracterizaci´ on de la aplicaci´ on inversa . . . . . . . . . . . . . . . . . 31 2.2

FUNCIONES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 2.2.1

Funci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

2.2.2

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

2.2.3

Nota . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

2.2.4

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

2.2.5

Dominio o campo de existencia de una funci´ on . . . . . . . . . . . . . 32

2.2.6

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

2.2.7

Funci´ on inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

2.2.8

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

2.2.9 2.3

Composici´ on n-´esima de funciones . . . . . . . . . . . . . . . . . . . . 34 ´ DE FUNCIONES . . . . . . . . . . . . . . . . . . . . . 34 REPRESENTACION

2.3.1

Gr´ afica de funciones continuas . . . . . . . . . . . . . . . . . . . . . . 34

2.3.2

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

2.3.3

Funci´ on definida a trozos . . . . . . . . . . . . . . . . . . . . . . . . . 35

2.3.4

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

2.3.5

Funciones discretas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

2.3.6 2.4

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 ´ INTERPOLACION . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

2.4.1

Discretizaci´ on e interpolaci´ on . . . . . . . . . . . . . . . . . . . . . . . 37

2.4.2

Interpolaci´ on lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

2.4.3

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

2.4.4

Interpolaci´ on polin´ omica . . . . . . . . . . . . . . . . . . . . . . . . . . 38

2.4.5 2.5

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 ´ Y CORRELACION ´ REGRESION . . . . . . . . . . . . . . . . . . . . . . . . 39

2.5.1

Nube de puntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

2.5.2

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

2.5.3

L´ıneas de regresi´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

2.5.4

Recta de regresi´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

2.5.5

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

2.5.6

C´ alculo de las rectas de regresi´ on con conceptos estad´ısticos . . . . . . 43

2.5.7

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

´Indice

7 2.5.8

El coeficiente de correlaci´ on lineal . . . . . . . . . . . . . . . . . . . . 45

2.5.9

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

2.5.10 Regresi´ on parab´ olica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 2.5.11 Regresi´ on exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 2.6

UN POCO DE HISTORIA . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

2.7

EJERCICIOS RESUELTOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

´ 3 SISTEMAS DE NUMERACION 57 ´ 3.1 SISTEMA DE NUMERACION . . . . . . . . . . . . . . . . . . . . . . . . . . 57 3.1.1

Teorema fundamental de la numeraci´ on . . . . . . . . . . . . . . . . . 58

3.1.2

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

3.1.3

Nota . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

3.1.4

Algoritmo para escribir un n´ umero en base b . . . . . . . . . . . . . . 59

3.1.5

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

3.1.6

Aritm´etica con n´ umeros en base b . . . . . . . . . . . . . . . . . . . . 59

3.1.7

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

3.1.8

Regla del producto por la unidad seguida de ceros . . . . . . . . . . . 60

3.1.9

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

3.1.10 Expresi´ on de n´ umeros racionales en base b . . . . . . . . . . . . . . . . 60 3.1.11 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 3.1.12 Productos con el factor bk en el sistema base b . . . . . . . . . . . . . 61 3.2

3.1.13 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 ´ USADOS EN COMPUTACION ´ . . . . . . . 61 SISTEMAS DE NUMERACION 3.2.1

El sistema binario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

3.2.2

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

3.2.3

Escritura de un decimal en el sistema binario con k cifras exactas . . . 62

3.2.4

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

3.2.5

Escritura de un decimal en sistema binario . . . . . . . . . . . . . . . 63

3.2.6

Los sistemas octal y hexadecimal . . . . . . . . . . . . . . . . . . . . . 64

3.2.7

Conversi´ on de un n´ umero binario a los sistemas octal o hexadecimal . 64

3.2.8

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

3.3

UN POCO DE HISTORIA . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

3.4

EJERCICIOS RESUELTOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

4 ESPACIOS VECTORIALES 4.1

71

ESPACIOS VECTORIALES . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 4.1.1

El espacio vectorial Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . 71

4.1.2

Representaciones geom´etricas . . . . . . . . . . . . . . . . . . . . . . . 72

4.1.3

Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

4.1.4

Subespacios de R2 y R3 . . . . . . . . . . . . . . . . . . . . . . . . . . 73

4.1.5

Combinaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

´Indice

8 4.1.6

Rectas vectoriales en Rn . . . . . . . . . . . . . . . . . . . . . . . . . . 74

4.1.7

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

4.1.8

Interpretaciones geom´etricas

4.1.9

Dependencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76

. . . . . . . . . . . . . . . . . . . . . . . 75

4.1.10 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 4.1.11 Consecuencias 4.2

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77

BASE DE UN ESPACIO VECTORIAL . . . . . . . . . . . . . . . . . . . . . 77 4.2.1

Base de un espacio vectorial . . . . . . . . . . . . . . . . . . . . . . . . 77

4.2.2

Teorema de la dimensi´ on

4.2.3

Bases can´ onicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78

. . . . . . . . . . . . . . . . . . . . . . . . . 78

4.2.4

4.3

Teorema de la base incompleta . . . . . . . . . . . . . . . . . . . . . . 78 ´ DE GAUSS . . . . . . . . . . . . . . . . . . . . 78 PROCESO DE REDUCCION 4.3.1

Lema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79

4.3.2

Nota . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79

4.3.3

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79

4.3.4

Proceso de reducci´ on de Gauss . . . . . . . . . . . . . . . . . . . . . . 80

4.3.5

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

4.3.6

Suma de subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81

4.3.7

Nota . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81

4.3.8

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81

4.4

UN POCO DE HISTORIA . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82

4.5

EJERCICIOS RESUELTOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82

5 MATRICES 5.1

5.2

5.3

87

EL ESPACIO VECTORIAL DE LAS MATRICES . . . . . . . . . . . . . . . 87 5.1.1

Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87

5.1.2

Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88

5.1.3

El grupo abeliano (Mm×n , +) . . . . . . . . . . . . . . . . . . . . . . . 88

5.1.4

El espacio vectorial Mm×n . . . . . . . . . . . . . . . . . . . . . . . . 89

5.1.5

Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89

5.1.6

Base de Mm×n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89

5.1.7

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89

EL ANILLO DE LAS MATRICES CUADRADAS . . . . . . . . . . . . . . . 90 5.2.1

El producto de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 90

5.2.2

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90

5.2.3

El anillo de las matrices cuadradas (Mn , +, ·) . . . . . . . . . . . . . . 91

TIPOS ESPECIALES DE MATRICES . . . . . . . . . . . . . . . . . . . . . . 91 5.3.1

Matriz inversible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91

5.3.2

Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92

5.3.3

Matrices triangulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92

5.3.4

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93

´Indice

5.4

5.5

9 5.3.5

Traspuesta de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . 93

5.3.6

Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93

5.3.7

Nota . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93

5.3.8

Propiedades de la matriz traspuesta . . . . . . . . . . . . . . . . . . . 94

5.3.9

Otros tipos de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 94

RANGO DE UNA MATRIZ . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 5.4.1

Definici´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94

5.4.2

Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94

5.4.3

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94

MATRICES ELEMENTALES . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 5.5.1

Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95

5.5.2

Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95

5.5.3

C´ alculo de la inversa de una matriz mediante matrices elementales . . 96

5.5.4

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96

5.5.5

Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97

5.5.6

Inversas de matrices triangulares . . . . . . . . . . . . . . . . . . . . . 97

5.5.7

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97

5.5.8

Descomposici´ on LU

5.5.9

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98

. . . . . . . . . . . . . . . . . . . . . . . . . . . . 97

5.5.10

Matrices escalonadas. Descomposici´ on LS . . . . . . . . . . . . . . . 98

5.5.11 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 5.6

MATRICES POR BLOQUES . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 5.6.1

Matrices por bloques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100

5.6.2

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101

5.7

UN POCO DE HISTORIA . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102

5.8

EJERCICIOS RESUELTOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102

6 APLICACIONES LINEALES 6.1

109

APLICACIONES LINEALES . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 6.1.1

Aplicaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109

6.1.2

Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110

6.1.3

Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110

6.1.4

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110

6.1.5

N´ ucleo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110

6.1.6

Teorema (caracterizaci´ on de aplicaciones inyectivas) . . . . . . . . . . 111

6.1.7

Nota . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111

6.1.8

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111

6.1.9

Proposici´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112

6.1.10 Proposici´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112 6.1.11 Teorema de la dimensi´ on (de aplicaciones lineales) . . . . . . . . . . . 112 6.1.12 Corolario (idoneidad de las aplicaciones lineales) . . . . . . . . . . . . 112

´Indice

10 6.2

6.3

6.4

MATRICES Y APLICACIONES LINEALES . . . . . . . . . . . . . . . . . . 112 6.2.1

Matriz asociada a una aplicaci´ on lineal . . . . . . . . . . . . . . . . . . 112

6.2.2

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114

6.2.3

Rango de una aplicaci´ on lineal . . . . . . . . . . . . . . . . . . . . . . 114

6.2.4

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114

6.2.5

Matriz de la aplicaci´ on identidad I . . . . . . . . . . . . . . . . . . . . 116

6.2.6

Isomorfismo entre aplicaciones lineales y matrices . . . . . . . . . . . . 116

6.2.7

Nota . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117

6.2.8

Proposici´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117

APLICACIONES LINEALES Y MATRICES INVERSIBLES . . . . . . . . . 117 6.3.1

Proposici´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117

6.3.2

Nota . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117

6.3.3

Proposici´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117

6.3.4

Composici´ on de aplicaciones lineales . . . . . . . . . . . . . . . . . . . 118

6.3.5

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118

6.3.6

Proposici´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118

6.3.7

Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118

6.3.8

Corolario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119

CAMBIOS DE BASE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 6.4.1

Expresi´ on matricial del cambio de base en un espacio vectorial . . . . 119

6.4.2

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120

6.4.3

Matrices asociadas a una aplicaci´ on lineal . . . . . . . . . . . . . . . . 121

6.4.4

Nota . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122

6.5

UN POCO DE HISTORIA . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123

6.6

EJERCICIOS RESUELTOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123

7 DETERMINANTES 7.1

DETERMINANTE DE ORDEN n . . . . . . . . . . . . . . . . . . . . . . . . 129 7.1.1

7.2

129

Signatura de una permutaci´ on

. . . . . . . . . . . . . . . . . . . . . . 129

7.1.2

Determinante de orden n . . . . . . . . . . . . . . . . . . . . . . . . . 130

7.1.3

Determinante de orden 3 y de orden 2 . . . . . . . . . . . . . . . . . . 131

7.1.4

Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131

7.1.5

Propiedades de los determinantes de orden n . . . . . . . . . . . . . . 132

7.1.6

Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133

DESARROLLO DE UN DETERMINANTE . . . . . . . . . . . . . . . . . . . 134 7.2.1

Menor complementario y adjunto . . . . . . . . . . . . . . . . . . . . . 134

7.2.2

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135

7.2.3

Proposici´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135

7.2.4

Proposici´ on (desarrollo de un determinante) . . . . . . . . . . . . . . . 135

7.2.5

Proposici´ on (determinante de una matriz triangular) . . . . . . . . . . 136

7.2.6

C´ alculo pr´ actico de determinantes . . . . . . . . . . . . . . . . . . . . 136

´Indice

11

7.3

MATRIZ INVERSIBLE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137

7.2.7

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136

7.3.1

Proposici´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137

7.3.2

Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137

7.3.3

Corolario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138

7.3.4

Nota . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138

7.3.5

Proposici´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138

7.3.6

C´ alculo de la matriz inversa . . . . . . . . . . . . . . . . . . . . . . . . 138

7.3.7

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139

7.3.8

Aplicaci´ on al c´ alculo del rango de una matriz . . . . . . . . . . . . . . 139

7.3.9

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140

7.4

UN POCO DE HISTORIA . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140

7.5

EJERCICIOS RESUELTOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140

8 SISTEMAS DE ECUACIONES LINEALES 8.1

SISTEMAS DE ECUACIONES LINEALES . . . . . . . . . . . . . . . . . . . 147 8.1.1

8.2

147

Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . 147

8.1.2

Soluci´ on de un sistema de ecuaciones lineales . . . . . . . . . . . . . . 148

8.1.3

Matriz ampliada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149

8.1.4

Proposici´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149

8.1.5

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149

8.1.6

Clasificaci´ on de sistemas . . . . . . . . . . . . . . . . . . . . . . . . . . 150

8.1.7

Teorema de Rouch´e-Fr¨ obenius

8.1.8

Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151

. . . . . . . . . . . . . . . . . . . . . . 150

´ DE SISTEMAS DE ECUACIONES LINEALES . . . . . . . 153 RESOLUCION 8.2.1

Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153

8.2.2

Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154

8.2.3

M´etodo de reducci´ on de Gauss . . . . . . . . . . . . . . . . . . . . . . 155

8.2.4

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156

8.2.5

Sistema homog´eneo

8.2.6

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157

. . . . . . . . . . . . . . . . . . . . . . . . . . . . 157

8.2.7

Resoluci´ on de un sistema de Cramer por descomposici´ on LU . . . . . 158

8.2.8

Resoluci´ on de un sistema por descomposci´ on LS . . . . . . . . . . . . 158

8.2.9

Interpolaci´ on polin´ omica . . . . . . . . . . . . . . . . . . . . . . . . . . 159

8.2.10 Sistemas sobredeterminados . . . . . . . . . . . . . . . . . . . . . . . . 160 8.3 ECUACIONES DE LOS SUBESPACIOS DE Rn . . . . . . . . . . . . . . . . . 161 8.3.1

Ecuaciones vectorial y param´etricas de un subespacio vectorial . . . . 161

8.3.2

Nota . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161

8.3.3

Ecuaciones de un subespacio vectorial (Eliminaci´ on de par´ ametros) . . 162

8.3.4

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163 ´ NUMERICA ´ 8.4 RESOLUCION DE SISTEMAS DE ECUACIONES LINEALES 164

´Indice

12 8.4.1

Aproximaciones sucesivas . . . . . . . . . . . . . . . . . . . . . . . . . 164

8.4.2

M´etodos iterativos. Convergencia . . . . . . . . . . . . . . . . . . . . . 164

8.4.3

M´etodo de Jacobi

8.4.4

M´etodo de Gauss-Seidel . . . . . . . . . . . . . . . . . . . . . . . . . . 166

8.4.5

Nota . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165

8.5

UN POCO DE HISTORIA . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167

8.6

EJERCICIOS RESUELTOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168

´ DE MATRICES 9 DIAGONALIZACION 9.1

179

SUBESPACIOS PROPIOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179 9.1.1

Introducci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179

9.1.2

Vectores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180

9.1.3

Nota . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180

9.1.4

Subespacio propio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180

9.1.5

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180

9.1.6

El polinomio caracter´ıstico

9.1.7

Unicidad del polinomio caracter´ıstico . . . . . . . . . . . . . . . . . . . 181

. . . . . . . . . . . . . . . . . . . . . . . . 180

9.1.8

9.2

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182 ´ DE MATRICES . . . . . . . . . . . . . . . . . . . . . 182 DIAGONALIZACION 9.2.1

Definici´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182

9.2.2

Proposici´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182

9.2.3

Nota . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182

9.2.4

Proposici´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183

9.2.5

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183

9.2.6

Teorema (caracterizaci´ on de los endomorfismos diagonalizables) . . . . 184

9.2.7

Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184

9.2.8

Nota . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184

9.2.9

Matriz de paso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184

9.2.10 Potencia de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . 184 9.2.11 Matrices sim´etricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185 9.2.12 Nota . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185 9.3 9.4

UN POCO DE HISTORIA . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185

EJERCICIOS RESUELTOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185 BIBLIOGRAF´ IA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193 ´ ´ INDICE DE TERMINOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195

13

Cap´ıtulo 1

TEOR´IA DE CONJUNTOS En este cap´ıtulo se ofrece una (ingenua) introducci´ on a la teor´ıa de conjuntos que es suficiente para establecer y estudiar los conceptos que se definen a lo largo del texto.

1.1 1.1.1

´ EL ALGEBRA DE BOOLE DE LA TEOR´IA DE CONJUNTOS Conjuntos

Un conjunto es una colecci´on de elementos. Los conjuntos suelen denotarse con letras may´ usculas. Cuando se explicitan sus elementos, ´estos, sin repetirse, se encierran entre llaves separados por comas. En ciertos contextos se utilizan los t´erminos sistema, colecci´ on y familia como sin´onimos de conjunto. As´ı se habla de “familia de conjuntos” en vez de “conjunto de conjuntos” y sistema de vectores en vez de conjunto de vectores. Designaremos por N, Z, Q, R y C a los conjuntos de los n´ umeros naturales, enteros, racionales, reales y complejos, respectivamente. Por ejemplo: N = {0, 1, 2, . . . } y Z = {. . . , −2, −1, 0, 1, 2, . . . }. Un conjunto unitario es aqu´el que posee un u ´nico elemento. Esta terminolog´ıa se extiende a conjuntos de dos o m´as elementos, de manera obvia. Para expresar que un elemento a pertenece a un conjunto S (o que est´a en S) se escribe a ∈ S. Si a no est´ a en S se escribe a ∈ S. Para expresar que un conjunto A est´ a contenido (o incluido) en otro B (i.e., todo elemento de A est´a en B) se escribe A ⊂ B (o B ⊃ A), en tal caso se dice que A es un subconjunto de B. Si A no est´ a incluido en B se escribe A ⊂ B.

1. TEOR´ IA DE CONJUNTOS

14

Se designa por ∅ al conjunto, denominado vac´ıo, que no posee elementos. Todo subconjunto no vac´ıo S posee dos subconjuntos impropios: ∅ y S. Los dem´ as subconjuntos de S se llaman propios. Dos conjuntos A y B son iguales, y se escribe A = B, cuando poseen los mismos elementos, lo cual sucede sii A ⊂ B y B ⊂ A. Un conjunto tambi´en se describe a trav´es de una expresi´ on caracterizadora de sus elementos dentro de un contexto (conjunto referencial). As´ı, el conjunto {0, 1, 2, 3, 4} tambi´en se puede escribir de las dos formas siguientes: {x ∈ N : x < 5} o {x ∈ Z : 0 ≤ x ≤ 4}.

1.1.2

Ejemplos

(a) El conjunto V de las vocales es V = {a, e, i, o, u} (o tambi´en V = {e, i, a, o, u} pues el orden de aparici´ on de los elementos es irrelevante). Se tiene que {a, e, o} ⊂ V pero {a, m} ⊂ V pues m ∈ / V. (b) −2 ∈ Z pero −2 ∈ N. (c) Se tienen las inclusiones num´ericas N ⊂ Z, Z ⊂ Q, Q ⊂ R y R ⊂ C. Sin embargo las inclusiones contrarias no se verifican. (d) El conjunto binario {−1, 1} se puede escribir {x ∈ Z : 1 ≤ x2 ≤ 2}. (e) Se tiene que

{x ∈ R : x2 = −1} = ∅.

Obs´ervese que el conjunto ∅ viene determinado por una condici´on imposible de cumplir. (f) El conjunto {0, 2, 4, . . . } que contiene el 0 y los pares es el conjunto {2n : n ∈ N} por lo que habitualmente se representa por 2N. An´alogamente si p ∈ N y es mayor que 0, pN representa los naturales m´ ultiples de p, que tambi´en suelen denotarse p. ˙

1.1.3

Representaciones gr´ aficas

En ocasiones los conjuntos se describen (definen) mediante gr´ aficos. As´ı, un diagrama de Venn es una representaci´on gr´afica plana de un conjunto, en la que sus elementos quedan encerrados por una l´ınea, como se muestra en la figura siguiente en la que se representa el conjunto de vocales.

´ 1.1. EL ALGEBRA DE BOOLE DE LA TEOR´ IA DE CONJUNTOS

15

En un diagrama lineal los elementos del conjunto son los que resaltan sobre el segmento o la recta donde se representan. Este tipo de representaci´ on es interesante cuando se desea entrever un orden entre los elementos. En la figura inferior se representa en R el conjunto I que es el intervalo [1, 2[. 0

1

2

3

El gr´afico siguiente muestra que A ⊂ B. A

1.1.4

B

Uni´ on, intersecci´ on y complementaci´ on de conjuntos

Sean A y B dos conjuntos. Se define la uni´ on de los conjuntos A y B, y se denota A ∪ B (se lee A uni´ on B), como el conjunto A ∪ B = {x : x ∈ A ´o x ∈ B}.

A ∪ B es el conjunto rayado. De esta manera , A∪B contiene los elementos de A o de B (recordar que la “o” l´ ogica no es excluyente). Este concepto se extiende de forma natural a una familia cualquiera de conjuntos de manera que la uni´on de ´estos est´a formada por los elementos que pertenecen a alguno de los conjuntos de la familia. Se define la intersecci´ on de los conjuntos A y B, que se denota A ∩ B (se lee A intersecci´ on B), como el conjunto A ∩ B = {x : x ∈ A y x ∈ B}.

A ∩ B es el conjunto rayado.

1. TEOR´ IA DE CONJUNTOS

16

De esta manera, A ∩ B contiene los elementos comunes a A y a B. Si A y B no tienen elementos comunes se dice que son disjuntos. Al igual que antes este concepto se generaliza a una familia cualquiera de conjuntos. De las definiciones se desprenden las siguientes propiedades inmediatas: A ⊂ A ∪ B, A ∩ B ⊂ A, A ⊂B ⇔A∪B = B ⇔A∩B = A

1.1.5

Conjunto complementario y diferencia de conjuntos

Si A y B son conjuntos dentro de un referencial E, se define el complementario de A (respecto E), y se denota por Ac (se lee A complementario), como el conjunto formado por los elementos de E que no est´an en A. De manera m´ as general se define el conjunto B − A (diferencia de B y A), como el conjunto de los elementos de B que no est´an en A. Al hablar de Ac se omite la alusi´on a E si est´ a impl´ıcito en el contexto. Es f´ acil observar que c B − A = B ∩ A . En la siguiente figura B − A es el conjunto rayado.

A

c

A

E

A

B

Ac E B-A

Se define la diferencia sim´ etrica de dos conjuntos A y B, y se denota AB como AB = (A ∪ B) − (A ∩ B). Este concepto se corresponde con la interpretaci´ on de la “o” exclusiva, en l´ ogica. Es obvio que AB = (A − B) ∪ (B − A).

AB es la zona sombreada.

Las siguientes propiedades son inmediatas: E c = ∅, ∅c = E,

1.1.6

Ac = B c ⇔ A = B, A ⊂ B ⇔ B c ⊂ Ac .

(Ac )c = A,

Ejemplo

Sea el referencial E = {1, 2, 3, 4, 5, 6}. Sean los conjuntos A = {1, 2, 3}, B = {3, 4, 5} (ver gr´afico adjunto). Entonces: A ∪ B = {1, 2, 3, 4, 5}, A ∩ B = {3}, Ac = {4, 5, 6}, B c = {1, 2, 6}, B − A = {4, 5} (= B ∩ Ac ), A − B = {1, 2} (= A ∩ B c ).

17

1.2. CARDINALIDAD DE CONJUNTOS

1.1.7

El ´ algebra de Boole de la teor´ıa de conjuntos

Supongamos que los siguientes conjuntos est´an definidos en un referencial E. Se verifican las siguientes propiedades (de car´acter dual): Asociativas: (A ∪ B) ∪ C = A ∪ (B ∪ C), Conmutativas: A ∪ B = B ∪ A, Distributivas (A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C), Existencia de neutros: A ∪ ∅ = A, Existencia de complementario: A ∪ Ac = E,

(A ∩ B) ∩ C = A ∩ (B ∩ C). A ∩ B = B ∩ A. (A ∩ B) ∪ C = (A ∪ C) ∩ (B ∪ C). A ∩ E = A. A ∩ Ac = ∅.

Por cumplirse las anteriores propiedades, los conjuntos con las leyes de la uni´ on, intersecci´on y complementaci´on constituyen un ´ algebra de Boole. En un a´lgebra de Boole se verifican las leyes de De Morgan o del complementario: (A ∪ B)c = Ac ∩ B c ,

(A ∩ B)c = Ac ∪ B c .

Puesto que la uni´ on de conjuntos verifica la asociatividad, el uso de par´entesis es innecesario cuando aparece s´olo esta operaci´ on. Esto mismo ocurre con la intersecci´on.

1.2 1.2.1

CARDINALIDAD DE CONJUNTOS Partici´ on

Una familia de conjuntos A1 , A2 , . . . , An constituyen una partici´ on del conjunto E si dos a dos son disjuntos y, adem´ as, A1 ∪ A2 ∪ · · · ∪ An = E.

1.2.2

Cardinal de un conjunto

Se denomina cardinal del conjunto finito A, y se escribe Cd A, el n´ umero de elementos que contiene A.

1. TEOR´ IA DE CONJUNTOS

18 Para conjuntos A y B finitos se verifica que

Cd (A ∪ B) = Cd A + Cd B − Cd (A ∩ B) . Por tanto, Cd (A ∪ B) = Cd A + Cd B si y s´olo si A y B son disjuntos. En particular, si A1 , A2 , . . . , An son una partici´on de E, entonces Cd E = Cd A1 + Cd A2 + · · · + Cd An . Si B ⊂ A, entonces, Cd (A − B) = Cd A − Cd B.

1.2.3

Ejemplo

Sean los conjuntos A = {a, b, c, d}, B = {c, d, e, f, g}, C = {f, g}. Se tiene que Cd A = 4, Cd B = 5, Cd C = 2. Con la ayuda de los diagramas de Venn adjuntos se puede deducir que Cd(A∩B) = 2, Cd(A∪B) = 7 (= Cd A+ Cd B− Cd(A∩B)), Cd(B−A) = 3, Cd(A − B) = 2.

Como A y C son disjuntos se tiene Cd(A ∪ C) = 4 + 2 = 6. Como C ⊂ B, se tiene que Cd(B − C) = 5 − 2 = 3.

1.2.4

Producto cartesiano

Sean A y B conjuntos no vac´ıos y sean a ∈ A y b ∈ B. El elemento (a, b) se llama par ordenado y diremos que (a, b) = (c, d) sii a = c y b = d. Se define el producto cartesiano de A por B, y se escribe A×B, como el conjunto A×B = {(a, b) : a ∈ A, b ∈ B}. Si A y B son finitos es f´acil observar que Cd(A × B) = Cd A · Cd B. Si A1 , A2 , . . . , An son n conjuntos no vac´ıos se define el producto cartesiano A1 × A2 × · · · × An como A1 × A2 × · · · × An = {(a1 , a2 , . . . , an ) : a1 ∈ A1 , a2 ∈ A2 , . . . , an ∈ An } Para tres y cuatro conjuntos, los elementos del producto cartesiano se denominan ternas y cuaternas, respectivamente. Si A1 , A2 , . . . , An son finitos, entonces Cd (A1 × A2 × . . . × An ) = Cd A1 · Cd A2 · . . . · Cd An

19

1.2. CARDINALIDAD DE CONJUNTOS

Se suele denotar An el producto A × A × · · · × A, n veces. En particular, y R3 denotan el plano y el espacio (cartesianos), respectivamente. La representaci´on geom´etrica m´as usual de A × B suele ser la cartesiana.

R2

1.2.5

Ejemplos

(a) Sean A = {a, b, c} y B = {1, 2}. Entonces A×B = {(a, 1), (a, 2), (b, 1), (b, 2), (c, 1), (c, 2)} · · a

2 1

El producto A×B se puede representar gr´aficamente mediante un diagrama cartesiano en donde se observa que A × B tiene 6 elementos.

· · b

· · c

(b) Si A = [3, 5[ y B = [1, 2] son intervalos de R entonces A × B viene angulo representado en R2 por el rect´ [3, 5[×[1, 2] sombreado de la figura adjunta que no incluye el lado de la derecha.

2 1 1

2

3

4

5

(c) El conjunto ]−∞, 0]×[0, +∞[ es el segundo cuadrante de R2 incluyendo los semiejes, que tambi´en podemos escribir {x, y) : x ≤ 0, y ≥ 0} o bien {(x, y) : x ≤ 0} ∩ {(x, y) : y ≥ 0}, y que se representa, en parte, gr´aficamente en la figura adjunta.

1.2.6

Variaciones con repetici´ on

Sea A un conjunto finito con m elementos. Variaciones con repetici´ on de m elementos de orden n es el cardinal del conjunto formado por todas las agrupaciones de n elementos de entre los m elementos de A, y se denota RVmn . Obviamente, estas agrupaciones son los elementos de An , y por la secci´ on 1.2.4 se tiene RVmn = mn . La representaci´on gr´ afica m´as usual de An es el diagrama de a´rbol.

1.2.7

Ejemplo

(a) Vamos a representar mediante un diagrama de ´arbol el conjunto A3 donde A = {a, b}. Cada rama representa una terna de A3 .

1. TEOR´ IA DE CONJUNTOS

20

Viendo el diagrama, ´estas son (de arriba a abajo): aaa, aab, aba, abb, baa, bab, bba y bbb. Obs´ervese que el n´ umero de ramas es RV23 = 23 = 8.

(b ) El n´ umero de bytes (de 8 bits) que se pueden hacer con los d´ıgitos {0, 1} son RV28 = 28 (el lector puede corroborarlo con el correspondiente diagrama de ´arbol).

1.3 1.3.1

COMBINATORIA ELEMENTAL Variaciones ordinarias

Se denominan variaciones ordinarias de m elementos de orden n, y umero de agrupaciones ordenadas de n elementos, que no se se escribe Vmn , al n´ repiten, que pueden realizarse con los m elementos de un conjunto. Se tiene Vmn = m · (m − 1) · · · (m − n + 1) . Obs´ervese que hay n factores decrecientes. En efecto, la primera posici´ on de una agrupaci´ on cuenta con m elementos posibles. La segunda con m − 1,. . . y la n-´esima con m − n + 1.

1.3.2

Ejemplo

La cantidad de n´ umeros de tres cifras, sin repetir, que pueden hacerse con las cifras 1, 2, 3, 4 y 5 son V54 = 5 · 4 · 3 = 60.

1.3.3

Permutaciones ordinarias

Se denomina permutaci´ on de un conjunto, con n elementos, a cada una de las expresiones ordenadas de los elementos del conjunto. El n´ umero de estas permutaciones se escribe Pn . Por la secci´on 1.3.1 se tiene Pn = Vnn = n · (n − 1) · · · 2 · 1 = n! La expresi´ on n! se lee factorial de n. Se conviene que 0! = 1.

21

1.4. UN POCO DE HISTORIA

1.3.4

Ejemplo

Veamos cu´antas permutaciones pueden hacerse utilizando el conjunto A = {a, b, c}. Como Cd A = 3, entonces P3 = 3 · 2 · 1 = 6 (´estas son: abc, acb, bac, bca, cab, cba).

1.3.5

Combinaciones ordinarias. N´ umeros combinatorios

Como consecuencia de las secciones 1.3.1 y 1.3.3, el n´ umero de subconjuntos de n elementos que se pueden hallar en un conjunto de m elementos, denominado combinaci´ on de m elementos de orden n, es Vmn m · (m − 1) · · · (m − n + 1) = Pn n!

n = Cm

Es f´acil obtener que

Ç å n = Cm

La expresi´on sobre n. Se verifica que:

m n

=

m! n! · (m − n)!

m

se conoce como n´ umero combinatorio, y se lee m

m

=

n

0

m m

= 1, y

m n

=



m m−n



.

En esencia, las variaciones difieren de las combinaciones en que en estas u ´ltimas el orden es irrelevante.

1.3.6

Ejemplo

Veamos el n´ umero de subconjuntos con 3 cifras que pueden hacerse con el conjunto A = {1, 2, 3, 4, 5}. Como Cd A = 5, entonces este n´ umero es 5! = 10 (estos subconjntos son: {1, 2, 3}, {1, 2, 4}, {1, 2, 5}, {1, 3, 4}, C53 = 3! · 2! {1, 3, 5}, {1, 4, 5}, {2, 3, 4}, {2, 3, 5}, {2, 4, 5} y {3, 4, 5}).

1.4

UN POCO DE HISTORIA Sin duda, el padre de la moderna teor´ıa de conjuntos fue el matem´ atico alem´ an

nacido en San Petersburgo Georg Cantor (1845-1918). La teor´ıa de conjuntos de Cantor se basa en considerar que un conjunto es, simplemente, una colecci´ on de objetos. Dicha teor´ıa cobra inter´es al plantear problemas de cardinalidad sobre conjuntos infinitos. En el caso finito, es evidente que si se tienen dos conjuntos, A y B de forma que A ⊂ B (estrictamente), entonces Cd A < Cd B. Pero, por ejemplo, si A es el conjunto de n´ umeros enteros pares positivos, A = {2, 4, 6, . . . } y B el conjunto de n´ umeros enteros positivos,

1. TEOR´ IA DE CONJUNTOS

22

B = {1, 2, 3, . . . }, se tiene que A ⊂ B. Pero en este caso tanto Cd A como Cd B son infinitos. Cabr´ıa pensar que dichos infinitos tienen diferente nivel de magnitud ya que el conjunto A s´ olo es una parte de B. Pero el caso es que se pueden emparejar todos los elementos de B con los de A de forma que el 1 es emparejado con el 2, el 2 es emparejado con el 4, el 3 con el 6,. . . y as´ı sucesivamente. Este hecho indicar´ıa que Cd A = Cd B es decir que hay tantos enteros positivos como enteros positivos pares; simplemente habr´ıa infinitos elementos en ambos conjuntos. Lo que se acaba de describir es el proceso usual de contar (emparejar) que utiliz´ o Cantor para demostrar que el cardinal de todos los enteros positivos es tambi´en igual al cardinal de todos los enteros, que a su vez es igual al cardinal de todos los n´ umeros racionales. En tiempos anteriores a Cantor se supon´ıa que todos los conjuntos de cardinal infinito ten´ıan el mismo tama˜ no, es decir infinito. Cantor demostr´ o que eso no es as´ı. Por ejemplo el conjunto de n´ umeros reales del intervalo ]0, 1[ no se puede poner en correspondencia uno a uno (emparejar) con el conjunto de los n´ umeros enteros positivos. De hecho, en ]0, 1[ hay una cantidad infinita de n´ umeros que no se pueden poner en relaci´ on uno a uno con los enteros positivos, lo cual indicar´ıa que el cardinal de ]0, 1[ ser´ıa un infinito mayor que el infinito correspondiente al cardinal de los n´ umeros enteros positivos. Cantor lleg´ o a´ un m´ as lejos, demostr´ o que hay infinitos niveles de infinitos.

1.5

EJERCICIOS RESUELTOS

R1.1 En el referencial E = {1, 2, 3, 4, 5, 6} se consideran los conjuntos A = {1, 2, 3}, B = {2, 3, 4}, C = {3, 4, 5}. H´ allese: (i) A ∪ B ∪ C (ii) A ∩ B ∩ C (iii) Ac , B c y C c . Verif´ıquese adem´ as que se cumple (generalizaci´ on de las leyes de Morgan): c c (iv) (A ∪ B ∪ C) = Ac ∩ B c ∩ C c (v) (A ∩ B ∩ C) = Ac ∪ B c ∪ C c Soluci´ on: (i) A ∪ B ∪ C = {1, 2, 3} ∪ {2, 3, 4} ∪ {3, 4, 5} = {1, 2, 3, 4, 5} (ii) A ∩ B ∩ C = {1, 2, 3} ∩ {2, 3, 4} ∩ {3, 4, 5} = {3} (iii) Ac = {4, 5, 6}, B c = {1, 5, 6} y C c = {1, 2, 6} (iv) De (i) se deduce que (A ∪ B ∪ C)c = {6}. Por otra parte, de (iii) se deduce que Ac ∩ B c ∩ C c = {4, 5, 6} ∩ {1, 5, 6} ∩ {1, 2, 6} = {6}. (v) De (ii) se deduce que (A ∩ B ∩ C)c = {1, 2, 4, 5, 6}. Por otra parte, de (iii) se deduce que Ac ∪ B c ∪ C c = {4, 5, 6} ∪ {1, 5, 6} ∪ {1, 2, 6} = {1, 2, 4, 5, 6}.

R1.2 Sean los conjuntos A y B de R siguientes: A = {x : x ≥ 2}, B{ x : |x| < 5}. (i) Repres´entese A y B sobre R y escr´ıbase en forma de intervalo. H´allense, adem´as: (ii) A ∩ B (iii) A ∪ B

(iv) Ac

(v) B − A

23

1.5. EJERCICIOS RESUELTOS

Soluci´ on: (i) De los gr´ aficos se infiere que A = [2, +∞[ y B =] − 5, 5[, y tambi´en los siguientes apartados.

(ii) A ∩ B = {x : 2 ≤ x < 5} = [2, 5[ (iii) A ∪ B = {x : −5 < x} =] − 5, +∞[ (iv) Ac = {x : x < 2} =] − ∞, 2[ (v) B − A = B ∩ Ac = [−5, 2[

R1.3

(i) Demostrar la Ley de Morgan (A ∪ B)c = Ac ∩ B c . (ii) Simplificar la expresi´ on (A ∪ B c )c ∩ B c . Soluci´ on: (i) (A ∪ B)c = {x : x ∈ A ∪ B} = {x : x ∈ A, x ∈ B} = {x : x ∈ Ac , x ∈ B c } = {x : x ∈ Ac ∩ B c } = Ac ∩ B c (ii) Aplicando la ley de Morgan y, despu´es, la asociatividad, se tiene: (A∪B c )c ∩B c = (Ac ∩(B c )c )∩B c = (Ac ∩B)∩B c = Ac ∩(B ∩B c ) = Ac ∩∅ = ∅

R1.4

(i) Explic´ıtense los elementos de los conjuntos A = {x ∈ N : x2 − 1 ≤ 8}, B = {x ∈ Z : 2x2 ≤ 8}. (ii) Determ´ınese (el intervalo de la recta) C = {x ∈ R : −2x ≤ −5, x2 < 100}. (iii) H´allese A ∩ C y B ∩ C. Soluci´ on: (i) Resulta inmediato que A B

= =

{x ∈ N : x2 ≤ 9} = {0, 1, 2, 3} {x ∈ Z : x2 ≤ 4} = {−2, −1, 0, 1, 2}

(ii) C viene dado por 2 condiciones que han de cumplirse simult´ aneamente:

ß

−2x ≤ −5 x2 < 100

La primera condici´ on, −2x ≤ −5, equivale a x ≥ 52 , que da lugar al intervalo 5 [ 2 , +∞[. La segunda condici´ on equivale a |x| < 10, que da lugar al intervalo ] − 10, 10[. Por tanto, C = [ 52 , +∞[ ∩ ] − 10, 10[= [ 52 , 10[ . (iii) A∩C = B∩C =

5 {0, 1, 2, 3} ∩ [{ , 10[= {3} 2 5 {−2, −1, 0, 1, 2} ∩ [ , 10[= ∅ 2

1. TEOR´ IA DE CONJUNTOS

24

R1.5 Repres´entese gr´aficamente A ∩ B, siendo A = {(x, y) ∈ R2 : y ≥ x2 } y B = {(x, y) ∈ R2 : y < x}. Soluci´ on: El conjunto A lo constituyen los puntos de la par´ abola y = x2 , y los que est´ an por encima. El conjunto B lo constituyen los puntos del semiplano que est´ an por debajo de la recta = 2x. La intersecci´ on A ∩ B son los puntos comprendidos entre la recta y = x, sin contar con ellos, y la par´ abola y = x2 , que muestra la zona sombreada de la figura de la derecha. (obs´ recta y par´ abola se cortan en (0, 0) y (1, 1), que es la soluci´ on ßervese que y = x2 . del sistema y=x

R1.6 Repres´entese gr´ aficamente en R2 , Ac ∩ B, siendo A = {(x, y) ∈ R2 : x2 + y 2 ≥ 16} y B = {(x, y) ∈ R2 :

y2 x2 + ≥ 1}. 9 4

Soluci´ on: Se tiene que Ac = {(x, y) ∈ R2 : x2 + y 2 < 16}. Dado que los puntos 2 de R que satisfacen x2 + y 2 = 16 son los de una circunferencia de radio 4 centrada en el origen, entonces Ac son los puntos del c´ırculo interiores a la circunferencia, exceptuando ´esta. x2 y2 Dado que + = 1 define una elipse centrada en el origen de semiejes 3 y 2, 9 4 entonces B son los puntos de esta elipse y los exteriores a ella. En consecuencia, Ac ∩ B son los puntos de la zona sombreada de la figura de la derecha, comprendidos entre la elipse y la circunferencia, sin contar con los de la circunferencia.

R1.7 Disponemos de 41 sintonizadores. En 26 de ellos se sintoniza FM y en 21 se sintoniza AM. (i) ¿Cu´ antos de ellos sintonizan AM y FM? (ii) ¿Cu´ antos sintonizan FM pero no sintonizan AM? Mostrar el diagrama de Venn correspondiente.

1.5. EJERCICIOS RESUELTOS

25

Soluci´ on: Denotamos por F y A los conjuntos de sintonizadores FM y AM, respectivamente. Se tiene: (i) Cd(F ∪ A) = 41 = Cd F + Cd A − Cd(F ∩ A) = 26 + 21 − Cd(F ∩ A). Por tanto Cd(F ∩ A) = 47 − 41 = 6. Ver diagrama de Venn:

(ii) En el diagrama de Venn se observa que 26 − 6 = 20. Son los que sintonizan FM pero no AM.

Formalmente, Cd(F − A) = Cd(F − (F ∩ A)) = Cd F − Cd(F ∩ A), ya que F ∩ A ⊂ F . As´ı pues, de nuevo, Cd(F − A) = 26 − 6 = 20.

R1.8 Se dispone de 4 resistencias distintas (en cuanto a su valor en ohmios se refiere) para dise˜ nar circuitos con 3 resitencias en serie (como muestra la figura). ¿Cu´ antos circuitos distintos pueden dise˜ narse?

Soluci´ on: Sean A, B, C y D las resistencias cuyos valores (en ohmios) son a, b, c y d, respectivamente con a < b < c < d. La resistencia del sistema (obviando otros aspectos) es la suma de las 3 resistencias, sin que dependa el orden. As´ı, las posibles situaciones son C43 = 43 = 4, que se corresponden, esquem´ aticamente con ABC, ABD, ACD y BCD. Veamos que en cada una de las 4 situaciones posibles la resistencia total es distinta. En efecto, el valor de la resistencia total en los 4 casos se˜ nalados verifica a + b + c < a + b + d < a + c + d < b + c + d y, por tanto, los 4 posibles circuitos esquematizados son distintos.

R1.9 ¿Cu´ antos bytes (de 8 bits) existen que tengan: (i) A lo sumo dos ceros. (ii) Al menos 3 ceros. Soluci´ on: (i) S´ olo existe un byte sin ceros, es: 11111111. Existen 8 bytes con un solo cero: 01111111, 10111111, 11011111, 11101111, 11110111, 11111011, 11111101 y 11111110. Para saber cu´ antos bytes tienen dos ceros (s´ olamente), nombramos por ABCDEFGH las 8 posiciones de un byte. El n´ umero buscado se corresponde con el n´ umero posible de pares de letras distintas, sin importar el orden, y ´este es Ç å 8 8! 2 = C8 = = 28. 2! · 6! 2 En consecuencia, el n´ umero de bytes con a lo sumo dos ceros es 1 + 8 + 28 = 37.

1. TEOR´ IA DE CONJUNTOS

26

(ii) Hemos de calcualar los bytes que tienen s´ olamente 3 ceros, 4 ceros, . . . y 8 ceros, y sumarlos. En base al argumento del apartado (i), el n´ umero total de dichos bytes ser´ a:

Ç å 8 3

Ç å +

8 4

Ç å +

8 5

Ç å +

8 6

Ç å +

8 7

Ç å +

8 . 8

Veamos una soluci´ on alternativa. Los casos descritos en (i) y (ii) son el contrario uno del otro. Sabemos que RV28 = 28 es el n´ umero total de bytes. Entonces el n´ umero pedido, atendiendo al apartado (i) es: 28 − 37.

27

Cap´ıtulo 2

FUNCIONES E ´ INTERPOLACION El concepto de funci´on surgi´ o de la necesidad de establecer relaciones entre magnitudes en f´ısica. La idea de funci´on es, en esencia, muy sencilla. Una funci´ on real de variable real ser´ıa como un “mecanismo matem´ atico”, f , en el que se introduce un valor real, x, y devuelve otro valor real (´ unico), y, que tambi´en suele designarse f (x). La sencillez conceptual de las funciones motiva que las mismas sean elementos muy utilizados para modelar matem´aticamente multitud de fen´ omenos y problemas reales.

2.1 2.1.1

APLICACIONES Aplicaci´ on

Una correspondencia entre un conjunto inicial A y un conjunto final B, se denomina aplicaci´ on, si cada elemento de A posee una sola imagen en B. Una aplicaci´ on se puede reconocer a trav´es de un diagrama sagital, una gr´afica, una expresi´on matem´ atica, etc. Es usual denotar una aplicaci´on en la forma f : A → B. Al escribir f (a) = b estamos afirmando que al elemento a, de A, se le hace corresponder el elemento b, de B. Se suele decir que b es ´ la imagen de a, o tambi´en que a es una antiimagen de b. Esto u ´ltimo se representa como la correspondencia inversa de f , que se denota f −1 , y se escribe f −1 (b) = a. El conjunto de todas las im´agenes de A, por medio de f , se denomina conjunto imagen de f , y se escribe Im(f ). Aunque no toda correspondencia es aplicaci´ on, la teminolog´ıa utilizada para aplicaciones se extiende a correspondencias.

´ 2. FUNCIONES E INTERPOLACION

28

2.1.2

Ejemplos

(a) Sea A = {1, 2, 3}, B = {a, b, c, d}. El diagrama sagital adjunto representa una aplicaci´on, digamos f , definida por f (1) = a, f (2) = b, f (3) = c. En este caso, Im(f ) = {a, b, c}. La correspondencia inversa es f −1 : B → A que viene definida por f −1 (a) = 1, f −1 (b) = 2, f −1 (c) = 3. Obviamente, Im f −1 = {1, 2, 3} = A.

(b) Sea A = {1, 2, 3, 4}, B = {a, b, c}. El diagrama cartesiano adjunto representa una aplicaci´on, digamos g, definida por g(1) = g(2) = a, g(3) = b, g(4) = c. En este caso Im(g) = {g(1), g(2), g(3), g(4)} = B. La correspondencia inversa es g −1 : B → A que viene definida por g −1 (a) = {1, 2}, g−1 (b) = 3 y g−1 (c) = 4. Obviamente, g−1 no es aplicaci´ on pues a posee dos im´ agenes por medio de g −1 .

2.1.3

Clases de aplicaciones

Sea f : A → B una aplicaci´ on. Se dice que f es inyectiva si a = c ⇒ f (a) = f (c). Se dice que es suprayectiva si para cualquier b ∈ B, existe antiimagen (por medio de f −1 ) en A, o lo que es lo mismo Im(f ) = B. Si f es inyectiva y suprayectiva, se dice que es biyectiva. Las aplicaciones suprayectivas tambi´en se denominan exhaustivas o sobreyectivas.

2.1.4 (a)

Ejemplos

El diagrama adjunto representa una aplicaci´ on que no es inyectiva ni suprayectiva.

2.1. APLICACIONES

29

(b) Los diagramas adjuntos representan una aplicaci´on inyectiva (i), suprayectiva (ii) y biyectiva (iii).

Si f : A → B es una aplicaci´ on biyectiva, y A y B, son conjuntos finitos, es obvio que A y B han de tener el mismo n´ umero de elementos.

2.1.5

Composici´ on de aplicaciones

Sean f : A → B y g : B → C, dos aplicaciones. Se define la aplicaci´ on compuesta de f y g, y se escribe g ◦ f , como la aplicaci´ on (g ◦ f ) : A → C de manera que (g ◦ f ) (a) = g (f (a)).

La composici´ on de aplicaciones es asociativa, esto es, si tenemos adem´as h : C → D, entonces, (h ◦ g) ◦ f = h ◦ (g ◦ f ). Por esta raz´on se escribe sencillamente h ◦ g ◦ f . Sin embargo, la composici´ on de aplicaciones, aunque tenga sentido, no es, en general, conmutativa, esto es g ◦ f = f ◦ g. Veremos un ejemplo de esto en la secci´ on 2.2.4.

2.1.6

La aplicaci´ on identidad I

Se denomina aplicaci´ on identidad, denotada I, a la aplicaci´ on I : A → A, de manera que I(a) = a, para cualquier a ∈ A. En otras palabras, la identidad deja invariante a cada elemento cuando calcula su imagen.

Obviamente si f : A → A es una aplicaci´ on cualquiera, entonces se tiene que f ◦ I = I ◦ f = f .

´ 2. FUNCIONES E INTERPOLACION

30

2.1.7

Correspondencia inversa

Sea f : A → B una aplicaci´ on. La correspondencia inversa f −1 es aplicaci´ on si y s´olo si f es biyectiva, y en tal caso f −1 tambi´en es biyectiva (obviamente, en tal caso, la inversa de f −1 es f ).

2.1.8

Ejemplo

En referencia al apartado (b) del Ejemplo 2.1.4, en el diagrama (i), la on pues f −1 (4) no existe. En (ii) f −1 no correspondencia f −1 no es aplicaci´ −1 es aplicaci´on pues f (2) = {b, c} (posee dos im´agenes). Obviamente en (iii), on, y adem´as biyectiva. f −1 es aplicaci´

2.1.9

Nota

En un diagrama sagital, es f´ acil identificar la inversa, si existe, de una aplicaci´ on.

2.1.10

Ejemplo

Sea A = {a, b}, B = {1, 2}, y sea f la aplicaci´ on biyectiva adjunta. Entonces f −1 : B → A viene definida por f −1 (1) = b, f −1 (2) = a.

Obs´ervese que si hacemos gr´ aficamente las composiciones f ◦ f −1 y f −1 ◦ f se tienen los diagramas

Obs´ervese tambi´en se tiene que (f −1 ◦ f ) (a) = a, (f −1 ◦ f ) (b) = b. Adem´as (f ◦ f −1 ) (1) = 1 y (f ◦ f −1 ) (2) = 2. En otras alabras, f −1 ◦ f es la identidad IA sobre A, mientras que f ◦ f −1 es la identidad IB sobre B. Este ejemplo no es m´as que un caso particular del siguiente resultado.

31

2.2. FUNCIONES

2.1.11

Caracterizaci´ on de la aplicaci´ on inversa

Sean f : A → B y g : B → A aplicaciones biyectivas. Entonces f y g son la inversa una de otra (i.e. f −1 = g, g−1 = f ) si y s´ olo si g ◦ f = IA y f ◦ g = IB .

2.2 2.2.1

FUNCIONES Funci´ on

Las aplicaciones entre conjuntos num´ericos se denominan funciones. As´ı, una aplicaci´ on f : R → C se dice que es una funci´ on compleja de variable real. Tambi´en se dice que es una funci´ on definida sobre los reales que toma valores en los complejos, o funci´on de R en C. Una aplicaci´ on f : R → R se denomina funci´ on real de variable real. Es bastante usual que las funciones vengan dadas mediante expresiones matem´aticas, escritas f (x) o, en ocasiones, y(x). Para representar la imagen, y, de un elemento x, suele escribirse y = f (x), y a x se le llama variable mientras que a y se la denomina funci´ on. En un diagrama de ejes cartesianos, suele representarse la variable x sobre el eje horizontal, denominado eje X, o bien eje OX (eje de abcisas), mientras que la imagen y se representa en el eje vertical, eje Y o bien eje OY (eje de ordenadas). Por tanto (x, f (x)) ´ o bien (x, y) es un punto de R2 donde x es la abcisa e y la imagen de x (por medio de f ). El conjunto de dichos puntos se denomina gr´ afica de la funci´ on f .

2.2.2

Ejemplo

(a) La funci´on f : R → C dada por f (x) = x + i es una funci´ on compleja de variable real. on real de (b) La funci´on f : R → [0, +∞[ dada por f (x) = x2 es una funci´ variable real. Su gr´afica es la par´abola que se presenta seguidamente. y

-x

x

´ 2. FUNCIONES E INTERPOLACION

32

Esta funci´ on es suprayectiva pues cualquier y ∈ [0, +∞[ posee una antiimagen x (en realidad dos antiim´agenes), como muestra la figura. Sin embargo, no es inyectiva pues elementos distintos de R poseen igual imagen (en efecto, f (2) = f (−2) = 4, por ejemplo).

2.2.3

Nota

La mayor´ıa de funciones que conoce el lector son en realidad composici´on de funciones, digamos, elementales. Veamos, como anuci´abamos en la secci´ on 2.1, que la composici´on de funciones no es conmutativa.

2.2.4

Ejemplo

(a) Sean f y g las funciones definidas de R en R por f (x) = x+1 y g(x) = x3 , entonces por un lado se tiene que (g ◦ f )(x) = g(f (x)) = g(x + 1) = (x + 1)3 , mientras que por otro lado (f ◦ g)(x) = f (g(x)) = f (x3 ) = x3 + 1, por lo que f ◦ g = g ◦ f . (b) Atendiendo a la secci´ on 3.1.10, las aplicaciones f y g definidas por √ f (x) = x2 , y g(x) = x definidas de [0, +∞[ a [0, +∞[ son la inversa una de la otra pues (g ◦ f )(x) = g (f (x)) = g(x2 ) =



x2 = x,

y tambi´en, Ä√ ä2 √ x = x. (f ◦ g)(x) = f (g(x)) = f ( x) =

2.2.5

Dominio o campo de existencia de una funci´ on

En la pr´actica se suele dar una funci´on y = f (x) sin precisar el conjunto inicial sobre el que se define (ni tampoco el conjunto final). Se entiende en tal caso que la funci´on est´a definida en el mayor conjunto num´erico posible, el cual constituye su dominio o campo de existencia.

33

2.2. FUNCIONES

2.2.6

Ejemplo Supongamos que trabajamos s´ olo con n´ umeros reales.

(a) El dominio de la funci´on f (x) = x2 es R. (b) El dominio de la funci´on g(x) =

x2 + 1 es R − {2}. x−2

(c) El dominio de la funci´on log10 (x) es ]0, +∞[.

2.2.7

Funci´ on inversa

Supongamos que y = f (x) es una funci´ on biyectiva. El c´alculo de su inversa, cuando el m´etodo lo permite, consiste en despejar x en funci´ on de y (para obtener x = g(y)), y g es la inversa de f . Para representar g de manera que la variable y est´e en el eje de abcisas, basta con reemplazar x por y. Por esta raz´on, al representar f y g en los mismos ejes coordenados, resulta que sus gr´ aficas (si existen) son sim´etricas respecto a la bisectriz del primer y tercer cuadrante.

2.2.8

Ejemplo

(a) Sea la funci´on f (x) = x2 definida sobre [0, +∞[. Obviamente esta √ funci´ on es biyectiva. Como y = f (x) = x2 , su inversa es x = + y. √ Al cambiar x por y obtenemos y = x. Obs´ervese la simetr´ıa, arriba √ comentada, de la gr´afica de y = x2 y la de su inversa y = x. y

4

y=x

y

y=x 2

2 3

2

y=\/ x 1

x

x 1

2

3

4

(b) En la pr´ actica se habla de la inversa de y = x2 sin precisar el dominio √ apropiado de esta funci´on, y se concluye que su inversa es x = ± y, √ que al reemplazar x por y se escribe y = ± x. Esto pone de manifiesto que la aplicaci´ on inicial no era biyectiva y por tal raz´on su inversa no es una funci´ on, sino una correspondencia que define un par de funciones √ √ (y = x, e y = − x). Este detalle formal tiene inter´es en el estudio te´ orico de funciones, el cual no se trata en este libro.

´ 2. FUNCIONES E INTERPOLACION

34 4 y

y=x 2

3 y= +\/x

2 1

x -2

2 -1

2.2.9

4 y= -\/x

Composici´ on n-´ esima de funciones

Sea la funci´on f : R → R. por inducci´on se define f ◦ f ◦(n veces) · · · ◦ f , lo cual se escribe f n) , de manera que f n)(x) = (f n−1) ◦ f )(x), n = 2, 3, 4 . . . .

2.3 2.3.1

´ DE FUNCIONES REPRESENTACION Gr´ afica de funciones continuas

Las funciones m´as habituales que conoce el lector son funciones continuas en sus dominios. Nos referimos a la funci´on polin´omica, exponencial, logar´ıtmica, funciones circulares, . . . , y sus inversas. Tambi´en son continuas sus composiciones en sus dominios. Las gr´aficas de estas funciones (cuando existen) se pueden, pues, dibujar con un trazo continuo, sin levantar el l´ apiz del papel. Para representarlas con precisi´on de manera local, har´ıa falta conocimientos de c´alculo diferencial. No obstante, con un poco menos de precisi´ on, las podemos representar si atendemos algunos aspectos como los que siguen. Una funci´ on f (x) corta el eje OX en aquellos puntos que verifican f (x) = 0, y que constituyen sus ra´ıces. El punto de corte con el eje OY es f (0), si existe, y se denomina ordenada en el origen. Cuando una funci´on f verifica que f (−x) = f (x), para cualquier x ∈ R, se denomina sim´etrica repecto del eje OY , o tambi´en funci´ on par. Si se verifica que f (x) = −f (−x), entonces se denomina impar, o sim´etrica respecto al origen. La gr´afica de |f (x)| difiere de la de f (x) en los puntos del dominio donde f (x) < 0, en donde s´olo hay que trasladar sus im´agenes de manera sim´etrica respecto al eje OX sobre el semiplano positivo. Una funci´on f se dice per´ odica de periodo T (T > 0) si f (x + T ) = f (x), para cada x ∈ R. Con todo ello, y el conocimiento de las gr´aficas de las funciones elementales, el lector puede representar de manera aproximada un buen n´ umero de funciones. El uso de una tabla con valores puede ser de ayuda para corroborar la gr´ afica, pero, en general, es innecesaria.

´ DE FUNCIONES 2.3. REPRESENTACION

2.3.2

35

Ejemplo Consideremos la funci´on f (x) = x2 − 4. Sus ra´ıces se deducen de f (x) = x2 − 4 = 0, y son 2 y −2. La ordenada en el origen es f (0) = −4.

La gr´afica de f es sim´etrica respecto al eje OY pues f (−x) = (−x)2 −4 = − 4 = f (x), para cualquier x ∈ R. La gr´afica de f (x) se muestra abajo a la izquierda. x2

4

y

4

f(x)

y | f(x)|

2

2

x

x -2

-2

2

2 -2

-2

⎧ ⎪ ⎨

x2 − 4, x ≤ −2 La funci´on |f (x)| est´ a definida por |f (x)| = −(x2 − 4), x ∈] − 2, 2[ ⎪ ⎩ x2 − 4, x ≥ 2 La gr´afica de |f (x)| se muestra a la derecha. Obs´ervese que |f (x)| es de nuevo una funci´ on sim´etrica respecto el eje OY .

2.3.3

Funci´ on definida a trozos

Se suele denominar funci´ on definida a trozos, a aqu´ella que, de manera expl´ıcita, utiliza diversas funciones elementales en intervalos contiguos. En tales casos, el estudio de la funci´on en los puntos frontera de los intervalos es imprescindible para conocer su gr´afica y, por tanto, su continuidad.

2.3.4

Ejemplo

Consideremos la funci´on f definida en toda la recta real de manera que f (x) = 2x si x ≤ 0, f (x) = x2 + 1 si x ∈]0, 2[, y f (x) = 6 si x ≥ 2. Esta funci´ on se escribe como sigue: ⎧ ⎪ ⎨

f (x) = La gr´ afica es la siguiente:

⎪ ⎩

x2

2x , x ≤ 0 + 1, 0 < x < 2 6, x ≥ 2

´ 2. FUNCIONES E INTERPOLACION

36 6

5

f(x)

4

3

2

1

x -2

-1

1

2

3

Obs´ervese que la continuidad de f en ] − ∞, 0[, ]0, 2[ y ]2, +∞[ est´a on constante f (x) = 6, son todas garantizada porqu´e 2x , x2 + 1 y la funci´ ellas continuas. En el punto frontera 0, las funciones a izquierda y derecha han hecho posible su coincidencia. Sin embargo f (2) = 6, pero la funci´on x2 + 1 se acerca a 5 por la izquierda de 2. Se dice que f tiene un salto de discontinuidad, en el el punto 2, de 1 unidad. As´ı pues f es continua en R − {2}.

2.3.5

Funciones discretas

Una funci´ on f : A → B se dice discreta si el conjunto de las im´ agenes de f es un conjunto numerable (que puede ser infinito). Si A es finito, obviamente f es discreta.

2.3.6

Ejemplo

(a) A partir de las 0 horas de cierto d´ıa, y cada 4 horas, se ha medido la temperatura en cierto punto de una ciudad. Los datos se muestran en la siguiente tabla: T (◦ C) t (horas)

3 0

1 4

7 8

13 12

14 16

6 20

La gr´ afica de esta funci´ on discreta es 14 T (ºC) 12 10 8 6 4 2

t (horas) 5

10

15

20

25

4 24

´ 2.4. INTERPOLACION

37

(b) Consideremos la funci´on f : N → N definida por f (n) = 2 · n, para cada n ∈ N. El conjunto de im´agenes es {0, 2, 4, 6, . . . }, infinito numerable. Por lo tanto, f es discreta. (c) Se define en R la funci´on parte entera de x, se escribe E[x], de manera que E[x] es el mayor n´ umero entero n que verifica que n ≤ x. Es inmediato, pues, que para x no negativo escrito con decimales, E[x] es su parte entera (prescindiendo de los decimales). Ver gr´afica adjunta.

2 y 1.5 1 -3

-2

-1

0.5

-0.5

1

2

3

x

-1 -1.5 -2 -2.5 -3

2.4 2.4.1

´ INTERPOLACION Discretizaci´ on e interpolaci´ on

Para conocer la funci´ on y = f (x) que sigue un determinado proceso de la ciencia o de la ingenier´ıa, el experto procede a tomar un n´ umero finito de mediciones apropiadas (xi , yi ). Con ello se ha procedido a discretizar la variable. Acto seguido, el experto trata de encontrar, bajo ciertas condiciones, una funci´ on f que modeliza el proceso estudiado. Esto es, tratar´a de encontrar una funci´ on, f , que nos de una estimaci´on, f (x), para cada x que no ha sido obtenido experimentalmente. Esto se puede hacer de varias maneras, y la funci´ on encontrada se denomina funci´ on (polinomio) de interpolaci´on, recta de regresi´ on, etc. Veamos algunas de ellas.

2.4.2

Interpolaci´ on lineal

Supongamos hechas n pares de mediciones (xi , yi ) con xi distintos (que supondremos ordenados) y que podemos representar en un diagrama cartesiano.

´ 2. FUNCIONES E INTERPOLACION

38

La l´ınea poligonal f (x) que une puntos contiguos constituye la funci´ on de interpolaci´ on lineal. Obs´ervese que, en este caso, f es continua y que los valores f (xi ) coinciden con las mediciones yi , i.e., f (xi ) = yi . La funci´on f est´a definida a trozos en el intervalo [x1 , xn ], y si el objeto es encontrar un s´olo valor f (x) para cierto x ∈ [x1 , xn ], ´este se obtiene mediante una simple proporci´on (regla de 3), como muestra el Ejemplo 2.4.3.

2.4.3

Ejemplo

Situ´emonos en el Ejemplo 2.3.6 (a). La temperatura a las 8 h era 7◦ C y a las 12 h era 13◦ C. Nuestros dos datos son T (8) = 7 y T (12) = 13. Por interpolaci´ on lineal vamos a estimar la temperatura a las 11h, (o sea 3 horas despu´es de la medici´on de las 8h). Puesto que en 4 h la temperatura T se ha incrementado en 6◦ C, entonces en tres hora se habr´a incrementado en T =

6 · 3 = 4.5 ◦ C 4

En consecuencia la temperatura a las 11h ser´a 7 + 4.5, o sea T (11) = 11.5.

Tambi´en se puede interpretar utilizando el teorema de Tales,

2.4.4

6 4

=

T 3

; T =

6 4

· 3 = 4.5◦ C.

Interpolaci´ on polin´ omica

La interpolaci´ on polin´ omica consiste en determinar una funci´on polin´omica P (x) de grado n − 1 que pase por los n puntos (xi , yi ) de R2 (con on xi distintos), esto es, que satisfaga P (xi ) = yi , i = 1, 2, . . . , n. Esta funci´ polin´omica existe y es u ´nica como se demuestra en la secci´ on 8.2.9. En esa

´ Y CORRELACION ´ 2.5. REGRESION

39

misma secci´ on se da un m´etodo para obtener y = P (x) por medio de un determinante. La f´ ormula de Lagrange es otro m´etodo para obtener el polinomio interpolador P (x). En este caso y = P (x) = P0 (x) + P1 (x) + · · · + Pn−1 (x), donde cada Pi (x) es un polinomio de grado n que verifica que Pi (xi ) = yi y Pi (xj ) = 0 para xj = xi .

Los polinomios interpoladores de grado peque˜ no se pueden obtener de manera sencilla resolviendo el sistema a que se obtiene al imponer P (xi ) = yi i = 1, . . . , n, como muestra el siguiente ejemplo.

2.4.5

Ejemplo

Vamos a hallar el polinomio interpolador de grado 3, y = a0 + a1 x + a2 x2 + a3 x3 , que se verifique para los puntos: (0, 1), (1, −1), (2, −5), (−1, 7). De los datos se obtiene, por sustituci´on, el sistema: ⎧ ⎪ ⎪ ⎪ ⎨

1 −1 ⎪ −5 ⎪ ⎪ ⎩ 7

= = = =

a0 a0 + a1 + a2 + a3 a0 + 2a1 + 4a2 + 8a3 a0 − a1 + a2 − a3

La soluci´ on de este sistema, que el lector verificar´a, es: a0 = 1, a1 = −3, a2 = 2 y a3 = −1. Por tanto, y = 1 − 3x + 2x2 − x3 .

2.5 2.5.1

´ Y CORRELACION ´ REGRESION Nube de puntos

Vamos a estudiar, gr´aficamente, el caso en que en la serie de pares on, se haya podido repetir (xi , yi ), i = 1, 2, . . . , n, obtenidos por experimentaci´ xi (o incluso (xi , yi )), como es frecuente en grandes series estad´ısticas. En tal on bidimencaso, el referirse a los pares (xi , yi ) se le denomina distribuci´ sional (X, Y ). En estos casos se deja entrever la relaci´on que puedan tener X e Y mediante una representaci´on gr´ afica en ejes cartesianos de los pares (xi , yi ), que se denomina diagrama de dispersi´ on o nube de puntos. De la simple observaci´ on de esta gr´afica se obtiene una idea bastante precisa de la relaci´on (correlaci´ on) entre las variables X e Y .

´ 2. FUNCIONES E INTERPOLACION

40

2.5.2

Ejemplo

Supongamos que las siguientes nubes de puntos corresponden a diversas distribuciones bidimensionales.

De su observaci´ on podemos sacar las siguientes conclusiones para el par de variables estad´ısticas que cada caso representa: (a) Dependencia funcional (parab´ olica). (b) Dependencia funcional (lineal). (c) Existe correlaci´on lineal fuerte. (d) Existe correlaci´on lineal d´ebil. (e) Son variables independientes.

´ Y CORRELACION ´ 2.5. REGRESION

2.5.3

41

L´ıneas de regresi´ on

Como ya hemos indicado anteriormente, observando la nube de puntos de una distribuci´on bidimensional se puede intuir la existencia, o no existencia, de relaci´on entre las dos variables. En caso afirmativo, puede intentarse expresar dicha relaci´on mediante alguna funci´ on cuya gr´afica se aproxime a la forma de la nube de puntos, denominada l´ınea de regresi´ on. As´ı pues, puede hablarse de regresi´ on lineal, parab´ olica, etc., seg´ un sea la l´ınea que represente la distribuci´on. No existe raz´on ling¨ u´ıstica para el t´ermino regresi´on. El motivo es hist´orico. En 1886, Galton, primo de Darwin, public´ o un trabajo en el que se pon´ıa de manifiesto la dependencia de la talla entre padres e hijos: de padres altos (bajos) nacen hijos altos (bajos). No obstante, observ´o adem´ as que la estatura media de los hijos tiende a “regresar” hacia la media de la raza. Nosotros abordaremos fundamentalmente el problema de la regresi´on lineal, es decir, aquellas distribuciones bidimensionales que pueden ser representadas por una recta, y aportaremos algunas nociones acerca de la regresi´on, m´as general, de tipo polin´ omico y de otras regresiones de uso com´ un.

2.5.4

Recta de regresi´ on

Supongamos que la nube de N puntos que representa una distribuci´on bidimensional se puede “aproximar” por una recta. De entre todas las rectas posibles optaremos por elegir la que nos da el m´etodo de ajuste por m´ınimos cuadrados. Este m´etodo consiste en elegir la recta y = ax + b de modo que la suma de cuadrados de las desviaciones entre los N puntos representados (xi , yi ), i = 1, 2, . . . , N , (puede que se repitan) y la recta, sea lo menor posible. Formalmente, si escribimos di = yi − (axi + b), deseamos encontrar los valores de a y b que hagan que d21 + d22 + · · · + d2N sea m´ınimo. Se demuestra, con los m´etodos usuales del An´ alisis Matem´ atico, que los valores a y b son las soluciones del siguiente sistema que constituyen las denominadas ecuaciones normales de la recta de regresi´ on de y sobre x: 





N b + a xi = y i b xi + a x2i = xi yi

(2.1)

Del mismo modo, si deseamos hallar la recta de regresi´ on de x sobre y, utilizando el m´etodo de los m´ınimos cuadrados, las desviaciones que habr´an de ser m´ınimas son las distancias entre las abcisas xi y las correspondientes a aloga se llega la recta buscada que escribiremos x = a y + b , y de manera an´

´ 2. FUNCIONES E INTERPOLACION

42 al sistema de ecuaciones 

N b + a b y

i



+

yi =

a yi2



=

xi



xi y i

Ambas rectas son, en general, distintas y no hay raz´ on alguna para que a priori prevalezca una de ellas sobre la otra para ser usada como polinomio interpolador. No obstante, el contexto puede inducirnos a la elecci´ on de una de ellas (ver ejercicio R2.15).

2.5.5

Ejemplo

Consideremos las notas x e y de Matem´aticas y de F´ısica, respectivamente, que han obtenido 10 alumnos, como muestra la siguiente tabla de frecuencias: x 3 4 6 8 8 6 4 5 4 7 y 3 4 4 7 8 7 3 5 3 6 En primer lugar observemos, a continuaci´ on, el correspondiente diagrama de dispersi´ on que ya nos sugiere la existencia de alguna relaci´on entre ambas variables.

Vamos a hallar las restas de regresi´on correspondientes. Dispongamos los c´alculos como muestra la tabla adjunta.

´ Y CORRELACION ´ 2.5. REGRESION



43

xi 3 4 6 8 8 6 4 5 4 7 55

=

yi 3 4 4 7 8 7 3 5 3 6 50

x2i 9 16 36 64 64 36 16 25 16 49 331

yi2 9 16 16 49 64 49 9 25 9 36 282

x i yi 9 16 24 56 64 42 12 25 12 42 302

Atendiendo al estudio previo, para obtener la recta de regresi´on de y sobre x hemos de resolver el sistema: 

10 b + 55 a = 50 55 b + 331 a = 302

27 = 0.947, b = (50−55a) ≈ −0.211, por lo que la cuya soluci´ on es a = 28.5 10 ecuaci´ on de la recta de regresi´ on de y sobre x es y = 0.947 x − 0.211. Para obtener la recta de regresi´on de x sobre y hemos de resolver el sistema  10 b + 50 a = 55

50 b + 282 a = 302 on de la recta cuya soluci´ on es a = 27 32 = 0.844, b ≈ 1.281, por lo que la ecuaci´ de regresi´on de x sobre y es x = 0.844 y + 1.281, es decir y = 1.185 x − 1.518.

2.5.6

C´ alculo de las rectas de regresi´ on con conceptos estad´ısticos

La ecuaci´ on de la recta de regresi´ on de y sobre x, de la forma que habitualmente se usa en estad´ıstica, es: y−y =

σxy (x − x) σx2

(2.2)

Por otra parte la ecuaci´ on de la recta de regresi´ on de x sobre y es x−x=

σxy (y − y) σy2

(2.3)

Como se observa, ambas rectas se cortan en (¯ x, y¯), que viene a representar el centro de gravedad de la nube.

´ 2. FUNCIONES E INTERPOLACION

44

Si todos los puntos de la nube estuvieran sobre una recta, es obvio, por simple interpretaci´ on geom´etrica, que ambas rectas de regresi´on coincidir´ıan con dicha recta. Dada una distribuci´ on de frecuencias bidimensional correspondiente a una variable (X, Y ) que ha tomado los N valores (x1 , y1 ), (x2 , y2 ), . . . , (xN , yN ) (puede que se repitan) sabemos calcular la media, la varianza y la desviaci´ on t´ıpica de cada una de las dos variables: N

x1 + x2 + · · · + xN x= = N N

σx2

=

i=1

i=1

,

σx =

y1 + y 2 + · · · + y N y= = N

,

N

(xi − x)2

N

xi

N



σy2

σx2 ,

=

(yi − y)2

i=1

,

σy =

N

σxy =

σy2 .

(xi − x)(yi − y)

i=1

y es f´ acil demostrar que

(2.4)

N N

σxy =

2.5.7

,



N N Se denomina covarianza de la distribuci´ on bidimensional al n´ umero real N

yi

i=1

x i yi

i=1

N

− x y.

(2.5)

Ejemplo

Volvamos al Ejemplo 2.5.5. Para hallar las rectas de regresi´on, determinamos previamente los estad´ısticos que necesitamos. Para ello dispondremos los c´alculos en la siguiente tabla con las columnas apropiadas a tales efectos, ¯ = 50 depu´es de obtener x ¯ = 55 10 = 5.5, e y 10 = 5.



=

xi 3 4 6 8 8 6 4 5 4 7 55

yi 3 4 4 7 8 7 3 5 3 6 50

xi − x −2.5 −1.5 0.5 2.5 2.5 0.5 −1.5 −0.5 −1.5 1.5

yi − y −2 −1 −1 2 3 2 −2 0 −2 1

(xi − x)(yi − y) 5 1.5 −0.5 5 7.5 1 3 0 3 1.5 27

(xi − x)2 6.25 2.25 0.25 6.25 6.25 0.25 2.25 0.25 2.25 2.25 28.5

(yi − y)2 4 1 1 4 9 4 4 0 4 1 32

En consecuencia, se tiene que: σx2 =

28.5 = 2.85, 10

σy2 =

32 = 3.2, 10

σxy =

27 = 2.7. 10

´ Y CORRELACION ´ 2.5. REGRESION

45

Por tanto, la ecuaci´ on de la recta de regresi´on de y sobre x seg´ un (2.2) 2.7 (x − 5.5) de lo que se deduce que viene dada por y − 5 = 2.85 y = 0.947 x − 0.211. La ecuaci´ on de la recta de regresi´ on de x sobre y seg´ un (2.3) viene dada (y − 5) de lo que se deduce por x − 5.5 = 2.7 3.2 y = 1.185 x − 1.518.

2.5.8

El coeficiente de correlaci´ on lineal Galton propuso el siguiente coeficiente de correlaci´on entre las variables

x e y: r=

σxy σx σy

(2.6)

Vamos a interpretarlo analizando el comportamiento de r. Supongamos que r = ±1. En este caso se puede demostrar que todos los puntos del diagrama de dispersi´ on se encuentran sobre la recta de regresi´ on. En el caso de que r = 1 la recta tiene pendiente positiva por lo que se dice que hay correlaci´ on directa m´ axima, y si r = −1, la recta es de pendiente negativa y se dice que hay correlaci´ on inversa m´ axima. Si r = 0, entonces hay independencia absoluta entre las dos rectas de regresi´on, o sea, la correlaci´ on entre las variables x e y es nula. Por lo tanto cuanto m´as pr´ oximo sea r a 1 ´o -1, tanto mayor es la correlaci´on entre las variables x e y. Se puede demostrar que r s´olo puede tomar valores en el intervalo [−1, 1]. Si la correlaci´ on entre dos variables es alta, i.e. |r| se acerca a 1, ello permite afirmar una alta fiabilidad de la aproximaci´on obtenida mediante la interpolaci´ on utilizando una de las rectas de regresi´on, cuando el dato es cercano al rango de la variable correspondiente. Si |r| < 0.5 puede considerarse que la correlaci´ on es d´ebil y la conjetura tiene tanta menos fiabilidad conforme |r| se va haciendo m´as peque˜ no. El valor r 2 (que usualmente se escribe R2 ) se denomina coeficiente de determinaci´ on. El valor 100 · R2 es un porcentaje que se interpreta como el tanto por ciento de la variablidad (informaci´on) de los datos que es explicada por la recta de regresi´on.

´ 2. FUNCIONES E INTERPOLACION

46

2.5.9

Ejemplo

Continuando con el Ejemplo 2.5.5 donde σx2 = 2.85, σy2 = 3.2, σxy = 2.7, se tiene que σxy 2.7 2.7 r= ≈ = 0.894 =√ σx σy 3.019933 2.85 · 3.2 Si no se dispone de calculadora podemos realizar la siguiente acotaci´ on: 2.7 2.7 2.7 =√ >√ = r=√ 2.85 · 3.2 9.12 10

 

2.72 = 10

 

7.29 √ = 0.729 > 0.8 10

lo que nos indica que hay una fuerte correlaci´ on directa entre las notas de Matem´aticas y las de F´ısica. Si un alumno obtiene una calificaci´on de 6.5 en Matem´aticas podemos recurrir a la recta de regresi´ on de y sobre x para conjeturar qu´e calificaci´ on obtendr´a en F´ısica. Entonces, sustituyendo x = 6.5 en la ecuaci´ on y = 0.947x − 0.211 se obtiene que y ≈ 5.9. El lector comprobar´a que usando la recta de regresi´ on de x sobre y se obtiene que la calificaci´on y de F´ısica es aproximadamente 6.1. Ambos resultados son bastante fiables porque el coeficiente de correlaci´ on r se acerca a 1. En el caso del p´arrafo anterior si el alumno hubiera obtenido un 0 en Matem´aticas no procede conjeturar nada acerca de la nota de F´ısica pues 0 es un valor alejado del m´ınimo 3, teniendo en cuenta que el rango en que se mueven las notas x de Matem´aticas es 8 − 3 = 5.

2.5.10

Regresi´ on parab´ olica

Cuando la nube de puntos no se ajusta de manera satisfactoria a una recta, sino que parece condensarse a lo largo de otro tipo de curva, en vez de regresi´ on lineal, se habla de regresi´ on no lineal . Como caso particular de la regresi´ on no lineal empezaremos estudiando la regresi´ on parab´ olica. Resolver este tipo de regresi´ on consiste en determinar la par´ abola y = b0 + b1 x + b2 x 2 ,

(b2 = 0)

con la condici´ on, an´ aloga al caso de la regresi´ on lineal, de que la suma de los cuadrados de las desviaciones d21 + d22 + · · · + d2N sea m´ınima, donde di = yi − (b0 + b1 xi + b2 x2i ). Modificando ligeramente la terminolog´ıa hasta ahora utilizada, supondremos que tenemos un total de N puntos que toman los siguientes m valores distintos (x1 , y1 ), (x2 , y2 ), (x3 , y3 ), . . . , (xm , ym ), con las frecuencias f1 , f2 , . . . , fm , respectivamente. El sistema de ecuaciones normales que

47

2.6. UN POCO DE HISTORIA

se obtiene en este caso es

⎧ m ⎪ ⎪ ⎪ fi yi ⎪ ⎪ ⎪ i=1 ⎪ ⎪ m ⎨

fi xi yi

⎪ ⎪ i=1 ⎪ ⎪ m ⎪ ⎪ ⎪ ⎪ fi x2i yi ⎩ i=1

2.5.11

=

b0

m

fi + b1

i=1

=

b0

m

m

i=1 m

fi xi + b1

i=1 m

=

b0



fi xi + b2



m i=1

fi x2i

+ b2

i=1 m

fi x2i + b1

i=1



fi x2i

m

fi x3i

(2.7)

i=1 m

fi x3i + b2

i=1



fi x4i

i=1

Regresi´ on exponencial

Supongamos que la nube de puntos (xi , yi ) se asemeja a una funci´on acil observar que la nube de puntos exponencial y = eαx+β . En tal caso es f´ (xi , ln yi ) se asemeja a una recta. Si llamamos Yi = ln yi (o equivalentemente on de Y sobre x, correspondiente yi = eYi ), podemos hallar la recta de regresi´ a la nube de puntos (xi , Yi ), que adopta la forma Y = ax + b. A partir de aqu´ı se tiene que la l´ınea de regresi´ on (funci´ on de interpolaci´ on) buscada es y = eax+b .

2.6

UN POCO DE HISTORIA El concepto de funci´ on se desarroll´ o de forma que su significado, y tambi´en la forma

en que se defin´ıa, fue cambiando, y ganando precisi´ on, con el paso del tiempo. Los or´ıgenes de las funciones son remotos. En las matem´ aticas babil´ onicas ya encontramos tablas con los cuadrados, los cubos y los inversos de los n´ umeros naturales, que no son m´ as que funciones de N en N o de N en R. No obstante no parece que los babilonios conocieran el concepto de funci´ on, aunque conoc´ıan y manejaban funciones espec´ıficas. En el antiguo Egipto tambi´en se utilizaban funciones particulares. En la Grecia cl´ asica tambi´en se manejaron funciones particulares, en este caso en un sentido moderno de establecer relaciones entre los elementos de dos conjuntos. Sin embargo, tampoco en este caso parece que se comprendiese el concepto abstracto funci´ on. Algunos historiadores atribuyen a Nicole Oresme (1323-1382) la primera aproximaci´ on al concepto de funci´ on, cuando ´este describi´ o leyes de la naturaleza mediante relaciones de dependencia entre dos magnitudes. Oresme fue el primero en usar, sistem´ aticamente, diagramas para representar magnitudes variables en un plano. El primero en construir una funci´ on fue Galileo (1564-1642). Al estudiar la ca´ıda de los cuerpos, comprob´ o que el espacio recorrido depende del cuadrado del tiempo, escribiendo la primera funci´ on de la historia. Ren´e Descartes (1596-1650), Isaac Newton (1643-1727) y Gottfried Leibniz (1646-1716) establecieron la idea de funci´ on como dependencia entre dos cantidades variables. No obstante, la primera definici´ on formal de funci´ on se debe a Leonhard Euler (1707-1783): “Una funci´ on de una cantidad variable es una expresi´ on anal´ıtica compuesta

´ 2. FUNCIONES E INTERPOLACION

48

de cualquier manera a partir de la cantidad variable y de n´ umeros o cantidades constantes”. Debemos a Leibniz el uso de los t´erminos funci´ on, variable, constante y par´ ametro. La notaci´ on f (x) fue utilizada por primera vez por Alexis C. Clairaut (1713-1765).

2.7

EJERCICIOS RESUELTOS

R2.1 Sean los conjuntos A = {a, b, c, d} y B = {1, 2, 3, 4, 5}. Se considera la correspondencia f de A en B (se puede denotar f : A → B ) definida por f (a) = {1, 2}, y f (c) = f (d) = 3. (i) Dib´ ujese su diagrama sagital, y tambi´en su representaci´ on cartesiana. (ii) ¿Es f una aplicaci´ on? (iii) H´allese la correspondencia inversa f −1 , as´ı como Im(f −1 ). Soluci´ on:

(i)

Diagrama sagital de f .

Diagrama cartesiano de f .

(ii) f no es aplicaci´ on pues su dominio es {a, c, d}, que no coincide con A. (Por otra parte f no es aplicaci´ on pues a tiene dos im´ agenes distintas. (iii) f −1 (1) = f −1 (2) = a, f −1 (3) = {c, d}. Dom (f −1 ) = {1, 2, 3}, Im(f −1 ) = {a, c, d}. Como se comprueba en su diagrama sagital.

R2.2 (Permutaciones de un conjunto) Consideremos el conjunto A = {1, 2, 3} y dos apllicaciones biyectivas f : A → A y g : A → A (que por motivos obvios se denominan permutaciones de A) definidas por los diagramas sagitales adjuntos

49

2.7. EJERCICIOS RESUELTOS

(i) H´allese g ◦ f .

(ii) H´allese f ◦ g, y obs´ervese que g ◦ f = f ◦ g.

Soluci´ on: (i) Por definici´ on de composici´ on, g ◦ f , y de la definici´ on de f y g se tiene: (g ◦ f )(1) (g ◦ f )(2) (g ◦ f )(3)

= = =

g(f (1)) = g(2) = 3 g(f (2)) = g(1) = 1 g(f (3)) = g(3) = 2

Por tanto, en forma de diagrama sagital se tiene que g ◦ f es la permutaci´ on de A del diagrama. (ii) Hacemos un razonamiento alternativo al de (i) usando diagramas sagitales

Por lo tanto, (f ◦ g)(1) (f ◦ g)(2) (f ◦ g)(3)

= = =

2 3 1

V´ease el diagrama sagital adjunto.

R2.3 Sea f : R → R la recta y = f (x) = 3x + 2. (i) Halla f −1 . (ii) Representa f −1 en los mismos ejes que f y observa la simetr´ıa de ambas gr´ aficas. Soluci´ on: (i) De y = 3x + 2 se tiene que 3x = y − 2, es decir x = y − 23 . 3

y 3

− 23 , o sea x = f −1 (y) =

(ii) Para representar f −1 se intercambia x por y, y tenemos y = f −1 (x) = 4 y 3

y=3x+2

y=x

2 1 -2

y=x/3-2/3

x

2

4

-1 -2

R2.4

(i) Pru´ebese que la inversa de y = f (x) =

1 es ella misma. x

x 2 − . 3 3

´ 2. FUNCIONES E INTERPOLACION

50 (ii) H´allese f n) . Soluci´ on:

1 x

(i) (f ◦ f )(x) = f (f (x)) = f

1

=

1 x

= x, luego f ◦ f = I, y por tanto f = f −1 .

(ii) Hemos visto que f 2) = f ◦ f = I. Por tanto f 3) f 4)

f 2) ◦ f = I ◦ f = f f 2) ◦ f 2) = I ◦ I = I

= = .. .

as elegante decir As´ı pues, f n) = I, si n es par, y f n) = f si n es impar. (Es m´ f 2n) = I y f 2n+1) = f , n = 1, 2, . . . .)

R2.5

(i) H´ allese la inversa, f −1 de la funci´ on y = f (x) = ex . (ii) Dib´ ujese f −1 , y h´allese su dominio e im´ agen, compar´ andola con y = ex . Soluci´ on: (i) De y = ex se tiene ln y = x ln e = x, es decir x = f −1 (y) = ln y. Cambiando x por y se tiene que y = ln x conocida como la inversa de ex . 5 y 4

y=e x y=x

3 2

y=ln x

1 -3

(ii)

-2

x 1

-1

2

3

4

5

-2 -3

Las gr´ aficas de y = ex , e y = ln x son sim´etricas respecto a la recta y = x, cuando se las representa en los mismos ejes. El dominio de ln x es la imagen de ex ´ o sea, ]0, +∞[. La imagen de ln x es el dominio de ex , o sea R.

R2.6 Haz las gr´ aficas y estudia la simetr´ıa y periodicidad de las siguientes funciones. (i) y = f (x) = sen(x) (ii) y = g(x) = | sen(x)| (iii) y = h(x) = 1 + sen(x) Soluci´ on: 1 -3

-5 /2 -2

-3 /2

-

- /2

-1

y

y=sen x

x /2

3 /2

2

5 /2

3

51

2.7. EJERCICIOS RESUELTOS

1 -3

-5 /2 -2

-3 /2

-

- /2

y

x /2

-1 2

y=|sen x|

y

-5 /2 -2

-3 /2

-

2

5 /2

3

5 /2

3

y=1+sen x

1 -3

3 /2

x

- /2

/2

3 /2

2

(i) f es sim´etrica respecto al origen, y peri´ odica de periodo 2 π. (ii) g es sim´etrica respecto al eje OY , y peri´ odica de periodo π. (iii) h es peri´ odica de periodo 2 π.

R2.7 Haz la gr´afica y estudia la simetr´ıa y periodicidad de las siguientes funciones: (i) y = f (x) = cos(x). (ii) y = g(x) = cos(2x). (iii) y = h(x) = cos(x + π2 ). Soluci´ on: 1 -3

-5 /2 -2

-3 /2

-

- /2

-5 /2 -2

-3 /2

-

- /2

-3

-5 /2 -2

-3 /2

-

- /2

y

-1

3 /2

x 2

5 /2

3

2

5 /2

3

y=cos 2x /2

-1 1

y=cos x /2

-1 1

-3

y

3 /2

y

x

y=cos 2x /2

3 /2

2

5 /2

(i) f es sim´etrica respecto al eje OY , y peri´ odica de periodo 2 π. (ii) g es sim´etrica respecto al eje OY , y peri´ odica de periodo π. (iii) h es sim´etrica respecto al eje OY , y peri´ odica de periodo 2 π.

R2.8

(i) Dibuja la gr´ afica de la funci´ on definida a trozos, f dada por ⎧ ⎨ 4, x ≤ 2 x2 , x ∈] − 2, 0] f (x) = ⎩ 1 x, x > 0 (ii) Estudia su continuidad.

x 3

´ 2. FUNCIONES E INTERPOLACION

52 Soluci´ on: (i)

(ii) La funci´ on f es continua en ] − ∞, −2[ por ser constante. Es continua en ] − 2, 0[ por ser polin´ omica (una par´ abola). Es continua en ]0, +∞[ porque no se anula el denominador en dicho intervalo. En el punto -2, la funci´ on toma el valor f (−2) = 4, que coincide con el acercamiento de la par´ abola, por la derecha de −2. As´ı pues, la funci´ on es continua en x = −2. Obviamente, f no es continua en x = 0 por presentar un salto infinito. As´ı pues, f es continua en R − {0}.

R2.9 Representa la gr´afica de la funci´ on E

x 2

y da su definici´ on por intervalos.

Soluci´ on:

El lector puede valerse de una sencilla tabla para llegar a la conclusi´  xon  de que para = n y para valores reales de x no negativos, si x ∈ [2n, 2n + 2[, entonces, E 2 x valores de x negativos, si x ∈ [−2n, −2n + 2[, entonces, E = −n. Obs´ ervese que 2   E x2 es una funci´ on que presenta discontinuidades, de salto finito de una unidad, en todos los n´ umeros pares.

R2.10 Por cierto servicio de Internet, una empresa cobra al usuario 3 euros por conexi´ on y despu´es un euro cada 2 minutos. Haz un gr´ afico del coste, y, en euros en funci´ on del tiempo, t, que est´ a conectado el usuario. Utiliza el ejercicio anterior para expresar y utilizando la parte entera de x. Soluci´ on:

La gr´ afica que representa y en funci´ on de t es la siguiente

Se observa que la gr´ afica de y en funci´ on de t es la del ejercicio   anterior, en la recta no negativa, subida en 3 unidades. Por lo tanto, y = 3 + E 2t

53

2.7. EJERCICIOS RESUELTOS

ß R2.11 Sea f (x) la funci´ on definida por f (x) =

x2 , x ∈ [1, 0] . 1, x ∈ ]1, 2[

Sea g(x) la funci´ on que resulta de extender f a toda la recta real no negativa de forma peri´odica, con periodo 2. (i) Dibujar g(x).

(ii) Hallar g(8.5).

Soluci´ on: (i) La gr´ afica de f (x) es

Por tanto, la gr´ afica de g(x) es

(ii) Como 8.5 = 4 · 2 + 0.5 entonces g(8.5) = g(0.5) = 0.52 = 0.25.

R2.12 La funci´on y = f (x) = sen x toma los valores sen(0) = 0, sen( π6 ) = sen( π2 ) = 1. Halla, por interpolaci´ on lineal:

1 2,

(i) sen(15◦ ) (ii) sen(45◦ ) π Soluci´ on: Recordemos que 15◦ son 12 radianes, 30◦ son π6 radianes, 45◦ son π4 ◦ π radianes y 90 son 2 radianes. Representamos los 3 datos conocidos y la poligonal que une los puntos correspondientes.

(i) La funci´ on poligonal definida en [0, π6 ] obviamente es y = f (x) = π se puede aproximar por decir y = π3 · x. Por tanto sen 12 f

Äπä 12

=

3 1 3 π · = = = 0.25. π 12 12 4

1/2 π/6

· x, es

´ 2. FUNCIONES E INTERPOLACION

54

π de manera aproximada se puede hallar la recta f (x) del 4 on, procedemos por proporciones. intervalo [ π6 , π2 ], pero en esta ocasi´ Para un incremento de x de π2 − π6 la ordenada de la funci´ on se incrementa en 1 π π . Entonces, para el incremento de la variable de a se tiene la proporci´ on 2 6 4

(ii) Para hallar sen

y 1/2 π π = π π, − − 2 6 4 6 es decir,

y 1/2 = π 2 ·π 12 6 3 o bien, 2 = 12 · y, y por lo tanto y = 18 = 0.125. Por tanto sen(45◦ ) ≈ 1 + 0.125 = 0.625. 2

R2.13 En el Ejemplo 2.3.6 (a) se ten´ıan las mediciones de temperatura, T (t), en funci´ on del tiempo t (horas), siguientes: T (0) = 3◦ C, T (4) = 1◦ C, T (8) = 7◦ C. H´allese el polinomio interpolador P de segundo grado que cumple con dichas mediciones, y d´ıgase cu´al ser´ıa la temperatura (estimada con dicho polinomio) a las 5 horas. Soluci´ on:

El polinomio es P (t) = a0 + a1 t + a2 t2 . Habr´ a que verificar el sistema



3 1 7

= = =

a0 a0 + a1 · 4 + a2 · 42 a0 + a1 · 8 + a2 · 82

La soluci´ on del sistema es a0 = 3, a1 = − 32 , a2 = 14 . Por tanto el polinomio interpolador es P (t) = 3 − 32 t + 14 t2 . La temperatura a la 5 horas se puede estimar mediante P (5) = 3 − 32 · 5 + 14 · 52 = 3 − 7.5 + 6.25 = 1.75◦ C

R2.14 Se han realizado 4 pares de mediciones experimentales (xi , yi ), (i = 1, . . . , 4) cuyos valores son (0, 1), (1, 0), (2, 5), (−1, −4). Determ´ınese el valor f (1.5) a partir del polinomio de grado 3 que definen las cuatro mediciones. Soluci´ on: La funci´ on y = c0 + c1 x + c2 x2 + c3 x3 que pasa por los cuatro puntos (xi , yi ) del enunciado ha de satisfacer, respectivamente, las ecuaciones 1 0 5 −4

= = = =

c0 c0 c0 c0

+ + −

c1 2c1 c1

+ + +

c2 4c2 c2

+ + −

c3 8c3 c3

El sistema que constituyen las 4 ecuaciones anteriores tiene por soluci´ on, que el lector verificar´ a, c0 = 1, c1 = 0, c2 = −3, c3 = 2. As´ı pues, f (x) = 1 − 3x2 + 2x3 . Finalmente, f (1.5) = 1 − 3 · 1.52 + 2 · 1.53 = 1.

R2.15 En la tabla siguiente, la variable X muestra el n´ umero de fotones lanzados a un objetivo, e Y muestra los fotones capturados. Util´ıcense las rectas de regresi´on de y sobre x y de x sobre y para calcular el n´ umero de fotones que se

55

2.7. EJERCICIOS RESUELTOS

espera capturar al lanzar 11 fotones sobre el objetivo. Raz´ onese si son fiables los resultados. xi 9 10 9 12 10 yi 4 5 6 6 4 Soluci´ on:

Dispondremos los datos necesarios en una tabla.

xi 9 10 9 12 10 = 50

yi 4 5 6 6 4 25

(xi − x)2 1 0 1 4 0 6

xi − x −1 0 −1 2 0

(yi − y)2 1 0 1 1 1 4

yi − y −1 0 1 1 −1

(xi − x)(yi − y) 1 0 −1 2 0 2

De los datos de la tabla se tiene que 50 = 10, 5√ 6 σx = √ , 5 x=

25 = 5, 5 2 σy = √ , 5 y=

6 , 5 2 = . 5

σx2 = σxy

σy2 =

En consecuencia la recta de regresi´ on de y sobre x es y − 5 =

4 , 5

2/5 (x − 10) que en su 6/5

forma expl´ıcita resulta y=

5 x + . 3 3

Por otra parte, la recta de regresi´ on de x sobre y es x − 10 =

2/5 (y − 5) que en su 4/5

forma expl´ıcita resulta y = 2x − 15. Para calcular el n´ umero de fotones que se espera capturar al lanzar 11, se obtiene para la recta de regresi´ on de y sobre x 11 5 16 + = ≈ 5.33 3 3 3 y para la recta de regresi´ on de x sobre y se obtiene y=

y = 2 · 11 − 15 = 7. Como en este caso se conoce el valor de X (fotones lanzados) y se quiere minimizar el error en Y (fotones capturados), se prefiere la recta de regresi´ on de y sobre x puesto que minimiza el error en Y . El razonamiento de la fiabilidad de los resultados tendr´ a en cuenta el valor del coeficiente de correlaci´ on lineal r que vale r=

σxy = σx σy

2 5 √ √6 √2 5 5

=

2 5 √ 2 6 5

1 = √ ≈ 0.41 6

por lo que las estimaciones realizadas resultan poco fiables, pues 0.41 est´ a lejos de 1. Si no se dispone de calculadora podemos realizar la siguiente acotaci´ on: 1 1 1 r = √ ≤ √ = = 0.5 2 6 4

´ 2. FUNCIONES E INTERPOLACION

56

R2.16 Los siguientes datos se han obtenido en una experiencia para estudiar la relaci´on entre la cantidad de horas X dedicadas a la producci´ on de ciertos componentes electr´ onicos de precisi´ on y el n´ umero de componentes producidos Y . X Y

0 2

1 3

1 4

3 7

4 12

5 22

Real´ıcese un estudio de regresi´ on parab´ olica. Soluci´ on: Dispondremos los c´ alculos en la siguiente tabla.



=

xi 0 1 2 3 4 5 15

yi 2 3 4 7 12 22 50

x2i 0 1 4 9 16 25 45

x3i 0 1 8 27 64 125 225

x4i 0 1 16 81 256 625 979

x i yi 0 3 8 21 48 110 190

El sistema de ecuaciones normales es



50 190 824

= = =

6 b0 + 15 b1 + 45 b2 15 b0 + 45 b1 + 225 b2 45 b0 + 225 b1 + 979 b2

Resolviendo el anterior sistema se obtiene b0 ≈ 1.75

b1 ≈ 1.12

b2 ≈ 0.5

y, en consecuencia, la ecuaci´ on de la par´ abola ser´ a y = 1.75 + 1.12x − 0.5x2 .

x2i yi 0 3 16 63 192 550 824

57

Cap´ıtulo 3

SISTEMAS DE ´ NUMERACION La mejora de la comunicaci´ on humana exig´ıa, entre otras cosas, que el hombre acordara una forma de contabilizar las cosas. Con el nacimiento del comercio, los sistemas de numeraci´on pasan a tener una importancia fundamental. Claramente, la importancia del sistema decimal radica en que su utilizaci´ on se ha universalizado para representar cantidades. Pero, por otra parte, el sistema binario es fundamental para entendernos con los ordenadores (o con cualquier sistema digital). Esto motiva que muchas veces los valores decimales tengan que convenirse en valores binarios para comunicarnos con el ordenador y que en otras ocasiones los valores binarios del ordenador tienen que pasarse a valores decimales para una mejor comprensi´on. Hay otros dos sistemas de numeraci´on que encuentran amplias aplicaciones en sistemas digitales: El sistema octal o de base 8 y el sistema hexadecimal o de base 16. Dichos sistemas (que como veremos pueden convertirse f´ acilmente al binario y rec´ıprocamente) se usan para optimizar la representaci´on de n´ umeros binarios grandes.

3.1

´ SISTEMA DE NUMERACION

Sistema de numeraci´on es cualquier conjunto de reglas que permite la representaci´on de todos los n´ umeros (naturales) mediante signos. Nuestro sistema habitual, el decimal, utiliza los n´ umeros (d´ıgitos) 0, 1, 2, . . . , 9 y lo hace de manera que el valor de cada d´ıgito depende de su posici´on en una secuencia ordenada. As´ı, si representamos m por as as−1 . . . a1 a0 en el sistema

´ 3. SISTEMAS DE NUMERACION

58 decimal, entonces

m = as 10s + as−1 10s−1 + · · · + a1 10 + a0 y esta escritura es u ´nica si suponemos que todas las cifras son significati´ltima afirmaci´on no es exclusiva del sistema vas, esto es, as = 0. Esta u de numeraci´ on decimal; en efecto, se puede demostrar, utilizando la divisi´on eucl´ıdea, el siguiente teorema

3.1.1

Teorema fundamental de la numeraci´ on

Sea b un n´ umero (natural) distinto de cero. Todo n´ umero m se puede escribir como combinaci´ on lineal de potencias de b en la forma u ´nica m = as bs + as−1 bs−1 + · · · + a1 b + a0 ,

(3.1)

umeros menores que b, con as = 0. En tal caso siendo as , as−1 , . . . , a1 , a0 n´ la representaci´ on de m en base b es as as−1 . . . a1 a0 (b En la secci´ on 3.1.4 ofrecemos un algoritmo para encontrar los coeficientes ai . En casos sencillos, estos coeficientes se determinan de izquierda a derecha, eligiendo el mayor valor posible para ai entre 0, 1, 2, . . . , b − 1.

3.1.2

Ejemplo

(a) Deseamos escribir 65 en base 3. En base 3, cada unidad tiene el valor que muestra el siguiente esquema 34 33 32 31 30 En nuestro caso, es sencillo observar que s´olo nos interesan las 4 casillas de la derecha cuyos valores son 27 9 3 1 Los posibles coeficientes a utilizar vienen dados por: 0, 1, 2. Se tiene que 65 = 2 · 27 + 1 · 9 + 0 · 3 + 2 · 1. Por tanto 65 = 2102(3 (b) Deseamos conocer qu´e n´ umero (decimal) m es el n´ umero 21002(3 . Seg´ un (3.1) se tiene m = 2 · 34 + 1 · 33 + 0 · 32 + 0 · 31 + 2 · 30 = 2 · 81 + 27 + 2 = 191.

´ 3.1. SISTEMA DE NUMERACION

3.1.3

59

Nota

Obs´ervese que la escritura de bs en base b es 10 · · · 0 con s d´ıgitos que son ceros. De ello se desprende que si m verifica bs−1 ≤ m < bs , entonces m posee s d´ıgitos significativos al escribirse en base b. No obstante m se puede escribir con m´ as d´ıgitos pues de (3.1) se desprende que as . . . a1 a0(b = 0 . . . 0 as . . . a1 a0(b . Obviamente as . . . a1 a0(b = as . . . a1 a0 0(b , pues este u ´ltimo n´ umero es as · bs+1 + · · · + a0 · b + 0, que no coincide con (3.1).

3.1.4

Algoritmo para escribir un n´ umero en base b Escribimos (3.1) en la forma Ä

ä

m = b · as bs−1 + · · · + a2 b + a1 + a0 Es obvio que a0 es el resto de la divisi´on eucl´ıdea de m entre b. Llamemos m1 al cociente de dicha divisi´on, i.e. m1 = as bs−1 + · · · + a2 b + a1 . Es obvio que a1 es el resto de dividir m1 entre b. De esta forma se van obteniendo a2 , . . . , as−1 hasta llegar a obtener as que, en este caso, es el primer cociente menor que b obtenido.

3.1.5

Ejemplo Apliquemos el algoritmo anterior para escribir 903 en base 5. 903 5 40 180 3 30 0

5 36 1

5 7 5 2 1

En consecuencia 903 = 12103(5

3.1.6

Aritm´ etica con n´ umeros en base b

Se pueden hacer operaciones con n´ umeros en base b con tal de reescribirlos en el sistema decimal, hacer el c´ alculo propuesto en dicho sistema y despu´es se reescribe el resultado en la base b. No obstante el lector puede idear sencillos algoritmos o reglas pr´acticas para hacer operaciones con n´ umeros en base b (que se denoten como en el caso decimal) imitando las reglas decimales. Las dos secciones siguientes son s´olo un ejemplo. Se recomienda al lector verificar la coincidencia de resultados si se traslada el c´ alculo al campo decimal.

´ 3. SISTEMAS DE NUMERACION

60

3.1.7

Ejemplo

Efectuemos 31021(4 + 22331(4 . Por imitaci´on del caso decimal (y que el lector argumentar´a) se tiene

+

3.1.8

3 1 0 2 1(4 2 2 3 3 1(4 1 2 0 0 1 2(4

Regla del producto por la unidad seguida de ceros

Sean as as−1 · · · a1 a0 (b y 1 0 · · · 0(b , con r ceros, en el sistema de base b. Se tiene as as−1 · · · a1 a0 (b · 1 · · · 0(b = as as−1 · · · a1 a0 0 · · · 0 0 0(b con r ceros a la derecha. 



En efecto, as · bs + as−1 · bs−1 + · · · a1 ·b +a0 · br = as · bs+r + as−1 · bs+r−1 + · · · + a0 · br = as as−1 . . . a0 0 . . . 0b) con r ceros.

3.1.9

Ejemplo Deseamos hacer el producto 1211(3 × 34 . Como 34 = 10000(3 , entonces 1211(3 × 34 = 1211(3 × 10000(3 = 12110000(3

3.1.10

Expresi´ on de n´ umeros racionales en base b

Por analog´ıa al caso decimal, la notaci´ on 0.c1 c2 c3 . . .(b simboliza el 1 1 1 n´ umero decimal c1 · b + c2 · b2 + c3 · b3 + · · · o si se desea c1 · b−1 + c2 · b−2 + c3 · b−3 + · · · con ci menores que b. Por lo tanto b−k , si k es positivo se representa por 0.0 . . . 0 1(b con k ceros. on por b−k . La divisi´ on por bk equivale a la multiplicaci´

3.1.11

Ejemplo

Veamos a qu´e n´ umero decimal corresponde 204.201(5 . De una parte, 204(5 = 2·52 +4 = 54. Por otra parte, 0.201(5 = 2·5−1 +1·5−3 = 0.408. Por tanto, 204.201(5 = 54.408.

´ USADOS EN COMPUTACION ´ 3.2. SISTEMAS DE NUMERACION

3.1.12

61

Productos con el factor bk en el sistema base b

Recordemos que bk es de la forma 1 0 . . . 0(b ´o 0.0 0 . . . 1(b , seg´ un sea k positivo o negativo, respectivamente. El producto o cociente de un n´ umero en base b por la unidad seguida (o antecedida) de ceros sigue las mismas reglas que en el sistema decimal. Vamos a probar nuestra u ´ltima afirmaci´ on en un caso particular. Deseamos ejecutar en el sistema base b la divisi´on m(b : 1 0 . . . 0(b con k ceros. Supongamos m(b = as . . . ak . . . a1 a0 .c1 c2 c3 (b , y supongamos, para m´as sencilez que 1 ≤ k < s. El n´ umero m(b en el sitema decimal es m(b = as · bs + · · · + ak · bk + · · · + a1 · b + a0 + c1 · b−1 + c2 · b−2 + c3 · b−3 Al efectuar m(b : 1 0 0 · · · 0(b estamos multiplicando m(b por b−k y por tanto se tiene: as ·bs−k +· · ·+ak +ak−1 ·b−1 +· · · a1 ·b1−k +a0 ·b−k +c1 ·b−(k+1) +c2 ·b−(k+2) +c3 ·b−(k+3) es decir, se ha obtenido as as−1 · · · ak . ak−1 · · · a1 a0 c1 c2 c3 (b .

Vulgarmente se dice que la coma ha corrido k lugares hacia la izquierda.

3.1.13

Ejemplo 102.1(3 · 100(3 = 10210(3 0.24(5 : 100(5 = 0.0024(5

3.2

´ USADOS EN SISTEMAS DE NUMERACION ´ COMPUTACION

Los sistemas de numeraci´on usados en computaci´ on son los de base 2 (binario), base 8 (octal) y base 16 (hexadecimal o, abreviado, hexa).

3.2.1

El sistema binario

El hardware de las computadoras utiliza el sistema binario . Sus d´ıgitos, 0 y 1, se denominan bits y representan los dos niveles de voltaje (0 “apagado” , 1 “encendido”). El bit es la unidad binaria de informaci´on, y es la m´as peque˜ na que se puede procesar o almacenar. Para medir la cantidad de informaci´on representada en binario se utilizan los siguientes m´ ultiplos del bit: Byte son 8 bits (generalmente, pero su tama˜ no puede depender del c´ odigo de caracteres):

´ 3. SISTEMAS DE NUMERACION

62

1024 Bytes = 1 KB (Kilobyte). Por ejemplo un archivo de texto plano (.txt) ocupa del orden de 20 KB. 1024 KB =1 MB (Megabyte). Por ejemplo un archivo de m´ usica (.mp3) ocupa del orden de 3 MB. 1024 MB = 1 GB (Gigabyte). Por ejemplo una pel´ıcula DivX ocupa del orden de 1 GB. 1024 GB = 1 TB (Terabyte). Por ejemplo, aproximadamente 800 pel´ıculas ocupan del orden de 1 TB. 1024 TB = 1 PB (Petabyte). Por ejemplo, toda la informaci´ on de Google ocupa entre 1-2 PB. 1024 PB = 1 EB (Exabyte). Por ejemplo, todo Internet ocupa del orden de 200-300 EB 1024 EB=1 ZB (Zettabyte). No hay un ejemplo real para 1 ZB. 1024 ZB=1 YB (Yottabyte).

Como se desprende de las secciones 3.1.1 y 3.1.10, el valor posicional de cada unidad en el sistema binario antes y despu´es del punto es: 24 23 22 21 20 . 2−1 2−2 2−3 Las operaciones en sistema binario son sencillas y ofrecen curiosidades como el siguiente ejemplo.

3.2.2

Ejemplo Efectuemos la suma de los n´ umeros 31 y 1, en sistema binario.

No recurrimos al algoritmo de la secci´ on 3.1.4 dado que es inmediato que 31 = 16 + 8 + 4 + 2 + 1, es decir 31 = 11111(2 . Tambi´en 1 = 1(2 . As´ı pues: 1 1 1 1 1(2 + 1(2 1 0 0 0 0 0(2 El lector observar´a que 100000(2 se corresponde con el n´ umero decimal 32.

3.2.3

Escritura de un decimal en el sistema binario con k cifras exactas

Sea un n´ umero real m, con 0 < m < 1. Para escribir m en binario con k cifras exactas, k ≥ 1, proponemos el siguiente m´etodo. î

ó

Calculamos la parte entera de m · 2k , denotada E m · 2k . Hacemos î ó un la secci´ on la divisi´on E m · 2k (2 : 1 0 . . . 0(2 con k ceros, en binario. Seg´

´ USADOS EN COMPUTACION ´ 3.2. SISTEMAS DE NUMERACION

63

3.1.12, el punto se desplaza k lugares a la izquierda poniendo de manifiesto los on k primeros d´ıgitos de m. En el caso de que m · 2k sea entero, la representaci´ final en binario es exacta. Justificaci´ on del m´etodo: como m · 2k < 2k , entonces la parte entera de m · 2k  tiene a lo sumo k d´ıgitos no nulos. Supongamos que E m · 2k (2 = ak−1 . . . a1 a0 (2 . Entonces m · 2k (2 = ak−1 . . . a1 a0 d(2 (3.2) donde d es su parte no entera, que ignoramos. Al dividir (3.2) por 2k (es decir 1 0 . . . 0(2 con k ceros) se obtiene m que en binario, seg´ un la secci´on 3.1.12, es 0.ak−1 . . . a0 . . . con los k primeros d´ıgitos exactos. En el caso de que m·2k fuera entero, la expresi´on final binaria es exacta puesto que d no existe.

3.2.4

Ejemplo

(a) Vamos a escribir 14.5627 en binario con 4 d´ıgitos exactos. omo se escribe en binario Sabemos que 14 = 1110(2 . Veamos ahora c´ 0.5627. Efectuamos 0.5627 · 24 = 9.0032. Se tiene E [9.0032] = 9. Obviamente 9 = 1001(2 . Efectuamos 1001(2 : 10000(2 = 0.1001(2 . En consecuencia 0.5627 = 0.1001 . . . (los siguientes d´ıgitos se desconocen). Finalmente, 14.5627 = 1110.1001 . . . (2 . (b) Escribamos 14.375 en binario con 3 d´ıgitos exactos. Veamos c´omo se escribe 0.375 en binario. Efectuamos 0.375 · 23 = 3. Se tiene E [3] = 3 (por lo que la expresi´ on que se obtendr´ a ser´ a exacta). Obviamente 3 = 11(2 . Efectuamos 11(2 : 1000(2 = 0.011(2 . En consecuencia 14.375 = 1110.011(2 .

3.2.5

Escritura de un decimal en sistema binario

Con una argumentaci´ on que omitimos se puede sistematizar la conversi´ on de un decimal menor que uno a un n´ umero binario como se describe a continuaci´ on. Si x es un n´ umero decimal menor que 1, entonces x admite la escritura obvia x = 0.d donde d es la parte decimal de x. Se halla el producto (decimal) 2x cuyo resultado se puede escribir como 2x = 2·0.d = a1 .d1 , donde a1 es entero y d1 la parte decimal del producto obtenido. Se halla ahora el a escribir, al igual que antes, como a2 .d2 donde producto 2 · 0.d1 que se podr´ a2 es un entero y d2 la parte decimal del producto obtenido. Se halla ahora

´ 3. SISTEMAS DE NUMERACION

64

el producto 2 · 0.d2 que se escribir´ a como a3 .d3 como antes y as´ı se va repitiendo el proceso. La expresi´on de x en binario es entonces 0.a1 a2 a3 . . . . Esta expresi´on se termina obteniendo una representaci´ on finita cuando aparece un di nulo o cuando se alcanza el m´aximo n´ umero de d´ıgitos representables.

3.2.6

Los sistemas octal y hexadecimal

Los sistemas octal y hexadecimal se utilizan en el entorno de los ordenadores por su facilidad de conversi´on al sistema binario y tambi´en por el ahorro que se obtiene en la representaci´ on de n´ umeros grandes. Para el sistema octal se utilizan los d´ıgitos 0, 1, 2, 3, 4, 5, 6 y 7. Para el sistema hexadecimal se utilizan los d´ıgitos 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D, E y F , donde A = 10, B = 11, C = 12, D = 13, E = 14 y F = 15. Como ejemplo, el valor posicional de cada unidad en el sistema octal es 84

3.2.7

83

82

81

80 . 8−1

8−2

8−3

8−4

Conversi´ on de un n´ umero binario a los sistemas octal o hexadecimal

Para convertir un n´ umero entero binario en octal, basta separar los d´ıgitos en bloques de 3, empezando por la derecha (el u ´ltimo se completa, si es necesario, con ceros). Al escribir el valor decimal de cada bloque (que no puede exceder de 7) de manera ordenada, se obtiene el n´ umero en base 8. Si el n´ umero binario posee parte no entera se procede igual, empezando por el punto, de izquierda a derecha. Para pasar un n´ umero del sistema octal al binario se procede al rev´es, esto es, cada d´ıgito del octal se expresa en forma de terna del binario. Para la conversi´ on de un n´ umero binario en hexadecimal (y viceversa) se procede como en el caso octal, pero ahora los bloques son de 4 d´ıgitos. Vamos a justificar la conversi´ on dada de un n´ umero binario al pasar al sistema octal, cuando es entero, en un caso sencillo. Sea el n´ umero binario a8 a7 a6 . . . a1 a0(2

(3.3)

en donde a7 y a8 podr´ıan ser ceros. La expresi´on (3.3) se puede escribir como sigue:       a8 · 22 + a7 · 2 + a6 · 26 + a5 · 22 + a4 · 2 + a3 · 23 + a2 · 22 + a1 · 2 + a0 (3.4)  2 Ahora bien, como 26 = 23 = 82 y 23 = 8, entonces (3.4) se escribe en octal con tres d´ıgitos como (a8 · 22 + a7 · 2 + a6 ) (a5 · 22 + a4 · 2 + a3 ) (a2 · 22 + a1 · 2 + a0 )(8 .

65

3.3. UN POCO DE HISTORIA

3.2.8

Ejemplo

Vamos a escribir el n´ umero binario 10111101.1011(2 en octal y despu´es en hexadecimal. Los bloques con 3 d´ıgitos del n´ umero dado son 010

111

101

↓ 2

↓ 7

↓ 5

.

101

100

↓ 5

↓ 4

(2

Si reemplazamos cada bloque por su valor octal (o decimal) se obtiene su expresi´on octal: 275.54(8 . De manera an´aloga, los bloques con 4 d´ıgitos son 1011

1101

↓ 11

↓ 13

.

1011 ↓ 11

(2

Se obtienen los valores 11, 13 y 11 para los bloques, que corresponden a B D B(16 .

3.3

UN POCO DE HISTORIA Hace alrededor de 5000 a˜ nos, en la antigua Babilonia, la hora ya se divid´ıa en 60

minutos y cada minuto en 60 segundos. Se trata del sistema sexagesimal que los babilonios empleaban tambi´en para representar n´ umeros. Eran n´ umeros en base 60 que necesitaban de 59 signos para su representaci´ on, algunos de los cuales se construyen a partir de otros m´ as simples, siguiendo una l´ ogica posicional. De hecho se considera un sistema mixto de las bases 10 y 60 (ver figura adjunta).

´ 3. SISTEMAS DE NUMERACION

66

No exist´ıa signo para el 0, que se representaba mediante un espacio vac´ıo, lo cual supuso una dificultad para los arque´ ologos a la hora de interpretar los numeros babil´ onicos. La notaci´ on posicional puso de manifiesto la necesidad de establecer el concepto de cero, que naci´ o mucho m´ as tarde, en la India, en el siglo VII a.C. Otro tipo de sistemas num´ericos no posicionales, como el de los n´ umeros romanos, pueden parecer inicialmente m´ as f´ aciles de interpretar, pero complican operaciones aritm´eticas sencillas y la representaci´ on de n´ umeros grandes. La adopci´ on de sistemas num´ericos posicionales facilit´ o el avance de la aritm´etica y el a ´lgebra. El valor de los sistemas posicionales se aprecia tambi´en a la hora de manejar numeros grandes. De hecho, los escribas de Babilonia pod´ıan expresar todos los n´ umeros inferiores a 216000 = 603 con s´ olo, a lo sumo, dos s´ımbolos y uno o dos espacios. El sistema m´ as extendido, el de base 10, debe su general implantaci´ on a razones biol´ ogicas. El hecho de que el hombre tenga 10 dedos, que le sirven de ayuda en los c´ alculos sencillos, lleva de forma natural a utilizar el sistema en base 10.

3.4

EJERCICIOS RESUELTOS

R3.1 (i) Escribe 10 y 11 en base 2.

(ii) Escribe 10 y 11 en base 3.

Soluci´ on: (i) Las potencias de 2 son: 1, 2, 4, 8, . . . , y los d´ıgitos a utilizar son: 0 y 1. 10 = 8 + 2. Por tanto 10 = 1010(2 . 11 = 8 + 2 + 1. Por tanto 11 = 1011(2 . (ii) Las potencias de 3 son: 1, 3, 9, 27, . . . , y los d´ıgitos a utilizar son: 0, 1, y 2. 10 = 9 + 1. Por tanto 10 = 101(3 . 11 = 9 + 2. Por tanto 11 = 102(3 .

R3.2 Escribe el n´ umero 1101011(2 en base 8. Soluci´ on:

Convirtamos el n´ umero dado en decimal:

1101011(2 = 1 · 26 + 1 · 25 + 0 · 24 + 1 · 23 + 0 · 22 + 1 · 2 + 1 = 107 Escribamos 107 en base 8. Las potencias de 8 son: 1, 8, 64, 512, . . . , y los d´ıgitos a utilizar son: 0, 1, 2, 3, . . . , 6 y 7. Se tiene 107 = 64 + 5 · 8 + 3. Por tanto 107 = 153(8 . (Para la conversi´ on de 107 a base 8, el lector puede utilizar el algoritmo de la secci´ on 3.1.4 o, alternativamente, el de la secci´ on 3.2.7)

R3.3 Escribe 4231 en base 8. Soluci´ on:

Usamos el algoritmo de la secci´ on 3.1.4. 4231 23 71 7

En consecuencia, 4231 = 10207(8 .

8 528 48 0

8 66 2

8 8 0

8 1

67

3.4. EJERCICIOS RESUELTOS

R3.4 Idea un algoritmo para que, en base 4, efect´ ue la suma 31021(4 + 22331(4. Soluci´ on:

Por analog´ıa al caso decimal: 3 1 0 2 1(4 + 2 2 3 3 1(4 1 2 0 0 1 2(4

R3.5 Idea un algoritmo para que realice el producto 1101(2 · 11(2 , en base 2. Soluci´ on:

Por analog´ıa al caso decimal: 1

1

1 × 1 0 1

1 1 0

1 0

0 1 0 1 1

1(2 1(2 1 1(2

R3.6 Demuestra que, para k ≥ 1 se tiene 2k + 2k−1 + · · · + 2 + 1 = 2k+1 − 1. Soluci´ on: El enunciado se puede escribir (2k + 2k−1 + · · · + 2 + 1) + 1 = 2k+1 , y esto es obvio si escribimos dicha expresi´ on en sistema binario, pues 2k +2k−1 +· · ·+2+1 = 1 1 . . . 1(2 con k + 1 unos y, por tanto: + 1

1

1

...

0

0

...

1(2 1(2 0(2

con k + 1 ceros en el resultado de la suma, que es el n´ umero 2k+1 .

R3.7 Representa en el sistema binario, con 4 d´ıgitos despu´es del punto, los n´ umeros reales: (i) 14.375 (ii) 14.5627, utilizando el algoritmo de la secci´on 3.2.5 (compara con el Ejemplo 3.2.4). Soluci´ on: (i) Primero se obtiene la expresi´ on binaria del entero 14 como 1110. Su parte decimal 0.375 se convierte en binario como sigue: 2 · 0.375 = 0.75 2 · 0.75 = 1.5 2 · 0.5 = 1

por lo que a1 = 0, d1 = 75, por lo que a2 = 1, d2 = 5, por lo que a3 = 1, d3 = 0.

Por tanto 0.375 se representa de forma exacta en binario como 0.011. En consecuencia, el n´ umero decimal 14.375 en binario se escribe como 1110.011. (ii) La parte decimal 0.5627 del segundo n´ umero se convierte en binario como sigue: 2 · 0.5627 2 · 0.1254 2 · 0.2508 2 · 0.5016

= 1.1254 = 0.2508 = 0.5016 = 1.0032

por por por por

lo lo lo lo

que que que que

a1 a2 a3 a4

= 1, = 0, = 0, = 1,

d1 d2 d3 d4

= 1254, = 2508, = 5016, = 0032

y as´ı sucesivamente. Por tanto, 0.5627 es 0.1001 . . . en binario. En consecuencia el n´ umero decimal 14.5627 se escribe en binario como 1110.1001 . . .

´ 3. SISTEMAS DE NUMERACION

68

R3.8 Representa en binario los n´ umeros reales 5.75 y 10.82 con 3 y 4 d´ıgitos exactos detr´as del punto, respectivamente. Soluci´ on:

Aplicamos el algoritmo de la secci´ on 3.2.3.

Se tiene 0.75 · 23 = 6, que es entero. Obviamente 6 = 110(2 . Calculemos 110(2 : 1000(2 = 0.110(2 . Por tanto 0.75 = 0.11(2 exacto. As´ı pues, como 5 = 101(2 , se tiene que 5.75 = 101.11(2 . Por otra parte, 0.82 · 24 = 13.1, E [13.1] = 13. Obviamente 13 = 1101(2 . Calculemos 1101(2 : 10000 = 0.1101. Por tanto 0.82 = 0.1101(2 . As´ı pues, como 10 = 1010(2 , se tiene que 10.82 = 1010.1101 . . .(2 , con 4 d´ıgitos exactos detr´ as del punto.

R3.9 Escribe el n´ umero 4231 en binario a trav´es de su representaci´on octal (ejercicio R3.3). De la representaci´on binaria, deduce la representaci´ on hexadecimal de 4231. Soluci´ on: 4231 = 10207(8 . Consideremos cada d´ıgito del n´ umero en el sistema octal como un n´ umero decimal y lo escribimos en binario en bloques de 3: 1 ↓ 001

0 ↓ 000

2 ↓ 010

0 ↓ 000

7 ↓ 111

As´ı pues, 1207(8 = 1000010000111(2 . Ahora, para obtener la expresi´ on de 4231 en hexadecimal, a partir de la binaria procedemos a la inversa. Escogemos bloques de 4 d´ıgitos de derecha a izquierda y traducimos su expresi´ on binaria a hexadecimal en cada bloque, como se indica a continuaci´ on: 0001 0000 1000 0111 ↓ ↓ ↓ ↓ 1 0 8 7 Por tanto, 4231 = 1087(16

R3.10

(i) Escribe 538 en base hexadecimal. (ii) Deduce de (i) la expresi´on de 538 en binario. (iii) Deduce de (ii) la expresi´on de 538 en octal. Soluci´ on:

Utilizaremos el algoritmo de la secci´ on 3.1.4 para (i)

(i) 538 058 10

16 33 1

16 2

Por tanto, 538 = 21A(16 , dado que 10 = A en hexadecimal. (ii) Consideremos cada d´ıgito de la expresi´ on octal como un n´ umero decimal y lo escribimos en binario en bloques de 4 como sigue: 2 ↓ 0010 Por tanto, 538 = 1000011010(2 .

1 ↓ 0001

A ↓ 1010

69

3.4. EJERCICIOS RESUELTOS

(iii) Para obtener la expresi´ on octal haremos bloques de 3 en la expresi´ on binaria, de derecha a izquierda y escribiremos en decimal el valor del n´ umero binario de cada bloque, como se muestra a continuaci´ on 001 ↓ 1 Por tanto, 538 = 1032(8 .

000 ↓ 0

011 ↓ 3

010 ↓ 2

71

Cap´ıtulo 4

ESPACIOS VECTORIALES La estructura de espacio vectorial es frecuente en matem´aticas. A partir ´ de ella se crea la llamada Algebra Lineal. Su conocimiento facilita el desarrollo de la teor´ıa de matrices y sistemas de ecuaciones lineales, tan necesaria en todos los campos de la ciencia. Un ejemplo f´ısico-geom´etrico sencillo de la estructura de espacio vectorial lo encontramos en la teor´ıa de vectores libres en el plano o espacio. ´ El lector deber´a prestar especial atenci´on a la notaci´ on en el Algebra 2 uedad, la recta Lineal. As´ı, la ecuaci´ on x − y = 0 en R define, sin ambieg¨ 2 on x − y = 0 sin contexto r = {(x, y) ∈ R : x − y = 0}. Sin embargo la ecuaci´ determinado, carece de sentido. En efecto, puede ser, por ejemplo, el plano π = {(x, y, z) ∈ R3 : x − y = 0}, que se puede denotar π ≡ x − y = 0.

4.1 4.1.1

ESPACIOS VECTORIALES El espacio vectorial Rn

Sean a = (a1 , a2 , . . . , an ) y b = (b1 , b2 , . . . , bn ) elementos de Rn y sea λ ∈ R. Definimos la siguiente ley interna, +, denominada suma, en Rn a + b = (a1 , a2 , . . . , an ) + (b1 , b2 , . . . , bn ) = (a1 + b1 , a2 + b2 , . . . , an + bn ). Esta ley es asociativa y conmutativa. Adem´as (0, 0, , . . . , 0), denominado elemento nulo, y denotado 0, es el neutro de la suma (es decir a+ 0 = 0 + a = a, para cualquier a ∈ Rn ). Todo elemento a tiene su opuesto, se escribe −a, que es (−a1 , −a2 , . . . , −an ). Por todo ello (Rn , +) es un grupo conmutativo. Definimos ahora una ley externa · : R × Rn → Rn como sigue: λ · (a1 , a2 , . . . , an ) = (λ · a1 , λ · a2 , . . . , λ · an ).

72

4. ESPACIOS VECTORIALES

Esta ley cumple las siguientes propiedades 1. α · (β · a) = (α · β) · a 2. (α + β) · a = α · a + β · a 3. α · (a + b) = α · a + α · b 4. 1 · a = a donde α, β, denotan, como es usual, a n´ umeros reales, mientras que las letras n latinas a, b denotan elementos de R . Cuando se dispone de un grupo conmutativo (V, +) y de una ley externa que cumple las propiedades 1-4, se dice que (V, +) es un espacio vectorial sobre el cuerpo de los reales, o simplemente que V es un espacio vectorial real. La estructura de espacio vectorial se presenta con mucha frecuencia en F´ısica y Matem´ aticas. Por esta raz´on, los conceptos y propiedades que se establecer´ an en este cap´ıtulo no se remitir´an s´ olo a Rn sino a un espacio vectorial V cualquiera. Como es usual, a los n´ umeros reales los representaremos mediante letras griegas, y suelen denominarse escalares. A los elementos de V se les llama vectores y se les representa por letras latinas; algunos autores les superponen flechas, pero nosotros los escribiremos con negrita. Es tambi´en usual llamar a los elementos de Rn puntos. Denominaremos plano y espacio (cartesianos) a los espacios vectoriales R2 y R3 , respectivamente.

4.1.2

Representaciones geom´ etricas

La suma algebraica antes definida en el caso particular del plano tiene la siguiente interpretaci´on geom´etrica: Representemos el vector (a, b) ∈ R2 por un segmento orientado (flecha) que parte del origen (0, 0) y tiene su extremo en (a, b). Entonces, si u, v ∈ R2 , el vector u + v se corresponde con la diagonal del paralelogramo que puede construirse con u y v. Por otra parte, para λ = 0, λ u es un vector de longitud |λ| veces la de u, de igual direcci´on que u y que, adem´ as, tiene el mismo sentido que u si λ > 0. V´ease la figura siguiente en donde se muestra la suma de vectores en R2 a la izquierda, y el producto de escalar por vector a la derecha.

73

4.1. ESPACIOS VECTORIALES

u = (4, 1), v = (2, 3), u + v = (6, 4).

u = (4, 2), 12 u = (2, 1), −u = (−4, −2).

Las interpretaciones geom´etricas en el espacio son similares. En lo que sigue de este cap´ıtulo, (V, +) es un espacio vectorial real y 0 su elemento nulo.

4.1.3

Subespacios vectoriales

Sea H un subconjunto no vac´ıo de V . Si (H, +) es un espacio vectorial, entonces se dice que H es un subespacio vectorial (o simplemente subespacio si no hay posibilidad de confusi´ on) de V . Si G y H son subespacios de V , entonces G ∩ H tambi´en es subespacio de V . {0} tambi´en es un subespacio de V , denominado subespacio impropio (s´olo tiene inter´es te´orico). Los dem´as subespacios de V (excluyendo el {0} y el propio V ) son los subespacios propios. Los subespacios de Rn se pueden definir mediante ecuaciones homog´eneas de primer grado o por sistemas de estas ecuaciones.

4.1.4

Subespacios de R2 y R3

Los u ´nicos subespacios propios de R2 son las rectas que pasan por el origen (rectas vectoriales). En R3 son las rectas y planos que pasan por el origen. Se invita al lector a que verifique geom´etricamente los axiomas de espacio vectorial recordando c´omo se efect´ ua en F´ısica la suma de vectores de igual direcci´ on. Si r es una recta del plano que no pasa por el origen (0, 0), entonces r no es subespacio dado que el elemento nulo 0 = (0, 0) no pertenece a r.

4.1.5

Combinaciones lineales

Sean v 1 , . . . , vn vectores de V y α1 , . . . , αn escalares de R. Al vector v obtenido en la ecuaci´ on vectorial v = α1 v 1 + · · · + αn v n se le denomina

74

4. ESPACIOS VECTORIALES

combinaci´ on lineal de v 1 , . . . , v n , y a los escalares α1 , . . . , αn se les llama coordenadas de v respecto (referidas a) v 1 , . . . , v n (en el orden precisado). Es f´ acil demostrar que el conjunto v 1 , . . . , v n  formado por todas las combinaciones lineales posibles de v 1 , . . . , v n , constituye un subespacio vectorial de V que obviamente contiene al vector nulo y a v i , i = 1, 2, . . . , n. Si v 1 , . . . , v n  = V se dice que v 1 , . . . , v n constituye un sistema generador de V , o que engendran V . Tambi´en se dice que V es de dimensi´ on finita. Evidentemente 0 = {0}. Se dice que dos sistemas o conjuntos de vectores son equivalentes si engendran el mismo espacio vectorial.

4.1.6

Rectas vectoriales en Rn

Si v es un vector no nulo de Rn , el subespacio v = {λ · v : λ ∈ R} se le denomina recta vectorial. Si v = (v1 , v2 , . . . , vn ), entonces un vector un λ ∈ R se verifica: x = (x1 , x2 , . . . , xn ) de Rn pertenece a v si para alg´ on vectorial de v) (x1 , x2 , . . . , xn ) = λ · (v1 , v2 , . . . , vn ) (ecuaci´

(4.1)

que equivale a escribir ⎧ ⎪ x1 ⎪ ⎪ ⎪ ⎨ x2 ⎪ ⎪ ⎪ ⎪ ⎩

= λ v1 = λ v2 .. .

(ecuaciones param´etricas de v)

(4.2)

xn = λ vn

y que admite la siguiente expresi´ on formal (pues carece de sentido si alg´ un vi es cero) x2 xn x1 = = ··· = (ecuaci´ on continua de v). (4.3) v1 v2 vn En el caso de R2 o R3 , a trav´es de (4.3) y por consideraciones elementales de geometr´ıa, se concluye que los puntos de v se caracterizan porque tienen la misma direcci´ on. Suele decirse que v es un vector director de la recta r = v. Es obvio que cualquier vector no nulo de v (y por tanto proporcional a v) es tambi´en vector director. Por otra parte λ · v tiene igual sentido que v si λ > 0, y sentido contrario si λ < 0.

75

4.1. ESPACIOS VECTORIALES

4.1.7

Ejemplo

(a) La ecuaci´ on vectorial de la recta r del plano R2 que tiene vector director v = (2, 1) es (x, y) = λ · (2, 1). Las ecuaciones param´etricas de r son ®

r≡

x = 2·λ y = λ

y x y la ecuaci´ on continua es r ≡ = , de la cual deducimos su ecuaci´on 2 1 x expl´ıcita y = . 2 El punto (vector) dado (6, 3) pertenece a r y tiene el sentido de v pues 3 6 (6, 3) = 3 · (2, 1), ´o tambi´en porque = (= 3). Sin embargo (4, 3) ∈ r 2 1 pues no verifica la ecuaci´ on continua de r. (En efecto, 42 = 31 ). (b) La ecuaci´ on vectorial de la recta s del espacio R3 que tiene vector director v = (−2, 0, 1) es (x, y, z) = λ·(−2, 0, 1). Las ecuaciones param´etricas de s son ⎧ ⎪ ⎨ x = −2 · λ y = 0 s≡ ⎪ ⎩ z = λ y z x = = (que en este caso tiene y la ecuaci´ on continua es s ≡ −2 0 1 sentido como reinterpretaci´ on de sus dos ecuaciones anteriores). El punto (vector) (6, 0, −3) pertenece a s y tiene sentido contrario a 6 = 00 = −3 v pues (6, 0, −3) = −3 · (−2, 0, 1) (o tambi´en −2 1 = −3, 0 si obviamos el cociente 0 que carece de sentido). Como (6, 1, −3) = λ · (−2, 0, 1), cualquiera que sea λ ∈ R, se tiene que (6, 1, −3) ∈ s. (c) Los vectores (1, 1, 1, 1), (−2, −2, −2, −2), (4, 4, 4, 4) est´ an en una misma 4 recta de R , por ejemplo en la engendrada por b = (1, 1, 1, 1). Sin embargo (1, 2, 2, 2) no pertenece a dicha recta pues, por ejemplo, 1 2 2 2 1 = 1 = 1 = 1 .

4.1.8

Interpretaciones geom´ etricas

Sencillos razonamientos geom´etricos nos llevar´ıan a observar que, si u y v son de distinta direcci´ on en R2 , entonces u, v = R2 . Si u y v son vectores de distinta direcci´ on en R3 , entonces u, v es un plano vectorial, esto es, un plano que pasa por el origen. En el caso en que u, v sea un plano vectorial de R3 , entonces si w∈ / u, v se concluye f´ acilmente que u, v, w = R3 .

76

4. ESPACIOS VECTORIALES

En las figuras siguientes, de izquierda a derecha se muestra la recta vectorial engendrada por el vector u; la recta vectorial engendrada por los vectores proporcionales u y v; el plano vectorial engendrado por los vectores de distinta direcci´ on u y v; y el espacio R3 engendrado por los vectores u, v y w.

v

u

u

4.1.9

u v

w u

=R3 v

Dependencia lineal

Sean v 1 , v 2 , . . . , v n vectores de V . A α1 v1 + · · · + αn vn = 0 se le llama combinaci´ on lineal nula. En particular 0 · v 1 + · · · + 0 · v n = 0 se la denomina trivial nula. Se dice que el sistema v 1 , v 2 , . . . , v n es ligado o linealmente dependiente si podemos encontrar una combinaci´on lineal no trivial nula entre ellos o, equivalentemente, si alg´ un vi es combinaci´ on lineal de los restantes. En caso contrario el sistema se denomina libre o linealmente independiente. De la definici´ on se desprende que {0} es siempre ligado. Adem´as {v} es libre si y s´ olo si v es no nulo. En el caso de dos vectores u, v no nulos es obvio que {u, v} es ligado si y s´olo si v = αu. En particular en Rn dos vectores u, v constituyen un sistema ligado si y s´ olo si u y v son proporcionales. En la figura siguiente se muestran un sistema ligado (a la izquierda) y otro libre en R2 (a la derecha). 3 2 1

1 1

2

1

2

Salvo casos particulares, saber si un sistema con tres o m´as vectores es o no ligado puede ser laborioso y se aconseja utilizar el m´etodo de Gauss (secci´ on 4.3).

77

4.2. BASE DE UN ESPACIO VECTORIAL

4.1.10

Ejemplos

(a) {(2, 1, −3), (4, 2, −6)} es un sistema ligado de R3 pues

1 −3 2 = = . 4 2 −6

Obs´ervese que si llamamos u = (2, 1, −3) y v = (4, 2, −6) se tiene v = 2u o equivalentemente 2u − v = 0.

(b) {(2, 1), (1, 3)} es un sistema libre de R2 pues

1 2

= . 1 3

(c) {(1, 2, 0, 0), (0, −1, 0, 1), (0, 1, 1, 1)} es un sistema libre de R4 pues la u ´nica soluci´ on de α(1, 2, 0, 0) + β(0, −1, 0, 1) + γ(0, 1, 1, 1) = (0, 0, 0, 0) es α = β = γ = 0. En ⎧ efecto: De α(1, 2, 0, 0) + β(0, −1, 0, 1) + γ(0, 1, 1, 1) = (0, 0, 0, 0) se tiene α = 0 ⎪ ⎨ 2α − β + γ = 0 , cuya u ´nica soluci´ on es α = β = γ = 0. γ = 0 ⎪ ⎩ β + γ = 0

4.1.11

Consecuencias

De las definiciones anteriores se deduce sin dificultad que: (a) Cualquier sistema de vectores que contiene un sistema ligado, es ligado. (b) Cualquier subconjunto de un sistema libre, es libre.

4.2 4.2.1

BASE DE UN ESPACIO VECTORIAL Base de un espacio vectorial Sea B = {v1 , v2 , . . . , vn } un conjunto de vectores de V .

Se dice que el conjunto B = {v1 , v2 , . . . , vn } de vectores de V es una base de V si cumple alguna de las siguientes dos propiedades (que son equivalentes). (a) B es libre y genera V (b) Cualquier vector de V se expresa, de manera u ´nica, como combinaci´on lineal de los elementos de B.

78

4.2.2

4. ESPACIOS VECTORIALES

Teorema de la dimensi´ on

El teorema de la dimensi´ on, en espacios vectoriales, establece que todas las bases de un espacio vectorial (de dimensi´ on finita) tienen el mismo n´ umero de elementos. Este n´ umero se denomina dimensi´ on del espacio vectorial V , y se escibe dim V . Como consecuencia, si dim V = n y disponemos de un conjunto de n vectores que es libre o generador, necesariamente constituyen una base de V .

4.2.3

Bases can´ onicas

Cualquier vector (x1 , . . . , xn ) de Rn se puede escribir de forma u ´nica como (x1 , . . . , xn ) = x1 (1, 0, . . . , 0) + · · · + xn (0, . . . , 0, 1) por lo que u1 = (1, 0, . . . , 0),. . . ,un = (0, . . . , 0, 1) es una base de Rn (n ≥ 2) denominada base can´ onica porque las componentes del vector coinciden con sus coordenadas respecto de dicha base. En consecuencia dim Rn = n. La base can´ onica de R2 es {u1 , u2 } donde u1 = (1, 0), u2 = (0, 1). Por ejemplo, el vector (4, 3) se escribe 4u1 + 3u2 .

La base can´ onica de R3 la forman los vectores u1 = (1, 0, 0), u2 = (0, 1, 0), u3 = (0, 0, 1) que se denominan, en ocasiones, i, j, k respectivamente. As´ı, el vector (3, 5, 7) de R3 se puede escribir 3u1 +5u2 +7u3 , o bien, 3i + 5j + 7k.

4.2.4

Teorema de la base incompleta

Sea V de dimensi´ on finita. Todo sistema libre de vectores de V se puede ampliar hasta conseguir una base de V . Como corolario se tiene que si H es un subespacio vectorial de V y dim H = dim V , entonces H = V .

4.3

´ DE GAUSS PROCESO DE REDUCCION

El proceso de reducci´on de Gauss es un sencillo algoritmo para obtener sistemas equivalentes, de forma que el u ´ ltimo de ellos se sabe por simple inspecci´ on si es o no libre. El siguiente lema es f´ acil de demostrar.

´ DE GAUSS 4.3. PROCESO DE REDUCCION

4.3.1

79

Lema

El conjunto de r vectores {(a11 , . . . , a1n ), (0, a22 , . . . , a2n ), . . . , (0, . . . , 0, arr , . . . , arn )} en Rn , con aii = 0 (i = 1, . . . , r), es un sistema libre en Rn .

4.3.2

Nota

Si tenemos r vectores en Rn que satisfacen el lema anterior y los escribimos uno debajo de otro en forma de tabla (o matriz), observaremos que los ceros est´an dispuestos en cascada por debajo de la diagonal a11 , . . . , arr : a11 a12 . . . 0 a22 . . . .. .. .. . . . 0 ... 0

a1r . . . a2r . . . .. .

a1n a2n .. .

arr . . .

arn

N´otese que si a los vectores anteriores a˜ nadimos componentes hacia la derecha consider´ andolos vectores de un espacio vectorial de dimensi´on superior, entonces continuar´ıan siendo linealmente independientes. Observaci´on: Seg´ un (b) de la secci´ on 4.1.11, si falta alg´ un vector fila el sistema contin´ ua siendo libre, pero la cascada se trunca para dar lugar a lo que se denomina matriz escalonada. As´ı, por ejemplo, {(1, 1, 1, 1, 1), (0, 0, 2, 1, 1), (0, 0, 0, 3, 1)} es un conjunto (de tres vectores) libre en R5 . 1 1 1 1 1 0 0 2 1 1 0 0 0 3 1 Un argumento similar nos llevar´ıa a demostrar que si la cascada de ceros aparece en sentido inverso y por encima de la diagonal, tambi´en el conjunto de vectores es libre. La afirmaci´ on se mantiene si reemplazamos diagonal por “diagonal secundaria”.

4.3.3

Ejemplo

El conjunto de vectores B = {(2, 3, 4, 1), (0, 3, 1, 0), (0, 0, 2, 1), (0, 0, 0, 3)} es libre y, por la secci´ on 4.2.2 es base de R4 . Por el apartado (b) de las Consecuencias 4.1.11 tambi´en es libre cualquier subconjunto propio de B, pero no puede constituir base de R4 .

80

4. ESPACIOS VECTORIALES

4.3.4

Proceso de reducci´ on de Gauss

En la pr´actica el proceso de reducci´ on de Gauss consiste en escribir n r vectores dados de R en forma de tabla y obtener sistemas equivalentes de forma met´odica hasta concluir con una cascada de ceros con las limitaciones que impone la Observaci´ on al final de la Nota 4.3.2. Para la consecuci´ on de los sistemas equivalentes, se aplican las tres operaciones elementales siguientes sobre los vectores fila: (a) Intercambio de vectores. (b) Producto de un vector por un escalar no nulo. (c) Suma a un vector el proporcional de otro vector. El sistema inicial es ligado sii durante el proceso de Gauss o al finalizar ´este, aparece alg´ un vector nulo. El m´etodo, en la pr´actica, admite variantes que se usan sin menci´ on (v´ease el u ´ltimo paso del Ejemplo 4.3.5). Resulta de utilidad (aunque no es imprescindible) anotar a la izquierda de los vectores cuantas tranformaciones realicemos. En particular, ello permite obtener una combinaci´on lineal nula (no trivial) de los vectores dados cuando el sistema es ligado, o bien conocer los vectores que pertenecen a la intersecci´on de dos subespacios.

4.3.5

Ejemplo

Nos preguntamos si el conjunto C = {e1 , e2 , e3 , e4 } es una base de R4 , donde e1 = (2, 4, −4, 2), e2 = (2, 5, 1, 0), e3 = (3, 8, −3, 2), e4 = (8, 22, 0, 2). Para ello se realizan los siguientes pasos del proceso de Gauss: e1 e2 e3 e4 e1 e2 e3 e4

= = = =

1 2 e1 =

(1, (2, (3, (8,

= = = e3 −2e2 = = e4 −6e2 =

2, −2, 1) 5, 1, 0) 8, −3, 2) 22, 0, 2)

(1, (0, (0, (0,

2, −2, 1) 1, 5, −2) 0, −7, 3) 0, −14, 6)

e1 e2 e3 e4

= = e2 −2e1 = = e3 −3e1 = = e4 −8e1 =

(1, (0, (0, (0,

e1 e2 e3 e 4

= = = = 2e3 −e4 =

(1, 2, −2, 1) (0, −1, −5, 2) (0, 0, 7, −3) (0, 0, 0, 0)

2, −2, 1) 1, 5, −2) 2, 3, −1) 6, 16, −6)

El conjunto C  = {e1 , e2 , e3 , e 4 } obtenido es equivalente a C. Como es ligado (puesto que contiene al vector nulo), podemos afirmar que C es ligado y, por tanto, no es base de R4 . C

´ DE GAUSS 4.3. PROCESO DE REDUCCION

81

Ahora bien, observando los ceros en cascada se tiene que B  = {e1 , e2 , e3 } es libre y, en consecuencia, tambi´en lo es {e1 , e2 , e3 }. Atendiendo al Teorema de la base incompleta 4.2.4, sabemos que podemos a˜ nadir  4 a B un vector e para conseguir una base de R . Este vector puede ser, por ejemplo, e = (0, 0, 0, 1) dado que {e1 , e2 , e3 , e} es libre por tener una cascada de ceros. En consecuencia, {e1 , e2 , e3 , e} es base de R4 . Finalmente, se puede deducir una combinaci´ on lineal nula, no trivial, = 0: de los vectores de C a partir de e 4       e 4 = 2e3 − e4 = 2(e3 − 2e2 ) − (e4 − 6e2 )

= 2e2 + 2e3 − e4 = 2(e2 − 2e1 ) + 2(e3 − 3e1 ) − (e4 − 8e1 ) = −2e1 + 2e2 + 2e3 − e4 = −e1 + 2e2 + 2e3 − e4 = 0

4.3.6

Suma de subespacios

Supongamos que G = v 1 , v 2 , . . . , v r  y H = e1 , e2 , . . . , es  son dos subespacios vectoriales de V . Se denomina suma de G y H al subespacio G + H = v 1 , v 2 , . . . , v r , e1 , e2 , . . . , es . Es f´acil observar que G + H lo forman vectores que son suma de un vector de G y otro de H. Se verifica que dim(G + H) = dim G + dim H − dim(G ∩ H).

4.3.7

Nota Si dim(G + H) = dim G + dim H, entonces se dice que la suma es directa, y se

escribe G ⊕ H. Ello sucede si y s´ olo si G ∩ H = {0}.

4.3.8

Ejemplo

Sean los subespacios G y H de R4 dados por G = {(x, y, x, 0) : x, y ∈ R} y H = {(0, 2y, 0, z) : y, z ∈ R}. Se tiene que G = {x(1, 0, 1, 0) + y(0, 1, 0, 0) : x, y ∈ R} = (1, 0, 1, 0), (0, 1, 0, 0) y H = {y(0, 2, 0, 0) + z(0, 0, 0, 1) : y, z ∈ R} = (0, 2, 0, 0), (0, 0, 0, 1). Obviamente, dim G = dim H = 2. Sabemos que G + H = (1, 0, 1, 0), (0, 1, 0, 0), (0, 2, 0, 0), (0, 0, 0, 1). Sin necesidad de utilizar el proceso de Gauss se observa que dim(G + H) = 3. As´ı pues, del resultado expuesto en la secci´on 4.3.6 se tiene 3 = 2+2−dim(G∩H) y por tanto dim(G ∩ H) = 1.

82

4.4

4. ESPACIOS VECTORIALES

UN POCO DE HISTORIA Podemos situar el nacimiento del concepto de vector en el a˜ no 1843, cuando el

matem´ atico, f´ısico y astr´ onomo irland´es William Hamilton (1805-1865) plante´ o un nuevo sistema de n´ umeros que extend´ıa el sistema de los n´ umeros complejos. Se trataba de los cuaternios. Mientras que un n´ umero complejo es de la forma a+bi, donde i es un objeto que satisface que que i2 = −1, un cuaternio es una expresi´ on de la forma a + bi + cj + dk con a, b, c, y d n´ umeros reales, y donde i, j y k son objetos que satisfacen ciertas reglas. Pronto se encontraron aplicaciones de los cuaternios, fundamentalmente en el campo de la F´ısica. Sin embargo los cuaternios eran elementos matem´ aticos dif´ıciles de manejar algebraicamente. A finales del siglo XIX, Josiah W. Gibbs (1839-1903) y Oliver Heaviside (1850-1925), f´ısicos nortemericano e ingl´es, respectivamente, hicieron m´ as accesible la manipulaci´ on de los cuaternios de Hamilton, tomando de ellos s´ olo la parte no real, bi + cj + dk. A estos objetos Gibbs los llam´ o vectores. Por otra parte, la primera formulaci´ on moderna (axiom´ atica) de espacio vectorial la plante´ o, a finales del siglo XIX, el matem´ atico italiano Giuseppe Peano (1858-1932).

4.5

EJERCICIOS RESUELTOS

R4.1 Sean los vectores u = (2, 0) y v = (1, 1) de R2 . (i) Halla los vectores 3 · u, 2 · v, −2 · v, y repres´entalos gr´ aficamente. (ii) Halla w = 3 · u − 2 · v. (iii) Construye geom´etricamente w y verifica que coincide con el resultado algebraico. Soluci´ on:

(i)

3·u 2·v −2 · v

= = =

3 · (2, 0) = (6, 0) 2 · (1, 1) = (2, 2) −2 · (1, 1) = (−2, −2)

(ii) w = 3 · (2, 0) − 2 · (1, 1)) = (6, 0) − (2, 2) = (4, −2) (iii)

R4.2 Aplica la definici´on para probar que B = {(−1, 1), (1, 3)} es un sistema libre (linealmente independiente) en R2 (y por lo tanto es una base de R2 ). Soluci´ on: Escribiremos la combinaci´ on lineal nula α · (−1, 1) + β · (1, 3) = (0, 0). De ella se desprende (−α, α) + (β, 3 β) = (0, 0),

es decir,

(−α, +β, α + 3 β) = (0, 0).

83

4.5. EJERCICIOS RESUELTOS

ß Por tanto,

−α + β α +3β

= =

0 , cuya u ´nica soluci´ on es α = 0, β = 0. 0

R4.3 Sea B = {e1 , e2 } una base de R2 , donde e1 = (−1, 1), e2 = (1, 3). Halla las coordenadas del vector w = (5, 7) respecto la base B y respecto la base can´onica. Soluci´ on: Hemos de escribir la combinaci´ on lineal, w = α · e1 + β · e2 para conocer las coordenadas α y β de w respecto B. Se tiene (5, 7) = α · (−1, 1) + β · (1, 3). Por tanto, (5, 7) = (−α, α) + (β, 3 β) = (−α + β, α + 3 β).

ß

Se tiene pues

5 7

= =

−α + β , cuya soluci´ on es α = −2 y β = 3. α +3β

Sin necesidad de hacer c´ alculos, las coordenadas de w respecto la base can´ onica son 5 y 7 (en efecto, (5, 7) = 5 · (1, 0) + 7 · (0, 1)).

R4.4 (Problema del cambio de base) Se dispone de dos bases B y C del plano, R2 , donde B = {e1 , e2 } y C = {v1 , v 2 }. Se sabe que v 1 = 2 · e1 − e2 y v 2 = e1 + 3 · e2 . Si un vector w de R2 tiene por coordenadas (2, −3) respecto C, entonces ¿qu´e coordenadas tiene w respecto B? Soluci´ on:

Del enunciado se desprende que w = 2 · v 1 − 3 · v 2 . Por tanto,

w = 2·v 1 −3·v 2 = 2·(2·e1 −e2 )−3·(e1 +3·e2 ) = 4·e1 −e2 −3·e1 −9·e2 = e1 −10·e2 Las coordenadas de w respecto B son (1, −10).

R4.5 Razona cu´ales de los siguientes sistemas de vectores de R3 son libres, y qu´e engendra cada uno de ellos: (i) S1 = {(1, 1, −2)}, S2 = {(−2, −2, 4)}, S3 = {( 12 , 12 , −1)}, S4 = {(1, 1, −2), (−2, −2, 4)}. (ii) S5 = {(1, 1, −2), (1, 3, 5)}, S6 = {(1, 1, −2), (−2, −2, 4) (1, 3, 5)}. (iii) S7 = {(1, 0, 0), (0, 1, 0), (1, 1, 1)}, S8 = {(1, 0, 0), (0, 1, 0), (1, 1, 1), (1, 2, 3)}. Soluci´ on: an formados por un vector no nulo). S4 (i) S1 , S2 y S3 son sistemas libres (est´ es un sistema ligado pues los dos vectores que lo forman son proporcionales 1 1 = −2 = −2 . −2 4 S1 engendra la recta vectorial con vector director (1, 1, −2) que se escribe (1, 1, −2). S2 y S3 engendran rectas vectoriales, que coinciden con (1, 1, −2) pues sus vectores directores son, como es f´ acil observar, proporcionales a (1, 1, −2). La ecuaci´ on vectorial de (1, 1, −2) es (x, y, z) = λ · (1, 1, −2), λ ∈ R, y su z . ecuaci´ on continua es x1 = y1 = −2 (ii) Los vectores de S5 no son proporcionales, por lo que S5 es un sistema libre y engendra un plano de ecuaci´ on vectorial (x, y, z) = α · (1, 1, −2) + β · (1, 3, 5), α, β ∈ R. S6 es ligado (linealmente dependiente) pues contiene dos vectores proporcionales, por lo que podemos prescindir de (−2, −2, 4), y S6 engendra el mismo plano que S5 .

84

4. ESPACIOS VECTORIALES

(iii) Como (1, 1, 1) no se encuentra en el plano que engendran (1, 0, 0) y (0, 1, 0) (es decir (1, 1, 1) no es combinaci´ on lineal de ambos), entonces S7 es libre y, por lo tanto, base de R3 . S8 engendra tambi´en R3 pero necesariamente (1, 2, 3) es combinaci´ on lineal de los restantes vectores. Es decir, S8 es ligado.

R4.6 Halla una base de cada uno de los siguientes subespacios vectoriales de R3 . Encuentra una ecuaci´on (o dos, seg´ un proceda) que defina dicho subespacio (lo cual puede utilizarse para reescribir el subespacio): (i) {(x, 0, 0) : x ∈ R} (iii) {(x, y, 0) : x, y ∈ R} (v) {(2y, y, 0) : y ∈ R}

(ii) {(0, y, 0) : y ∈ R} (iv) {(x, x, z) : x, z ∈ R} (vi) {(y + 2z, y, z) : y, z ∈ R}

Soluci´ on: (i) Cada vector del conjunto considerado se escribe de forma u ´nica como (x, 0, 0) = x(1, 0, 0), por lo que {(1, 0, 0)} es una base de dicho subespacio. Es f´ acil observar que todos los vectores del conjunto anterior tienen nulas la segunda y tercera componentes, en cambio, la primera componente puede tomar cualquier valor. En consecuencia, este conjunto puede escribirse de la forma {(x, y, z) ∈ R3 : y = 0, z = 0}. Las ecuaciones que definen este subespacio son y = 0, z = 0. Las respuestas a los dem´ as apartados son an´ alogas y las daremos de manera abreviada. (ii) (0, y, 0) = y(0, 1, 0). Una base es {(0, 1, 0)}. Las ecuaciones que definen este subespacio son x = 0, z = 0. (iii) (x, y, 0) = x(1, 0, 0) + y(0, 1, 0). Una base es {(1, 0, 0), (0, 1, 0)}. Una ecuaci´ on que lo define es z = 0. (iv) (x, x, z) = x(1, 1, 0) + z(0, 0, 1). Una base es {(1, 1, 0), (0, 0, 1)}. Una ecuaci´ on que lo define es x − y = 0 (o, x = y). (v) (2y, y, 0) = y(2, 1, 0). Una base es {(2, 1, 0)}. Ecuaciones de este subespacio son x = 2y (o, x − 2y = 0), z = 0. (vi) (y + 2z, y, z) = y(1, 1, 0) + z(2, 0, 1). Una base es {(1, 1, 0), (2, 0, 1)}. Una ecuaci´ on que lo define es x = y + 2z (o, x − y − 2z = 0).

R4.7 Determina si el conjunto dado por B = {e1 , e2 , e3 } es una base de R3 , donde e1 = {(0, 2, 1)}, e2 = {(1, −1, 0)} y e3 = {(−2, 5, 1)}. Soluci´ on: Aplicaremos el algoritmo de Gauss al sistema {e1 , e2 , e3 }, pero intercambiando e1 por e2 por razones obvias. e2 e1 e3

= = =

1 0 −2

−1 2 5

e2 e1   e3 = 2 · e3 − 3 · e1

e2 e1  e3 = e3 + 2 · e2

0 1 1 = = =

1 0 0

−1 2 0

= = =

1 0 0

−1 2 3

0 1 1

0 1 −1

En consecuencia, B es base de R3 (no hac´ıa falta el u ´ltimo paso dado que los vectores  e1 y e3 no eran proporcionales, y por tanto en el siguiente paso del algoritmo no pod´ıa aparecer el vector nulo).

85

4.5. EJERCICIOS RESUELTOS

R4.8 Sean E, F y G los siguientes subespacios vectoriales de R3 : E = {(x, 0, 0) : x ∈ R}, F = {(0, y, 0) : y ∈ R}, G = {(x, y, 0) : x, y, ∈ R}. (i) Reconoce geom´etricamente E, F y G. (ii) Reconoce geom´etricamente E + F . Soluci´ on: (i) E y F son las rectas vectoriales que definen los ejes cartesianos OX y OY respectivamente. G es el plano vectorial que definen ambas rectas. (ii) Al sumar los vectores (x, 0, 0) de E con los vectores (0, y, 0) de F se obtienen los vectores (x, y, 0) de E + F , que es el plano vectorial G. Como {(1, 0, 0)} y {(0, 1, 0)} son bases de E y F respectivamente (v´ease el ejercicio R4.6), entonces E +F = (1, 0, 0), (0, 1, 0). Como {(1, 0, 0), (0, 1, 0)} es libre, entonces dim(E +F ) = 2 = dim E + dim F por lo que, seg´ un la Nota 4.3.7 se tiene la suma directa E ⊕ F . (Tambi´en se puede argumentar mediante el hecho de que E ∩ F = {0}.)

R4.9 Sea H = (1, 1, 1), (0, 1, 2), (1, a, 0). Determinar el valor de a para que el subespacio vectorial H de R3 sea de dimensi´on 2. Soluci´ on:

Por aplicaci´ on del proceso de Gauss se tiene que

e1 = e2 = e3 = e1 = e2 = e3 =

( 1, ( 0, ( 1,

1, 1, a,

1) 2) 0)

e3 − (a − 1)e2 =

e1 = e2 = e3 = ( 1, ( 0, ( 0,

e3 − e1 = 1, 1, 0,

( 1, ( 0, ( 0,

1, 1, a − 1,

1) 2) −1)

1) 2) 1 − 2a)

Para que dim H = 2 debe suceder que e3 = 0 y, rec´ıprocamente, si e3 = 0 entonces dim H = 2. Ello equivale a que 1 − 2a = 0, es decir, a que a = 1/2. (A la misma conclusi´ on se llega si imponemos que los vectores e2 = (0, 1, 2) y e3 = (0, a − 1, 1) 2 1 1 = se llega a que a = ). sean proporcionales. En efecto, de a−1 −1 2

R4.10 Sean G y H los subespacios de R4 determinados por G = (2, 4, −4, 2), (2, 5, 1, 0) y H = (3, 8, −3, 2), (8, 22, 0, 2). Hallar una base de G ∩ H. Soluci´ on: El Ejemplo 4.3.5 puso de manifiesto que dim(G + H) = 3. As´ı pues, como dim G = dim H = 2, por el resultado expuesto en la secci´ on 4.3.6, deducimos que dim(G ∩ H) = 1. En el citado ejemplo se lleg´ o a la ecuaci´ on e1 − 2e2 − 2e3 + e4 = 0, la cual indica que un vector no nulo de G ∩ H es e1 − 2e2 = 2e3 − e4 dado que e1 − 2e2 ∈ G, y 2e3 − e4 ∈ H. Como e1 − 2e2 = (2, 4, −4, 2) − 2(2, 5, 1, 0) = (−2, −6, −6, 2), entonces una base de G ∩ H es {(−1, −3, −3, 1)}.

R4.11 Sean G = (1, 0, 1), (1, 3, 2), (2, 3, 3), y H = {(x, x, z) : x, z ∈ R} dos subespacios vectoriales de R3 . Hallar (i) una base de G. (ii) una base de G ∩ H. Soluci´ on: (i) Nombremos e1 = (1, 0, 1), e2 = (1, 3, 2), e3 = (2, 3, 3). Aplicando Gauss o por simple inspecci´ on se observa que e3 = e1 +e2 y que e1 , e2 son linealmente independientes. Por tanto, se tiene que {e1 , e2 } es una base de G.

86

4. ESPACIOS VECTORIALES

(ii) Seg´ un el ejercicio R4.6 , una base de H est´ a constituida por {v 1 , v 2 } donde v 1 = (1, 1, 0), y v 2 = (0, 0, 1). Trataremos primero de conocer dim(G + H), para determinar dim(G∩H), aplicando el proceso de Gauss (con peque˜ nas modificaciones) al conjunto {e1 , e2 , v 1 , v 2 }. e1 = e2 = v2 = v1 =

1 1 0 1

0 3 0 1

1 2 1 0

e1 = e2 = v2 = v 1 =

e2 −e1 = v 1 −e1 =

1 0 0 0

0 1 3 1 0 1 1 −1

e1 = e2 = v2 = v 1 =

e2 −3v 1 =

1 0 0 0

0 3 0 0

1 1 1 4

Es innecesario proseguir dado que se observa que el sistema formado por los tres primeros vectores es libre. As´ı pues, dim(G + H) = 3 por lo que, seg´ un la secci´ on 4.3.6, dim(G ∩ H) = 1, dado que dim G = dim H = 2. Para obtener un vector no nulo de la intersecci´ on es innecesario recurrir a una combinaci´ on lineal no trivial nula, pues observemos que v 1 = 4v 2 y, por tanto, e2 − 3v 1 = 4v 2 , es decir, e2 − e1 − 3(v 1 − e1 ) = 4v 2 . De aqu´ı se deduce que 2e1 + e2 = 3v 1 + 4v 2 ∈ G ∩ H puesto que los vectores de la izquierda de la igualdad son de G y los de la derecha de H. As´ı pues, 2e1 + e2 = 2(1, 0, 1) + (1, 3, 2) = (3, 3, 4) es un vector de la intersecci´ on no nulo y, en consecuencia, {(3, 3, 4)} es una base de G ∩ H.

87

Cap´ıtulo 5

MATRICES ´ El c´alculo matricial es de suma importancia en el Algebra Lineal dada la frecuencia con que se presentan las matrices (“tablas”) en los diversos aspectos del campo socio-econ´omico, o en la formulaci´ on de problemas del ´ambito cient´ıfico. No obstante, aqu´ı nos ocuparemos del estudio abstracto de las operaciones con matrices que es fundamental para los profesionales de la informatizaci´on (que manejan grandes bases de datos), y que nos resultar´ a b´asico para los restantes cap´ıtulos. Principalmente se trabaja con n´ umeros reales, pero los resultados que se dan para coeficientes reales tambi´en son v´alidos para n´ umeros complejos.

5.1

EL ESPACIO VECTORIAL DE LAS MATRICES

5.1.1

Matriz

Una matriz A es un conjunto de n´ umeros (elementos o coeficientes) angulo como (aij )1≤i≤m dispuestos en filas y columnas en forma de rect´ 1≤j≤n

Ö

A=

···

a1n .. .

am1 · · ·

amn

a11 .. .

è

Si A = (aij ) es una matriz de m filas y n columnas se dice que es de dimensi´ on m×n y se denota Am×n . El elemento akl es el que ocupa la posici´on (k, l) en la matriz, esto es, est´ a situado en la fila k-´esima y columna

88

5. MATRICES

l-´esima. Cuando no sea imprescindible omitiremos cualquier menci´on a la dimensi´ on de la matriz. Una matriz de la forma Am×1 se denomina matriz (vector) fila, y si es de la forma A1×n , matriz (vector) columna. Una matriz de la forma An×n se denomina matriz cuadrada de orden n y se denota An . Los elementos que ocupan la posici´on (i, i) constituyen la diagonal (principal) de An . La matriz cuyos elementos son todos ceros se le denomina matriz nula y se escribe 0. Es frecuente tambi´en representar por 0 una zona de una matriz cuyos coeficientes son todos cero. Dada una matriz Am×n se denomina submatriz de A a una matriz de dimensi´ on p×q formada por las filas y columnas consecutivas que quedan en A al eliminar las m − p y n − q restantes (p ≤ m, q ≤ n).

5.1.2

Ejemplos Ç

(a) A =

1 3 2 0 1 2

Ç

å

es una matriz de dimensi´ on 2×3.

å

2 i es una matriz cuadrada de orden 2 con coeficientes en (b) B = 1 1 el cuerpo de los complejos. (c) C = (−1, 3, 0, 5) es una matriz (vector) fila cuyos elementos se han separado por comas para una mayor distinci´on. Ç

(d) D =

2 1

å

es una matriz (vector) columna.

(e) Es interesante, a efectos formales, notar que (α) donde α ∈ R es una matriz de dimensi´ on 1 × 1 que suele identificarse con α.

5.1.3

El grupo abeliano (Mm×n , +)

Al conjunto de todas las matrices de dimensi´ on m×n se le denota por Mm×n y sobre ´el definimos la suma (+) como sigue: (aij ) + (bij ) = (cij ) donde cij = aij + bij , i = 1, . . . , m, j = 1, . . . , n Es evidente que (Mm×n , +) es un grupo abeliano, donde la matriz −A = (−aij ) es la opuesta de la matriz A = (aij ), y 0 es el elemento neutro.

89

5.1. EL ESPACIO VECTORIAL DE LAS MATRICES

El espacio vectorial Mm×n

5.1.4

Se define la ley externa · : R × Mm×n → Mm×n de la siguiente forma: λ · (aij ) = (λaij ). Habitualmente se omite la escritura del punto (·). Es f´acil verificar que Mm×n es un espacio vectorial real.

5.1.5

Ejemplos

Ç

(a)

å

1 3 −5 2 4 0 Ç

(b) −2·

Ç

0 1 1 −1 0 1

+

1 3 −2 0 1 1

å

Ç

=

å

Ç

=

1 4 −4 1 4 1

−2 −6 4 0 −2 −2

å

å

Base de Mm×n

5.1.6

Los espacios vectoriales Mm×n y Rm·n son, en cierta forma el mismo, pues s´ olo cambia la disposici´ onègeom´etrica de los elementos (ver Nota 6.3.2). Ö 1 2 de M3×2 se puede identificar con el vector 0 1 En efecto, la matriz 3 4 6 (1, 2, 0, 1, 3, 4) ∈ R si se escriben las filas de la matriz de manera sucesiva formando un vector fila. Resulta evidente que las matrices Uij que son nulas salvo en la posici´on (i, j) que tienen un uno, constituyen la base natural de Mm×n , puesto que ´nica como toda matriz (aij ) puede escribirse de forma u Ö

a11 · · · a1m .. .. . . am1 · · · amn

à

è

= a11

1 0 ··· 0 0 ··· .. .. . . 0 0 ···

0 0 .. .

í

à

+· · ·+amn

0

0 ··· .. . 0 ··· 0 ···

0 0 .. .. . . 0 0 0 1

í

= a11 U11 +· · ·+a1n U1n +· · ·+am1 Um1 +· · ·+amn Umn con lo que se obtiene que dim Mm×n = m·n.

5.1.7

Ejemplo ®

El conjunto Ç

U22 =

0 0 0 1

å´

Ç

U11 =

1 0 0 0

å

Ç

, U12 =

es una base de M2×2 .

0 1 0 0

å

Ç

, U21 =

0 0 1 0

å

,

90

5. MATRICES

5.2

EL ANILLO DE LAS MATRICES CUADRADAS

5.2.1

El producto de matrices

Dada la matriz A = (aij ) de dimensi´on m×n y la matriz B = (bjk ) de dimensi´ on n×r, se define el producto (·) de A por B como la matriz on m×r donde cik = ai1 b1k + · · · + ain bnk para C = (cik ) = A·B de dimensi´ i = 1, . . . , m, k = 1, . . . , r. Se observa que la posici´ on (i, k) de A·B se escribe como el sumatorio de los productos de los elementos de la fila i-´esima de A (de izquierda a derecha) por los hom´ologos de la columna k-´esima de B (de arriba a abajo). Obs´ervese que el producto A·B s´olo es posible si el n´ umero de columnas de A coincide con el n´ umero de filas de B. A partir de ahora, cuando indiquemos alguna operaci´ on matricial supondremos que las dimensiones de las matrices son adecuadas. Es obvio que (α·A) · (β·B) = αβ(A · B) para α, β ∈ R. Se tienen las siguientes propiedades: (a) Asociatividad: A · (B·C) = (A·B)·C. (b) Distributiva respecto la suma a la izquierda y derecha: A · (B + C) = A·B + A·C, (A + B)·C = A·C + B·C. Aclaremos que por el orden jer´arquico habitual entre la suma y el producto, el producto es el primero en realizarse cuando aparecen juntos. Nota:

En el caso de productos con vectores fila y columna, se denomina pro-

ducto interno a (a1 , . . . , anÖ ) · (b1 , . . . , bn )t = a1 b1è + · · · + an bn , y producto externo a a 1 b1 · · · a 1 bn .. .. (a1 , . . . , an )t · (b1 , · · · , bn ) = (At es la traspuesta de A, ver 5.3.5). . . a n b1 · · · a n bn

5.2.2

Ejemplo Ç

å

Ö

è

Ç å 1 1 3 −1 3 1 4 11 9 26 −2 · = 0 2 1 1 1 3 −2 −3 5 −2 2 2 1 4 0 Se detalla, a modo de ejemplo, el c´alculo del elemento obtenido en la posici´on (2, 3): c23 = a21 b13 + a22 b23 + a23 b33 = 1 · 3 + 3·1 − 2·4 = −2.

91

5.3. TIPOS ESPECIALES DE MATRICES

5.2.3

El anillo de las matrices cuadradas (Mn , +, ·)

Designemos por Mn al conjunto de las matrices cuadradas de orden n, y denominemos matriz identidad In la matriz de Mn que tiene unos en la diagonal y ceros fuera de ella. Cuando por el contexto se sobreentienda la dimensi´ on de la matriz identidad, ´esta simplemente se denotar´a como I. as Atendiendo a las secciones 5.1.3 y 5.2.1, (Mn , +, ·) es un anillo y adem´ unitario, pues se verifica que A·In = In · A = A para toda matriz A de Mn . Este anillo no Ç å es conmutativo Ç åcomo se muestra en el siguiente Ç åejemplo: 1 1 0 1 1 3 y B = . Se tiene que AB = , y que Sean A = 2 1 1 2 1 4 å Ç 2 1 . BA = 5 3 Tampoco es un Ç anillo å ´ıntegro, Ç åpues Ç existen å matrices nulas con producto 0 0 1 0 0 0 · = . nulo; por ejemplo: 0 1 0 0 0 0 . . ·A, por inducci´on. Si A es una matriz cuadrada se define An = A· (n.veces Si A = 0 y An = 0 para alg´ un n ∈ N∗ , se dice que A es nilpotente.

5.3 5.3.1

TIPOS ESPECIALES DE MATRICES Matriz inversible

La matriz cuadrada A se dice inversible (regular o no singular) si existe otra matriz B de manera que AB = BA = I. En tal caso se dice que B es la inversa de A y se escribe B = A−1 , o equivalentemente, A es la inversa de B y se escribe A = B −1 . Si dos matrices A y B son inversibles y de igual dimensi´on, se verifica −1 que (A · B)−1 = B −1 · A−1 , y de manera general, (A1 · · · An )−1 = A−1 n · · · A1 si las matrices Ai , i = 1, . . . , n, son inversibles. No toda matriz es inversible. En particular, una matriz que tenga una fila nula no puede poseer inversa. Para encontrar la inversa de una matriz un el Teorema 5.5.5, cuadrada A = (aij ) de orden dos basta con resolver, seg´ la ecuaci´ on matricial Ç

a11 a12 a21 a22

åÇ

x y z t

å

Ç

=

1 0 0 1

å

92

5. MATRICES

que conduce al siguiente sistema de ecuaciones lineales ⎧ ⎪ a11 x ⎪ ⎪ ⎨

+a12 z

=1 +a12 t = 0 ⎪ +a22 z =0 a21 x ⎪ ⎪ ⎩ +a22 t = 1 a21 y a11 y

El m´etodo es aplicable a matrices escasas, es decir, con relativamente pocos coeficientes distintos de cero dentro de la matriz. Tambi´en se puede utilizar en cualquier matriz cuadrada, pero resulta poco pr´ actico por el gran n´ umero de ecuaciones a que da lugar, por lo que se suelen elegir m´etodos alternativos como los que veremos en la secci´ on 5.5.3, y en 7.3.6.

5.3.2

Ejemplos Ç

(a) Si A =

å

2 0 0 2

1 2I · I = I. 2 (b) La matriz C =

= 2I es obvio que

Ç

A−1

Ç1

=

0

2

1 2

0

å

=

1 I, puesto que 2

å

1 1 2 2

no posee inversa pues la ecuaci´on matricial Ç

1 1 2 2

åÇ

x y z t

å

Ç

=

å

1 0 0 1

conduce al sistema de ecuaciones lineales ⎧ ⎪ ⎪ ⎪ ⎨

x

+z

=1 +t =0 ⎪ 2x +2z =0 ⎪ ⎪ ⎩ 2y +2t = 1 y

que, como se observa, no tiene soluci´ on.

5.3.3

Matrices triangulares

Una matriz cuadrada A = (aij ) se llama triangular superior si los elementos por debajo de la diagonal son ceros (aij = 0 si i > j); triangular inferior si son ceros los de encima de la diagonal (aij = 0 si i < j); y matriz diagonal si los elementos de fuera de la diagonal son ceros (aij = 0 si i = j). Los conjuntos de las matrices triangulares superiores (o inferiores) y diagonales son subespacios vectoriales y subanillos de Mn .

93

5.3. TIPOS ESPECIALES DE MATRICES

5.3.4

Ejemplo

Las matrices siguientes A, B y C son triangular superior, triangular inferior y diagonal, respectivamente. á

A=

5.3.5

2 0 0 0

1 1 0 0

1 −1 2 1 3 1 0 0

ë

á

, B=

1 0 0 0 1 −2 0 0 1 3 1 0 0 2 1 1

ë

á

, C=

1 0 0 0

0 2 0 0

0 0 0 0

0 0 0 3

ë

.

Traspuesta de una matriz

Se llama traspuesta de la matriz A = (aij ) a la matriz denotada = (bij ) donde bij = aji (i = 1, . . . , m, j = 1, . . . , n), es decir, las filas de At son, en el mismo orden, las columnas de A. At

Una matriz cuadrada A se dice sim´ etrica si A = At (i.e. A es sim´etrica respecto la diagonal) y antisim´ etrica si A = −At . Si A es cuadrada, entonces AAt , y At A son matrices sim´etricas.

5.3.6

Ejemplos Ö

(a) La transpuesta de A =

è

1 2 0 3 5 4

Ç

es

At

=

å

1 0 5 . 2 3 4

(b) Las siguientes matrices A y B son sim´etrica y antisim´etrica, respectivamente: Ö è Ö è 1 2 3 0 1 2 B= . −1 0 −3 A= 2 0 4 , 3 4 1 −2 3 0 Ö

è

5 0 0 (c) La matriz C = 1 0 0 0 2 2 es triangular superior.

5.3.7

Ö

es triangular inferior y C t =

è

5 1 0 0 0 2 0 0 2

Nota Los conjuntos S y T de todas las matrices sim´etricas y antisim´etricas, respectiva-

mente, de orden n son subespacios vectoriales de Mn . Se verifica que M = S ⊕ T , o dicho de otra forma, toda matriz cuadrada A se puede descomponer como suma de una matriz sim´etrica y otra antisim´etrica, de manera u ´nica. Esta descomposici´ on es de la forma A = 21 (A + At ) + 12 (A − At ).

94

5.3.8

5. MATRICES

Propiedades de la matriz traspuesta

(a) (A + B)t = At + B t (b) (αA)t = α At (c) (At )t = A (d) (A B)t = B t At Demostraci´ on: (a), (b) y (c) son obvios. Veamos (d): Sean Am×n = (aij ), Bn×r = (bjk ), y AB = (cik ). Si (AB)t = (eik ) entonces eik = cki = ak1 b1i + · · · + akn bni , y si B t At = (dik ) entonces dik = b1i ak1 + · · · + bni akn = eik .

5.3.9

Otros tipos de matrices Una matriz inversible A se dice ortogonal si At = A−1 . Dos matrices A y D de igual dimensi´ on m×n se dicen equivalentes si existen dos

matrices inversibles Pn y Qm tales que D = Q−1 AP . Si A y D son cuadradas de igual dimensi´ on n, entonces se dice que son semejantes si existe una matriz (inversible) P tal que D = P −1 AP . Estas dos relaciones definidas entre matrices resultan ser de equivalencia en Mm×n y Mn , respectivamente.

5.4 5.4.1

RANGO DE UNA MATRIZ Definici´ on

El rango de una matriz A, denotado rang A, es el mayor n´ umero r de vectores filas que constituyen un conjunto linealmente independiente. En esta definici´ on se puede sustituir filas por columnas pues se posee el siguiente teorema del cual omitimos su laboriosa prueba.

5.4.2

Teorema rang A = rang At .

5.4.3

Ejemplo Ö

En el Ejemplo 4.3.5 se ha comprobado que A =

1 2 3 8

2 −2 5 1 8 −3 22 0

1 0 2 2

è

tiene

rango 3 mediante el m´etodo de Gauss. El lector puede verificar con el mismo m´etodo que el rango de At coincide con el rango de A.

95

5.5. MATRICES ELEMENTALES

5.5

MATRICES ELEMENTALES

5.5.1

Matrices elementales

Variados procesos del ´algebra lineal se realizan mediante las tres operaciones elementales del proceso de Gauss (secci´on 4.3.4). Dichas operaciones puede considerarse que se realizan sobre las filas de una matriz A. Veremos que el efecto que produce cada operaci´ on elemental sobre A se puede reproducir haciendo el producto E · A, donde E es una matriz inversible u ´nica de dimensi´ on adecuada, denominada matriz elemental . As´ı, la expresi´on “efectuar o aplicar una operaci´on elemental sobre A” ser´a equivalente a multiplicar A por una matriz elemental por la izquierda. Evidentemente hay tres tipos de matrices elementales, que se corresponden con los apartados (a), (b), (c) de la Secci´ on 4.3.4, que nosotros, para distinguirlas llegado el caso, denotamos de manera distinta como ilustra el siguiente ejemplo.

5.5.2

Ejemplos

En los siguientes ejemplos la matriz de la derecha del producto se transforma en la del segundo miembro de la igualdad, despu´es de sufrir una modificaci´ on de sus filas que se explica abajo, tras ser multiplicada por una matriz elemental (que aparece en negrita) y que denotamos despu´es en negrita. á

ë á

ë

á

0 0 0 1 1 2 1 4 0 1 0 0 3 1 1 3 (a) · = 0 0 1 0 0 1 2 0 1 0 0 0 4 4 0 1 Se han intercambiado las filas primera y Ç

å Ç

å

Ç

è

Ö

ë

4 0 1 1 1 2 2 1 cuarta al multiplicar por E1,4 . å

−2 0 2 1 −1 4 −4 −2 2 −8 · = (b) 0 1 0 1 0 2 0 1 0 2 La primera fila se ha multiplicado por −2 al multiplicar por E1 (−2). Ö

(c)

1 0 0 0 1 0 2 0 1

è Ö

·

1 1 1 2 0 1 0 0 1 0 2 1

=

è

1 1 1 2 0 1 0 0 3 2 4 5

A la tercera fila se le ha sumado el doble de la primera al multiplicar por E3,1 (2). Las matrices elementales son modificaciones de la matriz identidad, como sigue. Eij , la matriz cuyo objetivo es intercambiar la fila i-´esima y j-´esima, tiene 0 en las posiciones (i, i), (j, j) y 1 en la posiciones (i, j), (j, i). Ei (α), que reemplaza Ai por α Ai , tiene α en

96

5. MATRICES

la posici´ on (i, i). Eij (α), la que reemplaza Ai por Ai + α Aj , tiene α en la posici´ on (i, j). Por su propia estructura es f´ acil concluir que estas matrices son inversibles y sus inversas son matrices elementales del mismo tipo.

5.5.3

C´ alculo de la inversa de una matriz mediante matrices elementales

Sea A una matriz cuadrada. El m´etodo para obtener A−1 , cuando existe, consiste en efectuar operaciones elementales sucesivas E1 , E2 , . . . , Es sobre A hasta transformarla en la identidad. Supongamos logrado esto. Entonces (5.1) Es · Es−1 · · · · · E2 · E1 · A = I Al ejecutar las mismas operaciones elementales, y en el mismo orden sobre I, se obtiene A−1 , pues Es · Es−1 · · · · · E2 · E1 · I = A−1 ,

(5.2)

como se deduce de (5.1)-(5.2).

5.5.4

Ejemplo Ö

è

1 0 0 Tratemos de hallar por el m´etodo descrito la inversa de A = 0 2 2 . 3 1 2 Escribiremos la matriz I al lado de la matriz A y ejecutaremos las mismas operaciones elementales sobre ambas matrices transformando paso a paso la matriz A hasta obtener la matriz I. De esta forma, la matriz I se transformar´ a un el punto anterior. al final en A−1 seg´ e1 = e2 = e3 =

e1 = (1 0 0 1 0 0) (0 2 2 0 1 0) e2 = e3 = e3 −3e1 = (0 1 2 −3 0 1)

(1 0 0 1 0 0) (0 2 2 0 1 0) (3 1 2 0 0 1)

e1 = (1 0 0 1 0 0) e2 = e2 −2e3 = (0 2 0 6 2 −2) (0 0 1 −3 −1 1) e3 = 2

(1 0 0 1 0 0) e1 = (0 2 2 0 1 0) e2 = 1   e3 = e3 −2 e2 = (0 0 1 −3 −1 2 1) e1 = e2 = e3 =

1  2 e2 =

(1 0 0 1 (0 1 0 3 (0 0 1 −3

Por tanto, A−1 =

Ö

1 3 −3

0 0) 1 −1) −1 1) 2

0 0 1 −1 −1 1 2

è

.

97

5.5. MATRICES ELEMENTALES

Dado que el producto de matrices no es conmutativo, el siguiente teorema es de gran inter´es pr´ actico.

5.5.5

Teorema

Si A y B son matrices cuadradas y AB = I, entonces BA = I (es decir, A es la inversa de B).

5.5.6

Inversas de matrices triangulares

Es f´acil demostrar que la inversa de una matriz triangular A existe si y s´olo si los elementos aii de la diagonal de A son distintos de cero. En tal caso A−1 es triangular del mismo tipo que A, y los elementos de la diagonal 1 , (i = 1, . . . , n). En particular, si la matriz A = (aij ) es de A−1 son a ii Ö è 1/a11 0 .. diagonal y aii = 0, i = 1, . . . , n, se tiene que A−1 = . 1/ann

0 es diagonal.

5.5.7

Ejemplo Consideremos las matrices triangulares siguientes Ö

A=

è

3 2 7 0 0 4 0 0 2

Ö

,

B=

2 0 1 −3 2 0

0 0

1 6

è

Ö

,

C=

2 0 0

0

0 1 0 5 0 −3

è

.

Entonces A no posee inversa y B y C poseen inversa, siendo Ö

B −1 =

5.5.8

1 2 1 6

0 0 − 13 0 −6 0 6

è

Ö

,

C −1 =

1 2

0 0 0 5 0 0 0 − 13

è

.

Descomposici´ on LU

Con alguna peque˜ na restricci´ on y ligera modificaci´on que ilustramos en el Ejemplo 5.5.9 y de forma similar a la secci´on 5.5.3 se puede obtener el siguiente resultado que es de inter´es para resolver sistemas de ecuaciones lineales. Si A es una matriz inversible admite, al menos, una reordenaci´on de sus filas de modo que la nueva matriz B obtenida puede descomponerse en

98

5. MATRICES

forma de producto como B = L·U donde L es una matriz triangular inferior (“Lower”) con unos en la diagonal, y U es una matriz triangular superior (“Upper”) sin ceros en su diagonal. Prueba abreviada. Supongamos que sin necesidad de intercambiar filas obtenemos Es ·· · · ·E1 ·A = U . Entonces A = L·U , donde L = (Es ·· · · ·E1 )−1 , que es triangular inferior por serlo cada Ei , i = 1, 2, . . . , s. Obs´ervese que si efectuamos Es · · · · · E1 · I, entonces L es la inversa de la matriz que finalmente se obtiene.

5.5.9

Ejemplo Ö

è

1 1 2 Vamos a efectuar la descomposici´ on LU de la matriz A = 2 1 1 . 0 1 1 Para ello, efectuamos operaciones elementales sobre A hasta obtener U , y repetimos las mismas sobre I, como sigue: e1 = (1 1 2 e2 = (2 1 1 e3 = (0 1 1

e1 = (1 1 2 1 0 0)  0 1 0) e2 = e2 − 2 e1 = (0 −1 −3 0 0 1) (0 1 1 e3 = (1 1 2 1 0 0) e1 =  (0 −1 −3 −2 1 0) e2 =   0 −2 −2 1 1) e3 = e3 + e2 = (0

Seg´ un la prueba de la secci´ on 5.5.8, las dos matrices Por tanto Ö è−1 Ö 1 0 0 1 0 = −2 1 0 2 1 L= −2 1 1 0 −1 As´ı pues

Ö

A=

5.5.10

1 0 0 2 1 0 0 −1 1

è Ö

·

1 0 0) −2 1 0) 0 0 1)

u ´ltimas son U y L−1 . 0 0 1

1 1 2 0 −1 −3 0 0 −2

è

è

Matrices escalonadas. Descomposici´ on LS

Dada la matriz A = (aij ) llamamos elemento distinguido al primer coeficiente, desde la izquierda, de cada fila que no sea cero. Se dice que A es una matriz escalonada si el elemento distinguido de cada fila est´ a a la derecha de los distinguidos en filas anteriores, y si existen filas nulas, ´estas son las u ´ltimas. La matriz escalonada A se dice reducida si los elementos distinguidos son unos y adem´ as son los u ´nicos coeficientes distintos de cero en sus columnas respectivas. La matriz nula es una matriz escalonada reducida.

99

5.5. MATRICES ELEMENTALES

Dada una matriz A podemos obtener, mediante operaciones elementales sobre A, una matriz escalonada cuyos elementos distinguidos son unos que recibe el nombre de forma escalonada de A. M´ as todav´ıa, se puede demostrar que toda matriz tiene una forma (escalonada) reducida, que es u ´nica. Se denomina descomposici´ on LS de la matriz A a una factorizaci´ on A = L · S donde L es una matriz inversible triangular inferior y S es una matriz escalonada cuyos elementos distinguidos son unos. En el caso de que la forma escalonada S de A se obtenga sin intercambio de filas (i.e. sin usar la primera operaci´ on elemental), dicha descomposici´ on es siempre posible y L = (Es , Es−1 , . . . , E1 )−1 siendo E1 , . . . , Es las matrices elementales, del tipo (b) o (c), que en ese orden act´ uan sobre A para obtener S. De ello se desprende el m´etodo para obtener la descomposici´ on LS como ilustra el Ejemplo 5.5.11. Una matriz A puede no admitir descomposici´ on LS, y en el caso de que tenga puede que no sea u ´nica. No obstante si A es de dimensi´ on m × n y su forma escalonada puede obtenerse sin intercambio de filas, entonces A tiene una u ´nica factorizaci´ on A = L · S si y solamente si rang A = m.

5.5.11

Ejemplo Ö

(a) Matriz escalonada:

3 0 0 0



0 0 0 0

2 1 0 0

è

5 2 3 0

0 4 0 0

Ö . Matriz reducida:



1 0 0 0

0 1 0 0

6 6 0 0

0 0 1 0

0 4 0 0

è .

1 1 −1 1 4 2 −1 3 2 −1 , vamos a hallar una descomposici´ on (b) Dada la matriz A = −4 5 −11 4 11 LS. Para ello obtendremos la forma escalonada S de A transformando A en las siguientes matrices sucesivamente

e1 = e2 = e3 =

Ñ

e1 =  e2 = e2 − 2e1 = e3 =

1 1 −1 1 4 1 2 −1 3 2 −1 0 −4 5 −11 −4 11 0 Ñ

e1 =  e2 =  e3 = e3 + 4e1 = e1 =  e2 =    e3 = e3 + 3e2 = e1 =  e2 = − 31 e2 =  e3 = 

0 0 1 0 0 1

é ,

1 0 0 1 1 −1 1 4 0 −3 5 0 −9 −2 1 0 −4 5 −11 −4 11 0 0 1

Ñ

Ñ

Ñ

1 0 0

1 0 1 −1 1 4 −3 5 0 −9 −2 1 9 −15 0 27 4 0

0 0 1

1 0 −1 1 4 5 0 −9 −2 1 0 0 0 −2 3

0 0 1

1 1 0 −3 0 0 1 0 0

1 −1 1 4 1 − 53 0 3 0 0 0 0

1

0 0 2 1 − 0 3 3 −2 3 1

é ,

é , é ,

é .

100

5. MATRICES

Las dos u ´ltimas matrices son S y L−1 . Por lo tanto

 L=

1

0

2 3

− 13 3

−2 En consecuencia,



A=L·S =

5.6 5.6.1

1 2 −4

0 0 1

−1

0 −3 9

 =

0 0 1

  ·

1 2 −4 1 0 0

1 1 0

0 −3 9 −1 − 53 0

0 0 1

1 0 0

 .

4 3 0

 .

MATRICES POR BLOQUES Matrices por bloques

Si la representaci´ on gr´afica de una matriz se fracciona en bloques (cajas), eventualmente desiguales, por medio de dos segmentos perpendiculares, obtenemos gr´aficamente cuatro submatrices X, Y , Z y T de A. Supongamos ahora otra matriz B dividida en bloques X  , Y  , Z  y T  de iguales dimensiones que X, Y , Z y T , respectivamente. Entonces, es obvio que A + B se puede representar por: Ç

X Y Z T

å

Ç

+

X Y  Z T 

å

Ç

=

X + X Y + Y  Z + Z T + T 

å

El lector que conoce los problemas computacionales, que surgen al trabajar con matrices de grandes dimensiones, valorar´a las posibilidades del m´etodo que se propone (observando el gr´afico) cuando se hace una suma de matrices (o cualquier otra operaci´ on permisible), por el ahorro de memoria y tiempo que supone. La formulaci´ on m´as precisa, para la suma, del m´etodo es la siguiente: Sea la matriz A = (Aij ) dada (gr´aficamente) por: Ö

A=

···

A1n .. .

Am1 · · ·

Amn

A11 .. .

è

donde Aij son a su vez matrices, de manera que el n´ umero mi de filas de umero de columnas nj de Aij para Aij para j = 1, . . . , n es el mismo, y el n´ i = 1, . . . , m es tambi´en el mismo. Sea a su vez la matriz B = (Bij ) en donde cada Bij es una matriz de igual dimensi´on que Aij . Entonces: A + B = (Aij + Bij )

101

5.6. MATRICES POR BLOQUES

Es obvio que tambi´en se tiene: (i) α·A = (α·Aij ). t . (ii) At = (Aij )t = (Cij ) donde Cij = Aji

Imaginemos que dos matrices A y B han sido descompuestas por bloques, no necesariamente de iguales dimensiones; si es posible el producto AB entonces se verifica que AB = (Cij ) siendo Cij = Ai1 B1j + · · · + Ain Bnj (i = 1, . . . , m, j = 1, . . . , n) el bloque que ocupa el lugar (i, j) en la matriz por bloques AB siempre que todos los productos Aik Bkj (i = 1, . . . , m, j = 1, . . . , n, k = n1 , . . . , nn ) sean posibles. Si la matriz Am×n se divide en bloques en la forma Ö

A=

A11 · · · .. .

A1s .. .

Ar1 · · ·

Ars

è

siendo Aij la correspondiente submatriz de dimensi´on mi ×nj , podemos indicar la divisi´on por bloques diciendo que A es de tama˜ no (m1 + · · · + mr ) × (n1 + · · · + ns ). Evidentemente se ha de cumplir que m1 + · · · + mr = m y n1 + · · · + ns = n.

5.6.2

Ejemplo á

0 1 0 0 0 0 Sea A la matriz A = 0 0 0 0 0 0 4 bloques y verificar que A = 0 (i.e., A es Ç å Ç 0 1 0 ,Y = Llamemos X = 0 0 0

ë

0 1 . Vamos a descomponerla por 1 0 nilpotente). å Ç å 0 0 0 ,0= . De este modo la 1 0 0 å Ç X Y y se tiene que matriz A se puede escribir por bloques como A = 0 X Ç

A2

= AA = Ç

=

X Y 0 á X

å

0 I 0 0

=

åÇ

0 0 0 0

X 0 0 0 0 0

å

Ç

Y X 2 XY + Y X = X ë 0 X2 1 0 0 1 0 0 0 0

å

102

5. MATRICES

Ç

puesto que Ç

1 0 0 1

X2

å

= 0 y XY + Y X =

åÇ

0 1 0 0

å

0 0 0 1

+

0 0 0 1

åÇ

å

0 1 0 0

=

= I. En consecuencia, á Ç

A4 = A2 A2 =

5.7

Ç

åÇ

0 I 0 0

å

0 I 0 0

Ç

=

å

0 0 0 0

=

0 0 0 0

0 0 0 0

0 0 0 0

0 0 0 0

ë

UN POCO DE HISTORIA La organizaci´ on de los n´ umeros en “cajas” es un procedimiento bastante antiguo (y

l´ ogico). Se encontr´ o un cuadrado m´ agico, que no es m´ as que una matriz cuadrada tal que la suma de los n´ umeros por columnas, filas o diagonales principales es la misma, en un texto   4 9 2 3 5 7 , chino del siglo VII a. de C. Un ejemplo de cuadrado m´ agico 3 × 3 ser´ıa 8 1 6 donde se comprueba que la suma de filas, columnas y diagonales principales es 15. Fue el matem´ atico ingl´es James J. Sylvester (1814-1897) qui´en utiliz´ o por primera vez el t´ermino “matriz” en 1850. El matem´ atico brit´ anico Arthur Cayley (1821-1895) fue el primero en desarrollar de modo independiente el concepto de matriz en un art´ıculo publicado en 1855: A memoir on the theory of matrices. Pero ser´ a en el siglo XX cuando se extienda el uso de la teor´ıa de matrices a la mayor´ıa de las ramas de las matem´ aticas, a la f´ısica y a la ingenier´ıa. En 1925, el f´ısico alem´ an Werner Heisenberg (1901-1976) recurre a la potencia del c´ alculo matricial para fundamentar una teor´ıa innovadora en F´ısica. Se trataba de un sistema de mec´ anica cu´ antica, que fue denominado “mec´ anica cu´ antica matricial” por lo que recibi´ o el Premio N´ obel de F´ısica en 1932.

5.8

EJERCICIOS RESUELTOS

R5.1 Efect´ ua las operaciones: 2 · A, 12 · B y 2 · A − 12 · B, siendo Å ã Å ã 1 2 1 0 0 4 A= , B= 3 −1 1 −6 2 2 Soluci´ on:

De las definiciones se deduce

Å

2·A 1 ·B 2 1 2·A− ·B 2

= = =

2 −1 0 0 1 · 2 −6 2 Å 2 4 2 6 −2 2



1 Å3

ã

Å

ã

1 2 4 2 = . 1 ã Å 6 −2 2 ã 4 0 0 2 = . −3 1 ã1 Å ã2 Å 0 0 2 2 − = −3 1 1 9

4 −3

0 1

ã .

103

5.8. EJERCICIOS RESUELTOS

Å

1 0

R5.2 Sea la matriz A =

ã . Probar que:

2 −3

(i) A + At es sim´etrica. (ii) A − At es antisim´etrica. Soluci´ on:

Å t

(i) A + A =

Å (ii) A − At =

1 0

2 −3

1 0

2 −3

ã

Å +

ã

Å −

1 2

0 −3

1 2

0 −3

ã

Å =

ã

Å =

R5.3 Sean las matrices Å A=

1 1

2 3 0 0

4 1

,

Soluci´ on:

 B t · At =

A·B =

1 1 0

1 −1 1

1 1

2 0 −1 1 0

2 0 0

3 0

4 1

Ö

 ·

Ö ·

1 2 3 4

1 0 0 1

1 1 2 −1

è

=

2 0

ã .

ã

1 0 1 −1 2 0 −1 1

B=

ã

2 −6

0 −2

Ü

ã

Verifica que (A · B)t = B t · At . Å

2 2

0 −1 0 1



5 −2 2

0 1 0 0

0 1 0 0

è

.

Å =

0 1 0

ê

5 0

−2 1

2 0

ã .

 . Obviamente,

(A · B)t = B t · At .

R5.4 Resuelve la ecuaci´on matricial (i) y el sistema de ecuaciones matriciales (ii). é é Ñ é Ñ Ñ 2β 0 −1 4 −2 3 = − (i) α 6 2 α ⎧ Å ã 1 −1 ⎪ ⎪ ⎨ 2·X −5·Y = 1ã Å 2 (ii) 2 1 ⎪ ⎪ ⎩ −X + 2 · Y = 4 1 Soluci´ on:







 







−α 2β 0 2β = 6 de donde se deduce el sistema (i) Se tiene que 3α = 4 + 2 α2 6 −2 4  −α = 2β 3α = 6 de ecuaciones α2 = 4 De la tercera ecuaci´ on se obtiene α = ±2, pero atendiendo a la segunda ecuaci´ on ha de ser necesariamente α = 2. Sustituyendo finalmente este valor en la primera se tiene β = −1.

104

5. MATRICES

Å

2 4

(ii) De la segunda ecuaci´ on se tiene X = 2Y − primera:

Å

Å

2 4

2 2Y −

Å

Por tanto:

Å

−5 −10

ã

−1 −3

Å

ã

−1 −3

.

R5.5

ã

2 2

Å =

−1 1

1 2

−1 1

1 2

. Sustituyendo en la

ã

ã

. Finalmente:

−5 −10

X=2

Å − 5Y =

4 8

−Y − y as´ı Y =

ãã

1 1

ã

1 1

Å

(i) H´ allese la inversa de M = Å

Å −

0 −1 1 0 0 −2i 2i 0

(ii) H´allese la inversa de A =

2 4

1 1

ã

Å =

−12 −24

−3 −7

ã

ã . ã utilizando el apartado anterior.

Soluci´ on: (i) Hallemos M −1 por el m´etodo de las matrices elementales e1 e2

Å

−1 0

0 1

e1 e2 = −e2 As´ı pues, M −1 =

Å Å

1 0

Å

(ii) Obs´ervese que A = 2i A−1 =

0 1

0 1

0 −1

ã

0 −1

0 1

ã

1 0

1 . 0

e1 = e2 e2 = e1 1 0

Å

1 0

0 −1

0 1

1 0

ã

ã

ã

−1 . Con ello A = 2iM y, por tanto, 0

Å

1 −1 1 0 M · = −1 2i 2i

1 0

ã

Å

=−

i 0 · −1 2

1 0

ã

Å =

0 i 2

− 2i 0

ã

.

Å ã 2 −3 . 1 −2 (i) H´allese An .

R5.6 Sea A =

(ii) Ded´ uzcase A−1 de (i).

Soluci´ on: (i) Es inmediato que A · A = I. En consecuencia A4 = (A2 )2 = I 2 = I, 6 on se prueba que An = I si n es par. A = A8 = · · · = I. Por inducci´ Para n impar, n = 2k + 1, k ∈ N, se tiene An = A2k+1 = A2k · A = (A2 )k · A = I k · A = I · A = A. Por tanto, para n impar se demuestra que An = A. on 5.3.1. (ii) Como A · A = I, entonces A−1 = A por la secci´

Å 0 R5.7 Est´ udiense las potencias de A = 1

ã −1 yB= 0

Ñ

1 1 1 1 1 1

1 1 1

é

105

5.8. EJERCICIOS RESUELTOS

Å

ã

−1 0 = −I, 0 −1 −I·A = −A, A4 = (−I)·(−I) = I, y, por inducci´ on, se deduce que n = 4p n = 4p + 1 , p ∈ N. n = 4p + 2 n = 4p + 3

Veamos las potencias de A. Se tiene que A2 = A·A =

Soluci´ on:

A3 = ⎧ A2 ·A = I ⎪ ⎨ A An = ⎪ ⎩ −I −A

Veamos las potencias de B. Se tiene que



1 1 1

2

B =

1 1 1

1 1 1



1 1 1



1 1 1

1 1 1

 =

3 3 3



3 3 3

3 3 3

 =3

1 1 1

1 1 1



1 1 1

= 3B.

on se puede demostrar B 3 = B 2 · B = 3 · B · B = 3 · B 2 = 3 · 3 · B = 32 · B. Por inducci´ que B n = 3n−1 · B.

Ñ

R5.8 Sean las matrices A = (−1 2 0) y B =

é

2 3 4

. Hallar

(i) A · B (ii) At · B t Soluci´ on:



(i) A · B = (−1 2 0) ·

 (ii) At · B t =

−1 2 0



2 3 4

 = −2 + 6 + 0 = 4.



−2 4 0

· (2 3 4) =

R5.9 Probar que la matriz regular A =

Å 0 1

−3 6 0

−4 8 0

 .

ã 1 no admite descomposici´on LU . 1

Soluci´ pudiese descomponerse A en un producto LU ser´ıa de la forma Å ãon: Å Si ã Å ã 0 1

1 1

=

1 a

0 1

b 0

c , lo que obliga a que se satisfaga el sistema d

⎧ 0=b ⎪ ⎨

1=c

⎪ ⎩ 1 = ab

1 = ac + d

que claramente es incompatible.

Å

Finalmente obs´ervese que al permutar las filas de A se tiene la matriz obviamente admite la descomposici´ on

Å

1 0

que es del tipo LU .

1 1

ã

Å =

1 0

0 1

ãÅ

1 0

ã

1 1

1 0

ã

1 1

que

106

5. MATRICES

Ü 1 0 R5.10 Obtener la factorizaci´on LU de la matriz A = 0 2

2 0 1 1 0 3 1 −1 4 4 0 3

ê .

Soluci´ on: El siguiente m´etodo para obtener la descomposici´ on LU de una matriz es v´ alido si durante el proceso no se obtienen ceros en la diagonal (ver final secci´ on 5.5.8). El m´etodo consiste en aplicar el proceso de Gauss mediante matrices elementales del tipo Eij (α), hasta obtener una matriz U triangular superior. Con un sencillo c´ alculo se desprende la descomposici´ on LU como vemos a continuaci´ on e1 e2 e3 e4

= = = =

(1 (0 (0 (2

2 0 1 0 1 −1 4 0

e1 e2  e3 = e3 − e2  e4

= = = =

1 3 4 3

1 0 0 0

(1 (0 (0 (0

0 1 0 0

0 0 1 0

e1 e2 e3  e4 = e4 − 2e1

0) 0) 0) 1)

2 0 1 0 0 −1 0 0

1 1 0 3 0 1 1 0 −1 1 −2 0

0 0 1 0

Del m´etodo se deduce que hemos obtenido

Ö

U=

1 0 0 0

2 1 0 0

0 0 −1 0

Ö El lector obtendr´ aL=

Ö A=

1 0 0 2

1 0 0 2

1 3 1 1 0 1 1 0

0 1 1 0

è

0 0 1 0

0 0 0 1 0 0 0 1

(1 (0 (0 (0

2 0 1 0 1 −1 0 0

1 1 3 0 4 0 1 −2

0 1 0 0

0 0 1 0

0) 0) 0) 1)

0) 0) 0) 1)

Ö

, L−1 =

0 0 1 0

= = = =

è

1 0 0 −2

0 1 −1 0

0 0 1 0

0 0 0 1

è .

, y por tanto

è Ö ·

1 0 0 0

2 1 0 0

0 0 −1 0

1 3 1 1

è .

R5.11 Calcular A·B considerando en A la divisi´on por bloques (2 + 1 + 2)× (2 + 1 + 2) y en B la divisi´on (2 + 1 + 2) × (2), siendo: à í í à 1 0 0 0 0 2 −3 0 1 0 0 0 4 7 0 −1 2 0 0 3 5 A= . , y B= 1 0 0 1 0 −2 0 2 1 0 0 1 −3 −2 Soluci´ on: (Omitimos la escritura de la dimensi´ on de cada submatriz. El lector debe verificar que todos los productos son posibles y diferenciar las distintas matrices nulas).

 A·B =

I A21 A31

0 2 0

0 0 I



B11 B21 B31



 =

B11 A21 ·B11 + 2B21 A31 ·B11 + B31

 =

107

5.8. EJERCICIOS RESUELTOS

á =

Å

ã

2 −3 4  7   −4 −7 Å ã Å+ 6 10 ã 2 −3 −2 0 + 8 1 −3 −2

ë á Å =



1 ⎜0 ⎜ ⎜0 n R5.12 Calcular A , n ∈ N, siendo A = ⎜ ⎜0 ⎜ ⎝0 0

0 1 0 0 0 0

ã ë á

2 −3 7 4 2 3 Å ã 0 −3 5 −1

0 0 1 0 0 0

1 1 1 1 0 0

1 1 1 0 1 0

=

2 4 2 0 5

−3 7 3 −3 −1

ë

⎞ 1 1⎟ ⎟ 1⎟ ⎟. 0⎟ ⎟ 0⎠ 1

Sean I y 0 las matrices cuadradas identidad y nula de orden 3, respec  Å ã 1 1 1 I B tivamente, y B = 1 1 1 . Entonces se tiene que A = , 0 I 1 1 1 Å ãÅ ã Å ã Å ãÅ ã Å ã I B I B I 2B I 2B I B I 3B A2 = = , A3 = = . 0 I 0 I 0 I 0 I 0 I 0 I Å ã I nB , es decir, Por inducci´ on se puede demostrar que An = 0 I Soluci´ on:

â An =

1 0 0 0 0 0

0 1 0 0 0 0

0 0 1 0 0 0

n n n 1 0 0

n n n 0 1 0

n n n 0 0 1

ì .

109

Cap´ıtulo 6

APLICACIONES LINEALES Vamos a ver que matriz y aplicaci´ on lineal son, en cierta manera, dos formas distintas de describir un mismo concepto. Probaremos adem´ as que las aplicaciones lineales biyectivas (isomorfismos) se corresponden con las matrices inversibles que, como mostraremos en el pr´ oximo cap´ıtulo, tienen determinante no nulo. Un aspecto interesante de los isomorfismos es que permiten identificar espacios vectoriales de igual dimensi´on. A˜ nadamos que el presente cap´ıtulo, con ayuda de los determinantes, ser´a de importancia primordial en nuestro tratamiento de los sistemas de ecuaciones lineales y de la diagonalizaci´ on de endomorfismos. En lo que sigue, (V, +) y (V  , +) son espacios vectoriales sobre el mismo cuerpo (K, +, ·) que, como en el resto del texto, supondremos el cuerpo de los reales aunque los resultados que se dan tambi´en son v´alidos para otros cuerpos. A los vectores nulos de ambos espacios, les denotaremos indistintamente por 0.

6.1 6.1.1

APLICACIONES LINEALES Aplicaciones lineales

Se dice que una aplicaci´ on f : V → V  es lineal si para cualesquiera x, y ∈ V , y α, β ∈ K se verifica: L1: f (x + y) = f (x) + f (y) L2: f (αx) = αf (x) o, equivalentemente,

110

6. APLICACIONES LINEALES

LI: f (αx + βy) = αf (x) + βf (y) Si f es lineal se tienen las siguientes propiedades inmediatas.

6.1.2

Propiedades

(a) f (α1 x1 + · · · + αn xn ) = α1 f (x1 ) + · · · + αn f (xn ), αi ∈ K, xi ∈ V . (b) f (0) = 0 (c) f (−x) = −f (x), x ∈ V .

6.1.3

Ejemplos

Es inmediato que la aplicaci´ on identidad I : V → V definida por I(x) = x para x ∈ V , y la aplicaci´ on nula 0 : V → V  definida por 0 (x) = 0 para x ∈ V , son lineales. Las funciones circulares no son lineales. Por ejemplo, la funci´ on circular sen : R → R no verifica, en general, sen(x + y) = sen x + sen y. a dada de manera Diremos que una aplicaci´on lineal f : Rn → Rm est´ expl´ıcita si la expresi´on de f (x) muestra el valor de las m componentes del vector imagen referidas a las n componentes de x.

6.1.4

Ejemplo

Sea la aplicaci´ on f : R3 → R2 dada de manera expl´ıcita por f (x, y, z) = (2x, y − z). Veamos que es lineal. En primer lugar probaremos que se cumple L1: Sean x = (x1 , x2 , x3 ) e y = (y1 , y2 , y3 ) vectores de R3 . Entonces f (x + y) = f (x1 + y1 , x2 + y2 , x3 + y3 ) = (2(x1 + y1 ), (x2 + y2 ) − (x3 + y3 )). Por otra parte, f (x)+f (y) = (2x1 , x2 − x3 ) + (2y1 , y2 − y3 ) = (2x1 + 2y1 , x2 − x3 + y2 − y3 ) de donde es f´acil observar que f (x + y) = f (x) + f (y). Veamos ahora que se cumple L2: Sea α ∈ R, se tiene que f (αx) = f (αx1 , αx2 , αx3 ) = (2αx1 , αx2 − αx3 ) = α(2x1 , x2 − x3 ) = αf (x). En lo que sigue, salvo que se indique lo contrario, f ser´a una aplicaci´ on lineal de V en V  .

6.1.5

N´ ucleo Se denomina n´ ucleo (“kernel”) de la aplicaci´on lineal f al conjunto Ker f = {v ∈ V : f (v) = 0}

111

6.1. APLICACIONES LINEALES

Es sencillo demostrar que Ker f e Im f son subespacios vectoriales de V an un papel importante en nuestro contexto. y V  , respectivamente, que jugar´ Las aplicaciones lineales tienen propiedades que las hacen sencillas de estudiar. Empecemos con la primera de ellas.

6.1.6

Teorema (caracterizaci´ on de aplicaciones inyectivas) La aplicaci´ on f es inyectiva si y s´ olo si Ker f = {0} (i.e. dim Ker f = 0). Demostraci´ on. El directo es obvio por la propiedad (b) de 6.1.2.

Veamos el rec´ıproco: Supongamos Ker f = {0}. Si f (x) = f (y) entonces f (x) − f (y) = 0 y como f es lineal se tiene que f (x − y) = 0, lo cual indica que x − y ∈ Ker f . Utilizando la hip´ otesis se tiene que x − y = 0 y, en consecuencia, x = y.

6.1.7



Nota

Es f´acil observar que f es suprayectiva si y s´ olo si dim Im f = dim V  .  Ello es debido a que como Im f ⊂ V , entonces Im f = V  si y s´olo si sus dimensiones coinciden.

6.1.8

Ejemplo

Consideremos la aplicaci´on f del Ejemplo 6.1.4 y hallemos el n´ ucleo de f . Se tiene que ¶

©

Ker f = (x, y, z) ∈ R3 : f (x, y, z) = (0, 0)

Por tanto, se ha de verificar que (2x, y − z) = (0, 0) lo que conduce al sistema ® 2x = 0 de soluci´ on x = 0, y = z. As´ı pues, y−z =0

Ker f = {(0, z, z) : z ∈ R} ≡ z(0, 1, 1) = (0, 1, 1) con lo que dim Ker f = 1. Seg´ un el Teorema 6.1.6, f no es inyectiva. Hallemos ahora las antiim´agenes del punto (2, 3). Se tiene que ¶

©

f −1 (2, 3) = (x, y, z) ∈ R3 : f (x, y, z) = (2, 3)

Ha de verificarse, pues, que (2x, y − z) = (2, 3) lo que conduce al sistema ® 2x = 2 de soluci´ on x = 1, y = 3 + z. As´ı pues, y−z =3

f −1 (2, 3) = {(1, 3 + z, z) : z ∈ R} ≡ (1, 3, 0) + (0, z, z) ≡ (1, 3, 0) + Ker f Obs´ervese que f (1, 3, 0) = (2, 3). Este resultado no es casual, puesto que se verifica la siguiente proposici´on que no demostraremos.

112

6. APLICACIONES LINEALES

6.1.9

Proposici´ on Sea f (x) = y. Entonces, f −1 (y) = x + Ker f . La siguiente proposici´ on tiene una prueba inmediata.

6.1.10

Proposici´ on

Si {e1 , . . . , en } es un sistema generador de V entonces {f (e1 ), . . . , f (en )} es un sistema generador de Im f .

6.1.11

Teorema de la dimensi´ on (de aplicaciones lineales) dim V = dim Ker f + dim Im f

Demostraci´ on. Podemos suponer (lo que no implica restricci´ on alguna) que {e1 , . . . , er } es una base de Ker f , y que {e1 , . . . , er , . . . , en } es una base de V . Teniendo en cuenta la proposici´ on anterior, resulta sencillo demostrar que {f (er+1 ), . . . , f (en )} es una base de Im f de donde se concluye el teorema.

6.1.12



Corolario (idoneidad de las aplicaciones lineales)

Si f : V → V  es lineal y dim V = dim V  , entonces f es inyectiva sii f es suprayectiva sii f es biyectiva

6.2 6.2.1

MATRICES Y APLICACIONES LINEALES Matriz asociada a una aplicaci´ on lineal

Sea la aplicaci´ on lineal f : V → V  , y sean B = {e1 , . . . , en } y B  = {e1 , . . . , em } bases de V y V  , respectivamente. Supongamos conocidas las im´agenes de e1 , . . . , en por medio de f , referidas a la base B  dadas por ⎧   ⎪ ⎪ ⎨ f (e1 ) = α11 e1 + · · · + α1m em .. (6.1) . ⎪ ⎪ ⎩ f (e ) = α e + · · · + α e n n1 1 nm m

donde αij son escalares. Sea x = μ1 e1 + · · · + μn en un vector de V , y sea y = f (x). Si su imagen es f (x) = μ1 e1 + · · · + μm em se concluye que se verifica el siguiente sistema

113

6.2. MATRICES Y APLICACIONES LINEALES

de ecuaciones param´ etricas de la aplicaci´ on lineal f referidas a las bases B y B : ⎧  ⎪ ⎪ ⎨ α11 μ1 + · · · + αn1 μn = μ1 .. (6.2) . ⎪ ⎪ ⎩ α μ + ··· + α μ  1m 1 nm n = μm lo que nos dice, si tenemos en cuenta (6.1), que f viene totalmente definida a trav´es del conocimiento de f (e1 ), . . . , f (en ). El sistema (6.2) es equivalente a la siguiente ecuaci´ on matricial de f Ö

α11 .. .

···

α1m · · · que abreviamos de la forma

αn1 .. .

èÖ

αnm

μ1 .. .

è

Ö  è μ 1

=

μn

.. . μm

(6.3)

A · μ = μ

donde la matriz A = (αij ) de dimensi´on m×n es la matriz asociada (´ unica)  a la aplicaci´ on lineal f respecto las bases B y B . Sus columnas ordenadas, seg´ un (6.3) y (6.1), est´ an formadas por las coordenadas de f (e1 ), . . . , f (en )  referidas a la base B , mientras que μ y μ son dos vectores columnas constituidos por las coordenadas de x e y referidas a sus bases B y B  , respectivamente. Supongamos en particular que f : Rn → Rm y que B y B  son las bases can´onicas. Entonces, si x = (x1 , . . . , xn ) e y = (y1 , . . . , ym ) el sistema (6.2) adquiere la forma ⎧ ⎪ ⎪ ⎨

α11 x1 + · · · + αn1 xn = y1 .. .

⎪ ⎪ ⎩ α x + ··· + α x 1m 1 nm n

(6.4)

= ym

y la expresi´on matricial (6.3) adquiere la forma Ö

α11 .. .

···

α1m · · ·

αn1 .. . αnm

èÖ

x1 .. . xn

è

Ö

=

y1 .. .

è

(6.5)

ym

que, abreviadamente, representaremos por A x = y. Esta u ´ltima expresi´on, incluso en el caso de que las bases elegidas no sean las can´ onicas, se usa simb´olicamente de forma equivalente a f (x) = y. Nota: La definici´ on expl´ıcita de f y las expresiones (6.4) y (6.5) son equivalentes. Por simple inspecci´ on de una de ellas se reconocen las restantes (v´ease el Ejemplo 6.2.2).

114

6.2.2

6. APLICACIONES LINEALES

Ejemplo

Denotemos f (x1 , x2 , x3 ) = (2x1 , x2 −x3) la aplicaci´ on lineal del Ejemplo 6.1.4. Si escribimos f (x1 , x2 , x3 ) = (y1 , y2 ) entonces las ecuaciones param´etricas respecto a las bases can´ onicas son ®

2x1

x2 − x3

= y1 = y2

y la ecuaci´ on matricial es Ç

6.2.3

2 0 0 0 1 −1

å

Ö

x1 x2 x3

è

Ç

=

å

y1 . y2

Rango de una aplicaci´ on lineal

Se define rango de una aplicaci´ on lineal f , y se denota rang f , a la dimensi´ on de Im f . Si tenemos en cuenta la interpretaci´ on de las columnas de una matriz A asociada a f , y a la Proposici´on 6.1.10, se puede llegar a la conclusi´ on de que rang f = dim Im f = rang A. En consecuencia, si rang A = r entonces r columnas de A linealmente independientes determinan una base de Im f .

6.2.4

Ejemplo

Consideremos la aplicaci´on lineal f del Ejemplo 6.1.4. Sean B = {e1 , e2 , e3 } y B  = {e1 , e2 } bases de R3 y R2 , respectivamente, donde se tiene que e1 = ( 21 , 0, 0), e2 = (0, −1, 0), e3 = (0, 0, 2), e1 = (−1, 0), e2 = (1, −1). Para conocer las columnas de la matriz A asociada a f respecto a dichas bases, hallaremos las coordenadas de f (ei ) respecto a la base B  como sigue: f (e1 ) = f ( 12 , 0, 0) = (1, 0) = −e1 f (e2 ) = f (0, −1, 0) = (0, −1) = e1 + e2 f (e3 ) = f (0, 0, 2) = (0, −2) = 2e1 + 2e2 

(Obs´ervese que las expresiones de f (ei ) respecto B son inmediatas. Cuando no lo son se recurre a la resoluci´ on de una ecuaci´on vectorial. Como ejemplo, en el u ´ltimo caso se escribir´ıa (0, −2) = α31 e1 +α32 e2 lo que conduce a (0, −2) = α31®(−1, 0) + α32 (1, −1) = (−α31 + α32 , −α32 ). Por tanto ha de 0 = −α31 + α32 de soluci´on α31 = 2 y α32 = 2). verificarse que −2 = −α31

115

6.2. MATRICES Y APLICACIONES LINEALES

Ç

å

−1 1 2 . As´ı pues, A = 0 1 2 En consecuencia, la ecuaci´ on matricial de f es Ç

å

−1 1 2 0 1 2

Ö

μ1 μ2 μ3

è

Ç

=

μ1 μ2

å

(6.6)

y las ecuaciones param´etricas son ®

−μ1 + μ2 + 2μ3 = μ1 μ2 + 2μ3 = μ2

(6.7)

Puesto que rang A = 2, entonces dim Im f = 2, por lo que f es suprayectiva. Por el Teorema (de la dimensi´ on) 6.1.11 se tiene que dim Ker(f ) = 1, y por tanto, seg´ un el Teorema 6.1.6, f no es inyectiva. Trataremos de hallar la imagen de x = (2, 1, 2) de varias maneras. En primer lugar, de la definici´on se sigue que f (2, 1, 2) = (4, −1). Para usar las expresiones (6.6) o (6.7) hemos de referir x a la base B. Obviamente (2, 1, 2) = 4e1 − e2 + e3 , y de (6.6), teniendo en cuenta que μ1 , μ2 , μ3 son 4, -1, 1, respectivamente, se obtienen las coordenadas μ1 , μ2 de la imagen f (x), referida a la base B  : Ç

å

Ö

−1 1 2 0 1 2

4 −1 1

è

Ç

=

−3 1

å

.

Utilizando (6.7) se obtienen los mismos valores: μ1 = −3, μ2 = 1.

As´ı pues, f (x) = −3e1 + e2 , es decir, f (x) = −3(−1, 0) + (1, −1) = (4, −1). El c´alculo de la matriz D de f respecto las bases can´ onicas es m´as sencillo, pues se tiene: f (1, 0, 0) = (2, 0), f (0, 1, 0) = (0, 1), f (0, 0, 1) = (0, −1) Ç

å

2 0 0 . y por tanto, D = 0 1 −1 La ecuaci´ on matricial es ahora Ç

å

2 0 0 0 1 −1

Ö

x1 x2 x3

è

Ç

=

y1 y2

å

116

6. APLICACIONES LINEALES

y las ecuaciones param´etricas (comp´arese con el Ejemplo 6.2.2) son: ®

2x1

= y1 x2 − x3 = y 2

de las que se desprende f (x1 , x2 , x3 ) = (2x1 , x2 − x3 ) que es la definici´ on expl´ıcita de f . Recurriendo a estas dos u ´ltimas ecuaciones, con (x1 , x2 , x3 ) = (2, 1, 2), se obtiene y1 = 4, y2 = −1, es decir, f (2, 1, 2) = (4, −1).

6.2.5

Matriz de la aplicaci´ on identidad I

Sea B = {e1 , . . . , en } una base del espacio vectorial V , y hallemos la matriz asociada a la aplicaci´ on identidad I : V → V respecto B. Para ello calculamos f (e1 ) = 1e1 + 0e2 + · · · + 0en f (e2 ) = 0e1 + 1e2 + · · · + 0en .. . f (en ) = 0e1 + 0e2 + · · · + 1en As´ı pues, la matriz asociada a I respecto a una base cualquiera B es, precisamente, la matriz identidad I: ⎛

1 0 ⎜0 1 ⎜ ⎜. . .. I=⎜ ⎜ .. ⎜ ⎝0 · · · 0 ···

0 ··· 0 ··· .. .. . . 0 1 0 0



0 0⎟ ⎟ .. ⎟ .⎟ ⎟ ⎟

0⎠ 1

El pr´oximo punto explica porqu´e denotamos por la misma letra I a dos conceptos (aparentemente) distintos.

6.2.6

Isomorfismo entre aplicaciones lineales y matrices

Las aplicaciones lineales tambi´en se llaman homomorfismos. Se llama endomorfismo a una aplicaci´ on lineal de V en s´ı mismo. Si f : V → V  es una aplicaci´ on lineal biyectiva se llama isomorfismo, y en tal caso se dice que V y V  son isomorfos y se escribe V ≈ V  . Si V ≈ V  podemos confundir los elementos de V con sus im´ agenes en V  , y tratar la estructura de V  en vez de la de V o viceversa. Es posible establecer un isomorfismo el cual permite afirmar que, en cierto modo, matriz y aplicaci´on lineal son dos maneras distintas de referirnos a un mismo concepto.

6.3. APLICACIONES LINEALES Y MATRICES INVERSIBLES

6.2.7

117

Nota

Cuando se habla de la matriz asociada a un endomorfismo respecto a una base B = {e1 , . . . , en }, hemos de suponer que ´esta (manteniendo el orden de los vectores) es la u ´nica que consideramos en los espacios inicial y final, a fin de asociar la matriz al endomorfismo. La siguiente proposici´ on tiene una prueba inmediata que omitimos.

6.2.8

Proposici´ on

Sea A una matriz cuadrada de orden n con coeficientes reales. Si se tiene A x = x para cualquier x = (x1 , . . . , xn )t con xi ∈ R, entonces A = I. El resultado anterior tambi´en se obtiene cuando se impone la igualdad A x = x solamente para los vectores x de una base cualquiera de Rn (o Cn ).

6.3

APLICACIONES LINEALES Y MATRICES INVERSIBLES

Empezaremos la secci´on con una sencilla proposici´on que no demostraremos.

6.3.1

Proposici´ on dim V = dim V  si y s´ olo si V ≈ V 

6.3.2

Nota

Seg´ un este resultado cualquier espacio vectorial real de dimensi´on n es un la secci´ on 5.1.6, el espacio vectorial de isomorfo a Rn . En particular, seg´ las matrices Mm×n con coeficientes reales es isomorfo a Rm·n , lo que permite identificar ambos espacios. La siguiente proposici´ on es una consecuencia inmediata de las secciones 6.1.6 y 6.1.10, y de la Nota 6.1.7.

6.3.3

Proposici´ on

La aplicaci´ on lineal f : V → V  es biyectiva si y s´ olo si f transforma  las bases (una base) de V en bases (base) de V .

118

6.3.4

6. APLICACIONES LINEALES

Composici´ on de aplicaciones lineales

Supongamos que f : V → V  y g : V  → W son aplicaciones lineales. Es f´ acil probar que la aplicaci´ on compuesta g ◦ f : V → W es lineal, y que si F y G son las matrices respectivas de f y g respecto a ciertas bases B, B  y B  fijadas en V , V  y W , respectivamente, entonces G·F es la matriz asociada a g ◦ f respecto a las bases B y B  . El resultado anterior y el isomorfismo entre aplicaciones lineales y matrices permite obtener identificaciones u ´tiles como muestra el siguiente ejemplo.

6.3.5

Ejemplo

Sean f y g dos endomorfismos de V , y supongamos que F y G son sus matrices asociadas respecto a cierta base. Entonces la matriz H de la aplicaci´ on lineal h = 3 I − 2 f + 3 g ◦ f + 5 f ◦ f + 7 f n) es H = 3 I − 2 F + 3 G·F + 5 F 2 + 7 F n . La siguiente proposici´ on es de prueba sencilla.

6.3.6

Proposici´ on Sea f : V → V  lineal y biyectiva. Entonces,

(i) f −1 : V  → V es lineal (y, por supuesto, biyectiva) (ii) Si A y B son las matrices asociadas a f y f −1 , respectivamente, respecto ciertas bases fijadas en V y V  , entonces B = A−1 . Con los resultados anteriores se concluye el siguiente teorema.

6.3.7

Teorema

Sea A una matriz cuadrada de orden n asociada a la aplicaci´ on lineal f : V → V  . Entonces, son equivalentes: (i) f es biyectiva. (ii) A es inversible. (iii) rang A = n. Como consecuencia de este teorema se obtiene el siguiente corolario.

119

6.4. CAMBIOS DE BASE

6.3.8

Corolario

Sean A y B matrices cuadradas de dimensi´ on n. Entonces rang(AB) = n si y s´ olo si rang A = rang B = n.

6.4 6.4.1

CAMBIOS DE BASE Expresi´ on matricial del cambio de base en un espacio vectorial

Sean B = {e1 , . . . , en } y B  = {v 1 , . . . , v n } bases del espacio vectorial V . Supongamos que el vector x tiene las siguientes expresiones respecto B y B  , respectivamente: x = α1 e1 + · · · + αn en x = β1 v 1 + · · · + βn v n B

(6.8)

Supongamos conocidas las coordenadas de los vectores de la nueva base referidas a la antigua B: ⎧ ⎪ ⎪ ⎨ v1 =

p11 e1 + · · · + p1n en .. . ⎪ ⎪ ⎩ v = p e + ··· + p e n n1 1 nn n

(6.9)

Sustituyendo los valores de (6.9) en (6.8), y reescribiendo matricialmente el resultado, se llega a la expresi´ on Ö

α1 .. .

αn

è

Ö

=

p11 · · · .. .

pn1 .. .

p1n · · ·

pnn

è Ö

·

β1 .. .

è

(6.10)

βn

que representaremos de la siguiente forma de interpretaci´on obvia: α = Pβ

(6.11)

A P se le llama matriz de cambio de base o matriz de paso de B a B  . Obs´ervese en (6.10) que las columnas de P son las coordenadas de los vectores de B  referidos a la base B, mientras que α y β son las coordenadas de x en columna referidas a B y B  , respectivamente. Con un razonamiento similar se obtiene la existencia de la matriz cuadrada T que verifica β = T α donde las columnas de T son las coordenadas de los vectores de B referidos a la base B  . A partir de las dos igualdades

120

6. APLICACIONES LINEALES

anteriores se tiene que α = P β = P T α para cualquier vector columna α. En consecuencia, seg´ un la Proposici´ on 6.2.8, P T = I, de lo que se desprende que P y T son inversibles y que T = P −1 . Por tanto se tiene que β = P −1 α, siendo esta ecuaci´ on equivalente a (6.11). En particular, si B es la base can´ onica de Rn , las columnas ordenadas de P son las coordenadas de los vectores v 1 , . . . , v n .

6.4.2

Ejemplo

Sean las bases B = {e1 , e2 } y B  = {v 1 , v 2 } de R2 , donde e1 = (1, 1), e2 = (1, 2), v1 = (3, 4), v2 = (2, 5). Para obtener la matriz de paso P de B a B  resolveremos las ecuaciones vectoriales (3, 4) = v 1 = p11 e1 + p12 e2 = = p11 (1, 1) + p12 (1, 2) = = (p11 + p12 , p11 + 2p12 ) (2, 5) = v 2 = p21 e1 + p22 e2 = = p21 (1, 1) + p22 (1, 2) = = (p21 + p22 , p21 + 2p22 ) que conducen a los dos sistemas equivalentes ® ®

3 = p11 + p12 4 = p11 + 2p12 2 = p21 + p22 5 = p21 + 2p22

cuyas soluciones son p11 = 2, p12 = 1, p21 = −1, p22 = 3, es decir v 1 = 2e1 + e2 v 2 = −e1 + 3e2 As´ı pues

Ç

P =

2 −1 1 3

å

Las coordenadas βi del vector x = (1, 6) respecto a la base B  se deducen de la ecuaci´ on vectorial (1, 6) = β1 v 1 + β2 v 2 = β1 (3, 4) + β2 (2, 5) = (3β1 + 2β2 , 4β1 + 5β2 )

121

6.4. CAMBIOS DE BASE

que conducen al sistema ®

1 = 3β1 + 2β2 6 = 4β1 + 5β2

cuya soluci´ on es β1 = −1, β2 = 2. Si deseamos hallar las coordenadas αi de x respecto a la base B podemos proceder de manera an´aloga a como hemos obtenido βi , o bien resolver la ecuaci´ on matricial formal (6.10) que en nuestro caso se traduce en Ç

α1 α2

å

Ç

=

2 −1 1 3

å Ç

·

−1 2

å

cuya soluci´ on es α1 = −4, α2 = 5. As´ı pues x = −4e1 + 5e2 . Para finalizar observemos que la matriz P −1 (de paso de B  a B) de la ecuaci´ on matricial P −1 α = β, equivalente a la anterior, es Ñ

P −1 =

3 7

1 7

− 17

2 7

é

de la cual concluimos por interpretaci´ on de sus columnas: e1 = e2 =

3 7 v1 1 7 v1

− 17 v 2 + 27 v 2

lo cual el lector puede verificar con los datos iniciales.

6.4.3

Matrices asociadas a una aplicaci´ on lineal

Sea A la matriz asociada a la aplicaci´on lineal f : V → W respecto las bases B y C de V y W , respectivamente; y sea D la matriz asociada a f respecto las bases B  y C  de V y W , respectivamente. Entonces, si P y Q son las matrices de paso de B a B  y de C a C  , respectivamente, teniendo en cuenta la relaci´on (6.11), se llega f´acilmente a que D = Q−1 AP.

(6.12)

La figura siguiente esquematiza las condiciones del p´ arrafo anterior para −1 que se verifique D = Q AP .

122

6. APLICACIONES LINEALES

Cuando A y D son matrices de Mm×n que verifican una relaci´ on del tipo (6.12) se dice que son equivalentes. ´ Esta es una relaci´ on de equivalencia en Mm×n . Se concluye f´ acilmente que dos matrices son equivalentes si y s´ olo si son representaciones matriciales (i.e. matrices asociadas) de una misma aplicaci´ on lineal. En consecuencia, si A y D son equivalentes, tendr´ an el mismo rango.

Como un caso particular de la equivalencia de matrices se tiene la relaci´on de semejanza en el conjunto de las matrices cuadradas Mn : A es semejante a D si existe una matriz inversible P tal que D = P −1 AP.

(6.13)

De nuevo se tiene que A y D son semejantes si y s´olo si A y D son representaciones matriciales de un mismo endomorfismo, la primera referida a una base B y la segunda a una base B  . En tal caso, P es la matriz de paso de B a B  . La figura siguiente esquematiza las condiciones para que se de D = P −1 AP .

6.4.4

Nota La ecuaci´ on (6.12) es equivalente a A = QDP −1

(6.14)

lo cual no es m´as que otra forma de interpretar la relaci´ on entre A y D.

123

6.5. UN POCO DE HISTORIA

En efecto, si T es la matriz de paso de B  a B y S la matriz de paso de C  a C, entonces sabemos que se verifica T = P −1 y S = Q−1 , y acorde con (6.12) ha de verificarse A = S −1 DT , y como S −1 = Q y T = P −1 , entonces se tiene A = QDP −1 .

An´alogamente, la ecuaci´ on (6.13) tambi´en equivale a A = P DP −1 .

6.5

(6.15)

UN POCO DE HISTORIA El concepto de aplicaci´ on lineal, tal y como se ha introducido en este cap´ıtulo, se debe

a Giuseppe Peano (1858-1932), que fue quien introdujo los axiomas que definen un espacio vectorial. Sin embargo, previamente, Jean Bernouilli (1667–1748) en una carta enviada a Gottfried Leibniz (16146-1716) en 1715, introdujo los planos coordenados en R3 tal como los conocemos hoy en d´ıa. Fue el punto de partida para el estudio de las ecuaciones de las principales transformaciones geom´etricas en el espacio (proyecciones, simetr´ıas y giros). Se producen importantes avances de la mano de Leonhard Euler (1707-1783) y JosephLouis Lagrange (1736-183). El primero al realizar traslaciones para facilitar su estudio de la ecuaci´ on general de segundo grado y el segundo fue quien proporcion´ o la forma general de los movimientos que conservan distancias. Por otra parte, se debe a Arthur Cayley (18211895) la descripci´ on matricial de las ecuaciones de los diferentes tipos de transformaciones geom´etricas.

6.6

EJERCICIOS RESUELTOS

R6.1 Sea la funci´on f : R → R dada por f (x) = a x + b, con a, b ∈ R y b = 0. Probar que f no es lineal. Soluci´ on: f (0) = a · 0 + b = b = 0, por lo que seg´ un la propiedad (b) de 6.1.2, f no es lineal.

R6.2 sea la aplicaci´on f : R2 → R3 dada por f (x, y) = (x, 0, 0) (i) Probar que f es lineal. (ii) Hallar Ker(f ) y una base de Ker(f ). Ded´ uzcase dim Im(f ). (iii) H´allese una base de Im(f ). (iv) Clasifica f . Soluci´ on: (i) Sea α ∈ R, (x1 , y1 ), (x2 , y2 ) ∈ R2 . Se verifica L1. En efecto: f ((x1 , y1 ) + (x2 , y2 )) = f (x1 + x2 , y − 1 + y2 ) = (x1 + x2 , 0, 0). Por otra parte, f (x1 , y1 ) + f (x2 , y2 ) = (x1 , 0, 0) + (x2 , 0, 0) = (x1 + x2 , 0, 0)

124

6. APLICACIONES LINEALES

Se verifica tambi´en L2. En efecto: f (α (x1 , y1 )) = f (α x1 , α x2 ) = (α x1 , 0, 0) = α (x1 , 0, 0) = α f (x1 , y1 )





(ii) Ker(f ) = (x, y) ∈ R2 : f (x, y) = (0, 0, 0) . Por tanto se ha de verificar (x, 0, 0) = (0, 0, 0), es decir x = 0, sin restricciones para y ∈ R. As´ı pues, Ker(f ) = {(0, y) : y ∈ R} = (0, 1). Una base de Ker(f ) es {(0, 1)}. Como dim Ker(f ) = 1, entonces por el Teorema de la dimensi´ on se tiene 2 = 1 + dim Im(f ). Por tanto, dim Im(f ) = 1. onica de R2 , entonces f (u1 ), f (u2 ) = Im(f ). Se (iii) Si {u1 , u2 } es la base can´ tiene f (u1 ) = f (1, 0) = (1, 0, 0), f (u2 ) = f (0, 1) = (0, 0, 0). Por tanto (1, 0, 0), (0, 0, 0) = (1, 0, 0) = Im(f ). Obviamente, {(1, 0, 0)} es base de Im(f ). (iv) Como Ker(f ) = {0} entonces f no es inyectiva. Como dim Im(f ) = 1 < 3 = dim R3 entonces f no es suprayectiva.

R6.3 Sea la aplicaci´on lineal f : R3 → R3 dada por f (x, y, z) = (x + y, 0, z). (i) H´allese una base de Ker(f ). Ded´ uzcase dim Im(f ) (ii) H´allese una base de Im(f ). (iii) Clasifica f . Soluci´ on: (i) Ker(f ) = {(x, y, z) ∈ R3 : f (x, y, z) = (0, 0, 0)}. Por tanto, de (x + y, 0, z) = (0, 0, 0) se concluye  x+y = 0 0 = 0 , z = 0 cuya soluci´ on es y = −x, z = 0. As´ı pues: Ker(f ) = {(x, −x, 0) : x ∈ R} = (1, −1, 0). Una base de Ker(f ) es {(1, −1, 0)}. Como dim Ker(f ) = 1, entonces del Teorema de la dimensi´ on se tiene: 3 = 1 + dim Im(f ), es decir dim Im(f ) = 2. onica de R3 , entonces Im(f ) = f (u1 ), f (u2 ), f (u3 ). (ii) Si {u1 , u2 , u3 } es base can´ Se tiene f (u1 ) = f (1, 0, 0) = (1, 0, 0) f (u2 ) = f (0, 1, 0) = (1, 0, 0) f (u3 ) = f (0, 0, 1) = (0, 0, 1) As´ı pues, Im(f ) = (1, 0, 0), (0, 0, 1). Una base de Im(f ) es {(1, 0, 0), (0, 0, 1)}. (iii) Como Ker(f ) = {0}, entonces f no es inyectiva. Como dim Im(f ) = 2 < 3 (= dim R3 ), entonces f no es suprayectiva.

R6.4

(i) Halla la matriz A de la aplicaci´on lineal del Ejercicio R6.3 (f (x, y, z) = (x + y, 0, z)) respecto de la base can´onica (ii) H´allese la ecuaci´ on matricial y las ecuaciones param´etricas.

125

6.6. EJERCICIOS RESUELTOS

(iii) H´allese f (2, 1, −3) usando la ecuaci´on matricial. 



Soluci´ on:

1 1 0 0 0 0 . (i) Por simple inspecci´ on de f se tiene A = 0 0 1 (A la misma conclusi´ on se llega escribiendo en columnas f (u1 ), f (u2 ), f (u3 ). En efecto, f (1, 0, 0) = (1, 0, 0), f (0, 1, 0) = (1, 0, 0), f (0, 0, 1) = (0, 0, 1)).        x1 y1 x1 +x2 = y1 1 1 0 x2 y2 , 0 = y2 0 0 0 (ii) · = x3 y3 x 3 = y3 0 0 1 (iii) Es obvio que f (2, 1, −3) = (3, 0, −3). Si usamos la ecuaci´ on matricial, tambi´en se tiene:



R6.5

1 0 0

1 0 0

 

0 0 1

·

2 1 −3





=

3 0 −3



(i) H´ allese la matriz D de la aplicaci´on lineal, f , del Ejercicio R6.3, respecto  de la base B = {e1 , e2 , e3 } en ambos espacios, siendo e1 = (1, 0, 0), e2 = (1, 1, 1) , e3 = (0, 0, −1). (ii) H´allense las ecuaciones maricial y param´etrica de f . (iii) Util´ıcese (ii) para hallar f (2, 1, −3) Soluci´ on: (ii) Se tiene



f (e1 ) f (e2 ) f (e3 )

1 2 0 0 As´ı pues D = 0 −1 (ii) La ecuaci´ on matricial de



f (1, 0, 0) = e1 , f (1, 1, 1) = (2, 0, 1) = 2 e1 − e3 , f (0, 0, −1) = e3 .

= = =

1 0 0



0 0 . 1 f es: 2 0 −1

 

0 0 1

·

λ1 λ2 λ3



 =

μ1 μ2 μ3

 .

Las ecuaciones param´etricas son:



λ1

+2 λ2 0 −λ2

= μ1 = μ2 +λ3 = μ3

(iii) Como (2, 1, −3) = e1 + e2 + 4e3 , entonces usando la expresi´ on matricial obtenemos su imagen



1 0 0

2 0 −1

0 0 1

  ·

1 1 4





=

3 0 0



.

As´ı que f (e1 + e − 2 + 4e3 ) = 3e1 + 3e3 . (Obs´ervese que 3e1 + 3e3 = 3 (1, 0, 0) + 3 (0, 0, −1) = (3, 0, −3) que coincide con el Ejercicio R6.4 (iii).

126

6. APLICACIONES LINEALES

R6.6 H´ allese la matriz D de la aplicaci´on lineal f del Ejercicio R6.5 usando la matriz  A del Ejercicio R7.4 y la matriz de paso P de la base can´ onica a B . Soluci´ on: De e1 = (1, 0, 0), e2 = (1, 1, 1) y e3 = (0, 0, −1), deducimos la matriz  de paso P de la base can´ onica a B :



1 0 0

P =

1 1 1

0 0 −1

 Sabemos que D = P

 D=

1 0 0

−1 1 −1

−1

0 0 −1

· A · P . Como P

 

1 0 0

·

1 0 0

0 0 1

−1

·

−1 1 −1

1 0 0

=

 



1 0 0

1 1 1



0 0 −1

0 0 −1

, entonces



 =

1 0 0

2 0 −1

0 0 1

 .

R6.7 Sea f : Å R3 → R2 una on lineal cuya matriz respecto a la base can´onica ã aplicaci´ 1 1 0 es A = . H´ allese la matriz D de f respecto a la base can´onica de 0 2 2  R3 y a la base C = {e1 , e2 } de R2 , donde e1 = (1, 2) y e2 = (3, 5). De e1 = (1, 2) Åy e2 = (3, ã 5) deducimos que la matriz de paso, Q, de la  1 3 base can´ onica a C es Q = . La matriz de paso P de la base can´ onica de 2 5 3 −1 −1 −1 R3 a la base can´ Å onica de Rã es I. As´ı pues D = Q · A · P = Q · A · I = Q · A . −5 3 Como Q−1 = , entonces 2 −1 Soluci´ on:

Å

D=

−5 2

ã Å

3 −1

·

1 0

1 2

0 2

ã

Å

−5 2

=

1 0

6 −2

ã

una aplicaci´on lineal cuya matriz respecto la base can´ onica R6.8 Sea f : ÅR2 → R2 ã 1 2 es A = . 1 −1 (i) H´allese la definici´ on expl´ıcita de f . 

(ii) H´allese la matriz D de f respecto la base B = {e1 , e2 } en ambos espacios, siendo e1 = (1, 1) y e2 = (0, −1) (iii) H´allese la matriz P de paso de la base can´ onica a B



(iv) H´allese D utilizando el apartado (iii). Soluci´ on: (i) Por simple inspecci´ on de A se tiene f (x1 , x2 ) = (x1 + 2x2 , x1 − x2 ) (ii) Se tiene f (e1 ) f (e2 )

Å Por tanto D =

3 3

= =

−2 −3

ã .

f (1, 1) = (3, 0) = 3e1 + 3e2 f (0, −1) = (−2, 1) = −2e1 − 3e2

127

6.6. EJERCICIOS RESUELTOS

(iii) Sean u1 = (1, 0) y u2 = (0, 1). los vectores de la baseÅcan´ onica.ã Como 1 0 e1 = (1, 1) = u1 + u2 y e2 = (0, −1) = −u2 , entonces P = . 1 −1

Å

(iv) Se sabe que D = P −1 · A · P . Como P −1 = entonces

Å D=

1 1

0 −1

ã Å ·

1 1

2 −1

ã Å ·

1 1

1 1

0 −1

ã−1

0 −1

Å

=

ã

Å =

−2 −3

3 3

1 1

ã

0 −1

,

ã

R6.9 Sea f : R3 → R2 una aplicaci´on lineal cuya matriz A respecto a las bases B = {e1 , e2 , e3 } y C = {v 1 , v 2 } es Å ã 2 0 −1 A= , −1 1 0 siendo e1 = (1, 0, 0), e2 = (0, 1, 1), e3 = (0, 0, −1), v 1 = (1, 1) y v 2 = (0, 1). (i) H´allese la matriz de paso P de B a la base can´ onica de R3 , y la matriz 2 de paso Q de C a la base can´ onica de R . (ii) H´allese la matriz D de f respecto las bases can´ onicas. Soluci´ on: (i)

 Por tanto P =

u1 u2 u3 1 0 0

0 1 1

= = =

0 0 −1



(1, 0, 0) = e1 , (0, 1, 0) = e2 + e3 , (0, 0, 1) = −e3 .

.

Por otra parte,

Å Por tanto Q =

u1 u2

1 −1

0 1

ã

= =

(1, 0) = v 1 − v 2 , (0, 1) = v 2 .

.

Å

(ii) Sabemos que D = Q−1 · A · Q. Como Q−1 =

Å D=

1 1

0 1

ã Å ·

2 −1

0 1

−1 0

ã  1 ·

0 0

0 1 1

1 1

0 1 0 0 −1

ã , entonces



Å =

2 1

−1 0

1 1

ã .

R6.10 Respecto a ciertas bases, las aplicaciones lineales: f : R2 → R3 , g : R3 → R2 y h : R3 → R3 tienen por matrices asociadas, respectivamente, a é é Ñ Ñ Å ã 1 1 1 1 1 1 2 1 0 2 1 1 0 . , G= yH= F = 3 1 0 0 0 3 2 3

128

6. APLICACIONES LINEALES

Clasificar dichas aplicaciones lineales. Soluci´ on: dim Im(f ) = rang F = 2 < 3 = dim R3 (espacio final). As´ı pues, f no es suprayectiva. Por el teorema de la dimensi´ on de aplicaciones lineales, se tiene 2 = dim Ker(f ) + 2. por tanto dim Ker(f ) = 0, y en consecuencia, f es inyectiva. dim Im(g) = rang G = 2 = dim R2 (espacio final). Por tanto, g es suprayectiva. Por el teorema de la dimensi´ on de aplicaciones lineales, se tiene 3 = dim Ker(g) + 2. Por tanto, dim Ker(g) = 1, y en consecuencia g no es inyectiva. H es una matriz cuadrada y rang H = 3. En consecuencia H es inversible y por tanto h es biyectiva. (El lector puede argumentar como los casos anteriores prara concluir que h es suprayectiva e inyectiva).

129

Cap´ıtulo 7

DETERMINANTES La teor´ıa de determinantes es importante en matem´ aticas porque simplifica en ocasiones la manera de exponer un problema y tambi´en la resoluci´on de ´este. Por otra parte, el c´alculo de determinantes de grandes dimensiones no es obst´aculo para los ordenadores. En este cap´ıtulo, los determinantes nos ofrecer´an un nuevo m´etodo para obtener el rango de una matriz, y una manera sencilla de representar la inversa de una matriz cuando exista. En pr´oximos cap´ıtulos, nos simplificar´ a la descripci´on de las ra´ıces de un sistema de ecuaciones lineales, y nos conducir´a a la ecuaci´ on caracter´ıstica de un endomorfismo.

7.1 7.1.1

DETERMINANTE DE ORDEN n Signatura de una permutaci´ on

Sea el conjunto de n naturales In = {1, 2, . . . , n} con n ≥ 2. El n´ umero de reordenaciones (permutaciones) distintas posibles con los elementos de In es n!, y se identifica con las n! posibles aplicaciones biyectivas que pueden establecerse de In en In . on biyectiva, sus im´agenes ordenadas Si i : In → In es una aplicaci´ on de In . i(1), . . . , i(n), que escribiremos i1 , . . . , in , constituyen una permutaci´ La permutaci´ on 1, 2, . . . , n se dice que est´ a escrita en su orden natural. Si i1 , . . . , ik , . . . , ir , . . . , in es otra permutaci´on cualquiera de In , dado on con ir si ir est´ a a la derecha ik ∈ In diremos que ik constituye una inversi´ de ik e ik > ir . El n´ umero de inversiones de una permutaci´ on ser´a la suma de las

130

7. DETERMINANTES

inversiones de cada elemento de la permutaci´on con los que le siguen a la derecha. Si dicho n´ umero es cero o par se dice que la permutaci´ on es (de ´ındice) par, y en caso contrario impar. A la permutaci´on i1 , . . . , in le atribuiremos el valor 1 o´ -1 (signos + ´o -, respectivamente), que llamaremos signatura de la permutaci´ on, y se un que la permutaci´ on sea par o impar. escribir´a sg(i1 , . . . , in ), seg´ Se verifica que la mitad de las permutaciones de In son pares. A modo de ejemplo recogeremos en la siguiente tabla los conceptos descritos para el conjunto {1, 2, 3}. Permutaci´ on 123 132 213 231 312 321

7.1.2

No de inversiones 0 1 1 2 2 3

´ Indice par impar impar par par impar

sg + − − + + −

Determinante de orden n

En cuanto sigue, supondremos que A = (aij ) es una matriz cuadrada de dimensi´ on n ≥ 2 con coeficientes aij en el cuerpo R (salvo que se explicite su pertenencia a C). La fila y columna i-´esima de A se denotar´ an Ai y Ai , respectivamente. Vamos a asignar a la matriz A el siguiente escalar, que denotaremos |A|, y llamaremos determinante de A:   a11   a  21 |A| =  .  ..   an1

a12 a22 .. .

··· ···

an2 · · ·

     = sg(i1 , . . . , in ) a1i1 a2i2 · · · anin   P  ann 

a1n a2n .. .

(7.1)

donde el sumatorio se extiende al conjunto P de todas las permutaciones i1 , . . . , in del conjunto {1, 2, . . . , n}. Cada sumando de (7.1) est´a constituido por un producto de n factores a1i1 a2i2 · · · anin que pertenecen ordenadamente a la primera fila, segunda,. . . , de la matriz A, sin que pueda haber dos factores de una misma columna de A, dado que los segundos sub´ındices constituyen una permutaci´ on i1 , . . . , in de In , cuya signatura define el signo algebraico del sumando. Al hablar de fila (columna) i-´esima de |A|, nos referiremos al vector fila Ai (columna Ai ) de la matriz A.

131

7.1. DETERMINANTE DE ORDEN n

Para n = 1, definimos el determinante |a11 | = a11 . El lector comprobar´a que ello extiende la validez de los pr´ oximos resultados, cuando se requiere el concepto de determinante de orden 1.

7.1.3

Determinante de orden 3 y de orden 2 Atendiendo a la signatura de las permutaciones de {1, 2, 3}, se tiene:   a  11   a21   a31

a12 a13 a22 a23 a32 a33

     =  

a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31

La anterior expresi´on, cuando se esquematiza, conduce a la conocida regla de Sarrus que se puede representar como la suma de los productos de los elementos que aparecen indicados en la figura inferior izquierda, menos la suma de los productos de los que aparecen en la figura inferior derecha.

Otra sencilla regla para el c´alculo del determinante de orden 3, se observa en el siguiente diagrama. -

-

-

a11 a12 a13 a11 a12 a21 a22 a23 a21 a22 a31 a32 a33 a31 a32 +

+

+

El c´alculo de un determinante de orden 2 es sencillo pues   a  11   a21

a12 a22

    = a11 a22 − a12 a21 

seg´ un la Definici´on (7.1).

7.1.4

Ejemplos

   1 2 1      (a) Para hallar  5 2 1  usamos el diagrama anterior que resulta    1 2 4     1 2 1       5 2 1  = 1 · 2 · 4 + 2 · 1 · 1 + 1 · 5 · 2 − 1 · 2 · 1 − 2 · 1 · 1 − 4 · 5 · 2 = −24    1 2 4 

132

7. DETERMINANTES

   −i −1    (b)   = (−i) · i − (−1) · 1 = −i2 + 1 = 2  1 i 

7.1.5

Propiedades de los determinantes de orden n

(a) Si la matriz A tiene una fila nula, entonces |A| = 0. La prueba es obvia por (7.1).

(b) Si una fila de A se multiplica por el escalar k, la nueva matriz B verifica |B| = k·|A|. La prueba es obvia por (7.1).

(c) Si la matriz B se deduce de A al intercambiar dos filas contiguas, se tiene |B| = −|A|. La prueba es laboriosa y se omite.

(d) Si la matriz B se deduce de A al intercambiar dos filas (paralelas y distintas), se tiene |B| = −|A|. Con un razonamiento sencillo se prueba que mediante un n´ umero impar de intercambios contiguos de filas, se convierte A en B y, por tanto, seg´ un la propiedad (c) se tiene que |B| = −|A|.

(e) Si dos filas de A son iguales, entonces |A| = 0. En efecto, al intercambiar las dos filas iguales de A, se verifica seg´ un (d) que |A| = −|A| y, por tanto, |A| = 0.

(f) Si dos filas de A son proporcionales, entonces |A| = 0. En efecto, aplicando la propiedad (b) se tiene:

 a11 ···  .  .  .  ai1 ···  .  .  .  kai1 ···  .  .  .



 a11  .  .  .  ai1 ain    ..  = k  ..  . .   ai1 kain    . ..   .  . .  ..  . 

a1n

an1 ··· ann

··· a1n



··· ain

 

··· ain

 

..  . 

..  = k·0 = 0, seg´ un (e). .  ..  . 

an1 ··· ann

(g) Si B = (bij ) y C = (cij ) son matrices id´enticas a la matriz A = (aij ) salvo la fila k-´esima, entonces:   a11   .  ..   |B| + |C| =  bk1   ..  .   a

n1

··· ··· ···

    a11     .   ..     bkn  +  ck1 ..   .. .   . a   a

a1n .. .

nn

n1

··· ··· ···

       ckn  = ..  .  a 

a1n .. .

nn

133

7.1. DETERMINANTE DE ORDEN n

  a11   ..  .   =  bk1 + ck1  ..   .   a n1

··· ··· ···

       bkn + ckn   ..   .   ann

a1n .. .

En efecto, cada sumando del determinante del u ´ltimo miembro seg´ un (7.1) se convierte en una suma de dos sumandos que son precisamente los “correspondientes” de |A| y |B|, respectivamente.

(h) Si la matriz B se deduce de A al sustituir la fila Ai de A por Ai + k·Aj con k ∈ K, i = j, entonces |B| = |A|. En efecto, seg´ un la propiedad (g) se tiene:

 a11 ···   ..  .  ai1 +ka j1 ···   . .   a. ··· j1   .   a .. ··· n1  a11   .  ..  ai1   =  ...  aj1   .  .. a

n1

    ain +kajn    .. = .  ajn   ..  .  ann   a11 ··· a1n   ..   .. .   . ··· ain   kaj1 ..  +  .  .   .. ··· ajn   aj1 ..   .. .   . ··· a a a1n

.. .

nn

n1

··· a1n

 

··· kajn



··· ajn



..  . 

..  = |A| .  ..  . 

··· ann

seg´ un la propiedad (f).

Por aplicaci´ on reiterada de la anterior propiedad, se tiene: (i) |A| no var´ıa si a una fila se la suma una combinaci´on lineal de otras paralelas. (j) |A| = |At |. La prueba es laboriosa y se omite.

De la u ´ltima propiedad se obtiene que todas las propiedades antes mencionadas para filas, tambi´en se verifican por columnas.

7.1.6

Ejemplos Por las propiedades (a), (e) y (f) se tiene   0    1

0 2

    = 0, 

  1    1

2 2

    = 0, 

   1 −3    =0   −2 6 

134

7. DETERMINANTES

Recordando el valor del determinante de (b) de los Ejemplos 7.1.4 y por las propiedades (b) y (c) se tiene, respectivamente,   −i −1    −3 −3i

     −i −1      = (−3)   = (−3) · 2 = −6,   1 i 

  1 i    −i −1

    = −2. 

Recordando el valor del determinante de (a) de los Ejemplos 7.1.4 y por las propiedades (d), (g) y (j), respectivamente, se tiene

  1 2    3 1   1 2

7.2 7.2.1

    −     1     0 +   4         













 1 2 4  1 2 1       5 2 1  =  5 2 1  = 24     1 2 1  1 2 4   1 2 1  1 2 1       2 1 1  =  5 2 1  = −24     1 2 4  1 2 4  

1 5 1   2 2 2  = −24  1 1 4 

DESARROLLO DE UN DETERMINANTE Menor complementario y adjunto

Dada la matriz A = (aij ), i, j = 1, 2, . . . , n se llama matriz menor complementaria del elemento aij en A a la matriz cuadrada Mij de dimensi´on n − 1 resultante al suprimir en A la fila i-´esima y la columna j-´esima. Al determinante |Mij | se le denomina menor complementario de aij . Al real (−1)i+j |Mij | se le llama adjunto del elemento aij y se escribe Aij . A la matriz (Aij ) la denominaremos matriz de adjuntos de A. La traspuesta (Aij )t es la traspuesta de la matriz de adjuntos de At . La asignaci´on de signos (−1)i+j se corresponde con el siguiente diagrama à

+ − + − ··· − + − + ··· + − + − ··· .. .. .. . . . . . . . . .

í

135

7.2. DESARROLLO DE UN DETERMINANTE

7.2.2

Ejemplo Ö

è

1 0 0 A = (aij ) = . Entonces los coeficientes Aij de la 3 2 0 −1 2 −3 matriz de adjuntos (Aij ) de A son:      2  3  3 2  0  0      A11 =   = −6, A12 = −   = 9, A13 =   = 8,  2 −3   −1 −3   −1 2         1 0   1  0 0  0      A21 = −  = −3, A23 = −  = −2,  = 0, A22 =   −1 2   −1 −3   2 −3         0 0   1 0   1 0        A31 =   = 0, A32 = −   = 0, A33 =   = 2.  2 0   3 0   3 2  Ö

Por tanto, Aij =

−6 9 8 0 −3 −2 0 0 2

Ö

As´ı, (Aij )t = Aji =

−6 0 0 9 −3 0 8 −2 2

è

. è

.

El lector verificar´a que (Aij )t es la matriz de adjuntos de At . Omitiremos la prueba de la siguiente proposici´on.

7.2.3

Proposici´ on

Si en la fila (columna) k-´esima de A los elementos distintos del elemento aks son ceros, entonces |A| = aks · |Aks |.

7.2.4

Proposici´ on (desarrollo de un determinante)

El determinante de A es igual a la suma de los elementos de una fila (columna) multiplicados por sus respectivos adjuntos. Demostraci´ on. Podemos escribir por aplicaci´ on reiterada de la propiedad (g) de 7.1.5:

  a11   ..  .  |A| =  ak1  ..  .   an1

a12 .. . 0 .. . an2

··· ··· ···

a1n−1 .. . 0 .. . ann−1

a1n .. . 0 .. . ann

    a11     ..   .   + 0     ..   .     an1

a12 .. . ak2 .. . an2

··· ··· ···

a1n−1 .. . 0 .. . ann−1

a1n .. . 0 .. . ann

           

136

7. DETERMINANTES

  a11   ..  .  + · · · +  0  ..  .   an1

a12 .. . 0 .. . an2

··· ··· ···

a1n−1 .. . 0 .. . ann−1

a1n .. . akn .. . ann

           

en donde los determinantes del segundo miembro coinciden con |A| salvo en la fila k-´esima en la que los elementos de ak1 , . . . , akn son ceros en los respectivos determinantes. Entonces, por la Proposici´ on 7.2.3 se tiene: |A| = ak1 · Ak1 + ak2 ·Ak2 + · · · + akn ·Akn , expresi´ on que se conoce como desarrollo de un determinante por la fila k-´esima. 

La prueba para columnas es una consecuencia de (j) de 7.1.5.

7.2.5

Proposici´ on (determinante de una matriz triangular)

Si A = (aij ) es una matriz triangular, su determinante es el producto de los elementos de la diagonal.

7.2.6

C´ alculo pr´ actico de determinantes

La utilizaci´ on sucesiva de la propiedad (i) de 7.1.5, nos da un procedimiento para “triangularizar” un determinante, de manera muy similar al proceso de reducci´ on de Gauss que usamos para hallar rangos de matrices, lo que proporciona un nuevo m´etodo para calcular determinantes, por aplicaci´ on de la Proposici´ on 7.2.5. En la pr´ actica, para el c´ alculo de un determinante, se usan los diversos m´etodos conjuntamente, que se consideran m´ as apropiados.

7.2.7   2  (a)  1  2

Ejemplo 0 −3 1

0 0 5

    = 2 · (−3) · 5 = −30  

    (b) Vamos a calcular el determinante D =   



1 1 2 1   2 3 0 0  . 3 5 2 1  4 1 2 4  Observando los ceros de la segunda fila, optamos por un desarrollo de D por dicha fila: D = =

  1  −2  5  1

2 1 2 1 2 4 −2 D1 + 6 D2

    1 2    +3 3 2     4 2

1 1 4

    1 1    = −2D1 + 3 · 2  3 1     4 1

seg´ un la propiedad (b) de 7.1.5, aplicada a la segunda columna. En el Ejemplo 7.1.6 se ha obtenido D1 = −24.

1 1 4

     

137

7.3. MATRIZ INVERSIBLE

El c´ alculo del segundo determinante D2 lo haremos de dos maneras distintas por “triangularizaci´ on”, teniendo en cuenta la propiedad (b) de 7.1.5, anotando a la derecha los c´ alculos realizados, por filas.

  1  D2 =  3  4

1 1 1

1 1 4

  1  = 0   0

1 −2 −3

1 −2 0

(2a ) − 3(1a ) (3a ) − 4(1a )

siguiendo el proceso, 1 0 0

1 −2 −3

1 1 −2 = 0 0 0

1 −2

1 −2

0

3

(3a ) −

3 a (1 ) 2

As´ı pues, como D2 es el determinante de una matriz triangular, se tiene por la Proposici´ on 7.2.5 que D2 = 1 · (−2)·3 = −6. El valor del segundo determinante tambi´en se puede obtener como sigue: 1 0 0

1 −2 −3

1 1 1 −2 = 0 2 0 0

1 −2 0

1 −2 6

2(3a ) − 3(2a )

1 Obs´ervese el factor que ha aparecido en la u ´ltima expresi´ on, atendiendo a (b) de 2 ´ 7.1.5. Este es un detalle que el principiante acostumbra a omitir err´ oneamente, por su similitud con el c´ alculo del rango de una matriz por el proceso de Gauss. As´ı pues, 1 D2 = ·1·(−2)·6 = −6. 2 En consecuencia, D = −2 D1 + 6 D2 = −2·(−24) + 6 · (−6) = 12.

7.3 7.3.1

MATRIZ INVERSIBLE Proposici´ on Si rang(A) < n entonces |A| = 0.

Demostraci´ on. Si rang(A) < n, podemos encontrar matrices elementales E1 , . . . , Er de manera que Er · · · E1 ·A = C, siendo C una matriz con una fila nula. Entonces, A = E1−1 · · · Er−1 ·C, donde E1−1 , . . . , Er−1 son matrices elementales y es f´ acil probar que: |A| = |E1−1 · · · Er−1 ·C| = |E1−1 | · · · |Er−1 |·|C| = 0 ya que |C| = 0.



Omitimos la demostraci´on del siguiente teorema.

7.3.2

Teorema

Sean A y B matrices cuadradas de dimensi´on n. Se verifica la igualdad |A·B| = |A|·|B|.

138

7. DETERMINANTES

7.3.3

Corolario A es inversible si y s´olo si |A| es distinto de 0. En tal caso, |A−1 | = |A|−1 .

Demostraci´ on. Si A tiene inversa A−1 se verifica A·A−1 = I, con lo que |A|·|A−1 | = |I| = 1, y por tanto, |A| = |A−1 |−1 es distinto de 0. Rec´ıprocamente, si A no es inversible, se tiene, seg´ un el Teorema 6.3.7, que rang(A) < n, y por la Proposici´ on 7.3.1 se concluye que |A| = 0.

7.3.4



Nota

Si una matriz triangular inferior (Aij ) (superior) es inversible, entonces A−1 es 1 tambi´en triangular inferior (superior) y adem´ as los elementos de su diagonal son . aii Si A es una matriz sim´etrica inversible entonces A−1 es tambi´en sim´etrica (ver ejercicio R7.11)

7.3.5

Proposici´ on

La suma de los productos de los elementos de la fila k-´esima de |A| por los correspondientes adjuntos de una fila r-´esima distinta, es nula. Demostraci´ on. Consideremos la matriz A = (aij ) que tiene iguales las filas k-´esima y r-´esima. Entonces sabemos que |A| = 0 y haciendo un desarrollo de |A| por la fila r-´esima se tiene: |A| = ar1 Ar1 + · · · + arn Arn = ak1 Ar1 + · · · + akn Arn = 0.

7.3.6



C´ alculo de la matriz inversa

Sea la matriz inversible A = (aij ). Teniendo en cuenta que |A| = 0 podemos realizar el siguiente producto matricial, donde Aij es el adjunto de aij en la matriz A: ⎛

a11 · · · ⎜ . ⎜ .. ⎜ ⎜ ⎜ ai1 ⎜ ⎜ .. ⎝ .

···

an1 · · ·



a1n .. ⎟ . ⎟

⎟ 1 ⎟ · ain ⎟ · .. ⎟ ⎟ |A| . ⎠

Ö

A11 · · · .. .

Aj1 · · · .. .

Ann .. .

A1n · · ·

Ajn · · ·

Ann

è

= (cij ) ,

ann

en donde cij =

1 (ai1 Aj1 + · · · + ain Ajn ). Entonces, si i = j, se tiene: |A|

cii =

|A| ai1 Ai1 + · · · + ain Ain = =1 |A| |A|

139

7.3. MATRIZ INVERSIBLE

mientras que si i = j entonces, por la Proposici´on 7.3.5, se tiene cij = 0 con lo que (cij ) = I. En consecuencia, seg´ un el Teorema 5.5.5, la inversa de A es Ö

A−1 =

1 · |A|

A11 .. .

···

A1n · · ·

An1 .. .

è

,

Ann

es decir, si existe, la inversa de A es la traspuesta de su matriz de adjuntos, (Aji ), dividida por el determinante de A.

7.3.7

Ejemplo Ö

La matriz triangular inferior A = |A| = 1 · 2 · (−3) = −6.

1 0 0 3 2 0 −1 2 −3

è

es inversible pues

Seg´ un Ö el Ejemplo 7.2.2 de A Ö de adjuntos è è la traspuesta de la matriz −6 0 0 −6 0 0 1 = 9 −3 0 9 −3 0 es (Aji ) = . Por tanto A−1 = − 6 8 −2 2 8 −2 2 Ö è 1 0 0 0 que es de nuevo triangular inferior (ver Nota 7.3.4). − 32 21 − 34 31 − 13

7.3.8

Aplicaci´ on al c´ alculo del rango de una matriz

Seg´ un el Corolario 7.3.3, el c´ alculo de determinantes nos ofrece el siguiente m´etodo alternativo al proceso de Gauss para hallar el rango de una matriz: Si C es una matriz de dimensi´ on r × s, el rango de C es la dimensi´ on n de la “submatriz” A cuadrada de mayor dimensi´on con |A| distinto de 0, es decir, el m´aximo orden posible de un menor no nulo. Demostraci´ on. En efecto, si rang C = n, significa que existen n filas y n columnas linealmente independientes, con las que podemos formar una submatriz cuadrada A de C, de manera que rang A = n, y por tanto |A| es distinto de 0. Por otra parte, no puede existir una submatriz cuadrada B de C de dimensi´ on m con m > n y |B| distinto de 0, pues entonces rang B = m y en tal caso es f´ acil verificar rang C = m, en contra de lo supuesto.



140

7. DETERMINANTES

7.3.9

Ejemplo Ö

è

2 1 2 1 2 5 2 1 La matriz A = tiene rango 3, pues el determinante 2 1 2 4 formado por las tres u ´ltimas columnas, seg´ un (a) del Ejemplo 7.1.4, es distinto de cero.

7.4

UN POCO DE HISTORIA Aunque, teniendo en cuenta lo expuesto en este libro, los determinantes aparecen

despues de ser definidas las matrices y van asociados a matrices cuadradas; en realidad los determinantes son anteriores en el tiempo a las matrices. Los determinantes surgieron cuando se abord´ o la resoluci´ on de sistemas de ecuaciones lineales. La palabra ‘determinante” fue usada por primera vez por Carl Friedrich Gauss (1777-1855), y la aplic´ o Agustin Cauchy (1789–1857) a los determinantes ya aparecidos en el siglo XVIII, debi´endose a Cauchy la ordenaci´ on de los elementos en estructura de tabla y la notaci´ on de sub´ındices dobles para sus elementos. Anteriormente, en 1693, Gottfried Leibniz (1646–1716), al formalizar y resolver un sistema de tres ecuaciones lineales con tres inc´ ognitas, obtuvo un valor que correspond´ıa a un determinante. Gabriel Cramer (1704–1752) public´ o en 1750 un libro, titulado Introduction ` a l’analyse des lignes courbes alg´ebriques donde aparec´ıa la regla para obtener los coeficientes de una c´ onica general que pasaba por 5 puntos dados, utilizando determinantes. Pero fue Alexandre T. Vandermonde (1735–1796) el primero en exponer de forma coherente y l´ ogica la teor´ıa de los determinantes, aplic´ andolos a los sistemas de ecuaciones lineales.

7.5

EJERCICIOS RESUELTOS

R7.1 Calcula los determinantes de las siguientes matrices: Å ã Å ã 1 3 1 0 A= ,B = . 2 5 −1 1 Soluci´ on:

|A| = 1 · 5 − 2 · 3 = −1. Por otra parte |B| = 1 − 0 = 1.

R7.2 Calcula los determinantes de las siguientes matrices. Å ã Å ã 1 i 1 2+3i A= ,B = . −i i 2−3i 0   1 1 2 Soluci´ on: |A| = i − (−i ) = i − 1 (otra forma: |A| = i  −i 1 i + i2 = i − 1).

Por otra parte, |B| = −(2 + 3 i) · (2 − 3 i) = −(22 + 32 ) = −13.

   = i · (1 + i) = 

141

7.5. EJERCICIOS RESUELTOS

R7.3 Calcula el determinante de las siguientes matrices: é Ñ Ñ 1 1 2 −1 1 5 2 1 ,B = A= 2 −3 2 4

2 2 2 1 4 3

é

Soluci´ on: Recordemos, para calcular el determinante de A, la regla gr´ afica equivalente a la de Sarrus.

Por tanto, |A| = 8 − 6 − 10 − 6 − 2 − 40 = −56. Para obtener |B| = 0 es suficiente con observar que la tercera fila de B es suma de las dos primeras.

R7.4 H´ allese el determiante de las siguientes é Ñ Ñ 2 2 0 0 0 0 3 0 , B= A= 0 0 0 4

matrices: é Ñ 1 1 3 0 2 1 yC= 3 0 −4

0 0 2 0 4 0

é

Soluci´ on: Como A, B y C son triangulares, sus determinantes son el producto de los elementos de la diagonal principal. Por tanto: |A| = 2 · 3 · 4 = 24,

|B| = 2 · 2 · (−4) = −16, y |C| = 0

R7.5 H´ allese el determinante de las siguientes matrices: é Ñ é Ñ Ñ −2 0 0 5 0 2 1 3 1 1 1 −2 1 1 −3 1 yC= , B= A= 1 2 −3 1 2 0 0 4

−3 2 3

é

Soluci´ on: Desarrollamos |A| por la tercera fila, |B| por la primera fila y |C| por la segunda columna.

   2 1   |A| = 4 ·   = 4 · (−6 − 1) = −28 . 1 −3   1 1   = −5 · (2 + 3) = −25 . |B| = −5 ·  3 2      −2 −3     − 2 ·  −2 −3  = (−6 + 3) − 2 · (−4 + 3) = −3 + 2 = −1 . |C| = 1 ·    1 3 1 2 

142

7. DETERMINANTES

  1  R7.6 H´ allese el valor del determinante D =  a b + c

 1  c . a + b

1 b a+c

Sumando a la segunda fila la tercera y usando (b) del punto 7.1.5 se

Soluci´ on: tiene

    1 1 1   D = a + b + c a + b + c a + b + c  b+c a+c a+b 

Por tanto |D| = 0 pues las filas primera y segunda son proporcionales.

  1   a1  2  R7.7 Calc´ ulese el determinante Vn =  a1  ..  .  an−1 denominado de Vandermonde.

1

··· ··· ···

1 a2 a22 .. .

an−1 2

···

       de orden n (n ≥ 2)    n−1  a 1 an a2n .. . n

Soluci´ on: Si a cada fila de Vn , empezando por la u ´ltima, le restamos a1 veces la anterior, se tendr´ıa el determinante siguiente

 1 0   Vn = 0  .. . 0

1 a2 − a1 a2 (a2 − a1 ) .. . an−2 (a2 − a1 ) 2



1   an − a1  an (an − a1 )   ..  .   n−2 an (an − a1 )

··· ··· ··· ···

Haciendo un desarrollo por la primera columna se tiene

  a2 − a1  a (a − a ) 1  2 2 Vn =  .. .  an−2 (a − a ) 2

2

1



an − a1   an (an − a1 )   ..  .   n−2 an (an − a1 )

··· ··· ···

Utilizando (b) de 7.1.5, para cada una de las columnas se llega a

Vn =

=

  1  a  2  2 (a2 − a1 ) · · · (an − a1 )  a2  ..  . an−2 2

(a2 − a1 ) · · · (an − a1 ) Vn−1

1 a3 a23 .. .

··· ··· ···

an−2 3

···



1   an  2  an  ..  .   an−2 n

donde Vn−1 es un determinante de Vandermonde de dimensi´ on n − 1. Con un proceso recurrente se tiene, Vn = =

(a2 − a1 ) · · · (an − a1 ) Vn−1 (a2 − a1 ) · · · (an − a1 ) (a3 − a2 ) · · · (an − a2 ) Vn−2 .

Teniendo en cuenta que, durante larecurrencia, estamos suprimiendo la columna de  1 1  , se tendr´ a: la izquierda, y que V2 =  an−1 an  Vn = =

(a2 − a1 ) · · · (an − a1 ) (a3 − a2 ) · · · (an − a2 ) Vn−2 = . . . (a2 − a1 ) · · · (an − a1 ) (a3 − a2 ) · · · (an − a2 ) · · · (an − an−1 )

143

7.5. EJERCICIOS RESUELTOS

que se puede escribir en forma de producto como



Vn =

(ai − aj ).

i = 2, . . . , n. j = 1, . . . , i − 1.

 1  2  R7.8 Hallar D = 22 2 3  2 4 Soluci´ on: tiene

1 3 32 33 34

1 4 42 43 44

1 7 72 73 74

 1  8  82  83  84 

D es un determinante de Vandermonde. Aplicando el ejercicio R7.7 se

D = (3−2)·(4−3)·(4−2)·(7−4)·(7−3)·(7−2)·(8−7)·(8−4)·(8−3)·(8−2) = 14400

R7.9 Calc´ ulese las inversas de las matrices é Ñ Å 2 2 2 cos a A= 3 2 2 , B= sen a 5 1 0

− sen a cos a

ã

con a ∈ R. Soluci´ on:

A es inversible pues |A| = 2 = 0.

Los adjuntos Aij de A son: a11 = −2, A12 = 10, A13 = −7, A21 = 2, A22 = −10, menor de a23 , A23 = 8, A31 = 0, A32 = 2, A33 = −2. A modo de ejemplo, la matriz Å ã 2 2 tras suprimir la segunda fila y tercera columna de A es M23 = . Por tanto, 5 1   2 2  = −(2 − 10) = 8. el adjunto A23 de a3 es A23 = (−1)2+3 · |M23 | = −  5 1



Por tanto, A

−1

=

1 2

−2 2 0 10 −10 2 −7 8 −2





=

−1 1 0 5 −5 1 − 27 4 −1



.

B es inversible para todo a ∈ R pues, por el teorema fundamental de trigonometr´ıa, |B| = cos2 a + sen 2 a = 1 = 0. Como BÅ11 = cos a, B12 ã = − sen a, B21 = sen a, B22 = cos a, entonces se tiene que cos a sen a −1 B = . − sen a cos a

R7.10 H´ allese las inversas de las siguientes matrices: é Ñ Å ã 1 0 0 0 −2i . A= 0 2 2 , B= 2i 0 3 1 2 Soluci´ on: (Ver Ejemplo 5.5.4 y el ejercicio R5.5 (ii)). La matriz A es inversible puesto que |A| = 2 = 0. Los adjuntos Aij de A son:

144

7. DETERMINANTES

A11 = 2, A12 = 6, A13 = −6, A21 = 0, A22 = 2, A23 = −1, A31 = 0, A32 = −2, A33 = 2.     2 0 0 1 0 0 −1 1 6 2 −2 3 1 −1 . = As´ı pues, A = 2 −6 −1 2 −3 − 12 1 La matriz B es inversible pues |B| = −4 = 0. Los adjuntos Bij de B son: B11 = 0, B12 = −2i, B21 = 2i, B22 = 0.

Å

En consecuencia, B −1 =

1 −4

0 −2i

2i 0

ã

Å

=

0 − 2i i 0 2

ã

.

R7.11 H´ allese la inversa de las siguentes matrices é é Ñ Ñ Å ã Å ã 1 −2 3 0 −2 3 2 0 2 1 A= , B= , C= 0 3 4 , D= 0 3 4 . 0 −3 1 0 0 0 1 0 0 1 Å Soluci´ on:

A es una matriz diagonal, y por tanto A−1 =

1 2

0

0 − 13

ã .

B es una matriz sim´etrica, y |B| =ã−1 = 0, luego es inversible. La matriz de adjuntos Å 0 −1 traspuestas es Bji = . Por tanto −1 2 B −1 = −1 ·

Å

0 −1

−1 2

ã

Å =

0 1

1 −2

ã (que tambi´en es sim´etrica).

C es una matriz triangular superior no inversible pues |C| = 0. D es una matriz triangular superior inversible pues |D| = 3 = 0. La matriz de   3 2 −17 0 1 −4 . Por tanto adjuntos traspuesta es Dji = 0 0 3

 D

−1

1 = · 3

3 0 0

2 1 0

−17 −4 3

 (que tambi´en es triangular superior).

R7.12 H´ allese el rango de las matrices siguientes: é Ñ Ñ 1 1 2 −1 1 1 5 2 1 1 , B= A= 4 3 2 4 1

1 2 3

1 3 2

é

Soluci´ on: rang A ≤ 3, pues A tiene s´ olo 3 filas. A tiene una submatriz cuadrada cuadrada  de orden  3 con determinante no nulo. En efecto, seg´un el ejercicio R7.3 se 1 2 −1   tiene 5 2 1  = −32 = 0. Por tanto rang A = 3. 3 2 4  Con |B| = 0, entonces  derango 3. Obviamente rang B = 2. (En Å B no ã puede ser 1 1  1 1  = 1 = 0). efecto, la submatriz verifica  1 2 1 2

145

7.5. EJERCICIOS RESUELTOS

Ñ R7.13 Sea A =

2 1 1

0 1 1 1 3 a

é . Discute el rang A seg´ un los valores del par´ametro

real a. Soluci´ on: Puesto que existen submatrices, de orden 2, de A con determinante no nulo, obviamente, rang A ≥ 2, es decir rang A = 2 ´ o rang A = 3. Se tiene que |A| = 2 a − 4. Por tanto si 2 a − 4 = 0, es decir si a = 2, entonces rang A = 2. Si a = 2 entonces rang A = 3.

147

Cap´ıtulo 8

SISTEMAS DE ECUACIONES LINEALES Los sistemas de ecuaciones lineales se presentan en casi todas las ramas de la matem´ atica aplicada, como formulaci´on inicial de un problema o como parte de ataque para la soluci´ on a otro problema. Las teor´ıas que aparecen en el cap´ıtulo admiten sencillos algoritmos computacionales para la resoluci´ on de grandes sistemas de Cramer.

8.1 8.1.1

SISTEMAS DE ECUACIONES LINEALES Sistemas de ecuaciones lineales

Se denomina sistema lineal de m ecuaciones con n inc´ognitas al siguiente conjunto de ecuaciones lineales con inc´ ognitas x1 , . . . , xn y con coerminos independientes bj eficientes aij (1 ≤ i ≤ m, 1 ≤ j ≤ n) y t´ (j = 1, . . . , m) que supondremos reales (salvo que se explicite su pertenencia al cuerpo (C, +, ·) ), ⎧ ⎪ a11 x1 ⎪ ⎪ ⎪ ⎨ a21 x1 ⎪ ⎪ ⎪ ⎪ ⎩

+ +

a12 x2 a22 x2

+ ··· + ···

am1 x1 + am2 x2 + · · ·

+ +

a1n xn a2n xn

= = .. .

b1 b2

(8.1)

+ amn xn = bm

Cuando no haya posibilidad de confusi´on, lo abreviamos llam´ andolo “sistema”. Si al sustituir en (8.1), xi por ci ∈ R, i = 1, . . . , n , se tienen m on igualdades (i.e., se “satisface” (8.1) ), se dice que (c1 , . . . , cn ) en una soluci´ del sistema. Si dos sistemas tienen las mismas soluciones, entonces se llamar´ an

148

8. SISTEMAS DE ECUACIONES LINEALES

equivalentes. “Resolver un sistema” es sin´ onimo de hallar las soluciones del sistema.

8.1.2

Soluci´ on de un sistema de ecuaciones lineales

El anterior sistema (8.1) admite la siguiente expresi´on matricial en forma de producto: à

··· ···

a1n a2n .. .

am1 am2 · · ·

amn

a11 a21 .. .

a12 a22 .. .

í à

·

x1 x2 .. .

í

à

=

xn

b1 b2 .. .

í

(8.2)

bm

lo cual abreviamos por A x = b, de interpretaci´ on obvia. Llamaremos a A matriz de los coeficientes, x vector soluci´ on y b vector de t´erminos independientes. Otra forma matricial de escribir (8.1) es: à

x1

a11 a21 .. . am1

í

à

+ x2

a12 a22 .. .

í

à

+ · · · + xn

am2

a1n a2n .. .

í

amn

à

=

b1 b2 .. .

í

(8.3)

bm

Nos vamos a servir de (8.2) y (8.3) para dar sendas interpretaciones de las soluciones de un sistema. Teniendo en cuenta que toda matriz A de dimensi´ on m×n define un´ıvocamente una aplicaci´on lineal f : Rn → Rm (respecto las bases can´onicas de Rn y Rm ), entonces de la expresi´on A x = b de (8.2) conclu´ımos que x ∈ Rn es una soluci´ on de (8.1) si y s´olo si el vector x es una antiimagen de b ∈ Rn por medio de f .

x

Rn f

b

Rm

Por otra parte, si llamamos Ai (i = 1, . . . , n) a la columna i-´esima de la matriz de coeficientes A, tenemos que (8.3) se puede representar como la siguiente combinaci´on lineal de vectores en Rm : x1 A1 + x2 A2 + · · · + xn An = b on de (8.1) si y s´olo si En consecuencia, x = (x1 , . . . , xn ) ∈ Rn es soluci´ b se puede escribir como combinaci´ on lineal de A1 , . . . , An siendo x1 , . . . , xn sus coordenadas.

149

8.1. SISTEMAS DE ECUACIONES LINEALES

8.1.3

Matriz ampliada

Si a la matriz de los coeficientes A del sistema (8.1) se le a˜ nade la columna b de t´erminos independientes, obtenemos una matriz de dimensi´on m×(n + 1) que suele llamarse matriz ampliada (u orlada) del sistema y se la representa por A∗ . En ocasiones se acostumbra a diferenciar en A∗ la columna b separ´andola de las restantes columnas de A o interponiendo una barra vertical: à

A∗ =

a11 a21 .. .

··· ···

a12 a22 .. .

am1 am2 · · ·

a1n a2n .. .

b1 b2 .. .

í

(8.4)

amn bm

Supuestas ordenadas las variables x1 , . . . , xn como aparecen en (8.1), observamos que (8.4) es una representaci´on del sistema (8.1). De hecho esta representaci´on del sistema (8.1) permite extender los conceptos de dependencia e independencia lineal de las filas de A∗ , a las ecuaciones de (8.1), lo que se utilizar´ a en adelante. Se tiene la siguiente proposici´ on de la que omitimos su prueba.

8.1.4

Proposici´ on

Si a un sistema de ecuaciones lineales se le a˜ nade un n´ umero finito de ecuaciones lineales que son combinaciones lineales de las dadas, el nuevo sistema es equivalente al inicial.

8.1.5

Ejemplo Sea el sistema

®

x + y = 2 . 2x − y = 1

Su u ´nica soluci´ on es x = 1, y = 1. Este sistema equivale a los siguientes ⎧ ⎪ ⎨

x + y = 2 2x − y = 1 ⎪ ⎩ 4x + y = 5 Obs´ervese que

⎧ ⎪ ⎨

x + y = 2 2x − y = 1 ⎪ ⎩ 0x + 0y = 0

   1 1 2 1       2 −1 1 = 2    4 1 5 0



1 2  −1 1 = 0  0 0

pues en ambos casos la tercera fila es combinaci´ on lineal de las dos primeras.

150

8.1.6

8. SISTEMAS DE ECUACIONES LINEALES

Clasificaci´ on de sistemas

Si un sistema de ecuaciones lineales admite alguna soluci´ on se le llama compatible , y de lo contrario incompatible. Si el sistema admite soluci´on u ´nica se le llama adem´ as determinado (o tambi´en sistema de Cramer), y si admite m´ as de una soluci´on se le llama indeterminado. As´ı pues, en un sistema compatible e indeterminado cabe hablar de una soluci´ on particular o de la soluci´ on general del sistema que depender´ a de uno o varios par´ ametros (inc´ognitas).

8.1.7

Teorema de Rouch´ e-Fr¨ obenius

Sea el sistema de m ecuaciones lineales con n inc´ ognitas anterior (8.1). Supongamos que el rango de la matriz A de los coeficientes del sistema es r = rang(A) y sea A∗ la matriz ampliada. Entonces (i) Si rang A = rang A∗ el sistema es compatible, y si rang A < rang A∗ el sistema es incompatible. (ii) Adem´ as, en el caso de que el sistema sea compatible, se tiene que si r = n entonces el sistema es determinado, y si r < n entonces el sistema admite soluciones que dependen de n − r inc´ ognitas. Demostraci´ on. (i) Seg´un vimos al final del punto 8.1.2, existe soluci´on del sistema (8.1) sii el vector columna b de t´erminos independientes se puede escribir como combinaci´ on olo si lineal de los n vectores columnas A1 , . . . , An de la matriz A, lo cual sucede si y s´ rang A = rang A∗ . (ii) Supongamos pues, que (8.1) es compatible y que rang A = rang A∗ = n. En umero de ecuaciones) ha de tal caso, el n´ umero m de filas de la matriz A∗ (es decir, el n´ ser m ≥ n. En el caso en que m > n sabemos que existen m − n vectores filas que son combinaciones lineales de n vectores filas que constituyen un sistema libre. Dicho de otra forma, hay m − n ecuaciones que son combinaciones lineales de las n restantes y, por tanto, seg´ un la Proposici´ on 8.1.4 podemos suprimirlas para obtener un sistema equivalente de n ecuaciones con n inc´ ognitas con matriz de coeficientes A de rango n. As´ı pues, A es la matriz de una aplicaci´ on lineal biyectiva f : Rn → Rn y, por ello, para cada b ∈ Rn existe una u ´nica antiimagen x ∈ Rn . O sea, seg´ un el punto 8.1.2, el u ´ltimo sistema y, en consecuencia el inicial, admite una u ´nica soluci´ on. alogo al Supongamos ahora que rang A = rang A∗ = r < n. Con un proceso an´ anterior, si m < n podemos suprimir m − r ecuaciones y quedarnos con r ecuaciones cuya matriz A de coeficientes sea de rango r. Supongamos que son las r primeras (ello no supone ninguna restricci´ on pues bastar´ıa con reordenar el sistema), y sea pues, el siguiente sistema equivalente al inicial:

⎧ a11 x1 ⎪ ⎪ ⎨ a21 x1 ⎪ ⎪ ⎩

ar1 x1

+ + +

a12 x2 a22 x2

+ +

ar2 x2

+

··· ···

+ +

···

+

a1n xn a2n xn arn xn

= = .. . =

b1 b2 br

(8.5)

151

8.1. SISTEMAS DE ECUACIONES LINEALES

que se abrevia como A x = b de interpretaci´ on inmediata. Podemos suponer ahora que las r primeras columnas de la matriz A son linealmente independientes (si no es as´ı, se reordenan variables y coeficientes) y escribimos (8.5) en la forma ⎧ ⎪ ⎨ a11 x1 + · · · + a1r xr = b1 − a1,r+1 xr+1 − · · · −a1n xn .. (8.6) . ⎪ ⎩ a x + ··· +a x = br − ar,r+1 xr+1 − · · · − arn xn r1 1 rn n

Ö

que tiene como matriz de coeficientes A =

a11 .. . a11

··· ···

a1r .. . a1r

è

.

Ahora bien, por la anterior suposici´ on, la matriz A de los coeficientes del sistema (8.6) admite soluci´ on (´ unica) y, en consecuencia, el sistema (8.6) y por tanto, el inicial, admite infinitas soluciones que se obtienen cuando xr+1 , . . . , xn tomen valores cualesquiera



del cuerpo R.

8.1.8

Ejemplos ⎧ ⎪ ⎨

x+ y+ z = 3 (a) Resolvamos el sistema x+ y− z = 5 ⎪ ⎩ 3x + 3y + z = 11 Ö

è

Ö

è

1 1 1 1 1 1 3 = rang = 2. 1 1 −1 1 1 −1 5 Se tiene que rang 3 3 1 3 3 1 11 As´ı pues, el sistema es compatible e indeterminado y puesto que tiene tres inc´ognitas, existir´an infinitas soluciones que depender´ an de una inc´ognita. Para hallarlas, en primer lugar dejaremos el sistema, siguiendo la teor´ıa, con las dos siguientes ecuaciones que constituyen un sistema equivalente al dado: ®

Ç

x+ y+ z = 3 x+ y− z = 5

(8.7)

å

1 1 1 (Obs´ervese que rang = 2). Este u ´ltimo sistema lo podemos 1 1 −1 escribir, por ejemplo, en las formas ®

x+ y = 3− z , ´ o x+ y = 5+ z

®

x+ z = 3− y x− z = 5− y

Pero en el sistema de la izquierda el rango de la matriz de los coeficientes no es dos, por lo que las soluciones no van a depender de z y, siguiendo la teor´ıa, dejamos el sistema escrito en la forma ®

x+ z = 3− y x− z = 5− y

(8.8)

152

8. SISTEMAS DE ECUACIONES LINEALES

Para resolverlo, procedemos a sustituir el valor x = 5 − y + z, que obtenemos de la segunda ecuaci´on, en la primera ecuaci´on: (5 − y + z) + z = 3 − y, de donde se tiene z = −1, y sustituyendo en x = 5 − y + z, se concluye x = 4 − y. (El lector se ejercitar´a resolviendo el sistema por reducci´on o igualaci´ on). La soluci´on (general) del sistema es pues, {(4 − y, y, −1) : y ∈ R} . Recordando que ´estas son soluciones de (8.8), podemos interpretarlas diciendo que son las antiim´ agenes de medio de la aplicaci´on lineal Ç (3, 5) por å 1 1 1 f : R3 → R2 asociada a la matriz en las bases can´onicas. O 1 1 −1 bien, observando el sistema inicial, son las antiim´agenes de (3, Ö 5, 11) por medio è 1 1 1 1 1 −1 en de la aplicaci´ on lineal g : R3 → R3 asociada a la matriz 3 3 1 las bases can´onicas. Finalmente, recordaremos la Proposici´on 6.1.9 que nos indica que las antiim´agenes de un punto, por medio de una aplicaci´on lineal f , se obtienen sumando el n´ ucleo de la aplicaci´ on f a una antiimagen de dicho punto. As´ı, en nuestro caso se tiene, (4 − y, y, −1) = (4, 0, −1) + (−y, y, 0) con lo que Ker f = {(−y, y, 0) : y ∈ R} = (−1, 1, 0). Obviamente f (´ o g) no es inyectiva. ⎧ ⎪ ⎨

(b) Hallemos el valor de a para que el sistema soluci´ on.

Ö

x+ y = 2 2x − y = 1 tenga ⎪ ⎩ ax + y = 5

è

1 1 = 2 para cualquier a ∈ R, deber´a veri2 −1 Puesto que rang a 1 ficarse que el rango de la matriz ampliada sea tambi´en dos. Por tanto, las columnas de la matriz ampliada an un sistema libre, por lo que   no constituir´  1  1 2     ha de suceder que  2 −1 1  = 0, de donde se concluye que a = 4.    a 1 5  Un razonamiento alternativo es el siguiente: Si existe soluci´on del sistema, ´esta debe ser u ´nica, pues el rango de la matriz del sistema®es dos, igual al n´ umero de inc´ ognitas. Con lo que resolviendo x+ y = 2 obtenemos que la soluci´ on ha de ser x = 1, el sistema 2x − y = 1

´ DE SISTEMAS DE ECUACIONES LINEALES 8.2. RESOLUCION

153

y = 1. Finalmente, sustituyendo estos valores en la tercera ecuaci´ on se tiene a·1 + 1 = 5, y por tanto, a = 4. (c) Eventualmente podemos obtener en la formulaci´ on de un problema, ® x + y + 0z = 2 el siguiente sistema 2x − y + 0z = 1 ®

x+ y = 2 2x− y = 1 que no es equivalente al de este apartado por carecer de una inc´ ognita. Ahora bien, cualquier z ∈ R con x = 1, y = 1 verifica el sistema inicial, y por tanto, las soluciones son {(1, 1, z) : z ∈ R}. En tal caso se resuelve el sistema del ejemplo (c) anterior

⎧ ⎪ ⎨ x+

y =2 2x − y = 1 no es compatible, pues (e) El sistema ⎪ ⎩ 4x + y = 0 Ö

rang

1 1 2 −1 4 1

è

Ö

= 2 < 3 = rang

1 1 2 2 −1 1 4 1 0

è

El resultado se puede interpretar diciendo que el punto (2, 1, 0) no on lineal asociada a la matriz est´ f , siendo f : R2 → R3 la aplicaci´ Ö a en Imè 1 1 2 −1 en las bases can´onicas. 4 1

8.2

´ DE SISTEMAS DE ECUARESOLUCION CIONES LINEALES

El lector conoce los m´etodos de igualaci´on, reducci´on y sustituci´on para la resoluci´ on de sistemas. Veamos a continuaci´on otros m´etodos.

8.2.1

Regla de Cramer Si suponemos que el siguiente sistema es de Cramer: ⎧ ⎪ a11 x1 ⎪ ⎪ ⎪ ⎨ a21 x1 ⎪ ⎪ ⎪ ⎪ ⎩

+ a12 x2 + · · · + a22 x2 + · · ·

an1 x1 + an2 x2 + · · ·

+ a1n xn + a2n xn

= b1 = b2 .. .

+ ann xn = bn

(8.9)

154

8. SISTEMAS DE ECUACIONES LINEALES

entonces de su expresi´on matricial A x pues: ⎞ ⎛ ⎛ x1 A11 ⎜ . ⎟ ⎜ . ⎜ .. ⎟ ⎜ .. ⎟ ⎜ 1 ⎜ ⎟ ⎜ ⎜ ⎜ xi ⎟ = ⎜ A1i ⎟ ⎜ ⎜ |A| ⎜ .. ⎟ ⎜ .. ⎝ . ⎠ ⎝ . xn A1n

= b obtenemos que x = A−1 b. As´ı ··· ··· ···

⎞⎛



b1 An1 ⎜ . ⎟ .. ⎟ ⎜ . ⎟ . ⎟ ⎟⎜ . ⎟ ⎟ ⎟⎜ Ani ⎟ ⎜ bi ⎟ ⎟⎜ .. ⎟ ⎜ .. ⎟ ⎟ . ⎠⎝ . ⎠ bn

Ann

donde Aij son los adjuntos de los elementos aij (1 ≤ i, j ≤ n), de la matriz A. En consecuencia: xi =

1 (A1i b1 + A2i b2 + . . . + Ani bn ) |A|

para i = 1, . . . , n que, por simple comprobaci´ on (desarrollando el siguiente determinante por la columna i-´esima donde est´ a la columna (b1 , . . . , bn ) ), es:

xi =

  a11   a  21  .  .  .   an1

··· ···

a1,i−1 a2,i−1 .. .

···

an,i−1 bn an,i+1 · · · |A|

b1 b2 .. .

a1,i+1 · · · a2,i+1 · · · .. .

         ann 

a1n a2n .. .

en donde el numerador es el determinante de la matriz que se deduce de A al sustituir su columna i-´esima por la columna de t´erminos independientes. Al proceso descrito para la obtenci´on de la soluci´on se le conoce como regla de Cramer que tambi´en se aplica a los sistemas indeterminados cuando ´estos se escriben adecuadamente. Aparte de la posibilidad computacional del m´etodo, la regla de Cramer permite el c´alculo de una variable xi , con independencia de las restantes.

8.2.2

Ejemplos

(a) on de la regla de Cramer al sistema del ejemplo (c) de ® Por aplicaci´ x+ y = 2 , tenemos: 8.1.8, 2x − y = 1  2   1 x =  1  2



1   −1

 = 1,

1   −1

 1   2



2  1

 = 1. y =   1 1    2 −1

´ DE SISTEMAS DE ECUACIONES LINEALES 8.2. RESOLUCION

155

(b) Resolvamos el sistema del ejemplo (a) de 8.1.8. Teniendo en cuenta el siguiente sistema equivalente (escrito en forma adecuada para que el determinante de la matriz de coeficientes no sea nulo): ®

x+ z = 3− y x− z = 5− y

  1 1    se tiene (utilizando que   = −2): 1 −1

x=

8.2.3

 3 − y   5 − y

−2



1   −1

= 4 − y,

z=

  1 3 − y      1 5 − y 

−2

= −1.

M´ etodo de reducci´ on de Gauss

Supongamos que tenemos un sistema de dos ecuaciones con inc´ognitas que denotamos de la forma ® p1 = b1 p2 = b2 Si consideramos la ecuaci´ on p2 = α1 p1 + α2 p2 = α1 b1 + α2 b2 = b2 con un la Proposici´on α1 , α2 ∈ R y α2 = 0, entonces el sistema inicial equivale, seg´ 8.1.4, a ® p1 = b1 p2 = b2 Cuando el proceso descrito se aplica de manera reiterativa al sistema (8.9) de m ecuaciones con n inc´ognitas para obtener el sistema escalonado equivalente ⎧ ⎪ c11 x1 ⎪ ⎪ ⎪ ⎨ c21 x1 ⎪ ⎪ ⎪ ⎪ ⎩

+ +

c12 x2 c22 x2

+ ··· + ···

cm1 x1 + cm2 x2 + · · ·

+ +

c1n xn c2n xn

= = .. .

d1 d2

(8.10)

+ cmn xn = dm

de modo que cij = 0 para i > j (i, j = 1, . . . , n), se le conoce como proceso (de reducci´ on) de Gauss. Un sencillo argumento nos llevar´ıa a concluir que este proceso es el mismo que realizamos en la secci´ on 4.3, para la obtenci´ on de sistemas equivalentes de vectores. En el u ´ltimo sistema, se eliminan cuantas ecuaciones triviales de la forma 0x1 + · · · + 0xn = 0 aparezcan. Finalmente, en el caso de que no aparezca ninguna ecuaci´ on de la forma 0x1 + · · · + 0xn = d con d = 0, que

156

8. SISTEMAS DE ECUACIONES LINEALES

haga incompatible el sistema, ´este se resuelve por sustituci´ on regresiva empezando por la u ´ltima ecuaci´ on como ilustraremos en el siguiente ejemplo. Seg´ un la secci´ on 5.5.10 el proceso puede continuar de manera que a partir de la matriz ampliada A∗ del sistema de ecuaciones obtengamos su forma reducida que da lugar a un sistema equivalente m´as sencillo.

8.2.4

Ejemplo

(a) Apliquemos el proceso de Gauss para resolver el sistema ⎧ ⎪ ⎨

x+ y+ z = 6 x + 2y − z = 6 ⎪ ⎩ 2x − y + z = 5 Empezamos representando el sistema dado por su matriz ampliada A∗ , Ö

1 1 1 6 1 2 −1 6 2 −1 1 5

è

.

Aplicando el proceso de Gauss sobre las filas de A∗ obtenemos sucesivamente los siguientes sistemas equivalentes: Ö

1 1 1 6 0 −1 2 0 0 3 1 7

è

Ö

,

1 1 1 6 0 −1 2 0 0 0 7 7

è

.

El u ´ltimo sistema obtenido, por interpretaci´ on de la u ´ltima matriz, es pues:

⎧ ⎪ ⎨ x+ ⎪ ⎩

y+ z = 6 − y + 2z = 0 7z = 7

que resolvemos por sustituci´on regresiva. De la tercera ecuaci´ on tenemos z = 1, que sustituida en la segunda nos da y = 2, y finalmente, sustituyendo ambos valores en la primera ecuaci´ on, deducimos x = 3. (b) Prosiguiendo con la transformaci´on por filas mediante operaciones elementales por filas, a partir de la u ´ltima matriz se obtiene sucesivamente Ö

1 0 3 6 0 1 −2 0 0 0 1 1

è

Ö

,

1 0 0 3 0 1 0 2 0 0 1 1

è

.

´ DE SISTEMAS DE ECUACIONES LINEALES 8.2. RESOLUCION

157

La u ´ltima matriz es la forma reducida de A∗ que da lugar al sistema ⎧ ⎪ ⎨ x ⎪ ⎩

= 3 y = 2 z = 1

de soluci´on inmediata.

8.2.5

Sistema homog´ eneo

Si en el sistema inicial (8.9), todos los t´erminos independientes bi son ceros, se dice que el sistema es homog´ eneo. Seg´ un el teorema de Rouch´eFr¨ obenius, como en este caso siempre rang(A) = rang(A∗ ), los sistemas hoon mog´eneos son compatibles. Obs´ervese que x1 = · · · = xn = 0 es soluci´ (nula o trivial) de cualquier sistema homog´eneo. Si suponemos escrito el sistema homog´eneo con n ecuaciones y n inc´ognitas (lo que siempre es posible), entonces el sistema admite soluci´ on u ´nica (la nula) si y s´ olo si rang(A) = n ⇔ |A| = 0, siendo A la matriz de los coeficientes. Cuando rang(A) = r < n existir´an infinitas soluciones (pues dependen de n − r inc´ognitas) lo cual sucede, seg´ un el Teorema 8.1.7, si y s´olo si |A| = 0. Si disponemos de un sistema homog´eneo de r ecuaciones linealmente independiente y n inc´ognitas con r ≤ n, sabemos que sus soluciones son las antiim´agenes de (0, . . . , 0) por medio de la aplicaci´on lineal asociada f : Rn → Rr a la matriz de coeficientes A, y por tanto constituyen un conocido ucleo Ker f de f , que tiene dimensi´on n − r, subespacio vectorial de Rn , el n´ ya que rang(A) = dim( Im f ) = r. Completaremos el rec´ıproco de nuestra aseveraci´ on en la secci´on 8.3.3.

8.2.6

Ejemplo Resolvamos el sistema homog´eneo ⎧ x+ ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ 2x +

y 2y x+ y ⎪ ⎪ ⎪ ⎪ ⎪ 3x + 3y ⎩ 0x + 0y

+ z = 0 + 2z = 0 − z = 0 + z = 0 + 0z = 0

En primer lugar eliminamos la segunda ecuaci´on porque es proporcional a la primera, y la u ´ltima que es cierta para todo (x, y, z) ∈ R3 . Entonces, el determinante de la matriz A de los coeficientes del nuevo sistema equivalente

158

8. SISTEMAS DE ECUACIONES LINEALES

  1   es |A| =  1   3



1 1   1 −1  = 0, con lo que rang(A) < 3.  3 1  Obviamente rang(A) = 2, por lo que suprimiendo la u ´ltima ecuaci´ on, por ejemplo, se tiene el sistema equivalente: ®

x+ y+ z = 0 x+ y− z = 0

que el lector verificar´a que tiene como soluci´on general {(x, −x, 0) : x ∈ R} y que coindice con el Ker f del ejemplo (a) de 8.1.8, lo cual el lector justificar´ a observando la ecuaci´ on (8.7).

8.2.7

Resoluci´ on de un sistema de Cramer por descomposici´ on LU

Supongamos que tenemos el sistema de Cramer (8.1) con m = n y que representamos por A x = b seg´ un (5.5.8). Entonces, como A es regular, por la secci´on 5.5.8, podemos suponer, reordenando el sistema (8.1) si es necesario, que A admite descomposici´on A = L U . Por tanto, el sistema (8.2) se escribir´a L U x = b, cuyas soluciones con el “cambio de variable” U x = y, son las de: ®

Ux=y Ly = b

As´ı pues (8.1) se resuelve hallando primero la soluci´ on y del sistema triangular L y = b, y despu´es, hallando x en el sistema triangular U x = y. Computacionalmente la resoluci´on de ambos sistemas es sencilla por tratarse de sistemas triangulares y requiere menos operaciones que resolver x = A−1 b. La factorizaci´ on LU resulta interesante ante el frecuente problema de resolver una sucesi´ on de ecuaciones de la forma A x = b1 , A x = b2 , . . . , ´ un a todos los sistemas. Este A x = bp , pues la factorizaci´on A = LU es com´ es el caso de los problemas de redes de flujo.

8.2.8

Resoluci´ on de un sistema por descomposci´ on LS

Supongamos que tenemos un sistema de ecuaciones lineales que representamos por Ax = b, no necesariamente de Cramer, y supongamos que S es la forma escalonada de A que se obtiene con las matrices elementales on 5.5.10). Si E1 , E2 , . . . , Es , aplicadas sucesivamente sobre A (v´ease secci´

´ DE SISTEMAS DE ECUACIONES LINEALES 8.2. RESOLUCION

159

escribimos T = Es · · · E2 · E1 se tiene entonces T · A = S, y por tanto el sistema Ax = b se puede escribir T Ax = T b, es decir, Sx = T b que es un sencillo sistema dado que S es escalonada y sus elementos distinguidos son unos. Obs´ervese que si “almacenamos” la matriz T que transforma A en S, esta misma es la que act´ ua sobre b en el segundo miembro de la u ´ltima ecuaci´ on, por lo que el m´etodo descrito tambi´en resulta eficiente para resolver sistemas de ecuaciones de la forma Ax = bi , en donde s´olo cambie bi . En el caso particular de que la forma escalonada S de A se obtenga sin intercambio de filas, i.e. usando s´ olo matrices elementales de la forma (b) o (c) de 5.5.1, entonces T es una matriz triangular inferior.

8.2.9

Interpolaci´ on polin´ omica

Una funci´ on polin´omica y = f (x), de grado n − 1, que escribimos c0 + c1 x + c2 x2 + · · · + cn−1 xn−1 , donde los coeficientes ci ∈ R, viene definida por n condiciones, digamos independientes, que permiten calcular de forma un´ıvoca c0 , c1 , . . . , cn−1 . En la ciencia es frecuente encontrarse con el problema de la interpolaci´ on polin´ omica que consiste en determinar una funci´on polin´omica de grado n − 1 que pase por n puntos (xi , yi ) del plano, que suelen ser pares de mediciones experimentales en alg´ un contexto de trabajo. Como veremos a continuaci´ on este problema es de inmediata soluci´ on cuando los n valores xi ´ son distintos. (Esta es una exigencia necesaria pues la funci´on buscada f (x) ha de poseer imagen u ´nica para cada x). La funci´on polin´omica y = c0 + c1 x + c2 x2 + · · · + cn−1 xn−1 de grado n − 1 a la cual pertenecen los puntos (x1 , y1 ), (x2 , y2 ), . . . , (xn , yn ) con xi distintos ha de verificar el sistema lineal de n ecuaciones, en las n inc´ognitas c0 , c1 , . . . , cn−1 , siguiente: ⎧ ⎪ c0 + c1 x1 + · · · + cn−1 xn−1 ⎪ 1 ⎪ ⎪ ⎨ c0 + c1 x2 + · · · + cn−1 xn−1 2 ⎪ ⎪ ⎪ ⎪ ⎩ n−1

c0 + c1 xn + · · · + cn−1 xn

= y1 = y2 .. . = yn

El sistema anterior tiene soluci´ on u ´nica para las inc´ ognitas c0 , c1 , . . . , cn−1 . En efecto, el determinante de los coeficientes es distinto de cero, pues          

1 x1 x21 · · · 1 x2 x22 · · · .. .. .. . . . 1 xn x2n · · ·

      = (xi − xj ) = 0   i=2,3,...,n   j=1,2,...,i−1 xn−1 n

xn−1 1 xn−1 2 .. .

160

8. SISTEMAS DE ECUACIONES LINEALES

ya que se trata del determinante (traspuesto) de Vandermonde. El polinomio interpolador y = c0 + c1 x + c2 x2 + · · · + cn xn−1 ha de satisfacer el anterior sistema de ecuaciones, y por tanto para que el sistema ampliado con esta nueva ecuaci´on sea compatible, ha de suceder que el rango de la matriz ampliada no aumente y, en consecuencia,            

1 1 1 .. .

x x1 x2 .. .

x2 x21 x22 .. .

··· ··· ··· .. .

1 xn x2n · · ·

xn−1 x1n−1 xn−1 2 .. .

y y1 y2 .. .

xnn−1 yn

       = 0,     

que es la ecuaci´ on impl´ıcita del polinomio interpolador de grado n − 1. El problema de la interpolaci´ on recibe su nombre del hecho de que una vez hallada f (x), esta funci´ on se utiliza para conocer valores de f (x) que no han sido obtenidos experimentalmente (ver secci´ on 2.4).

En la ciencia experimental la funci´ on f buscada no es necesariamente polin´omica, y en cuanto a los datos experimentales, ´estos suelen exceder de los necesarios para que la soluci´on exista, por lo que se obtiene un sistema incompatible. En este supuesto no se deben eliminar datos (ello supone eliminar informaci´ on acerca del problema) y optamos por dar una soluci´on aproximada optima (en un sentido que excede el nivel de conocimientos de este curso) y ´ que vemos en el siguiente punto.

8.2.10

Sistemas sobredeterminados

A un sistema de ecuaciones A x = b incompatible con n inc´ognitas y rang A = n tambi´en se le llama sobredeterminado y sabemos que no tiene soluci´ on. No obstante, se le puede aplicar una “resoluci´ on” mediante el m´etodo conocido como “m´ınimos cuadrados” con el cual se obtiene una “soluci´ on aproximada” x del sistema, en el sentido de que “la soluci´ on” en contrada minimiza el error cuadr´atico dado por ni=1 (bi − Ai ·x)2 donde Ai es la fila i de A. Ese valor es un indicador de la longitud del vector error b − A x. Dicha soluci´ on se obtiene resolviendo el sistema At A x = At b que es un sistema de Cramer y que admite la soluci´on x = (At A)−1 At b.

8.3. ECUACIONES DE LOS SUBESPACIOS DE Rn

161

8.3 ECUACIONES DE LOS SUBESPACIOS DE Rn 8.3.1

Ecuaciones vectorial y param´ etricas de un subespacio vectorial

Sea {v 1 , . . . , v r } una base del subespacio vectorial H de Rn . Supongamos que v i = (vi1 , . . . , vin ), para i = 1, . . . , r. Entonces, si designamos por olo si existen μ1 , μ2 , . . . , μr ∈ x = (x1 , . . . , xn ) ∈ Rn , se tiene que x ∈ H si y s´ R tales que x = μ1 v1 + μ2 v2 + · · · + μr vr y, por tanto, se tiene la siguiente ecuaci´ on vectorial de H: (x1 , . . . , xn ) = μ1 (v11 , . . . , v1n ) + · · · + μr (vr1 , . . . , vrn )

(8.11)

de la que se deduce la siguiente expresi´ on equivalente, que constituyen las ecuaciones param´ etricas de H: ⎧ x1 ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎩

xr

= v11 μ1 + · · · + vr1 μr .. . = .. .

v1r μ1 + · · · + vrr μr

(8.12)

xn = v1n μ1 + · · · + vrn μr

Obs´ervese que el rango de la matriz de los coeficientes del sistema (8.12) otesis. con inc´ognitas μ1 , . . . , μr , es r = dim H, por hip´ Tanto en (8.11) como en (8.12), los vectores x ∈ H se obtienen a trav´es de los posibles valores reales que tienen los par´ametros μ1 , . . . , μr . (Vulgarmente se dice que el vector x de H se obtiene dando valores a μ1 , . . . , μr ). En el planteamiento realizado, no podemos asignar ecuaciones param´etricas a H si H = {0}, pero s´ı cuando H = Rn aunque ello carece de inter´es en la pr´actica.

8.3.2

Nota

Observemos que si w es un vector combinaci´ on lineal de v 1 , . . . , v r entonces H = v 1 , . . . , v r , w, con lo que: x ∈ H sii existen α1 , . . . , αr , α ∈ R tales que x = α1 v 1 + · · · + αr v r + α w As´ı pues, las ecuaciones (8.11) y (8.12) contar´ıan con un par´ametro m´ as que antes, sin dar lugar por ello a nuevos vectores, motivo por el cual nosotros prescindir´ıamos de w y, por tanto, del par´ametro α al considerar las ecuaciones vectorial y param´etricas respectivamente, de H.

162

8.3.3

8. SISTEMAS DE ECUACIONES LINEALES

Ecuaciones de un subespacio vectorial (Eliminaci´ on de par´ ametros)

Supongamos, lo que en realidad no es restricci´on alguna pues se podr´ıa conseguir reordenando las filas, que Ö

rang

v11 .. .

. . . vr1 .. .

è

= r.

v1n . . . vrn Un determinado vector x = (x1 , . . . , xn ) est´a en H sii x verifica (8.12) unicos), con lo que, en particular, (x1 , . . . , xr ) verifica para algunos μ1 , . . . , μr (´ el siguiente sistema que es de Cramer: ⎧ ⎪ ⎪ ⎨ x1 ⎪ ⎪ ⎩ x r

= v11 μ1 + · · · + vr1 μr .. .

(8.13)

= v1r μ1 + · · · + vrr μr

´nica que Por lo tanto, si x ∈ H, la soluci´on (μ1 , . . . , μr ) de (8.13) es la u hace compatible el sistema (8.12), para lo cual cada una de las ecuaciones que siguen a la r-´esima en (8.12) han de ser combinaciones lineales de las r ecuaciones primeras (de lo contrario el rango de la matriz ampliada del sistema (8.12), ser´a r + 1) y por ello, los n − r posibles determinantes siguientes de las correspondientes matrices ampliadas, han de ser nulos:          



x1 v11 . . . vr1  .. .. ..  . . .  = 0, s = r + 1, . . . , n.  xr v1r . . . vrr  xs v1s . . . vrs 

(8.14)

Rec´ıprocamente, si un vector (x1 , . . . , xn ) verifica el sistema homog´eneo (8.14), entonces existen reales (´ unicos) μ1 , . . . , μn que satisfacen (8.12). As´ı, H viene dado por las soluciones del sistema linealmente independiente homog´eneo (8.14) que constituye las ecuaciones (impl´ıcitas) de H, o ecuaciones no param´ etricas de H. Obs´ervese que estas ecuaciones, al igual que la vectorial o param´etricas de H, no son u ´nicas. Estamos pues en condiciones de completar el final del punto 8.2.5 y afirmar que un sistema homog´eneo de r ecuaciones independientes con n on n − r, y inc´ognitas define un subespacio vectorial H de Rn de dimensi´ on r viene dado rec´ıprocamente, un subespacio vectorial H de Rn de dimensi´ por un sistema homog´eneo de n−r ecuaciones independientes con n inc´ognitas.

8.3. ECUACIONES DE LOS SUBESPACIOS DE Rn

163

Notemos que si H = {0} ⊂ Rn , entonces H viene dado por cualquier sistema homog´eneo de rango n; mientras que si H = Rn , entonces H no puede expresarse como un sistema “propio” de ecuaciones impl´ıcitas, pero admite sin embargo la siguiente ecuaci´ on trivial u ´nica: 0x1 + · · · + 0xn = 0.

8.3.4

Ejemplo

Vamos a hallar las ecuaciones (impl´ıcitas) del subespacio vectorial H dado por H = v 1 , v 2 , v 3  de R5 donde v 1 = (1, 1, 3, 4, −1), v 2 = (1, 2, 0, 1, −2), v 3 = (2, 3, 3, 5, −3). En primer lugar observaremos que v 3 = v 1 + v 2 , con lo que {v 1 , v 2 } es una base de H. Por lo tanto, tenemos la siguiente ecuaci´ on vectorial de H: (x1 , x2 , x3 , x4 , x5 ) = μ1 (1, 1, 3, 4, −1) + μ2 (1, 2, 0, 1, −2), con μ1 , μ2 ∈ R, de donde deducimos las siguientes ecuaciones param´etricas de H: ⎧ x1 = μ1 + μ2 ⎪ ⎪ ⎪ ⎪ ⎪ x = μ + 2 μ2 1 ⎨ 2 x3 = 3 μ 1 ⎪ ⎪ ⎪ x4 = 4 μ 1 + μ2 ⎪ ⎪ ⎩ x5 = −μ1 − 2μ2 Finalmente, como la matriz de coeficientes respecto a los par´ametros , μ de coeficientes del sistema μ ®1 2 es de rango dos, y puesto que la matriz Ç Aå x1 = μ 1 + μ 2 1 1 verifica rang A = rang = 2, entonces obtenemos x2 = μ1 + 2μ2 1 2 el siguiente sistema de tres ecuaciones (no param´etricas) de H al “pivotar” sobre las dos primeras filas: ⎧ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎩

 x  1   x2   x3  x  1   x2   x4  x  1   x2   x5



1 1  1 2 = −6 x1 + 3 x2 + x3 = 0  3 0 

1 1  1 2 = − 7 x1 + 3 x2 + x4 = 0  4 1 

1 1   1 2  = x2 + x5 = 0  −1 −2

164

8. SISTEMAS DE ECUACIONES LINEALES

´ ´ 8.4 RESOLUCION NUMERICA DE SISTEMAS DE ECUACIONES LINEALES 8.4.1

Aproximaciones sucesivas Se considera un sistema de Cramer de la forma ⎧ ⎪ ⎪ ⎨ a11 x1

⎪ ⎪ ⎩ a x n1 1

+ a12 x2 + · · · + an2 x2 + · · ·

+ a1n xn

= b1 .. .

(8.15)

+ ann xn = bn

que denotamos por, A x = b y el cual supondremos escrito (lo cual es siempre posible) de forma que aii = 0 (i = 1, . . . , n). Los procedimientos algebraicos para la resoluci´ on de un sistema de Cramer (8.15), si no fuera por las limitaciones de los ordenadores, debiera darnos la soluci´on exacta. Pero en la pr´actica, el redondeo conduce a “soluciones” err´oneas en sistemas con gran n´ umero de ecuaciones, coeficientes muy cercanos a cero,. . . En tales casos, el c´alculo num´erico ofrece otros procedimientos de tipo iterativo que se van aproximando sucesivamente a la soluci´ on del sistema. A continuaci´ on veremos dos de ellos.

8.4.2

M´ etodos iterativos. Convergencia

Continuando con el punto anterior, el sistema A x = b, (8.15), se puede reescribir de muchas maneras como x = M x + v donde M se denomina matriz de iteraci´ on. A partir de aqu´ı se define el esquema iterativo xk+1) = M xk) + v

para k ≥ 0.

(8.16)

Si se toma un valor inicial cualquiera x0) ∈ Rn y se aplica el esquema iterativo anterior se obtiene una sucesi´ on de puntos x0) , x1) , x2) , x3) , x4) , . . . n on del sistema A x = b en R que, en caso de converger lo hace hacia la soluci´ que llamaremos x ¯. Es decir, si hay convergencia en el proceso anterior se ¯ que es la soluci´on buscada. verifica que l´ım xn) = x n→∞

Existe un resultado general que determina la convergencia: el m´etodo iterativo (8.16) es convergente si y s´olo si todos los valores propios (concepto que se estudiar´a en el pr´ oximo cap´ıtulo) de la matriz M son m´as peque˜ nos en m´odulo que la unidad. El esquema iterativo (8.16) se debe detener cuando ya se ha obtenido suficiente precisi´on. Aunque existen m´etodos matem´aticos para determinarla, ´esta es f´acilmente observable por la repetici´on de d´ıgitos significativos en los puntos x1) , x2) ,. . .

´ NUMERICA ´ 8.4. RESOLUCION DE SISTEMAS DE ECUACIONES LINEALES

165

Como norma general, si se quieren n cifras correctas basta con tomar como soluci´ on del sistema el primer t´ermino de la sucesi´ on xk a partir del cual las n primeras cifras permanecen inalterables. Hay veces que es muy costoso comprobar los resultados de convergencia del m´etodo iterativo. En dichos casos se suelen realizar unas cuantas iteraciones y se observa si alguna componente de xk tiende hacia infinito seg´ un k va creciendo. En caso afirmativo el m´etodo no converge. Para la definici´on de la matriz de iteraci´on M en los dos casos que vamos a estudiar, la matriz A se descompone como A=L+D+U donde L es la parte triangular inferior de la matriz A con ceros en la diagonal, D es la diagonal de A, y U es la parte triangular superior de la matriz A con Por ejemplo, en el caso de una matriz, 3×3, Ö ceros en la diagonal. è a11 a12 a13 A = a21 a22 a23 se tiene a31 a32 a33 Ö

A= 

8.4.3

è

0 0 0 a21 0 0 a31 a32 0  L

Ö

+ 



a11 0 0 0 a22 0 0 0 a33  D

è

Ö

+ 



0 a12 a13 0 0 a23 0 0 0

è

 U



M´ etodo de Jacobi

En este m´etodo se toma la descomposici´on A = D − (−L − U ) = D − (D − A). Con esta descomposici´on se obtiene que A x = b ⇔ D x = (D − A) x + b ⇔ x = D −1 (D − A) x + D −1 b El esquema iterativo definido mediante la u ´ltima ecuaci´ on es el m´ etodo de Jacobi: xk+1) = MJ xk) + v J

con MJ = D −1 (D − A), y vJ = D −1 b.

(8.17)

Adem´as del criterio necesario y suficiente de convergencia sobre la matriz MJ existe una condici´on suficiente de convergencia: si la matriz inicial del sistema A es diagonal dominante, entonces el m´etodo de Jacobi es convergente. Se dice que una matriz es diagonal dominante si el valor absoluto de cada elemento de la diagonal es mayor que la suma de los valores absolutos de los dem´ as elementos de la misma fila.

166

8. SISTEMAS DE ECUACIONES LINEALES

Las iteraciones de este m´etodo son f´aciles de realizar dado que para calcular la inversa de una matriz diagonal, que no tiene ceros en su diagonal, s´olo se requiere calcular los inversos de la diagonal. As´ı pues, si D es una Ö è a11 .. matriz diagonal definida por D = , entonces se verifica que . ann Ü 1

D −1 =

a11

ê

..

.

. 1

ann

8.4.4

M´ etodo de Gauss-Seidel

En este m´etodo se descompone la matriz A como A = L + D − (−U ). Con esta descomposici´on se tiene que A x = b ⇔ (L + D) x = −U x + b ⇔ x = −(L + D)−1 U x + (L + D)−1 b El esquema iterativo definido mediante la u ´ltima ecuaci´ on es el m´ etodo de Gauss-Seidel: xk+1) = MGS xk) + v GS con MGS = −(L + D)−1 U, y v GS = (L + D)−1 b (8.18) Adem´as del criterio necesario y suficiente de convergencia sobre la matriz MGS existe la misma condici´on suficiente de convergencia que en el m´etodo de Jacobi: Si la matriz inicial del sistema A es diagonal dominante entonces el m´etodo de Gauss-Seidel es convergente.

8.4.5

Nota

Para calcular las componentes del vector xk+1) con el m´etodo de Jacobi k) k) k) k) on se utilizan los valores de xi , es decir, x1 , x2 , . . . , xn por lo que la expresi´ k+1) se adapta al c´ alculo en paralelo y ofrece una reducci´ on notable del de x tiempo de c´alculo. En cambio, en el m´etodo de Gauss-Seidel siempre se utilizan los n u ´ltimos valores calculados. M´as concretamente, para calcular k+1) k+1) k+1) k) k) se utilizan los valores x1 , . . . , xi−1 , xi , . . . , xn . xi Aunque un paso iterativo de Gauss-Seidel es m´ as costoso en sentido computacional que un paso de Jacobi se tiene que, en general, en caso de convergencia de ambos m´etodos, el m´etodo de Gauss-Seidel converge m´ as r´apido que el de Jacobi. Los programas inform´ aticos de c´alculo num´erico incluyen habitualmente los m´etodos de Jacobi y de Gauss-Seidel. En general, permiten programar la

8.5. UN POCO DE HISTORIA

167

tolerancia o cota del error que se acepta en la soluci´ on y el n´ umero m´aximo de iteraciones que se desea. Habitualmente el proceso iterativo se suele terminar cuando el incremento de un valor iterativo a otro es menor en m´odulo que k+1) k) − xi | < ε (i = 1, . . . , n). una tolerancia ε deseada, es decir, cuando |xi

8.5

UN POCO DE HISTORIA ´ Las primeras referencias de lo que hoy conocemos como Algebra Lineal tienen que ver

con las ecuaciones y los sistemas de ecuaciones, y aparecen en un documento matem´ atico, del a˜ no 1650 a.C., el papiro Rhind, cuyo autor fue el sacerdote egipcio Ahm´ as. Este documento contiene 85 problemas redactados en escritura hier´ atica y fue concebido como un manual para agrimensura. Seg´ un el propio autor, el documento es copia de uno m´ as antiguo. Por otra parte, se sabe que en la antigua Babilonia sab´ıan c´ omo resolver problemas concretos que involucraban ecuaciones, de primer y segundo grado, ecuaciones c´ ubicas, bicuadradas, y sistemas de ecuaciones lineales y no lineales. Los matem´ aticos chinos (durante los siglos ´ III y IV a.C.), proporcionaron los primeros m´etodos del Algebra Lineal. Por ejemplo, en el tratado Nueve cap´ıtulos sobre el Arte Matem´ atico (206 a.C.-220 d.C.), aparece un sistema lineal de 3 ecuaciones con 3 inc´ ognitas, as´ı como un m´etodo para su resoluci´ on, conocido como la regla fan-chen, que es similar al m´etodo de eliminaci´ on gaussiana que conocemos. Curiosamente no hay demasiadas aportaciones de los matem´ aticos de la Grecia cl´ asica a la resoluci´ on de problemas lineales. Los sistemas de ecuaciones lineales comenzaron a ser estudiados sistem´ aticamente por Gottfried Leibniz (1646-1716) y Gabriel Cramer (17041752). Este u ´ltimo, expuso lo que hoy conocemos como regla de Cramer para los sistemas de ecuaciones lineales de orden 3. La soluci´ on de ecuaciones lineales de dos, tres y cuatro inc´ ognitas fue obtenida por Colin Maclaurin (1698–1746) y publicada en 1748 en su obra Treatise of algebra. A mediados del siglo XIX, Arthur Cayley (1821-1895), al estudiar las matrices, dedujo la formula general de la regla de Cramer, y expuso la condici´ on necesaria y suficiente para que un sistema de n ecuaciones lineales con n inc´ ognitas tenga soluci´ on u ´nica: que la matriz de los coeficientes del sistema sea invertible. Ferdinand G. Frobenius (1849-1917) introdujo la noci´ on de rango de una matriz en 1879, en base a su relaci´ on con los determinantes. Esta definici´ on permiti´ o generalizar el teorema que hoy conocemos como teorema de Rouch´e-Frobenius. Carl F.Gauss (1777-1855) dedujo a principios del siglo XIX un m´etodo que permite resolver cualquier sistema de ecuaciones lineales. Dicho m´etodo cay´ o en el olvido, pues es menos “elegante” que la presentaci´ on matricial de Cayley y de Frobenius. Camille Jordan (1838-1922) dedujo un algoritmo alternativo a la f´ ormula de Cayley para calcular la inversa de una matriz. Se conoce este m´etodo como el algoritmo de Gauss-Jordan. A medida que diversas disciplinas cient´ıficas pod´ıan expresar sus problemas mediante sistemas de ecuaciones lineales, los matem´ aticos empezaron a abordar aspectos como el del n´ umero de operaciones que exige realizar un algoritmo que resuelve un sistema de ecuaciones lineales. Pronto se demostr´ o la eficiencia del olvidado m´etodo de Gauss frente a obtener las soluciones mediante determinantes. En 1948, el matem´ atico ingl´es Alan

168

8. SISTEMAS DE ECUACIONES LINEALES

Turing (1912-1954) desarroll´ o la factorizaci´ on LU . Actualmente, para resolver sistemas de ecuaciones lineales, son de uso com´ un diversas variantes del m´etodo de Gauss que son m´ as eficientes, tanto desde un punto de vista computacional como a la hora de generar menos errores parciales y totales.

8.6

EJERCICIOS RESUELTOS

R8.1 Resolver matricialmente el sistema ⎧ ⎨ x

= 2y + 2z = ⎩ 3x + y + 2z =

Matricialmente el sistema se escribe

Soluci´ on:



 Si llamamos A =

1 0 3

0 2 1

5.5.4. Por tanto,

  x y z

1 0 3

0 2 2

x y z



2 0 5

= A−1

 =

2 0 5

=

0 2 , entonces A−1 = 2

 

 

 

0 2 1

2 0 5



1 3 −3

1 0 0 3 1 −1 −3 − 21 1

0 0 1 −1 − 12 1

  2 0 5

 =

 seg´ un el Ejemplo

2 1 −1



con lo que la soluci´ on es x = 2, y = 1, z = −1.

R8.2 Resolver por el m´etodo de Gauss el sistema ⎧ x+ y− z+ t = 4 ⎨ 2x − y + 3z + 2t = −1 ⎩ −4x + 5y − 11z − 4t = 11 Soluci´ on: Escribimos a continuaci´ on la representaci´ on del sistema, a trav´es de su matriz ampliada A∗ , y la matriz resultante equivalente tras el proceso de Gauss:





A =

1 2 −4

1 −1 5

−1 3 −11

1 2 −4

4 −1 11







1 0 0

1 3 0

−1 −5 0

1 0 0

4 9 0



El sistema es compatible e indeterminado con infinitas soluciones que depender´ an de dos inc´ ognitas, ya que rang A = rang A∗ = 2. El sistema equivalente es

ß

x+

y− 3y −

z+ 5z

t = =

4 9

De la segunda ecuaci´ on tenemos que y = 3+ 53 z, y sustituyendo en la primera ecuaci´ on se llega a x = 1 − 23 z − t, siendo z, t ∈ R. Podemos expresar las soluciones en la siguiente forma: ! 5 2 (1 − z − t, 3 + z, z, t) : z, t ∈ R 3 3

169

8.6. EJERCICIOS RESUELTOS

⎧ ⎨ 2x − y = 1 x + 3y = −2 e interpretar los resultados obtenidos R8.3 Estudiar el sistema ⎩ 5x − 4y = 7 desde el punto de vista de las aplicaciones lineales. Soluci´ on: Si representamos el sistema por su matriz ampliada A∗ y le aplicamos el m´etodo de Gauss, obtenemos:

 ∗

A =

−1 3 −4

2 1 5

1 −2 7



 ≡

1 0 0

3 7 0

−2 −5 24



Se tiene que rang A = 2 < 3 = rang A∗ , con lo que el sistema es incompatible. (La u ´ltima ecuaci´ on resultante, imposible de satisfacer, es 0 x + 0 y = 24). Tambi´en llegamos al mismo resultado observando que |A∗ | = 0, con lo que se obtiene que rang A∗ = 3, y puesto que obviamente rang A = 2, el sistema es incompatible. Finalmente se puede llegar al mismo resultado resolviendo el sistema

ß

que tiene soluci´ on x = ecuaci´ on.

1 , 7

2x − y = 1 x + 3y = −2

y = − 57 , pero que obviamente no satisface la u ´ltima

Desde el punto de vista de las aplicaciones lineales, A es la matriz de una aplicaci´ on lineal f : R2 → R3 dada por f (x, y) = (2x − y, x + 3y, 5x − 4y) que tiene dim Im f = rang A = 2, con lo que dim Ker f = 0. As´ı pues, f es inyectiva, pero no suprayectiva, y precisamente (1, −2, 7) no es un punto de Im f pues el sistema inicial no tiene soluci´ on, es decir, (1, −2, 7) no posee antiimagen.

R8.4 Discutir seg´ un los valores del par´ametro k ∈ R, el sistema con tres inc´ ognitas ⎧ ⎨ x1 + 5x3 = 2 − 3x2 4x2 + 2x1 − 1 = −2x3 ⎩ 5x1 + 11x2 + 9x3 = k Soluci´ on: cientes,

Empezamos por reescribir el sistema y mostrar la matriz A de coefi-



x1 + 2x1 + 5x1 +

3x2 + 4x2 + 11x2 +

5x3 = 2x3 = 9x3 =

2 1 , k

 A=

1 2 5

3 4 11

5 2 9

 .

Se tiene que |A| = 0, por lo que rang A < 3 y obviamente, rang A = 2. Para que el sistema sea compatible ha de suceder que rang A∗ = 2, y puesto que las dos primeras columnas de A son linealmente independientes, ello suceder´ a sii la columna de t´erminos independientes es combinaci´ o n lineal de ellas, para lo cual se   1 3 2    debe verificar que 2 4 1 = −2(k − 4) = 0. 5 11 k Por lo tanto, el sistema es compatible (e indeterminado) sii k = 4. Si k = 4 el sistema es incompatible, pues rang A = 2 < 3 = rang A∗ . (El lector har´ a un razonamiento alternativo mediante el proceso de Gauss).

170

8. SISTEMAS DE ECUACIONES LINEALES

⎧ ⎨

x + 2z + t = 1 3x − y + t = a ⎩ 2x − y − 2z = 6 ceda seg´ un los valores del par´ametro a ∈ R.

y resolverlo cuando pro-

R8.5 Estudiar el sistema

Soluci´ on:

La correspondiente matriz ampliada es

 ∗

A =

1 3 2

0 −1 −1

2 0 −2

1 1 0

1 a 6



que equivale, intercambiando las filas segunda y tercera y aplicando Gauss, a

 ∗

A ≡

1 0 0

0 1 0

2 6 0

1 2 0

1 −4 7−a

 .

As´ı pues, rang A = rang A∗ = 2 sii a = 7. En consecuencia, para a = 7, como rang A = 2 < 3 = rang A∗ , entonces el sistema es incompatible, y para a = 7 es compatible e indeterminado con infinitas soluciones que depender´ an de dos inc´ ognitas. En este caso, el sistema dado equivale a:

ß

x+

+ y+

2z + 6z +

t= 2t =

1 −4

del cual obtenemos las soluciones dependientes de z, t:

ß

x = y =

1 − 2z − t −4 − 6z − 2t

que tambi´en podemos escribir como {(1 − 2z − t, −4 − 6z − 2t, z, t) : z, t ∈ R} .

R8.6 Hallar Ker(g) de la aplicaci´ on lineal g : R3 → R2 dada por g(x, y, z) = (ax, x − y) seg´ un los valores de a ∈ R. Soluci´ on: Ker g = {(x, y, z) ∈ R3 | g(x, y, z) = (0, 0)}, lo que nos conduce a la resoluci´ on del sistema ß ax = 0 x− y = 0

  a 0 en donde |A| =  1 −1

   = −a que de nuevo tiene soluci´on u´nica sii a = 0. 

Ahora bien, el lector meditar´ a que en este caso las soluciones del sistema nos ayudan a hallar Ker g, pero no constituyen Ker g, ya que en la b´ usqueda de Ker g nos ha conducido a “ligaduras” (las dos ecuaciones del sistema) entre las variables x e y independientemente de los valores de z ∈ R. As´ı pues, para a = 0 tenemos que Ker g = {(0, 0, z) : z ∈ R}, es decir, se trata de un subespacio vectorial de dimensi´ on uno. Para a = 0 el sistema equivale a x − y = 0 o x = y, por lo que Ker g = {(x, x, z) : x, z ∈ R}, que es un subespacio de dimensi´ on dos.

171

8.6. EJERCICIOS RESUELTOS

R8.7 Resolver el ejercicio R8.2 por descomposici´on LS.   Soluci´ on:

1 2 −4

Llamamos A =



del sistema, b al vector columna sistema Ax = b. Del Ejemplo 5.5.11 se deduce que operaciones elementales E2,1 (−2),  1 1 su forma escalonada S = 0 1 0 0 Adem´ as

−1 3 −11

1 −1 5

4 −1 11



1 2 −4

a la matriz de coeficientes

Ö è x y z t

y x =

. Hemos de resolver el

si sobre la matriz A aplicamos sucesivamente las E3,1 (4), E3,2 (3) y finalmente E2 (− 31 ) obtenemos  −1 1 5 −3 0 . 0 0

1 T = E2 (− ) · E3,2 (3) · E3,1 (4) · E2,1 (−2) 3

As´ı pues el sistema inicial es equivalente al sistema Sx = T b, donde T = E2 (− 31 ) · E3,2 (3) · E3,1 (4) · E2,1 (−2). En consecuencia T b es la u ´ltima columna de S en el Ejemplo 5.5.11. Por tanto S x = T b es:



As´ı, el sistema queda

1 0 0

ß



1 1 0

−1 − 35 0

1 0 0

x

+y y

−z − 53 z

Ö è x y z t

+t

  =

4 3 0

=4 =3

cuya soluci´ on es y = 3 + 53 z, y sustituyendo este valor en la primera ecuaci´ on se obtiene x = 1 − 23 z − t, con z, t ∈ R.

R8.8 (Ver ejercicio R2.14) Se han realizado 4 pares de mediciones experimentales (xi , yi ), (i = 1, . . . , 4) cuyos valores son (0, 1), (1, 0), (2, 5), (−1, −4). Determ´ınese el valor f (1.5) a partir del polinomio y = f (x) de grado 3 que definen las cuatro mediciones. Soluci´ on: La funci´ on y = f (x) = c0 + c1 x + c2 x2 + c3 x3 , ha de satisfacer, seg´ un la secci´ on 8.2.9

        

1 1 1 1 1

x 0 1 2 −1

x2 0 1 4 1

x3 0 1 8 −1

y 1 0 5 −4

      = 24x3 − 36x2 + 12 − 12y = 0,   

es decir, y = 1 − 3x2 + 2x3 que coincide con lo obtenido en el ejercicio R2.14. As´ı pues, f (1.5) = 1 − 3 · 1.52 + 2 · 1.53 = 1

⎧ ⎨ 2x − y = 1 x + 3y = −2 y en el caso en que sea sobredeterminado R8.9 Clasificar el sistema ⎩ 5x − 4y = 7 dese la “soluci´ on” por m´ınimos cuadrados.

172

8. SISTEMAS DE ECUACIONES LINEALES





2 −1 1 3 −2 Soluci´ on: La matriz ampliada de coeficientes del sistema es A∗= 1 7 5 −4 que verifica que |A∗ | = 11 = 0. Por tanto, como obviamente rang A = 2 se tiene que rang A = 2 < 3 = rang A∗ . En consecuencia es un sistema incompatible. Como rang A = 2 y el n´ umero de inc´ ognitas tambi´en es dos, es un sistema sobredeterminado. La “soluci´ on” por m´ınimos cuadrados (la que da menor error en sentido “cuadr´ atico”) es la soluci´ on del sistema At Ax = At b, es decir, la soluci´ on de

Å

27 −18

−18 26

ãÅ ã x y

Å

=

ã

34 −35

que, como |At A| = 378, aplicando la regla de Cramer es

x=

   34 −18   −35 26  378

=

254 , 378

y=

  27  −18



34  −35

378

=

−333 . 378

R8.10 Se sabe que en el circuito de la figura inferior se cumple la ley I R + V0 = VT . Se realizan distintas mediciones sobre dicho circuito y se obtienen los valores de la tabla adjunta.

I VT

1 6.26

2 7.14

3 8.03

4 8.50

Cuando se impone que todos los valores de la tabla anterior cumplan la ley del circuito se obtiene un sistema sobredeterminado: ⎧ R + V0 = 6.26 ⎪ ⎪ ⎨ 2 R + V0 = 7.14 3 R + V0 = 8.03 ⎪ ⎪ ⎩ 4 R + V0 = 8.50 A partir de la resoluci´ on de dicho sistema por m´ınimos cuadrados obtened una estimaci´ on de los valores de R y V0 . La matriz Ö A de coeficientes y el vector è Ö è b de t´erminos independientes son, 1 1 6.26 2 1 7.14 respectivamente, A = , b= . Como es un sistema sobredeter3 1 8.03 4 1 8.50 minado (el lector verificar´ a dicha aseveraci´ on) Åla “soluci´ on” al sistema por m´ınimos ã R t cuadrados viene dada por la soluci´ on de A A = At b, es decir, de V0 Soluci´ on:

Å

30 10

10 4

ãÅ ã R V0

Å =

ã

78.63 . 29.93

173

8.6. EJERCICIOS RESUELTOS

La soluci´ on matricial, en este caso, es

Å ã R V0

Å

30 10

=

10 4

ã−1 Å

78.63 29.93

ã

La anterior matriz inversa se calcula f´ acilmente mediante los adjuntos: (At A)−1 =

Å ã

1 20

Å

ã

4 −10

−10 30

ãÅ

ã

Å

Å

0.2 −0.5

=

Å

ã

−0.5 . 1.5

ã

R 0.2 −0.5 78.63 0.7610 = = . Por tanto, los valores V0 −0.5 1.5 29.93 5.5800 aproximados de R (resistencia) y V0 (voltaje) son R = 0.761, y V0 = 5.580.

As´ı pues,

R8.11 Hallar una ecuaci´on vectorial del subespacio r de R3 engendrado por v = (1, 0, 2). Deducir las ecuaciones param´etricas y no para m´etricas de r. (El lector observar´ a que r es una “recta” de R3 que finalmente vendr´a dada por la intersecci´on de dos “planos”). Soluci´ on:

r ≡ (x, y, z) = μ(1, 0, 2), μ ∈ R, es una ecuaci´ on vectorial de r.



Las ecuaciones param´etricas de r son

  Como rang

1 0 2

x=μ y = 0 , μ ∈ R. z = 2μ

= 1, deduciremos dos ecuaciones impl´ıcitas de r:

 x  y



1 = 0, 0

es decir,

ß r≡

  x 1    z 2 = 0;

y=0 2x − z = 0

Obs´ervese que no podr´ıamos haber “pivotado” con la ecuaci´ on y = 0. x y z (El lector recordar´ a la ecuaci´ on (formal) continua = = de r, de la cual se 1 0 2 y obten´ıa tambi´en dos ecuaciones impl´ıcitas siempre que no se “pivote” sobre ; ¿por 0 qu´e?).

R8.12 H´ allense las “ecuaciones” del subconjunto S param´etricas ⎧ ⎨ x = 1+ α− y = 2+ α− S≡ ⎩ z = α+

de R3 dado por las ecuaciones β 2β − 2β +

μ 3μ

(i.e., eliminar los par´ ametros reales α, β, μ del sistema de ecuaciones S). Soluci´ on:

Escribiremos el sistema dado en la forma



x−1 y−2 z

=α− β = α − 2β − μ = α + 2β + 3μ

174

8. SISTEMAS DE ECUACIONES LINEALES

Sea A la matriz  1  Como |A| = 1 1

de coeficientes del segundo miembro, respecto de los par´ ametros.  −1 0  −2 −1 = 0, rang A < 3, y obviamente rang A = 2. 2 3

As´ı, S vendr´ a dado, prescindiendo de  la u´ltima x − 1 1  Nota 8.3.2, por una u ´nica ecuaci´ on,  y − 2 1  z 1

columna y por tanto de μ seg´ un la  −1 −2 = 0 que el lector explicitar´ a. 2

R8.13 Sea H = {(x, y, z) ∈ R3 : x − y = 0, y − z = 0}, y sea F = (1, 2, 3), (0, 1, 2), (2, 5, 8). Hallar una base del espacio vectorial F ∩ H.   1 2 3   olo dos de los tres vectores dados Soluci´ on: De 0 1 2 = 0 deducimos que s´ 2 5 8 constituyen un sistema libre y, por tanto, F = (1, 2, 3), (0, 1, 2). En consecuencia, F vendr´ a dado por una sola “ecuaci´ on”:

 x  y  z

1 2 3



0 1 = 0, es decir, x − 2y + z = 0. 2

El espacio F ∩ H es la soluci´ on del sistema



x− x−

y y− 2y +

= z = z =

0 0 0

Podemos suprimir la tercera ecuaci´ on que es la diferencia de las dos primeras y obtener sin demora la soluci´ on y = z, x = z. Es decir, F ∩ H = {(z, z, z) : z ∈ R}, y una base de F ∩ H es {(1, 1, 1)}.

Å

ãÅ ã Å ã 4 1 x 9 = . Indicad cu´ al de los siguientes tres 1 4 y 6 m´etodos (a)-(c) converge y cu´al no. En caso de convergencia indicad para Jacobi y Gauss-Seidel el n´ umero de iteraciones necesarias para calcular la soluci´on con una tolerancia de una mil´esima (I es la matriz identidad).

R8.14 Dado el sistema

(a) xk+1) = (I − A)xk) + b

(b) Jacobi.

(c) Gauss-Seidel.

Soluci´ on: (Para la realizaci´ on de este ejercicio se recomienda el uso de una calculadora programable o un programa de c´ alculo matem´ atico).

Å

ã

−3 −1 . Los va(a) La matriz de iteraci´ on en este caso es M = I − A = −1 −3 lores propios son (ver secci´ on 9.1.6) las ra´ıces del polinomio p(λ) = |A − λ I| =  −3 − λ −1  2  = λ + 6λ + 8 que son λ = −4, λ = −2. Obviamente ambos  −1 −3 − λ valores propios son mayores que uno en m´ odulo, en consecuencia, el m´etodo iterativo definido en (a) divergir´ a. (b) Como los elementos de la diagonal de A son en m´ odulo mayores que la suma de los valores absolutos del resto de elementos de la fila (4 > 1), se tiene que la matriz A es diagonal dominante. En consecuencia, el m´etodo de Jacobi es convergente.

175

8.6. EJERCICIOS RESUELTOS

En este como A = L + D + U en donde Å caso ã la matriz Å delãsistemaÅ se descompone ã 0 0 4 0 0 1 L= ,D= ,U = ; y el sistema inicial se reescribe, teniendo 1 0 0 4 0 0 en cuenta la ecuaci´ on (8.17), como

Å

xk+1) y k+1)

ã

Å =

ãÅ

0 −0.25 −0.25 0

xk) y k)

Å

ã

Å +

ã

2.25 1.5

ã

Å ã

x0) 0 Se toma un vector inicial arbitrario, por ejemplo = , y se aplica el proceso 0 y 0) iterativo para k = 0, 1, 2, . . . obteniendo la siguiente tabla: k= xk) = y k) =

1 1.87500 0.93750

2 2.01563 1.03125

3 1.99219 0.99609

4 2.00098 1.00195

5 1.99951 0.99975

6 2.00006 1.00012

Obs´ervese que la quinta iteraci´ on es la primera iteraci´ on en la que el cambio que afecta a los valores iterados es menor que una mil´esima puesto que |x6) − x5) | ≈ 0.00055 = 5.5·10−4 , y |y 6) − y 5) | ≈ 0.00037 = 3.7·10−4 . Por tanto, se puede Å afirmar ã 2.00006 que la soluci´ on del sistema inicial es el u ´ltimo vector iterado calculado , 1.00012 con un error del orden de la tolerancia en cada componente. (El lector verificar´ a que la soluci´ on del sistema es x = 2, y = 1). (c) Al igual que en el m´etodo de Jacobi, como la matriz del sistema A es diagonal dominante, el m´etodo de Gauss-Seidel tambi´en converge. En este caso el sistema se reescribe, teniendo en cuenta la ecuaci´ on (8.18), como

Å

xk+1) y k+1)

ã

Å =

0 0

−0.25 0.0625

ãÅ

xk) y k)

Å

ã

Å +

2.25 0.9375

ã

Å ã

ã

x0) 0 = , y se aplica el proceso 0 y 0) iterativo para k = 0, 1, 2, . . . obteniendo la siguiente tabla:

Se toma un vector inicial arbitrario, por ejemplo

k= xk) = y k) =

1 2.01563 0.99609

2 2.00098 0.99976

3 2.00006 0.99998

Obs´ervese que la tercera iteraci´ on es la primera iteraci´ on en la que el cambio que afecta a los valores iterados es menor que una mil´esima puesto que |x3) − x2) | ≈ 0.00092 = 9.2·10−4 , y |y 3) − y 2) | ≈ 0.00023 = 2.3·10−4 . Por tanto, se puede Å afirmar ã 2.00006 , que la soluci´ on del sistema inicial es el u ´ltimo vector iterado calculado 0.99998 con un error del orden de la tolerancia en cada componente. N´ otese que el m´etodo de Gauss-Seidel ha convergido a la soluci´ on con una tolerancia de una mil´esima con tres iteraciones, mientras que el m´etodo de Jacobi ha necesitado seis iteraciones.

R8.15 Resolved por Jacobi y Gauss-Seidel los sistemas de los apartados siguientes con una tolerancia de 10−4 . Observad si convergen y en caso afirmativo comparad la velocidad de convergencia entre los distintos sistemas y m´etodos. ( Nota: La

176

8. SISTEMAS DE ECUACIONES LINEALES

velocidad de convergencia est´ a relacionada con el mayor m´odulo de los valores propios de la matriz de iteraci´ on). ⎧ ⎧ ⎨ 3x + 2y = 6 ⎨ 5x + y + z = 7 2x + 4y − z = 5 x + 5y + z = 7 (b) (a) ⎩ ⎩ 3x + y + z = 2 x + y + 5z = 7 Soluci´ on: (Para la realizaci´ on de este ejercicio se recomienda el uso de una calculadora programable o un programa de c´ alculo matem´ atico).



(a) La matriz y t´ermino independiente del sistema considerado son A =

 

5 1 1

1 5 1



1 1 5

7 7 , por tanto, en este caso la matriz de iteraci´ on MJ y el vector v J que 7   0 −0.2 −0.2 0 −0.2 y definen el m´etodo de Jacobi en la ecuaci´ on (8.17) son MJ = −0.2 −0.2 −0.2 0   1.4 v J = 1.4 ; mientras que los que definen el m´etodo de Gauss-Seidel en la ecuaci´ on 1.4     0 −0.2 −0.2 1.4 (8.18) son MGS = 0 0.04 −0.16 y v GS = 1.12 . Se observa que la 0 0.032 0.072 0.8960 matriz A que define el sistema es diagonal dominante (en las tres filas se tiene que |5| > |1| + |1|) y, en consecuencia, ambos m´etodos an. Se Ñ converger´ é Ñdefine éel vector   k) k) xJ xGS 0 k) k) k) y xGS = yGS para los inicial x0) = 0 y los vectores iterados xJ = yJk) k) k) 0 zJ zGS m´etodos de Jacobi y Gauss-Seidel, respectivamente, y se ejecuta el proceso iterativo obteniendo los resultados de las tablas siguientes: y b =

k= = = =

k) xJ k) yJ k) zJ

k k) xGS k) yGS k) zGS

= = = =

1 0.84000 0.84000 0.84000 1 0.99680 1.02144 0.99635

2 1.06400 1.06400 1.06400 2 0.99644 1.00144 1.00042

... ... ... ... 3 0.99963 0.99999 1.00007

10 1.00004 1.00004 1.00004 4 0.99998 0.99999 1.00000

11 0.99998 0.99998 0.99998 5 1.00000 1.00000 1.00000

Al igual que en el apartado (a) del ejercicio anterior se calculan los valores propios odulo m´ aximo para MJ es 0.4, mientras que para de MJ y MGS obteniendo que el m´ MGS es 0.0894. En este caso se observa que el m´etodo de Gauss-Seidel tiene el de m´ odulo m´ aximo menor que Jacobi y que converge a la soluci´ on x = y = z = 1 con una tolerancia de 10−4 con la mitad de iteraciones que lo hace el m´etodo de Jacobi. (b) El lector puede proceder igual que en el apartado anterior obteniendo los resultados de las tablas siguientes:

177

8.6. EJERCICIOS RESUELTOS

k k) xJ k) yJ k) zJ

= = = =

1 1.16666 0.75000 -5.25000

2 1.50000 -0.64583 -2.25000

... ... ... ...

49 3.19979 -1.79974 -5.79956

50 3.19983 -1.79978 -5.79962

k= = = =

1 1.83333 -0.72917 -2.77083

2 2.48611 -0.68576 -4.77257

... ... ... ...

32 3.19984 -1.79982 -5.79971

33 3.19988 -1.79987 -5.79978

k) xGS k) yGS k) zGS

Al igual que en (a) se calculan los valores propios de MJ y MGS obteniendo que el m´ odulo m´ aximo para MJ es 0.8287, mientras que para MGS es 0.75. En este caso se observa que el m´etodo de Gauss-Seidel continua teniendo m´ odulo m´ aximo inferior a Jacobi pero, aunque son inferiores a la unidad, ambos est´ an cercanos a uno. Ello hace que el proceso de convergencia sea m´ as lento y necesiten m´ as iteraciones que en el apartado anterior para converger a la soluci´ on x = 3.2, y = −1.8, z = −5.8 con una misma tolerancia prefijada (10−4 ). Aunque en este caso la matriz no es diagonal dominante, se observa que ha habido convergencia en el proceso iterativo. Al calcular a posteriori los valores propios de las matrices de iteraci´ on, se ha observado que todos ellos son inferiores a la unidad y, por tanto, los m´etodos son convergentes como ya se hab´ıa observado.

179

Cap´ıtulo 9

´ DE DIAGONALIZACION MATRICES La sencillez de los c´alculos relativos a las matrices diagonales, justifica por s´ı mismo la b´ usqueda de una matriz “reducida diagonal” para un endomorfismo. No obstante, la teor´ıa de vectores propios, en la que se soportar´an nuestros resultados, tiene inter´es en distintos campos de la Matem´ atica como es el caso de la resoluci´ on de sistemas lineales de ecuaciones diferenciales con coeficientes constantes.

9.1 9.1.1

SUBESPACIOS PROPIOS Introducci´ on

En todo lo que sigue V representa un espacio vectorial de dimensi´ on finita n sobre el cuerpo K (que ser´ a R, aunque los resultados que se obtendr´ an valen para C), y f : V → V un endomorfismo. Supondremos que la matriz cuadrada asociada a f , respecto una base B de V , es A = (aij ) 1≤i≤n . 1≤j≤n

Nos proponemos estudiar bajo qu´e condiciones es posible encontrar una base B  de V , en la que el endomorfismo f tenga por representaci´on matricial, una matriz diagonal D con coeficientes en K. En el caso de que exista tal base el problema a estudiar, equivale al de encontrar una matriz diagonal D, semejante a A.

´ DE MATRICES 9. DIAGONALIZACION

180

9.1.2

Vectores propios

Un escalar λ ∈ K se dice que es un valor propio de f si se verifica f (x) = λx, para alg´ un x = 0. Si A es una matriz asociada a f ello equivale a escribir Ax = λx para alg´ un x = 0. Si λ es un valor propio de f , cualquier vector x ∈ V que verifique f (x) = λx, se llama vector propio asociado a λ. Es obvio que 0 es un vector propio de f , para cualquier valor propio λ de f .

9.1.3

Nota Si x es un vector propio no nulo de f , s´ olo puede tener un valor propio λ asociado

pues si f (x) = μx, entonces de λx − μx = f (x) − f (x) = 0 se tiene (λ − μ)x = 0 y, por tanto, λ = μ pues x = 0.

9.1.4

Subespacio propio

Llamaremos subespacio propio Eλ de f correspondiente al valor propio λ, al conjunto de vectores propios asociados a λ. As´ı pues Eλ = {x ∈ V : f (x) = λx}. Ahora bien, f (x) = λx se puede escribir f (x) = λI(x) o tambi´en (f − λI)(x) = 0, por lo que Eλ = Ker(f − λI) y, por tanto, Eλ es un subespacio vectorial de V . Como caso particular, si λ = 0, entonces Eλ = Ker f .

9.1.5

Ejemplo Sea f : R2 → R2 el endomorfismo definido por f (x, y) = (2x, 2y).

Entonces λ = 2 es un valor propio de f y adem´as, como para todo (x, y) ∈ R2 , se tiene que f (x, y) = 2(x, y), obtenemos que el subespacio propio E2 = Ker(f − 2I) = R2 .

9.1.6

El polinomio caracter´ıstico

La condici´on (f − λI)(x) = 0, que expresa que x es un vector propio asociado a λ, se puede escribir matricialmente (seg´ un 6.2.1, 6.2.5 y 6.2.6): (A − λI)·x = 0

(9.1)

181

9.1. SUBESPACIOS PROPIOS

La ecuaci´ on (9.1) indica que Eλ = Ker(f − λI), que es el subespacio de vectores propios de valor propio λ, verifica el sistema homog´eneo: ⎧ ⎪ (a11 − λ)x1 ⎪ ⎪ ⎪ ⎨ a21 x1 ⎪ ⎪ ⎪ ⎪ ⎩

+ a12 x2 + · · · + (a22 − λ)x2 + · · · an2 x2 + · · ·

an1 x1 +

+ +

a1n xn a2n xn

=0 =0 .. .

(9.2)

+ (ann − λ)xn = 0

que sabemos por el punto 8.3.3, tendr´a soluciones distintas de la trivial si y s´olo si rang(A − λI) = r < n, lo que equivale a que |A − λI| = 0. en K,

(9.3)

Obs´ervese que |A − λI| es un polinomio en λ de grado n con coeficientes   a12 ···  a11 − λ   ..  a21 . a22 − λ  |A − λI| =  .. .. ..  . .  .    an1 ··· an,n−1

         an−1,n   ann − λ 

a1n .. .

= cn λn + cn−1 λn−1 + · · · + c1 λ + c0 llamado polinomio caracter´ıstico de f . Sus ra´ıces son los valores propios de f o de la matriz A (lo cual es otra forma de definir valor propio de una matriz) y, al sustituirlos en la ecuaci´ on (9.2), se obtienen los sistemas homog´eneos cuyas soluciones son los subespacios propios correspondientes a cada valor propio.

9.1.7

Unicidad del polinomio caracter´ıstico

Si existe una representaci´on matricial diagonal D del endomorfismo f respecto una base B  y P es la matriz del cambio de base (de paso) de B a on 6.4.3) P −1 ·A·P = D. Cuando B  , sabemos que ha de verificarse (ver secci´ ello suced´ıa dec´ıamos que A y D eran semejantes. El polinomio caracter´ıstico que se obtiene a partir de cualquier representaci´on matricial del endomorfismo f es siempre el mismo (invariante), y de ah´ı su nombre. En efecto, |D − λI|

=

|P −1 A P − λI| = |P −1 A P − λP −1 I P |

=

|P −1 (A P − λI P )| = |P −1 (A − λI) P |

=

|P −1 | |A − λI| |P | = |A − λI|

´ DE MATRICES 9. DIAGONALIZACION

182

9.1.8

Ejemplo Ç

å

Ç

å

3 −2 1 2 En el ejercicio R6.8 hemos visto que D = yA= 3 −3 1 −1 son dos representaciones maticiales del mismo endomorfismo. Se tiene que    3 − λ  −2      = λ2 − 3 D − λI  =   3 −3 − λ

y tambi´en

9.2 9.2.1

    1 − λ 2      = λ2 − 3. A − λI  =   1 −1 − λ

´ DE MATRICES DIAGONALIZACION Definici´ on

Diremos que f es diagonalizable, si admite una representaci´ on matricial diagonal D con coeficientes en K respecto a una base de V . Equivalentemente, si suponemos que A es la matriz de un endomorfismo f referida a cierta base, se dice que A es diagonalizable si A es semejante a una matriz diagonal D con coeficientes en K.

9.2.2

Proposici´ on

El endomorfismo f es diagonalizable si y s´olo si existe una base B  = {v 1 , v 2 , . . . , v n } de V , formada por vectores propios de f . Ç d1

Demostraci´ on. Supongamos que D =

å

..

es una representaci´ on matricial

. dn

on diagonal de f respecto a la base {v 1 , v 2 , . . . , v n }. Entonces, recordando la interpretaci´ de las columnas de D (secci´ on 6.2.1), se tiene que f (v i ) = di v i , (i = 1, . . . , n) y, por tanto, {v 1 , . . . , v n } es un conjunto de vectores propios. Rec´ıprocamente, supongamos que B  = {v 1 , . . . , v n } es una base de vectores propios de V . Entonces existen λ1 , . . . , λn ∈ K de forma Ñque f (vi ) =éλi vi (i = 1, . . . , n), y la λ1



representaci´ on matricial de f respecto B es D =

λ2

..

.

.



λn

9.2.3

Nota

En las condiciones del punto anterior, precisemos que si B  = {v 1 , . . . , v i , . . . , v i+s , . . . , v n } de manera que v i , . . . , v i+s son s vectores propios aso-

´ DE MATRICES 9.2. DIAGONALIZACION

183

ciados a un mismo valor propio λi (es decir, λi = · · · = λi+s ), entonces de: ⎧ ⎪ ⎪ ⎨

f (vi ) = λi v i .. .

⎪ ⎪ ⎩ f (v ) i+s

= λi v i+s

se concluye que en la matriz diagonal D correspondiente, aparece s veces el valor propio λi en la diagonal: â

..

ì

.

λi

D=

..

.

s veces

λi

..

.

La siguiente proposici´ on, que no demostraremos, es de gran utilidad.

9.2.4

Proposici´ on

a) Un conjunto de n vectores propios no nulos {x1 , . . . , xn } correspondientes a valores propios distintos λ1 , . . . , λn , respectivamente, es una base de V . b) Si A tiene n valores propios distintos λ1 , . . . , λn , A es diagonalizable.

9.2.5

Ejemplo Ç

Sea la matriz A =

0 −2 −1 1

å

. Su ecuaci´ on caracter´ıstica es

  −λ −2  |A − λI| =   −1 1 − λ

    = λ2 − λ − 2 = 0 

y los valores propios son λ1 = 2 y λ2 = −1. As´ı pues, la matriz A (o bien el correspondiente a en Ç å endomorfismo en alguna base) diagonalizar´ 2 0 . D= 0 −1 Si la matriz A no tiene n valores propios distintos, dicha matriz pudiera no ser diagonalizable. No obstante se tiene el siguiente teorema que damos en el campo real y cuya demostraci´on omitimos.

´ DE MATRICES 9. DIAGONALIZACION

184

9.2.6

Teorema (caracterizaci´ on de los endomorfismos diagonalizables)

Sean λi las ra´ıces, con multiplicidad mi , de un endomorfismo f . Entonces f es diagonalizable si todas las ra´ıces λi son reales y adem´as o, equivalentemente, si mi = n − rang (A − λi I) teniendo mi = dim Eλi ´ en cuenta la secci´ on 6.2.3.

9.2.7

Ejemplo Ç

Sea la matriz A =

0 −2 −1 1

å

. El polinomio caracter´ıstico es

  −λ 2  |A − λI| =   −1 1 − λ

    = λ2 − λ + 2 

que no posee ra´ıces reales, por tanto A no diagonaliza (en R).

9.2.8

Nota

Desde un punto de vista pr´actico conviene saber que si la ra´ıces λi de multiplicidad mi ≥ 2 verifican el Teorema 9.2.6, entonces es innecesaria la verificaci´ on del enunciado para las ra´ıces simples, pues ´estas tambi´en lo satisfacen.

9.2.9

Matriz de paso

Sea A la matriz del endomorfismo f respecto cierta base B de V que diagonaliza con matriz diagonal D respecto una base de vectores propios B  ´ de V . Estos sabemos que se obtienen resolviendo la ecuaci´ on matricial (9.1) an referidos referida a B y, por tanto, los vectores propios de la base B  est´  a B. Por ello, las coordenadas de los vectores de B en columnas son la matriz P de paso (o cambio de base de B a B  , ver punto 6.4.1) que verifica un el punto 6.4.3. P −1 ·A · P = D, seg´

9.2.10

Potencia de una matriz

Es sencillo verificar que la potencia n-´esima de una matriz diagonal D se consigue elevando a la n-´esima potencia cada elemento de la diagonal. En el caso de una matriz cualquiera A que tenga por matriz diagonal a D sabemos, por el punto anterior, que verifica D = P −1 A P y, por tanto,

185

9.3. UN POCO DE HISTORIA

A = P D P −1 , de lo cual se desprende que A2 = (P D P −1 )(P D P −1 ) = P D (P −1 P ) D P −1 = P D 2 P −1 A3 = A2 A = (P D 2 P −1 )(P D P −1 ) = P D 2 (P −1 P ) D P −1 = P D 3 P −1 y, por inducci´ on, se demuestra que An = P D n P −1 .

9.2.11

Matrices sim´ etricas

Se demuestra que toda matriz sim´etrica con coeficientes reales es siempre diagonalizable en R.

9.2.12

Nota

Dado que un polinomio con coeficientes reales no siempre tiene sus ra´ıces en R, se puede dar el caso de que una matriz con coeficientes reales no sea diagonalizable en R pero s´ı lo sea sobre C (obs´ervese el ejercicio R9.9).

9.3

UN POCO DE HISTORIA El origen de los valores y vectores propios, como tantas otras ideas en matem´ aticas,

hay que buscarlo en la obra de Euler (1707-1783), concretamente en su estudio de la ecuaci´ on general de segundo grado en dos y tres variables. Euler demostr´ o la existencia de unos ejes perpendiculares donde la expresi´ on de una c´ onica, o de una cu´ adrica, es muy sencilla. La noci´ on de polinomio caracter´ıstico aparece expl´ıcitamente en el trabajo de Lagrange (1736-1813) sobre sistemas de ecuaciones diferenciales, y tambi´en en el trabajo de Laplace (1749-1827). Entre los matem´ aticos ilustres que trabajaron sobre la teor´ıa de valores y vectores propios, en espacios vectoriales reales, destacan Cauchy (1789-1857), Jacobi (18041851), Sturm (1803-1855) Hermite (1822-1901). Frobenius (1849-1917), Jordan (1838-1922) y Toeplitz (1881-1940). La teor´ıa de valores y vectores propios, adem´ as de ser muy u ´til en el estudio y resoluci´ on de problemas geom´etricos, de sistemas de ecuaciones diferenciales lineales y de sus contrapartidas discretas, las ecuaciones en diferencias, tambi´en es muy importante en muchos otros campos, como el desarrollo de m´etodos de an´ alisis en estad´ıstica multivariante o en la resoluci´ on de problemas de decisi´ on multicriterio.

9.4

EJERCICIOS RESUELTOS Å

ã 1 −2 diagonalice en cierta base B  , hallar esta 1 4 base, la matriz diagonal D y la matriz de paso P a la base B  . Hallar An .

R9.1 En el caso en que A =

´ DE MATRICES 9. DIAGONALIZACION

186 Soluci´ on:

La ecuaci´ on caracter´ıstica es

  1−λ   1



−2  = (1 − λ)(4 − λ) + 2 = λ2 − 5λ + 6 = 0. 4−λ 

Los dos Å valores ã propios son reales y distintos λ = 2, 3 por lo que A diagonaliza y 2 0 D= . 0 3 El sistema que da los subespacios propios es

ß

(1 − λ)x x

Eλ =

− +

2y (4 − λ)y

=0 =0

Para λ = 2 se tiene que E2 ≡ −x − 2y = 0, luego E2 ≡ {(−2y, y) : y ∈ R} = (−2, 1) Mientras que para λ = 3, E3 ≡ x + y = 0, luego E3 ≡ {(−y, y) : y ∈ R} = (−1, 1)

Å

−2 1

As´ı pues: B  = {(−2, 1), (−1, 1)} y, por tanto, P =

−1 1

ã .

En consecuencia, An = P Dn P −1 =

Å

−2 1

−1 1

ãÅ

2n 0

0 3n

ãÅ

−1 1

−1 2

ã

R9.2 Sea el endomorfismo f : R3 → R3 definido como f (x, y, z) = (x, y, x+ y + 2z). Demostrar que f es diagonalizable y obtener una base B  de R3 de vectores propios de f y la matriz diagonal D. Hallar la matriz de paso P de la base can´onica a B  . Soluci´ on: Hallemos la matriz A asociada a f respecto la base can´ onica (en ambos espacios) de R3 : f (1, 0, 0) = (1, 0, 1) f (0, 1, 0) = (0, 1, 1) f (0, 0, 1) = (0, 0, 2)



por tanto, A =

1 0 1

0 1 1

0 0 2



es una representaci´ on matricial, no diagonal, de f .

Otra manera de obtener A es escribir el correspondiente sistema de ecuaciones param´etricas respecto la base can´ onica a trav´es de la definici´ on expl´ıcita de f :



y1 = y2 = y3 =

x x

+

y y

+

2z

y observar la equivalente expresi´ on matricial de f :



y1 y2 y3



 =

1 0 1

0 1 1

0 0 2

  ·

x y z



187

9.4. EJERCICIOS RESUELTOS

El polinomio caracter´ıstico de f o de la matriz A, sabemos que es:

  1−λ  |A − λI| =  0  1

0 1−λ 1

0 0 2−λ

    = (1 − λ)2 · (2 − λ)  

Los valores propios correspondientes a f son pues λ = 1 (ra´ız doble) y λ = 2. La expresi´ on matricial (A − λI)·x = 0 de la que se obtienen los vectores propios correspondientes al valor propio λ queda



1−λ 0 1

0 1−λ 1

0 0 2−λ

  ·

x y z



 =

0 0 0



de donde se desprende el sistema de ecuaciones lineales homog´eneo:



(1 − λ)x x

+

(1 − λ)y y

(2 − λ)z

+

=0 =0 =0

(9.4)

Para conocer Ker(f − λI) en el caso λ = 1, se sustituye dicho valor en el sistema (9.4) y se hallan las soluciones. En este caso se tiene



0x

E1 = Ker(f − I) ≡ x

+

0y y

+

z

=0 =0 =0

(9.5)

que equivale a x + y + z = 0. (Obs´ervese que el rango del sistema es 1 y, puesto que se ha obtenido una ecuaci´ on (no trivial) homog´enea en x, y, z, el subespacio que define dicho sistema, seg´ un 8.3.3, es de dimensi´ on 2, como veremos a continuaci´ on resolviendo (9.5) ). De (9.5) se tiene, x = −y − z y, por tanto, E1 = {(−y − z, y, z) : y, z ∈ R} cuyos elementos podemos escribir en la forma y(−1, 1, 0) + z(−1, 0, 1) y, en consecuencia, una base de vectores propios de E1 es {(−1, 1, 0), (−1, 0, 1)} con lo que dim E1 = 2. Si tenemos en cuenta la Nota 9.2.8 podemos ya asegurar que f diagonaliza, no obstante, como estamos interesados en encontrar una base de vectores propios B  , hallaremos E2 . Para conocer el subespacio de vectores propios correspondientes a λ = 2 sustituiremos este valor en (9.4) y obtenemos:



x

E2 = Ker(f − 2 I) ≡ x

+

y y

+

0z

=0 =0 =0

cuyas soluciones son x = 0, y = 0, para cualquier z ∈ R. As´ı pues, E2 = {(0, 0, z) : z ∈ R} cuyos elementos podemos escribir en la forma z(0, 0, 1), con lo que {(0, 0, 1)} es una base de E2 y dim E2 = 1. As´ı pues, se satisface el Teorema 9.2.6 y por tanto f diagonaliza en la base de vectores propios B  = {(−1, 1, 0), (−1, 0, 1), (0, 0, 1)}, siendo la matriz diagonal D de f respec    1 0 0 −1 −1 0 1 0 0 . to de dicha base D = 0 1 0 , y siendo la matriz de paso P = 0 0 2 0 1 1

´ DE MATRICES 9. DIAGONALIZACION

188

(Si deseamos verificar la correcci´ on del proceso, veamos que P −1 A P = D (es decir, A y D son semejantes). En efecto,



P

−1



0 1 0 AP = −1 −1 0 1 1 1   1 0 0 = =D 0 1 0 0 0 2

1 0 1

0 1 1



0 0 2

−1 1 0

−1 0 1

0 0 1



Nota: Obs´ervese que el orden de los valores propios utilizado en la definici´ on de la matriz diagonal D es arbitrario. Ahora bien, una vez fijado el orden de ´estos, queda fijado el orden de los vectores propios, es decir, cada vector propio debe corresponderse en orden con su valor propio asociado y rec´ıprocamente. As´ı, por ejemplo, si se toma la base de vectores propios B  = {(0, 0, 1), (−1, 1, 0), (−1, 0, 1)} se tendr´ a una matriz diagonal D con el orden de los valores propios cambiado:



P

−1

AP





1 1 1 1 0 1 0 0 = −1 −1 0 1   2 0 0 0 1 0 = = D 0 0 1

Ñ R9.3 Calcula An siendo A =

1 0 0 1 1 1

0 0 2

0 1 1

0 0 2



0 0 1

−1 1 0

−1 0 1



é .

Soluci´ on: Observemos que A es la matriz del ejercicio anterior, y por tanto semejante a D, que verifican P −1 A P = D. Atendiendo a la secci´ on 9.2.10 y recordando las matrices del ejercicio anterior, se tiene:



n

n

A =PD P

−1

=

−1 1 0

−1 0 1

0 0 1



1 0 0

0 1 0

0 0



2n

Ñ R9.4 Estudiar para a ∈ R la diagonalizaci´ on de la matriz A = Soluci´ on:

La ecuaci´ on caracter´ıstica es |A − λI| =

= =

  1−λ   0   1

1 2a − λ 1

  1−λ

(2a − λ) 

1

0 −1 1

1 0 1

1 −1 1

1 1 2a 0 1 1

       1  1−λ  1 0 1−λ

2

(2a − λ)(λ − 2λ) = 0

con valores propios λ1 = 0, λ2 = 2 y λ3 = 2a. Si a = 0, 1, entonces los 3 valores propios son distintos y A diagonaliza.

0 0 1



é .

189

9.4. EJERCICIOS RESUELTOS





1 1 1 Si a = 0, entonces λ = 0 (ra´ız doble), y como rang(A − 0I) = rang 0 0 0 = 1, 1 1 1 on 8.3.3. entonces, seg´ un la Nota 9.2.8, A diagonaliza pues dim E0 = 2 por la secci´



Si a = 1, entonces λ = 2 (ra´ız doble), y rang(A − 2I) = rang on 8.3.3. entonces A no diagonaliza pues dim E2 = 1 por la secci´

Å

R9.5 Estudia la diagonalizaci´ on de la matriz A =

a−1 0

1 3−a

−1 0 1

1 0 1

1 0 −1



= 2,

ã seg´ un los valores

reales del par´ametro a. Soluci´ on:

La ra´ıces de la ecuaci´ on caracter´ıstica



  a−1−λ

|A − λI| = 

 1  = (a − 1 − λ)(3 − a − λ) = 0 3−a−λ 

0

son λ1 = a − 1 y λ2 = 3 − a. Los valores propios coinciden sii a − 1 = 3 − a, es decir, si a = 2. As´ı pues, si a = 2 entonces ambos valores propios son distintos y, en consecuencia, A diagonaliza. Si a = 2, entonces λÅ= 1 es ãun valor propio doble. Se tiene en este caso que 0 1 rang(A − 1 I) = rang = 1, con lo que dim E1 = 1 por la secci´ on 8.3.3 y, 0 0 por tanto, A no diagonaliza.

Å

a 0

R9.6 Discutir si la matriz A =

1 2−a

ã es o no diagonalizable, seg´ un los valores

reales del par´ametro a. Soluci´ on:

La ecuaci´ on caracter´ıstica correspondiente a A es:

  a−λ

P (λ) = |A − λI| = 

0



 1  = (a − λ)(2 − a − λ) = 0 2−a−λ 

cuyas ra´ıces son λ = a y λ = 2 − a. Estas ra´ıces s´ olo coinciden cuando a = 2 − a, es decir si a = 1. En consecuencia, para a = 1, A tiene dos valores propios distintos λ1 = a y λ2 = 2−a con lo que A diagonaliza. Veamos el caso a = 1 estudiando el rango correspondiente de A − λ I, para el valor propio doble resultante λ = 1:

Å rang(A − 1I) = rang

0 0

1 0

ã = 1 (= 2 − 2).

En consecuencia, seg´ un el Teorema 9.2.6, para el valor a = 1 la matriz A no diagonaliza.

R9.7 Hallar los valores propios de la matriz Am siendo A = (aij ) una matriz triangular de dimensi´ on n. Soluci´ on: Supongamos que A es triangular superior. Entonces Am es otra matriz m triangular superior, con diagonal am 11 , . . . , ann .

´ DE MATRICES 9. DIAGONALIZACION

190

En consecuencia, el polinomio caracter´ıstico de Am es:

  m  a11 − λ    0  P (λ) = |A − λ I| =  ..   .    0

am 22 − λ ..

         Cn−1,n    am nn − λ 

···

C12

.

···

..

.

..

.

C1n .. .

0

m m As´ı pues, P (λ) = (am 11 − λ) · · · (ann − λ), con lo que los valores propios de A , que m m se deducen de la ecuaci´ on caracter´ıstica P (λ) = 0, son: a11 , . . . , ann .

Å

R9.8 Discutir la diagonalizaci´ on de la matriz A = a ∈ R. on: Soluci´  a−λ 1   −1 −λ

a 1 −1 0

ã

seg´ un los valores de

 El polinomio caracter´ıstico de la matriz √ A es P (λ) = |A − λI| =  a± a2 − 4  = λ2 − aλ + 1 cuyas ra´ıces son λ = .  2

As´ı pues, si a2 − 4 < 0, es decir, si a ∈] − 2, 2[ no hay ra´ıces reales, luego A no es diagonalizable. Si a2 − 4 > 0, es decir, si A ∈ R − [−2, 2], entonces hay dos valores propios distintos, luego A es diagonalizable.

Å

Para a = 2, λ = 1, se tiene que rang(A − I) = rang Nota 9.2.6, A no diagonaliza.

Å

Para a = −2, λ = −1 se tiene que rang(A + I) = rang

1 −1 −1 −1

1 −1 1 1

ã

= 1 y seg´ un la

ã = 1, y de nuevo

A no diagonaliza.

Å

ã

0 1 . Comprobar que A no es diagonalizable sobre R −1 0 pero s´ı lo es sobre C. Hallar en dicho caso una representaci´ on matricial diagonal de A.

R9.9 Sea A la matriz A =

Soluci´ on:

  −λ 1 El polinomio caracter´ıstico de A es P (λ) = |A − λI| =  −1 −λ

  = 

λ2 + 1. Dado que P (λ) no tiene ra´ıces en R, en virtud del Teorema 9.2.6, A no es diagonalizable en R. Si calculamos en C las ra´ıces de P (λ) obtenemos que P (λ) = (λ−i)(λ+i), luego P (λ) tiene dos ra´ıces complejas distintas y por b) del Corolario 9.2.4, A es diagonalizable en C. Å ã i 0 . Una representaci´ on matricial diagonal de A en este caso ser´ a la matriz D = 0 −i

R9.10 Demostrar que si λ es un valor propio de la matriz A entonces λ2 es un valor propio de A2 . Soluci´ on: Como λ es un valor propio de A, existe x = 0 de forma que Ax = λx (ver secci´ on 9.1.2). Entonces, A2 x = A(Ax) = A(λx) = λ Ax = λ λx = λ2 x.

191

9.4. EJERCICIOS RESUELTOS

R9.11 (Un caso especial) Diagonaliza la matriz A =

Å 2 1

ã −3 para hallar An . Comparar los resultados −2

con el ejercicio R5.6.





2 − λ −3  = λ2 − 1 = 0 La ecuaci´ on caracter´ıstica es |A − λI| =  1 −2 − λ que tiene los valores propios Å λ = 1,ã λ = −1 (distintos). Por tanto, A diagonaliza y 1 0 la matriz diagonal es D = . 0 −1 Soluci´ on:

Å

De A = P D P −1 se deduce An = P Dn P −1 = P Si n es par, entonces An = P I P −1 = P P −1 = I. Si n es impar, entonces An = P D P −1 = A.

1n 0

ã

0 P −1 . (−1)n

Bibliograf´ıa [1] F.J. Boigues Planes, V.D. Estruch Fuster, V. Gregori Gregori, B. Roig Sala, A. Sapena Piera, A. Vidal Mel´o; C´ alculo B´ asico, Ed. UPV, 2014. ´ [2] J.C. Del Valle Sotelo; Algebra lineal para estudiantes de ingenier´ıa y ciencias, ed. McGraw-Hill, 2011. ´ [3] J. Garc´ıa Garc´ıa, M. L´ opez Pellicer; Algebra lineal y geometr´ıa, ed. Marfil, 1986. ´ [4] D.C. Lay; Algebra lineal y sus aplicaciones, ed. Pearson Educaci´on, 2007. ´ [5] L.M. Merino Gonzalez, E. Santos Alaez; Algebra lineal con m´etodos elementales, ed. Paraninfo, 2006.

193

´Indice de t´ erminos algebra de Boole, 17 ´

descomposici´ on LS, 99 LU, 97 desviaci´ on t´ıpica, 44 determinante, 130 de una matriz triangular, 136 de Vandermonde, 142 desarrollo de un, 136 diagonal de una matriz, 88 diagrama de dispersi´ on, 39 de Venn, 14 lineal, 15 diferencia de conjuntos, 16 sim´etrica, 16 dimensi´ on de un espacio vectorial, 78 de una matriz, 87 finita, 74 teorema de la, 78 distribuci´ on bidimensional, 39 dominio, 32

adjunto, 134 ajuste por m´ınimos cuadrados, 41 antiimagen, 27 aplicaci´ on, 27 biyectiva, 28 compuesta, 29 diagonalizable, 182 identidad, 29, 110 inversa, 31 inyectiva, 28 lineal, 109 nula, 110 suprayectiva, 28 base can´ onica, 78 de un espacio vectorial, 77 campo de existencia, 32 cardinal, 17 coeficiente de determinaci´ on, 45 combinaci´ on, 21 lineal, 74 lineal nula, 76 complementario, 16 conjunto, 13 disjunto, 16 imagen, 27 referencial, 14 vac´ıo, 14 convergencia, 164 coordenadas, 74 correlaci´ on lineal, 45 coeficiente de, 45 directa m´ axima, 45 inversa m´ axima, 45 correspondencia inversa, 27 covarianza, 44 d´ıgitos significativos, 59

ecuaci´ on expl´ıcita de f , 110 impl´ıcita, 162 matricial de f , 113 no param´etrica, 162 param´etrica, 161 param´etrica de f , 113 eje de abscisas, 31 de ordenadas, 31 endomorfismo, 116 espacio isomorfo, 116 vectorial, 72

195

funci´ on, 31 compleja, 31

´Indice

196 continua, 34 definida a trozos, 35 discreta, 36 impar, 34 inversa, 33 par, 34 parte entera, 37 real, 31 Galton, 41, 45 Gauss, proceso de reducci´ on de, 80 gr´ afica de una funci´ on, 31 grupo conmutativo, 71 homomorfismo, 116 imagen, 27, 112 interpolaci´ on, 37 lineal, 38 polin´ omica, 38, 159 intersecci´ on, 15 inversi´ on de una permutaci´ on, 129 isomorfismo, 116 leyes de Morgan, 17 generalizadas, 22 linealmente dependiente, 76 independiente, 76 matriz, 87 ampliada, 149 antisim´etrica, 93 asociada a f , 113 columna, 88 cuadrada, 88 de cambio de base, 119 de iteraci´ on, 164 de paso, 119 diagonal, 92 diagonal dominante, 165 diagonalizable, 182 elemental, 95 equivalente, 94, 122 escalonada, 98 escalonada reducida, 98 escasa, 92 fila, 88 identidad, 91 inversible, 91 nilpotente, 91 nula, 88

ortogonal, 94 producto de, 90 reducida, 98 regular, 91 semejante, 94, 122 sim´etrica, 93 singular, 91 suma de, 88 traspuesta, 93 triangular, 92 media, 44 menor complementario, 134 m´ınimos cuadrados, 160 m´etodo de Gauss-Seidel, 166 de Jacobi, 165 n´ umero combinatorio, 21 nube de puntos, 39 n´ ucleo, 110 operaci´ on elemental, 80 orden de una matriz, 88 partici´ on, 17 permutaci´ on, 20, 129 impar, 130 par, 130 polinomio caracter´ıstico, 181 producto cartesiano, 18 externo, 90 interno, 90 rango de una aplicaci´ on lineal, 114 de una matriz, 94 recta de regresi´ on, 41, 43 regla de Cramer, 154 Sarrus, 131 regresi´ on exponencial, 47 l´ınea de, 41 lineal, 41 no lineal, 46 parab´ olica, 46 recta de, 41 segmento orientado, 72 signatura, 130 sistema

´Indice binario, 61 de numeraci´ on, 57 de vectores equivalentes, 74 generador, 74 hexadecimal, 64 libre, 76 ligado, 76 linealmente dependiente, 76 linealmente independiente, 76 octal, 64 sistema de ecuaciones compatible, 150 de Cramer, 150 determinado, 150 equivalente, 148 homog´eneo, 157 incompatible, 150 indeterminado, 150 lineal, 147 sobredeterminado, 160 subconjunto, 13 impropio, 14 propio, 14 subespacio impropio, 73 propio, 73, 180 suma de, 81 suma directa, 81 vectorial, 73 submatriz, 88 teorema de la dimensi´ on, 78 en aplicaciones lineales, 112 en suma de subespacios, 81 uni´ on, 15 valor propio, 180, 181 variaciones con repetici´ on, 19 ordinarias, 20 varianza, 44 vector propio, 180

197