Temas de álgebra lineal para administración y dirección de empresas.
 9788436269413, 8436269411

Table of contents :
PORTADA
ÍNDICE
PRESENTACIÓN
CONTENIDOS
I. SISTEMAS DE ECUACIONES LINEALES
Esquema
Presentación
I.1 - Introducción a los sistemas de ecuaciones lineales
1. Repaso de los métodos escolares
2. Métodos de eliminación de Gauss y de Gauss–Jordan
3. Introducción a las matrices
4. Sistemas de ecuaciones con infinitas soluciones y sistemas de ecuaciones sin solución
Ejercicios
I.2 - Definiciones y propiedades
1. Ecuaciones lineales. Sistemas de ecuaciones lineales
2. Representación matricial de un sistema de ecuaciones lineales
I.3 - Discusión y resolución de un sistema de ecuaciones lineales
1. Un método para discutir y resolver un sistema de ecuaciones lineales
2. Sistemas homogéneos
3. Resultados adicionales importantes
4. Ejemplos de discusión y resolución de sistemas de ecuaciones lineales
Ejercicios
Recapitulación
II. MATRICES
Esquema
Presentación
II.1 - Definición de matriz
1. Definición de matriz
2. Algunos tipos de matrices
3. Matrices columna y matrices fila de una matriz
Ejercicios
II.2 - Operaciones con matrices
1. Adición de matrices
2. Multiplicación por un número de una matriz
3. Multiplicación de matrices
Ejercicios
II.3 - Transformaciones elementales de una matriz
1. Transformaciones elementales por filas
2. Matrices elementales
Ejercicios
II.4 - Rango de una matriz
1. Definición de rango de una matriz
2. Propiedades del rango de una matriz
3. Rango y sistemas de ecuaciones lineales
Ejercicios
II.5 - Inversa de una matriz cuadrada
1. Definición de inversa de una matriz cuadrada
2. Propiedades de la inversa de una matriz cuadrada
3. Método práctico para el cálculo de la matriz inversa
Ejercicios
II.6 - Traspuesta de una matriz
1. Traspuesta de una matriz
2. Traza de una matriz
II.7 - Otros temas sobre matrices
1. Transformaciones elementales por columnas
2. Más tipos de matrices
3. Inversa por la izquierda e inversa por la derecha
4. Matrices dadas por bloques
Ejercicios
Recapitulación
III VECTORES
Esquema
Presentación
III.1 - Vectores
1. El conjunto Rn como un espacio vectorial
2. Vectores columna y vectores fila de una matriz
3. Combinaciones lineales
Ejercicios
III.2 - Subespacios vectoriales
1. Conjuntos de vectores
2. Subespacios vectoriales
3. Subespacio vectorial generado por unos vectores
Ejercicios
III.3 - Independencia lineal
1. Vectores linealmente dependientes y vectores linealmente independientes
2. Bases y dimensión de un subespacio vectorial
3. Rango de unos vectores
4. Ecuaciones de un subespacio vectorial
Ejercicios
Recapitulación
BIBLIOGRAFÍA
CONTRAPORTADA

Citation preview

Temas de Álgebra lineal para Administración y Dirección de Empresas

Alberto A. Álvarez López Emilio Prieto Sáez

UNIVERSIDAD NACIONAL DE EDUCACIÓN A DISTANCIA

TEMAS DE ÁLGEBRA LINEAL PARA ADMINISTRACIÓN Y DIRECCIÓN DE EMPRESAS

Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del Copyright, bajo las sanciones establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento informático, y la distribución de ejemplares de ella mediante alquiler o préstamos públicos..

© Universidad Nacional de Educación a Distancia Madrid 2014

www.uned.es/publicaciones © Alberto Augusto Álvarez López Emilio Prieto Sáez

Ilustración de cubierta: María Álvarez Alonso, Inés Álvarez Alonso ISBN electrónico: 978-84-362-6941-3 Edición digital: noviembre de 2014

Para María e Inés A. A.

Índice

Presentación I

Sistemas de ecuaciones lineales Esquema Presentación del capítulo

1.

Introducción a los sistemas de ecuaciones lineales

2.

Definiciones y propiedades.

3.

Discusión y resolución de un sistema de ecuaciones lineales

.

.

.

.

.

.

.

.

.

.

.

.

.

. 48

.

. 119

Recapitulación I

II

Matrices Esquema Presentación del capítulo

1.

Definición de matriz .

.

.

.

.

.

.

.

.

.

2.

Operaciones con matrices .

.

.

.

.

.

.

.

.

.

.

.

.

.

. 127

3.

Transformaciones elementales de una matriz .

.

.

.

.

.

.

. 149

4.

Rango de una matriz .

.

.

.

.

.

.

.

.

.

.

.

.

. 158

5.

Inversa de una matriz cuadrada .

.

.

.

.

.

.

.

.

.

.

.

. 174

6.

Traspuesta de una matriz .

.

.

.

.

.

.

.

.

.

.

.

.

.

. 188

7.

Otros temas sobre matrices

.

.

.

.

.

.

.

.

.

.

.

.

.

. 199

.

.

.

.

.

.

.

.

Recapitulación II

III Vectores Esquema Presentación del capítulo

1.

Vectores

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

. 239

2.

Subespacios vectoriales .

.

.

.

.

.

.

.

.

.

.

.

.

.

.

. 265

3.

Independencia lineal .

.

.

.

.

.

.

.

.

.

.

.

.

.

.

. 281

Recapitulación III

Bibliografía

.

.

.

.

PRESENTACIÓN En los capítulos que comprende este texto se exponen los instrumentos matemáticos básicos del Álgebra Lineal.

A quién va dirigido este texto

Este manual está dirigido, principalmente,

a los estudiantes de la asignatura de Matemáticas I del Grado de Administración y Dirección de Empresas en la UNED. Está escrito pensando en estudiantes a distancia, los cuales deben tener a mano la información más completa posible sobre la asignatura. Pero, precisamente por este motivo, pensamos que podría ser útil también para estudiantes presenciales que necesiten algún libro en el que consultar estos temas.

Contextualización de la asignatura en la materia

En el plan de estudios

actual, la asignatura de Matemáticas I, que es la primera de la materia de Matemáticas en el Grado de ADE, se estudia en el primer cuatrimestre de primer curso. Habrá dos asignaturas más: la siguiente —Matemáticas II —, en el primer cuatrimestre de segundo curso; la tercera y última —Matemáticas III —, en el primer cuatrimestre de tercer curso. En lo que a contenidos se refiere, la asignatura de Matemáticas I es una presentación de los conceptos y las técnicas básicos del Álgebra Lineal. Las siguientes asignaturas estarán dedicadas a presentar contenidos de Análisis Matemático, con funciones de una y varias variables, incluyendo integración, y de otros temas como los Sistemas Dinámicos. Los contenidos de Matemáticas I son, pues, necesarios para el estudio de las restantes asignaturas de Matemáticas, aunque también encuentran aplicación directa en otras materias del Grado.

Estructura del texto

Este texto tiene tres capítulos. Todos están dedica-

dos a desarrollar con detalle cuestiones propias del Álgebra Lineal: sistemas de ecuaciones lineales, matrices y vectores.

PRESENTACIÓN

En el Curso Virtual, el alumno encontrará más temas de Álgebra Lineal que también están incluidos en la materia de la asignatura, como aplicaciones lineales y matrices positivas, entre otros. Requisitos previos

Los contenidos de Matemáticas habituales de un Ba-

chillerato o equivalente (con orientación a ciencias o ingeniería) son más que suficientes para poder abordar esta asignatura. También son perfectamente adecuados los contenidos de la asignatura de Matemáticas1 del Curso de Acceso Directo a la Universidad, para Mayores de 25 Años, que imparte la propia UNED. Si un alumno no cumple de entrada este requisito, podría serle útil, por ejemplo, acceder a los cursos 0 que la misma UNED ofrece. En todo caso, la materia de este libro empieza casi “desde cero”. En las primeras páginas del primer capítulo se habla de sistemas de ecuaciones lineales de dos ecuaciones y dos incógnitas, que todos lo alumnos habrán estudiado en Educación Secundaria o similar; a partir de ahí se complica la materia, desde luego, pero se suponen muy pocos elementos más como conocidos por el lector. Cómo leer este texto

Cada uno de los capítulos empieza con una breve

introducción, que presenta y resume el contenido del capítulo. Tras la introducción, el cuerpo principal del capítulo incluye todo el material exigido. Está dividido en secciones, por lo general amplias, cada una rematada por una lista de ejercicios. Los contenidos están presentados en forma de parágrafos, unidades —por lo general— de no muchas líneas que recogen un aspecto concreto del contenido, o un ejemplo corto, o un concepto simple. Cada parágrafo está numerado, lo que permite su posterior referencia con comodidad (con ayuda del signo §), y se pretende que pueda ser leído fácilmente de un tirón. Esta estructura da al lector idea de cómo son los pasos mínimos que debe ir dando para comprender la materia.2 De cuando en cuando, el lector encontrará partes del texto en letra de cuerpo menor, y separadas del resto con dos líneas horizontales de puntos.

Lo que entre estas dos líneas de puntos figura (a dos columnas) es algo que 1 Hasta

el curso 2008–2009, esta asignatura se llamaba Matemáticas Especiales

2

Estrictamente hablando, la palabra parágrafo es sinónima de la palabra párrafo. Aquí usamos esta en su sentido habitual (unidad de texto escrito que comienza con una letra mayúscula al principio del renglón y termina con un punto y aparte), y nos permitimos utilizar aquella en un sentido ligeramente diferente (unidad de texto numerada, compuesta por uno o más párrafos, donde se trata un único asunto muy concreto).

PRESENTACIÓN

podemos considerar más dificil (muchas veces demostraciones de resultados), o que es de carácter complementario, y por ello puede omitirse en una primera lectura: esta omisión no hará perderse al lactor nada esencial para seguir la lectura del texto principal. No obstante, la lectura de todo, también de estas partes (en una segunda vuelta si acaso), es recomendable para una comprensión de la materia lo más completa posible. En particular, y a pesar de que no suelen exigirse en los exámenes, las demostraciones de los resultados son instructivas en sí mismas: en ellas se bordan los hilos finos de la materia. Finalmente, cada capítulo termina con una recapitulación de todo lo visto en su desarrollo, tanto definiciones como resultados. Estas recapitulaciones pueden ser muy útiles como “fichas” de consulta rápida y referencia. La parte práctica de la materia está ampliamente desarrollada no solo en la miriada de ejemplos desarrollados en los distintos parágrafos del texto, sino también en los ejercicios, que —como se ha apuntado— se proponen al final de cada sección. Estos ejercicios son básicamente de dos tipos: algunos, los más, buscan que el lector se ejercite en alguna técnica; otros, los menos, proponen al lector la demostración de algún resultado adicional o el desarrollo de algún método alternativo para algo. Los segundos, aunque no están tipográficamente distinguidos de los demás, se pueden considerar, a modo de Actividades Complementarias, para ampliar formación. No se incluyen soluciones de los ejercicios y problemas propuestos, con el fin de que sirvan de punto de partida para el trabajo del alumno en el Curso Virtual de la asignatura. En este mismo Curso Virtual, el alumno encontrará una lista de cuestiones con varias opciones posibles como respuesta (lo que habitualmente se denomina preguntas de “tipo test”). Estas cuestiones están pensadas como material de autoevaluación. Sobre los autores

Los autores, los profesores Emilio Prieto Sáez y Al-

berto A. Álvarez López, llevan trabajando muchos años en asignaturas de la materia de Matemáticas para la Economía y la Administración y Dirección de Empresas, con la metodología a distancia, y son autores, tanto por separado como en colaboración, de varios manuales sobre estos temas. Agradecimientos

Los autores queremos dejar constancia de nuestro sin-

cero agradecimiento, por su ayuda y sus sugerencias, a los tutores y compañeros de los equipos docentes de las asignaturas del Departamento de Economía Aplicada Cuantitativa II de la UNED, así como a los alumnos, con cuyas preguntas y comentarios a lo largo de los años hemos podido ha-

PRESENTACIÓN

cernos idea de sus dificultades y de aquellos aspectos en los que debemos intentar mejorar. No enfatizaremos nunca bastante el reconocmiento a tutores y alumnos, sobre todo en estos últimos cuatro cursos —primeros de andadura de la asignatura de Matemáticas I —: sus comentarios, sugerencias y aun quejas (y en algún caso alabanzas) nos han marcado las direcciones en las que intentar mejorar. En particular, no queremos aquí dejar de hacer mención de la labor, todos estos años, de nuestro compañero el tutor Juan Antonio Ortega Lumbreras. También queremos reconocer los comentarios que nos han hecho llegar los compañeros de otras asignaturas del Grado: gracias a ellos hemos podido tener más claro lo que los alumnos necesitan de esta materia para las asignaturas futuras, y hemos podido apreciar qué contenidos podrían ser incluso superfluos. Un reconocimiento muy especial merecen nuestros compañeros —y amigos— Tomás Prieto Rumeau, Mónica Buendía Capellá y Javier Sanz Pérez, a los cuales nunca dejaremos de agradecer todas sus observaciones, comentarios, y conversaciones sobre la materia de este texto. Su ayuda ha sido —y es— imprescindible. Muchos de los aciertos que pueda tener el libro son suyos; los errores, hay que temer que quedarán varios, son de nuestra exclusiva responsabilidad. A todos, como decimos, muchas gracias. Los autores Madrid, octubre de 2014

Capítulo I

SISTEMAS DE ECUACIONES LINEALES

I. SISTEMAS DE ECUACIONES LINEALES

ESQUEMA Presentación del capítulo

1. Introducción a los sistemas de ecuaciones lineales 1. Repaso de los métodos escolares 2. Métodos de eliminación de Gauss y de Gauss–Jordan 3. Introducción a las matrices . . . . . . . . 30 4. Sistemas de ecuaciones con infinitas soluciones y sistemas de ecuaciones sin solución Ejercicios I.1

2. Definiciones y propiedades

48

1. Ecuaciones lineales. Sistemas de ecuaciones lineales . . . . . . . . . . . . . . 48 Ecuación lineal • Solución de una ecuación lineal • Operaciones con ecuaciones lineales • Sistemas de ecuaciones lineales • Solución de un sistema de ecuaciones lineales. Sistemas equivalentes

Transformaciones elementales por filas de una matriz • Matriz escalonada • Matriz escalonada reducida

Ejercicios I.2

3. Discusión y resolución de un sistema de ecuaciones lineales 1. Un método para discutir y resolver un sistema de ecuaciones lineales Planteamiento del método • Sistemas incompatibles • Sistemas compatibles determinados • Sistemas compatibles indeterminados

2. Sistemas homogéneos 3. Resultados adicionales importantes Invarianza del número de pivotes al escalonar una matriz • Unicidad de la forma escalonada reducida

4. Ejemplos de discusión y resolución de sistemas de ecuaciones lineales Ejercicios I.3

2. Representación matricial de un sistema de ecuaciones lineales . . . . . . . . . . . . 61 Definición de matriz. Matrices definidas a par-tir de un sistema de ecuaciones lineales •

Recapitulación I

PRESENTACIÓN DEL CAPÍTULO

PRESENTACIÓN DEL CAPÍTULO Muchos modelos del mundo de la Economía y la Empresa (entendiendo por tales descripciones simplificadas de ciertos aspectos de la realidad económica o empresarial) son lineales. Básicamente, esto significa que las magnitudes estudiadas por el modelo están relacionadas entre sí por ecuaciones lineales. Las ecuaciones lineales son las más sencillas de todas. Sin duda, el lector las ha manejado en su etapa escolar. Estamos hablando de ecuaciones como 2x + 3 = 5 (con una sola incógnita) o 3x + 2y = 1 (con dos incógnitas). Este es nuestro punto de partida: las ecuaciones lineales —con una o más incógnitas—, o más precisamente: los sistemas de ecuaciones lineales, que no son más que listas de varias ecuaciones lineales consideradas simultáneamente. La primera sección de este capítulo recuerda al lector los métodos que nos enseñaron en nuestra Educación Secundaria (o equivalente) para resolver sistemas de dos ecuaciones lineales y dos incógnitas; nos referimos a los métodos de reducción, sustitución e igualación. Estos métodos, en particular el de reducción, se tratan de generalizar a sistemas de más ecuaciones y más incógnitas, y ello da lugar a los métodos de eliminación (el de Gauss y el de Gauss–Jordan). En este punto, surge de forma “natural” el concepto de matriz como una forma de ganar operatividad y comodidad a la hora de desarrollar tales métodos. Termina la sección con un “guiño” a sistemas de infinitas soluciones y a sistemas sin solución, todo dentro del contexto de los métodos de eliminación. Esta primera sección es introductoria: tan solo pretende motivar y presentar al lector distintos elementos de los sistemas de ecuaciones lineales. La segunda sección, sin dar por sabido nada de la primera, detalla los conceptos vistos en esta última: ecuación lineal, sistemas de ecuaciones lineales, solución, sistemas equivalentes, etc. En particular, incluye todo lo necesario sobre matrices para poder ofrecer después un método práctico sencillo de resolución de un sistema de ecuaciones lineales: básicamente, transformaciones elementales, matriz escalonada y matriz escalonada reducida. Finalmente, la tercera sección propiamente detalla un método práctico para discutir y resolver un sistema de ecuaciones lineales (dado un sistema, se distingue entre discutirlo —averiguar si admite solución o no, y en caso afirmativo cuántas— y resolverlo —calcular efectivamente las soluciones

I. SISTEMAS DE ECUACIONES LINEALES

cuando existen—). El método es esencialmente el de eliminación de Gauss– Jordan) (introducido en la primera sección), llevado a cabo con ayuda de las matrices que se definen a partir de un sistema. La sección incluye un apartado dedicado a los sistemas homogéneos, y termina con ejemplos de discusión y resolución de sistemas en los que figuran parámetros (es decir, variables —diferentes de las incógnitas— que pueden tomar distintos valores, según los cuales el sistema puede ser de una clase u otra, o puede tener una solución u otra).

I.1. INTRODUCCIÓN A LOS SISTEMAS DE ECUACIONES LINEALES

I.1 INTRODUCCIÓN A LOS SISTEMAS DE ECUACIONES LINEALES 1. Repaso de los métodos escolares A modo de punto de partida, en este apartado recordamos los métodos escolares para resolver sistemas de dos ecuaciones y dos incógnitas: sustitución, reducción e igualación. 1 Un sistema de ecuaciones lineales. Repaso de nomenclatura

El lector habrá visto, en Educación Secundaria o en un nivel educa-

tivo similar, sistemas de ecuaciones lineales sencillos. Por ejemplo: ⎧ ⎨ 4x − 2y = 8 ⎩ 3x + y = 1.

(1)

Y el lector recordará algunos detalles de nomenclatura relacionados con los sistemas. Las letras x y y designan las incógnitas del sistema. Los números que acompañan a las incógnitas (4 y −2 en la primera ecuación, y 3 y 1 en la segunda) son los coeficientes del sistema. Los números que, en los segundos miembros, figuran sin acompañar a las incógnitas (8 en la primera ecuación y 1 en la segunda) son los términos independientes. El sistema de ecuaciones lineales (1) es un sistema de dos ecuaciones y dos incógnitas. Nótese que las incógnitas aparecen escritas en el mismo orden en ambas ecuaciones. 2

¿Qué buscamos a partir de un sistema de ecuaciones lineales como

el (1)? Buscamos números que, escritos en lugar de las incógnitas x y y, nos proporcionen igualdades, una por cada ecuación. ¿Qué ocurre si, por ejemplo, sustituimos x por 2 y y por 0? Que obtenemos lo siguiente:

⎧ ⎨4 · 2 − 2 · 0 = 8 ⎩3 · 2 +

0 = 6 ≠ 1.

Es decir, una igualdad a partir de la primera ecuación, pero no a partir de la segunda. Como no hemos obtenido una igualdad a partir de todas y cada una de las ecuaciones, los números 2 y 0, como sustitutos de x y y, respectivamente, no nos sirven. Otro ejemplo: ¿y si sustituimos x y y por 3 y 1, respectivamente? Esta vez no llegamos a ninguna igualdad: 4 · 3 − 2 · 1 = 10 ≠ 8 y 3 · 3 + 1 = 7 ≠ 1. Con mayor razón que antes, si cabe, tampoco nos valen estos números.

I. SISTEMAS DE ECUACIONES LINEALES

El lector nos permitirá, por el momento, que digamos que los números buscados son x = 1 y y = −2. En efecto, si en el sistema de ecuaciones lineales (1) sustituimos x y y por 1 y −2, respectivamente, obtenemos: ⎧ ⎨ 4 · 1 − 2 · (−2) = 8 ⎩3 · 1 + (−2) = 1, que ahora sí son igualdades, una a partir de cada ecuación. Solución del sistema de ecuaciones lineales

Se dice que los números x = 1 y y = −2 son una solución del sistema de ecuaciones lineales (1). Cuando las incógnitas están dadas en un orden fijo (aquí están escritas en el orden x, y en ambas ecuaciones), es más cómodo y compacto llamar solución al par ordenado (1, −2). El primer elemento del par ordenado (lo que se llama la primera componente del par) nos da el número que debemos escribir en el lugar de la primera incógnita (que es la incógnita x en este caso); el segundo elemento del par (su segunda componente) nos da el número que debemos escribir en vez de la segunda incógnita (la incógnita y). De acuerdo con los ejemplos vistos, podemos afirmar que los pares ordenados (2, 0) y (3, 1) no son una solución del sistema de ecuaciones lineales (1). Acontece, de hecho, que el par ordenado (1, −2) es la única solución del sistema de ecuaciones lineales (1). Veremos inmediatamente un método sistemático para obtenerla. 3

Hemos afirmado que el par (1, −2) es la solución del sistema de

ecuaciones lineales (1). Pero ¿cómo podemos obtenerla efectivamente? Lo preguntamos de otra forma: ¿cómo podemos resolver el sistema? En nuestra época colegial (o quizá del instituto) nos enseñaron tres métodos para resolver sistemas de ecuaciones lineales: sustitución, igualación y Método de sustitución

reducción. Recordemos primero el de sustitución. La idea es esta: se despeja en una ecuación una de las incógnitas, y se sustituye lo obtenido en la otra ecuación, lo que nos lleva a una ecuación con solo una incógnita. Con el sistema de ecuaciones lineales (1), esto se concreta así. En la primera ecuación, por ejemplo, despejamos la incógnita y:

¿Ayuda? Se tiene: 4x −8 = 2y, de donde: y=

4x − 8 4 8 = x− 2 2 2 = 2x − 4.

de 4x − 2y = 8 obtenemos: y = 2x − 4. Sustituimos lo obtenido en la segunda ecuación; es decir, en esta ecuación escribimos 2x − 4 en lugar de y: de 3x + y = 1 obtenemos: 3x + (2x − 4) = 1.

I.1. INTRODUCCIÓN A LOS SISTEMAS DE ECUACIONES LINEALES

De la última ecuación obtenida resulta: 5x − 4 = 1, o bien: 5x = 5, de donde: x = 5/5 = 1. Y ahora que ya sabemos que x es igual a 1, lo sustituimos en la expresión despejada de y: y = 2x − 4 = 2 · 1 − 4 = −2. Hemos obtenido la solución que adelantamos en el parágrafo anterior: x = 1 y y = −2; esto es, hemos obtenido como solución el par ordenado (1, −2). 4 Método de reducción (o eliminación)

Resolvamos ahora el sistema de ecuaciones lineales (1) con el méto-

do de reducción (también llamado de eliminación). La idea es “operar” con las ecuaciones del sistema de forma que se obtenga como resultado una ecuación en la que alguna de las incógnitas haya “desaparecido” —con lo que se “reduce” el número de incógnitas—. Por operar con las ecuaciones se entiende multiplicarlas por algún número y sumarlas o restarlas miembro a miembro; por desaparecer o eliminar una incógnita en una ecuación se entiende propiamente que su coeficiente correspondiente se hace nulo. En el sistema de ecuaciones lineales (1), podemos eliminar, por ejemplo, la primera incógnita multiplicando la primera ecuación por −3/4 y sumando la ecuación obtenida a la segunda ecuación del sistema. Tras la multiplicación por −3/4, la primera ecuación se transforma en: −

3 3 · (4x − 2y) = − · 8, 4 4

o bien

− 3x +

3 y = −6 2

(nótese que se multiplican por el número ambos miembros de la ecuación). Ahora sumamos, miembro a miembro, la ecuación obtenida y la segunda del sistema: +

3 y = −6 2 3x + y = 1

−3x +

5 y = −5. 2 En esta última ecuación ya no figura la primera incógnita (su coeficiente es Hemos hablado de tres métodos escolares: sustitución, igualación y reducción. Pero, ¿no desarrollamos el de igualación? Sí: cf. ejercicio 2.

nulo). Su solución es: y = −2. Finalmente, sustituimos este valor de y en cualquiera de las dos ecuaciones originales para obtener el valor de la primera incógnita; por ejemplo, en la primera: 4x − 2(−2) = 8, lo que nos lleva a: 4x + 4 = 8, de donde x = 1. Obtenemos, por supuesto, la solución que ya conocemos: (1, −2).

I. SISTEMAS DE ECUACIONES LINEALES

2. Métodos de eliminación de Gauss y de Gauss– Jordan En este apartado mostramos cómo se pueden generalizar a sistemas de tres ecuaciones y tres incógnitas los métodos de sustitución y reducción repasados en el apartado anterior. También se introduce el concepto de sistemas equivalentes. 5

Nuestro interés es resolver sistemas de ecuaciones lineales más

generales, de cualquier número de incógnitas y de cualquier número de ecuaciones. ¿Habrá alguna forma de generalizar los métodos vistos en el apartado anterior, que nos han ayudado con un sistema de dos ecuaciones y dos incógnitas? Veamos. Consideremos el siguiente sistema de ecuaciones lineales, de tres ecuaciones y tres incógnitas: ⎧ ⎪ x+ y +z = 0 ⎪ ⎪ ⎨ 2x + y − z = 3 ⎪ ⎪ ⎪ ⎩ −x + 2y + z = −2. Método de sustitución para un sistema con tres ecuaciones y tres incógnitas

(2)

Resolvámoslo por el método de sustitución. La idea básica sigue siendo la misma: despejamos una de las incógnitas en una de las tres ecuaciones y sustituimos lo obtenido en las otras dos. En la tercera ecuación, por ejemplo, podemos despejar la incógnita x: de −x + 2y + z = −2 obtenemos: x = 2y + z + 2, y sustituir esta igualdad en las otras dos ecuaciones: ⎧ ⎧ ⎨ (2y + z + 2) + y + z = 0 ⎨ 3y + 2z = −2 o bien ⎩ 2(2y + z + 2) + y − z = 3, ⎩ 5y + z = −1. Hemos llegado así a un sistema de ecuaciones lineales con una ecuación y una incógnita menos (ahora las incógnitas son y y z), que podemos resolver directamente por sustitución como hicimos con el sistema de dos ecuaciones y dos incógnitas del § 3 (cf. p. 20). Verbigracia, despejamos en la primera ecuación la incógnita y: 2 2 de 3y + 2z = −2 obtenemos: y = − z − , 3 3 y sustituimos el resultado en la segunda:  2 2 5 − z− + z = −1 o bien 3 3



7 7 z= , 3 3

I.1. INTRODUCCIÓN A LOS SISTEMAS DE ECUACIONES LINEALES

de donde: z = −1. Ahora recordamos la igualdad en la que hemos despejado y: 2 2 2 2 y = − z − = − (−1) − = 0, 3 3 3 3 y finalmente recordamos la igualdad en la que, al principio, hemos despejado x: x = 2y + z + 2 = 2 · 0 + (−1) + 2 = 1. La solución que obtenemos para el sistema de ecuaciones lineales (2) es, pues, esta: (1, 0, −1). Nótese que la escribimos en formato de terna de números, que es lo análogo, para tres números, del par ordenado. Una terna tiene tres componentes: primera, segunda y tercera; en la terna (1, 0, −1) de este ejemplo se corresponden, respectivamente, con los valores en la solución de las incógnitas x, y y z. El método de sustitución es sencillo, pero puede resultar pesado en cuanto aumenta el número de ecuaciones e incógnitas (salvo que el sistema esté escrito de alguna forma adecuada). Será más facil desarrollar una teoría general de los sistemas de ecuaciones lineales a partir de otros métodos, como el de reducción. Método de reducción para un sistema con tres ecuaciones y tres incógnitas

6

Tratemos de resolver el sistema de ecuaciones lineales (2) por re-

ducción. La idea que subyace es la misma que vimos en el § 4 (cf. p. 21): operar entre las ecuaciones con el fin de eliminar incógnitas. Pero debemos llevar un orden, con la intención de asegurarnos que obtenemos alguna ecuación con solo una incógnita; esta incógnita será fácil de despejar, y permitirá a su vez despejar las dos restantes. Lo que se hace es lo siguiente: • en primer lugar, y operando con la primera ecuación, se sustituyen las ecuaciones segunda y tercera por otras en las que no figure la incógnita x; • en segundo lugar, y operando con la nueva segunda ecuación, se sustituye la nueva tercera ecuación por otra en la que tampoco figure la incógnita y; • finalmente, la última ecuación obtenida permite despejar inmediatamente la incógnita z, y una sencilla sustitución lleva a obtener el valor de las restantes incógnitas, primero y, y finalmente x. Veámoslo. ¿Qué significa la frase “operando con la primera ecuación, se sustituye la segunda ecuación por otra en la que no figure la incógnita x ”? Significa sumar a la segunda ecuación algún múltiplo de la primera de forma que el resultado sea una ecuación sin incógnita x; esta ecuación obtenida

I. SISTEMAS DE ECUACIONES LINEALES

será la nueva segunda ecuación. Para saber cómo hacer esta operación, debemos fijarnos en los coeficientes de la incógnita x en ambas ecuaciones: en la primera, tal coeficiente es igual a 1; en la segunda, igual a 2. Si multiplicamos la primera ecuación por −2 y sumamos el resultado a la segunda ecuación, eliminaremos la incógnita x. El cálculo es este: La ecuación x + y + z = 0 multiplicada por −2 es:

+

−2x − 2y − 2z = 0.

−2x − 2y − 2z = 0 2x + y − z = 3 −y − 3z = 3.

La ecuación obtenida: −y − 3z = 3, efectivamente no presenta incógnita x. Llevamos ahora a cabo una operación análoga con la tercera ecuación: operando con la primera, tratamos de sustituirla por otra en la que no figure la incógnita x. Simplemente sumando ambas ecuaciones lo conseguimos: +

x+ y+ z=

0

−x + 2y + z = −2 3y + 2z = −2.

Hemos obtenido dos ecuaciones nuevas: −y + 3z = 3 y 3y + 2z = −2. ¿Cuál es el siguiente paso? Según lo dicho al principio, operando con la primera de estas nuevas ecuaciones, debemos sustituir la segunda por otra en la que no figure la incógnita y. ¿Se atreve el lector a calcularlo solo? Nosotros lo haremos, por supuesto, pero no inmediatamente. Antes de proceder, debemos parar un momento a analizar con detalle los cálculos que hemos efectuado. Pasamos al parágrafo siguiente. 7

De acuerdo con los cálculos llevados a cabo en el parágrafo ante-

rior, podemos decir que hemos obtenido, a partir del sistema de ecuaciones lineales (2), este otro sistema: ⎧ ⎪ ⎪ ⎪x + y + z = 0 ⎨ −y − 3z = 3 ⎪ ⎪ ⎪ ⎩ 3y + 2z = −2.

(3)

La primera ecuación es la misma en ambos sistemas, y las dos restantes del segundo se han obtenido a partir de las ecuaciones del primero con la ayuda de una operación especial entre ecuaciones: sumar a una ecuación un múltiplo de otra. Como estas manipulaciones transforman igualdades en igualdades, toda combinación de valores de x, y, z que satisfaga las

I.1. INTRODUCCIÓN A LOS SISTEMAS DE ECUACIONES LINEALES

ecuaciones del sistema (2) también satisface las ecuaciones del sistema (3). Es decir: toda solución del sistema (2) también es solución del sistema (3). Por otra parte, la operación de sumar a una ecuación un múltiplo de otra es reversible: podemos recuperar las ecuaciones del sistema (2) a partir de las del sistema (3). Por ejemplo, la segunda ecuación del sistema (2) se puede obtener sumando a la segunda ecuación del sistema (3) su primera ¿Puede comprobarlo el lector?

multiplicada por 2. De esta forma, también acontece que toda solución del sistema (3) es a su vez solución del sistema (2). En consecuencia, ambos sistemas tienen las mismas soluciones.

Sistemas equivalentes

Se dice que dos sistemas de ecuaciones lineales son equivalentes si toda solución de uno también es solución del otro. Los sistemas de ecuaciones lineales (2) y (3) son, pues, equivalentes.1 Además de la operación de sumar a una ecuación un múltiplo de otra, también haremos uso más adelante de otros dos tipos de operaciones reversibles entre ecuaciones: multiplicar una ecuación por un número no nulo (ambos miembros de la ecuación se multiplican por el número) e intercambiar dos ecuaciones. Si un sistema se puede obtener de otro mediante la aplicación de alguna o algunas de estas operaciones entre ecuaciones, ambos sistemas resultan entonces equivalentes. Nótese que, al considerar el sistema de ecuaciones (3) en vez del sistema (2), estamos considerando un sistema de ecuaciones equivalente —con las mismas soluciones, por tanto— pero más simple (en tanto en todas sus ecuaciones, salvo en la primera, no figura la incógnita x). La idea básica del método de reducción puede entonces ser formulada así: sustituir el sistema original por otro equivalente que sea más simple y fácil de resolver.

Método de reducción para un sistema con tres ecuaciones y tres incógnitas (continuación)

8

Continuemos con la resolución por reducción del sistema de ecua-

ciones lineales (2). Hemos eliminado la incógnita x en sus dos últimas ecuaciones, y hemos obtenido con ello el sistema equivalente (3).

Bus-

camos ahora (recordemos lo apuntado al principio del § 6) eliminar la incógnita y en la última ecuación del sistema (3), y para conseguirlo sumamos a esta ecuación algún múltiplo de la segunda.

Es decir, sumamos a la

ecuación 3y + 2z = −2 algún múltiplo de la ecuación −y − 3z = 3 de forma que desaparezca la incógnita y. El múltiplo adecuado se obtiene multipli1 Nótese

que la equivalencia de sistemas de ecuaciones lineales es transitiva: si un sistema

es equivalente a otro, y este último es a su vez equivalente a un tercero, el primero y el tercero también son equivalentes.

I. SISTEMAS DE ECUACIONES LINEALES

cando por 3. Los cálculos son estos: La ecuación −y − 3z = 3 multiplicada por 3 es:

+

−3y − 9z = 9.

−3y − 9z =

9

3y + 2z = −2 −7z =

7.

Finalmente, si sustituimos en el sistema de ecuaciones (3) su tercera ecuación por la que acabamos de obtener, tenemos un sistema nuevo: ⎧ ⎪ x+ y+ z=0 ⎪ ⎪ ⎨ −y − 3z = 3 ⎪ ⎪ ⎪ ⎩ −7z = 7,

(4)

el cual resulta entonces equivalente al sistema (3) y por ende al (2). El sistema de ecuaciones (4) está escrito de una forma que facilita su resolución: cada ecuación tiene menos incógnitas que su precedente. De la tercera ecuación obtenemos: z = −1, que sustituido en la segunda nos lleva a: −y − 3 · (−1) = 3,

de donde:

y = 0;

y al escribir en la primera ecuación estos valores obtenidos de y y z resulta: x + 0 + (−1) = 0,

de donde: x = 1.

El sistema de ecuaciones (4) tiene por solución, pues, la terna (1, 0, −1). En virtud de ser equivalentes, esta es también la solución de los sistemas (3) y (2). Por supuesto, vemos confirmado el resultado que obtuvimos al resolver el sistema (2) por sustitución (cf. § 5, p. 22). Método de reducción: cuando se reduce todavía más. . .

9

En el proceso de resolución por reducción del sistema de ecua-

ciones (2), hemos llegado al sistema (4), equivalente al original y fácil de resolver. Pero podríamos haber seguido con el proceso de simplificación hasta otro sistema todavía más sencillo. Lo que podemos hacer a partir del sistema (4) es lo siguiente: en primer lugar, buscamos que el primer coeficiente no nulo de cada ecuación sea igual a 1; en segundo lugar, eliminamos todos los restantes coeficientes de cada ecuación. Lo primero lo conseguimos multiplicando cada ecuación por un número (no nulo) adecuado: con la primera ecuación no hay que hacer nada; con la segunda, multiplicamos por −1; con la tercera, multiplicamos por −1/7. El resultado es este sistema:

⎧ ⎪ ⎪ ⎪x + y + z = 0 ⎨ y + 3z = −3 ⎪ ⎪ ⎪ ⎩ z = −1,

(5)

I.1. INTRODUCCIÓN A LOS SISTEMAS DE ECUACIONES LINEALES

que efectivamente tiene igual a 1 el primer coeficiente no nulo de cada ecuación. Para el segundo paso, en el sistema (5) eliminamos la incógnita z de las dos primeras ecuaciones con la ayuda de la tercera, y eliminamos después la incógnita y de la primera ecuación con la ayuda de la segunda. Lo conseguimos haciendo uso de la ya conocida operación de sumar a una ecuación un múltiplo adecuado de otra. Por ejemplo, sumando a la segunda ecuación la tercera multiplicada previamente por −3, obtenemos: +

y + 3z = −3 −3z =

3

=

0,

y

lo que nos da una nueva segunda ecuación sin la incógnita z. De forma similar, sumando a la primera ecuación la tercera multiplicada por −1 eliminamos la incógnita z también en la primera ecuación: x + y = 1. Y, finalmente, una última operación entre las nuevas ecuaciones primera y se¡Vea el lector cómo!

gunda (es decir, entre x + y = 1 y y = 0) nos elimina la incógnita y de la primera. Llegamos así al siguiente sistema de ecuaciones: ⎧ ⎪ x ⎪ ⎪ ⎨ ⎪ ⎪ ⎪ ⎩

y

=

1

=

0

(6)

z = −1.

Para obtener el sistema (6), además de la operación de sumar a una ecuación un múltiplo de otra, hemos hecho uso de otra operación con ecuaciones: multiplicar una ecuación por un número no nulo.

Ya sabemos

(cf. § 7, p. 24) que estas operaciones entre ecuaciones nos transforman un sistema de ecuaciones en otro equivalente. El sistema de ecuaciones (6) es, pues, equivalente al (4), y por ende al sistema original, el (2). Y la solución del sistema (6) salta a la vista: por supuesto, es la terna (1, 0, −1). 10

En un sistema de ecuaciones, además de sumar a una ecuación un

múltiplo de otra, o de multiplicar una ecuación por un número no nulo, hay otro tipo de operación entre ecuaciones que permite obtener sistemas de ecuaciones equivalentes. La hemos citado —en el § 7 (cf. p. 24)—, pero no la hemos utilizado todavía. Se trata del intercambio de ecuaciones. Veamos un ejemplo. Resolvamos por reducción o eliminación el siguiente sistema de tres

I. SISTEMAS DE ECUACIONES LINEALES

ecuaciones y tres incógnitas: ⎧ ⎪ ⎪ ⎪ ⎨

x2 − x3 = 2

x1 + x2 + x3 = 2 ⎪ ⎪ ⎪ ⎩ x − x − x = 0. 1 2 3

(7)

(Nótese que las incógnitas están escritas ahora como x1 , x2 , x3 , en vez de x, y, z; esta notación que ahora estrenamos es bastante habitual, sobre todo cuando se tratan los sistemas más generales.) Como antes, a partir de este sistema intentamos escribir otro equivalente en el que cada ecuación tenga menos incógnitas que su precedente. Intercambio de ecuaciones

Empezamos precisamente con un intercambio de ecuaciones, para que en la primera ecuación figure la incógnita x1 . Tras permutar entre sí las ecuaciones primera y segunda, obtenemos: ⎧ ⎪ ⎪ ⎪ x1 + x2 + x3 = 2 ⎨ x2 − x3 = 2 ⎪ ⎪ ⎪ ⎩ x − x − x = 0. 1

2

3

En este sistema, la segunda ecuación ya no tiene la incógnita x1 ; eliminemos esta incógnita también de la tercera ecuación, lo cual conseguimos sumando a esta ecuación la primera multiplicada por −1 (o restando a la x1 − x2 − x3 = +

0

−x1 − x2 − x3 = −2 −2x2 − 2x3 = −2

tercera ecuación la primera, si queremos): ⎧ ⎪ x + x2 + x3 = 2 ⎪ ⎪ ⎨ 1 x2 − x3 = 2 ⎪ ⎪ ⎪ ⎩ −2x2 − 2x3 = −2. (Nótese que esta operación solo afecta a la tercera ecuación: las restantes no se alteran; en particular, la primera ecuación se multiplica por −1 solo a efectos de la operación: no permanece multiplicada por −1 en el sistema.) Continuamos con la eliminación de la incógnita x2 en la tercera ecuación; lo

−2x2 − 2x3 = −2 +

2x2 − 2x3 =

4

−4x3 =

2

logramos sumando a esta ecuación la segunda multiplicada por 2: ⎧ ⎪ ⎪ ⎪ x1 + x2 + x3 = 2 ⎨ x2 − x3 = 2 ⎪ ⎪ ⎪ ⎩ −4x = 2.

(8)

3

Y este último sistema es como el (4), en el sentido de que cada una de las ecuaciones tiene menos incógnitas que su ecuación precedente. Así escrito, ya sabemos que el sistema de ecuaciones (8) resulta fácil de resolver. De la tercera ecuación, obtenemos que x3 = −1/2, que sustituido

I.1. INTRODUCCIÓN A LOS SISTEMAS DE ECUACIONES LINEALES

en la segunda nos lleva a: x2 − (−1/2) = 2, de donde: x2 = 3/2; sustituido todo a su vez en la primera ecuación nos permite escribir: x1 +

1 3 − = 2, 2 2

de lo que x1 = 1. La solución del sistema de ecuaciones (8) es entonces la terna (1, 3/2, −1/2). Y esta es también la solución del sistema original, el (7), pues las operaciones que nos han permitido obtener un sistema a partir del otro, incluida la del intercambio de ecuaciones, transforman un sistema de ecuaciones en otro equivalente. Continuación del ejemplo del parágrafo anterior. . .

11

¿Continuamos con la reducción del sistema (8), de manera análoga

a como procedimos en el § 9 (cf. p. 26)? En un primer paso, debemos conseguir que el primer coeficiente no nulo de cada ecuación sea igual a 1; para ello solo tenemos que multiplicar la última ecuación por −1/4: ⎧ ⎪ 2 ⎪ ⎪ x1 + x2 + x3 = ⎨ 2 x2 − x3 = ⎪ ⎪ ⎪ ⎩ x3 = −1/2. A continuación, eliminamos la incógnita x3 de las ecuaciones segunda y primera, en ambos casos con la ayuda de la tercera ecuación. Lo primero lo coseguimos sumando directamente a la segunda ecuación la tercera; lo segundo lo logramos sumando a la primera ecuación la tercera multiplicada por −1. El resultado es: ⎧ ⎪ x + x2 ⎪ ⎪ ⎨ 1 x2 ⎪ ⎪ ⎪ ⎩

=

5/2

=

3/2

x3 = −1/2.

Finalmente, eliminamos la incógnita x2 de la primera ecuación con ayuda de la segunda; restamos esta a aquella: ⎧ ⎪ = 1 ⎪ ⎪ x1 ⎨ = 3/2 x2 ⎪ ⎪ ⎪ ⎩ x3 = −1/2.

(9)

Vemos confirmada la solución ya conocida: (1, 3/2, −1/2). Algo de nomenclatura:

12

El método de reducción que hemos desarrollado para el sistema de

ecuaciones lineales (2) en los § 6, 7 y 8, o para el sistema de ecuaciones

I. SISTEMAS DE ECUACIONES LINEALES • Método de eliminación de GAUSS

lineales (7) en el § 10, se suele denominar método de eliminación de GAUSS. Requiere, como hemos visto, transformar el sistema de ecuaciones que nos dan en otro equivalente con la característica de que cada ecuación tiene menos incógnitas que su precedente; luego, este nuevo sistema se resuelve por sustitución hacia atrás: primero se calcula el valor de la última incógnita a partir de la última ecuación, después el de la penúltima incógnita con la penúltima ecuación, y así sucesivamente (recordemos que se calculaban en el orden z, y y x, o bien en el orden x3 , x2 y x1 ). Por otra parte, el método de reducción que “iba más allá”, que lleva el sistema de ecuaciones (2) al (6) o el sistema de ecuaciones (7) al (9) (cf. § 9 y 11, respectivamente) es habitualmente conocido como método de eliminación

• Método de eliminación de GAUSS–JORDAN

de GAUSS–JORDAN. Empieza como el método de Gauss: llevando el sistema de ecuaciones dado a uno en el que cada ecuación tiene menos incógnitas que su precedente; pero, en vez de resolver este sistema, se continúa manipulando: se busca que el primer coeficiente no nulo de cada ecuación sea igual a 1, y también que sean nulos todos los coeficientes restantes. El sistema así obtenido está tan simplificado que su solución salta a la vista.

3. Introducción a las matrices En este apartado, presentamos las matrices, las cuales nos permitirán escribir de forma cómoda y sintética los sistemas de ecuaciones lineales y nos facilitarán el desarrollo de su resolución. Nos limitamos a los conceptos sobre ellas de que haremos uso para sistemas (básicamente, matriz escalonada, matriz escalonada reducida y transformación elemental). En el Capítulo II, estudiaremos las matrices de nuevo con mayor profundidad y detalle. 13

Como hemos visto, los métodos de eliminación con los que esta-

mos trabajando requieren llevar a cabo tres tipos de operaciones entre las ecuaciones de un sistema —intercambiar dos ecuaciones, multiplicar una ecuación por un número no nulo, o sumar a una ecuación un múltiplo de otra—, pero estas operaciones entre ecuaciones suponen en definitiva operaciones entre los coeficientes y los términos independientes del sistema. Cuando transformamos un sistema de ecuaciones en otro equivalente (en virtud de alguna de estas operaciones entre ecuaciones), ¿no sería entonces más cómodo escribir, de alguna forma, solamente los coeficientes y los términos independientes, evitando escribir las incógnitas mismas e incluso los signos de igualdad? Sí. Veamos cómo.

I.1. INTRODUCCIÓN A LOS SISTEMAS DE ECUACIONES LINEALES

Podemos ganar operatividad y comodidad si simplificamos la representación de un sistema escribiendo sus coeficientes y términos independientes en una suerte de tablas rectangulares. Por ejemplo, para el sistema de ecuaRecordemos el sistema (2): ⎧ ⎪ x+ y +z =0 ⎪ ⎪ ⎨ 2x + y − z = 3 ⎪ ⎪ ⎪ ⎩ −x + 2y + z = −2.

ciones lineales (2), podemos escribir sus coeficientes tabulados, así: ⎛ ⎞ 1 1 1 ⎜ ⎟ ⎝ 2 1 −1 ⎠ . −1 2 1

(10)

(Esta tabla es lo más parecido a lo que queda si, en el sistema (2), nos quedamos solo con los coeficientes, “borrando” las incógnitas, los signos de igualdad y los términos independientes —y añadimos unos confortables paréntesis—.) Una tabla como la escrita en (10) es un ejemplo de un objeto matemático Matriz

denominado matriz. Los números que se escriben en una matriz se denominan términos de la matriz. Podemos notar, por ejemplo, que los términos de la primera fila de la matriz (la de arriba), leídos de izquierda a derecha, son precisamente los coeficientes que acompañan a las incógnitas x, y y z en la primera ecuación del sistema: 1, 1 y 1, respectivamente. Asimismo, los términos de la primera columna (la de la izquierda), leídos de arriba abajo, son los coeficientes que acompañan a la primera incógnita en las ecuaciones primera, segunda y tercera: 1, 2 y −1, respectivamente. Cada fila de la matriz se corresponde con una ecuación, y cada columna con una incógnita. 14

La matriz que hemos escrito en (10) es la llamada matriz de coefi-

Matriz de coeficientes (o matriz asociada)

cientes (o matriz asociada) del sistema de ecuaciones lineales (2). Pero la

Matriz ampliada

de ecuaciones. Estos se incorporan en la llamada matriz ampliada del sis-

matriz de coeficientes no incluye los términos independientes del sistema tema, resultante de adjuntar a la matriz de coeficientes una columna más (a la derecha) con los términos independientes. La matriz ampliada del sistema de ecuaciones lineales (2) es: ⎛ 1 1 ⎜ ⎝ 2 1 −1 2

1 −1 1

⎞ 0 ⎟ 3⎠. −2

Podría pensarse que no vale la pena tener registro de la matriz de coeficientes de un sistema y que sería suficiente considerar exclusivamente la matriz ampliada, dado que esta contiene toda la información que sobre el sistema proporciona aquella. Sin embargo, como veremos, la matriz de coeficientes por sí misma juega un papel muy importante en el estudio de los sistemas de ecuaciones lineales.

I. SISTEMAS DE ECUACIONES LINEALES

15

Las matrices se denotan habitualmente con letras mayúsculas. La

matriz de coeficientes de un sistema se suele designar con la letra A (si no Notación para la matriz de coeficientes y para la matriz ampliada

está empleada en otra cosa), y la ampliada se puede denotar con la misma  letra que la de coeficientes pero coronada por un acento circunflejo: A. Asimismo, resulta útil escribir en la matriz ampliada de un sistema una raya vertical que separe la columna de los términos independientes de las demás, con el fin de enfatizarla. Por ejemplo, para el sistema de ecuaciones lineales (2) podemos escribir: ⎛

1 ⎜ A=⎝ 2 −1

1 1 2

⎞ 1 ⎟ −1 ⎠ 1



y

1 =⎜ A ⎝ 2 −1

1 1 2

1 −1 1

⎞ 0 ⎟ 3⎠. −2

Otro ejemplo. Para el sistema de ecuaciones (7), su matriz de coeficientes Recordemos el ⎧ ⎪ x2 ⎪ ⎪ ⎨ x1 + x2 ⎪ ⎪ ⎪ ⎩x −x 1

2

sistema (7):

y su matriz ampliada son, respectivamente, estas: ⎛

− x3 = 2

0 ⎜ D = ⎝1 1

+ x3 = 2 − x3 = 0.

1 1 −1

⎞ −1 ⎟ 1⎠ −1



0 ⎜  D = ⎝1 1

y

1 1 −1

−1 1 −1

⎞ 2 ⎟ 2⎠. 0

Nótese que hemos elegido la letra D para denotar la matriz de coeficientes,  lo que hace que designemos la ampliada por D. 16

Acabamos de ver cómo representar un sistema de ecuaciones linea-

les con la ayuda de las matrices. En particular, la matriz ampliada de un sistema recoge tanto sus coeficientes como los términos independientes. Pero, ¿qué transformación se ejecuta en la matriz ampliada de un sistema cuando en este efectuamos una operación entre ecuaciones de las que hemos visto? Empecemos viendo el efecto de un intercambio de ecuaciones. En el § 10 (cf. p. 27) trabajamos con el sistema de ecuaciones lineales (7), y lo primero que hacíamos con él era intercambiar sus ecuaciones primera y segunda. El sistema (7) y su transformado con esta permutación de ecuaciones son, respectivamente, estos dos: ⎧ ⎪ x2 − x3 = 2 ⎪ ⎪ ⎨ x1 + x2 + x3 = 2 ⎪ ⎪ ⎪ ⎩x − x − x = 0 1 2 3

y

⎧ ⎪ ⎪ ⎪ x1 + x2 + x3 = 2 ⎨ x2 − x3 = 2 ⎪ ⎪ ⎪ ⎩ x − x − x = 0. 1 2 3

Y sus matrices ampliadas correspondientes son, respectivamente, estas: ⎛

0 ⎜ ⎝1 1

1 1 −1

−1 1 −1

⎞ 2 ⎟ 2⎠ 0

⎛ y

1 ⎜ ⎝0 1

1 1 −1

1 −1 −1

⎞ 2 ⎟ 2⎠. 0

I.1. INTRODUCCIÓN A LOS SISTEMAS DE ECUACIONES LINEALES

Intercambiar dos filas

¿Qué ha ocurrido en las matrices? Simplemente se han permutado sus filas primera y segunda. El intercambio de ecuaciones en un sistema toma la forma, pues, de un intercambio de filas en la matriz ampliada (y por supuesto también en la de coeficientes, si solo nos fijamos en ella). Aunque veremos estas transformaciones de matrices con detalle más adelante, es instructivo ahora introducir su notación. La transformación de “permutar entre sí las filas primera y segunda” se denota así: F1 ↔ F2 , de forma que se escribe: ⎛ ⎞ ⎞ ⎛ 1 1 1 2 0 1 −1 2 ⎟ F1 ↔F2 ⎜ ⎟ ⎜ 1 −1 2 ⎠ . 1 1 2 ⎠ →  ⎝0 ⎝1 1 −1 −1 0 1 −1 −1 0 Nótese que esta transformación solo afecta a las dos filas que se permutan —la primera y la segunda—; las restantes filas —solo la tercera en este caso— permanecen inalteradas tras la transformación. 17

Cuando en un sistema de ecuaciones lineales se multiplica una ecua-

ción por un número no nulo, ¿qué acontece en su matriz ampliada? El lector lo está adivinando: se multiplican por tal número todos los términos de la fila correspondiente. Por ejemplo, en el § 11 (cf. p. 29) escribíamos el sistema de ecuaciones resultante de multiplicar por −1/4 la tercera ecuación del sistema (8); ambos sistemas, el (8) y el transformado por esta operación, son respectivamente: ⎧ ⎧ ⎪ ⎪ x1 + x2 + x3 = 2 x + x2 + x3 = 2 ⎪ ⎪ ⎪ ⎪ ⎨ ⎨ 1 x2 − x3 = 2 y x2 − x3 = 2 ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎩ ⎩ −4x = 2 x = −1/2, 3

de matrices ampliadas: ⎛ 1 1 1 ⎜ ⎝ 0 1 −1 0 0 −4 Multiplicar una fila por un número (no nulo)

3

⎞ 2 ⎟ 2⎠ 2

⎛ y

1 ⎜ ⎝0 0

1 1 0

1 −1 1

⎞ 2 ⎟ 2 ⎠, −1/2

donde apreciamos que, efectivamente, todos los términos de la tercera fila se han multiplicado por −1/4, o dicho forma más sintética: la tercera fila se ha multiplicado por −1/4. La transformación de “multiplicar la tercera fila por el número −1/4” (esto es, multiplicar cada uno de los términos de la tercera fila por −1/4) se designa así: F3 ← (−1/4)F3, y se escribe: ⎛ ⎞ ⎛ 1 1 1 1 2 ⎟ F3 ←(−1/4)F3 ⎜ ⎜ 2 0 1 −1                                          →   ⎝0 ⎠ ⎝ 0 0 0 −4 2

1 1 0

1 −1 1

⎞ 2 ⎟ 2 ⎠. −1/2

I. SISTEMAS DE ECUACIONES LINEALES

Debe notarse que esta transformación solo afecta a una fila de la matriz —la tercera en este caso—; las restantes no se ven alteradas. 18

Y si en un sistema de ecuaciones lineales sumamos a una ecuación

un múltiplo de otra, ¿qué transformación se produce en la matriz ampliada? Hemos aplicado varias veces esta operación entre ecuaciones en las páginas precedentes. Por ejemplo, recordemos los sistemas de ecuaciones (3) y (4); respectivamente son: ⎧ ⎪ x+ y+ z=0 ⎪ ⎪ ⎨ −y − 3z = 3 ⎪ ⎪ ⎪ ⎩ 3y + 2z = −2

y

⎧ ⎪ x+ y+ z=0 ⎪ ⎪ ⎨ −y − 3z = 3 ⎪ ⎪ ⎪ ⎩ −7z = 7,

y en el § 8 (cf. p. 25) obtuvimos el segundo del primero sumando a la tercera ecuación la segunda multiplicada por 3. Las matrices ampliadas son, respectivamente, estas: ⎛ 1 1 1 ⎜ ⎝ 0 −1 −3 0 3 2

⎞ 0 ⎟ 3⎠ −2

⎛ y

1 ⎜ ⎝0 0

1 −1 0

1 −3 −7

⎞ 0 ⎟ 3⎠. 7

Podemos ver que las filas primera y segunda no se han alterado, y que a cada término de la tercera fila se le ha sumado el término correspondiente La segunda fila multiplicada por 3 es: 0

−3

−9

de la segunda previamente multiplicado por 3: +

9.

Sumar a una fila un múltiplo de otra

0

3

2

−2

0

−3

−9

9

0

0

−7

7.

Más sintéticamente: a la tercera fila se le ha sumado la segunda multiplicada por 3 (dejando las otras filas, y en particular la segunda, inalteradas). A la operación (en sistemas) de sumar a una ecuación un múltiplo de otra le corresponde entonces la transformación (en matrices) de sumar a una fila un múltiplo de otra. La transformación de este ejemplo: “sumar a la tercera fila la segunda multiplicada por 3”, se denota así: F3 ← F3 + 3F2 , y se escribe:



1 ⎜ ⎝0 0

1 −1 3

1 −3 2

⎛ ⎞ 0 1 ⎟ F3 ←F3 +3F2 ⎜ 3 ⎠ →  ⎝0 −2 0

1 −1 0

1 −3 −7

⎞ 0 ⎟ 3⎠. 7

Debemos enfatizar que esta transformación en la matriz solo afecta a una fila —la tercera en este caso— y las otras filas quedan inalteradas; en particular, la fila que se multiplica por el número para hacer la transformación —la segunda en este ejemplo— permanece intacta.

I.1. INTRODUCCIÓN A LOS SISTEMAS DE ECUACIONES LINEALES

19

Acabamos de ver tres tipos de transformaciones que se ejecutan en

matrices: • intecambiar dos filas; • multiplicar una fila por un número no nulo; • sumar a una fila un múltiplo de otra. Transformaciones elementales por filas

Las llamaremos transformaciones elementales por filas de una matriz, y diremos que son del tipo i, ii y iii, respectivamente. Más adelante estudiaremos con mucho detalle las transformaciones elementales de matrices. (Por cierto, también se definen transformaciones elementales por columnas, de la forma que el lector puede sospechar. . . ) Pero es importante observar ahora una caracterísitica de estas transformaciones: son reversibles —es de esperar, pues al fin y al cabo las operaciones entre ecuaciones que las motivan son reversibles (cf. § 7, p. 24)—. La palabra reversible se utiliza aquí en el sentido siguiente: si una matriz sufre una transformación elemental, es posible aplicar a la nueva matriz otra transformación elemental que nos devuelva a la matriz original. Por ejemplo, si aplicamos a una matriz la transformación F1 ↔ F3 (intercambiar las filas primera y tercera), una nueva aplicación de la misma transformación nos devuelve a la primera matriz; si aplicamos la transformación F2 ← 2F2 (multiplicar la segunda fila por 2), es claro que recuperamos la matriz ori-

¡Anímese el lector a comprobar estas afirmaciones con un ejemplo!

ginal con la transformación F2 ← (1/2)F2; y, finalmente, si a una matriz le aplicamos la transformación F2 ← F2 + 3F1 (sumar a la segunda fila la primera multiplicada por 3), recuperamos la matriz de partida con la transformación F2 ← F2 + (−3)F1 (sumar a la segunda fila la primera mutiplicada por −3).

Resolución de un sistema de ecuaciones lineales con ayuda de matrices: idea básica

20

Unas páginas más atrás hemos estudiado que la idea básica para re-

solver un sistema de ecuaciones lineales es la de transformarlo, con ayuda de las operaciones entre ecuaciones que hemos visto, en otro sistema equivalente más sencillo de resolver. De acuerdo con todo lo afirmado en los últimos parágrafos, podemos llevar a cabo tal tarea con la ayuda de las matrices. Se trataría, entonces, de escribir la matriz ampliada del sistema que nos dan; de transformar esta matriz, mediante transformaciones elementales, en otra “más sencilla”; y, finalmente, de resolver el sistema de ecuaciones representado por esta matriz sencilla. Este último sistema de ecuaciones resultará equivalente al original, y por tanto su solución será la que buscamos. ¿Cómo debe ser esa matriz “más sencilla” a la que debemos llegar desde la matriz ampliada del sistema original? Respondemos con otra pregunta:

I. SISTEMAS DE ECUACIONES LINEALES

¿de qué manera buscábamos un “sistema equivalente más sencillo de resolver”? Respuesta: con el método de eliminación, en dos variantes: Gauss y Gauss–Jordan. ¿Cómo es el sistema al que se llega con estos métodos? En el caso de la eliminación de Gauss, se trata de un sistema con la característica de que cada ecuación tiene menos incógnitas que su precedente; en el caso de la eliminación de Gauss–Jordan, además de esta propiedad se cumple esta otra: los primeros coeficientes no nulos de cada ecuación son iguales a 1, y son nulos los restantes coeficientes. Analicemos, entonces, cómo son las matrices ampliadas que representan los sistemas de ecuaciones con estas características. 21

Veamos cómo es la matriz ampliada de un sistema de ecuaciones

lineales que se ha obtenido por aplicación del método de eliminación de Gauss (y que por tanto cumple que cada ecuación tiene menos incógnitas que su precedente). Son un ejemplo de sistema de este tipo los sistemas (4) y (8), obtenidos a partir de los sistemas (2) y (7), respectivamente. Sus matrices ampliadas son, respectivamente, estas: ⎛

1 ⎜ ⎝0 0

1 −1 0

1 −3 −7

⎞ 0 ⎟ 3⎠ 7



1 ⎜ ⎝0 0

y

1 1 0

1 −1 −4

⎞ 2 ⎟ 2⎠. 2

Se observa que cada fila comienza con más ceros que la precedente. Queremos decir: cada fila tiene cierta cantidad de ceros iniciales —ninguno la primera, uno la segunda, dos la tercera—, y cualquier fila —excepto la primera, por supuesto— tiene más ceros iniciales que su fila anterior. Ambas Matriz escalonada

matrices son un ejemplo de lo que se denomina matriz escalonada. En una matriz escalonada, el primer término no nulo de cada fila recibe el nombre de pivote. Las dos matrices del párrafo anterior, ambas escalonadas, tienen entonces tres pivotes cada una; en la primera, tales son: 1, −1 y −7; en la segunda: 1, 1 y −4. 22

Los sistemas de ecuaciones lineales (6) y (9) fueron obtenidos a par-

tir de los sistemas (2) y (7), respectivamente, por el método de eliminación de Gauss–Jordan: cada ecuación tiene menos incógnitas que la anterior, el primer coeficiente no nulo de cada ecuación es igual a 1 y los restantes coeficientes son nulos. Las matrices ampliadas respectivas son estas: ⎛

1 ⎜ ⎝0 0

0 1 0

0 0 1

⎞ 1 ⎟ 0⎠ −1

⎛ y

1 ⎜ ⎝0 0

0 1 0

0 0 1

⎞ 1 ⎟ 3/2 ⎠ . −1/2

I.1. INTRODUCCIÓN A LOS SISTEMAS DE ECUACIONES LINEALES

Un primer vistazo nos dice que estas dos matrices son escalonadas: cada fila, excepto la primera, tiene más ceros iniciales que la precedente. Pero tienen dos propiedades más: los pivotes —es decir, los primeros términos no nulos de cada fila— son iguales a 1, y los términos restantes en la columna de cada pivote son nulos. Una matriz escalonada con estas propieMatriz escalonada reducida

dades se dice que es una matriz escalonada reducida. 23

Si en las matrices escalonadas reducidas del parágrafo anterior nos

olvidamos por un momento de la última columna (dicho de otra forma: si nos fijamos en la matriz de coeficientes correspondiente), nos queda una misma matriz:



1 ⎜ ⎝0 0 Matriz identidad

0 1 0

⎞ 0 ⎟ 0⎠. 1

De esta matriz se dice que es una matriz identidad (esta es la de orden 3). Cuando la matriz de coeficientes de un sistema es una matriz identidad, el sistema tiene solución única, y esta solución única puede leerse directamente en la columna de términos independientes de la matriz ampliada del sistema. La solución de los sistemas (6) y (9), y por ende la de los sistemas (2) y (7), puede leerse, entonces, directamente en la última columna de las matrices ampliadas del parágrafo anterior: (1, 0, −1) y (1, 3/2, −1/2), respectivamente.

Recapitulación de la resolución con matrices del sistema (2) Recordamos el sistema (2): ⎧ ⎪ x+ y +z =0 ⎪ ⎪ ⎨ 2x + y − z = 3 ⎪ ⎪ ⎪ ⎩ −x + 2y + z = −2.

24

Recapitulemos cómo quedaría la resolución completa del sistema

de ecuaciones lineales (2) con la ayuda de las matrices. La matriz ampliada de este sistema es:



1 =⎜ A ⎝ 2 −1

1 1 2

1 −1 1

⎞ 0 ⎟ 3⎠. −2

De acuerdo con el método de eliminación de Gauss, tratamos de obtener  y mediante la aplicación de transformaciones elea partir de la matriz A, mentales (por filas) sucesivas, una matriz escalonada (también se habla de  o de escalonar la matriz A).  obtener una forma escalonada de la matriz A, En primer lugar, hacemos ceros en la primera columna, debajo de su

La matriz obtenida es la matriz ampliada del sistema (3): ⎧ ⎪ ⎪ ⎪x + y + z = 0 ⎨ −y − 3z = 3 ⎪ ⎪ ⎪ ⎩ 3y + 2z = −2.

primer término: ⎛

1 =⎜ A ⎝ 2 −1

1 1 2

1 −1 1

⎛ ⎞ F2 ←F2 −2F1 0 1 ⎟ F3 ←F3 +F1 ⎜ 3 ⎠ →  ⎝ 0 −2 0

1 −1 3

1 −3 2

⎞ 0 ⎟ 3⎠. −2

Acabamos de aplicar dos transformaciones elementales sucesivas a la ma F2 ← F2 − 2F1 y F3 ← F3 + F1 . En general, no se obtiene lo mismo triz A:

I. SISTEMAS DE ECUACIONES LINEALES

aplicando dos transformaciones elementales en un orden que en el otro, pero para estas dos transformaciones concretas sí que se obtiene lo mismo. Esto es así porque las dos transformaciones son de tipo iii, afectan a filas distintas —a la segunda y a la tercera, respectivamente— y ambas suponen sumar un múltiplo de la misma fila —la primera—. Cuando estudiemos más adelante con detalle las transformaciones elementales, veremos confirmado que las transformaciones de estas características efectivamente permiten un cambio de orden entre ellas. En segundo lugar, hacemos un cero en la segunda columna, debajo de su segundo término; ello nos lleva ya a una matriz escalonada, en la que destacamos los pivotes (recordemos: los primeros términos no nulos de La matriz escalonada obtenida es la ampliada del sistema (4): ⎧ ⎪ x+ y+ z=0 ⎪ ⎪ ⎨ −y − 3z = 3 ⎪ ⎪ ⎪ ⎩ −7z = 7.

cada fila): ⎛

1 ⎜ ⎝0 0

1 −1 3

1 −3 2

⎛ ⎞ 0 1 ⎟ F3 ←F3 +3F2 ⎜ 3 ⎠ →  ⎝0 0 −2

1 −1 0

1 −3 −7

⎞ 0 ⎟ 3⎠. 7

 (añadimos una “prima” a la La matriz escalonada obtenida se denota por A letra que designa la matriz original). Ahora, podemos resolver el sistema de  ; tal sistema ecuaciones lineales que tiene como matriz ampliada la matriz A es el sistema (4), que fue resuelto en el § 8 (cf. p. 25). Con ello terminaría la aplicación del método de eliminación de Gauss en este ejemplo. Pero también podemos continuar con el otro método de eliminación, el de Gauss–Jordan, que requiere seguir aplicando transformaciones ele a fin de obtener una matriz escalonada mentales sucesivas a la matriz A reducida (o como también se dice: obtener la forma escalonada reducida de   ).2 ¿Nos ponemos con ello? la matriz A En primer lugar, transformamos los pivotes en 1: ⎛

1  = ⎜ A ⎝0 0

1 −1 0

1 −3 −7

⎛ ⎞ F ←(−1)F 2 2 0 1 ⎟ F3 ←(−1/7)F3 ⎜ 3 ⎠ →  ⎝0 0 7

1 1 0

1 3 1

⎞ 0 ⎟ −3 ⎠ ; −1

en segundo lugar, hacemos ceros en la tercera columna, en todos los térmi2 Nótese

 , y que unos que hablamos de obtener la forma escalonada reducida de la matriz A

párrafos antes —en este mismo parágrafo— hablamos de obtener una forma escalonada de  Dada una matriz (con algún término no nulo), en general hay infinitas matrices la matriz A. escalonadas que se pueden obtener a partir de ella mediante la aplicación de transformaciones elementales sucesivas, pero solo hay una que sea escalonada reducida. Esta unicidad de la forma escalonada reducida de una matriz se demostrará más adelante (cf. § 100, p. 102).

I.1. INTRODUCCIÓN A LOS SISTEMAS DE ECUACIONES LINEALES

nos menos el pivote: ⎛

1 ⎜ ⎝0 0

1 1 0

⎛ ⎞ F2 ←F2 −3F3 0 1 ⎟ F1 ←F1 −F3 ⎜ −3 ⎠ →  ⎝ 0 0 −1

1 3 1

1 1 0

⎞ 1 ⎟ 0⎠; −1

0 0 1

finalmente, hacemos ceros en todos los términos de la segunda columna salvo el pivote (para ello solo queda un término no nulo): ⎛

1 ⎜ ⎝0 0

1 1 0

⎛ ⎞ 1 1 ⎟ F1 ←F1 −F2 ⎜ 0 ⎠ →  ⎝0 0 −1

0 0 1

0 1 0

0 0 1

⎞ 1 ⎟ 0⎠. −1

 (añadiEsta última matriz ya es escalonada reducida; la denotamos por A endo una “prima” más a la letra). Ya vimos esta matriz (aunque entonces no la designamos con ninguna letra) en los § 22 y 23 (cf. p. 36), donde comentamos que en su última columna podemos leer directamente la solución única del sistema de ecuaciones lineales (2): (1, 0, −1). Recapitulación de la resolución con matrices del sistema (7)

Recordamos el sistema (7): ⎧ ⎪ x2 − x3 = 2 ⎪ ⎪ ⎨ x1 + x2 + x3 = 2 ⎪ ⎪ ⎪ ⎩ x − x − x = 0. 1

2

25

Recapitulemos ahora la resolución completa del sistema de ecua-

ciones lineales (7) con la ayuda de las matrices. La matriz ampliada del sistema es: ⎛

0  =⎜ D ⎝1 1

1 1 −1

−1 1 −1

⎞ 2 ⎟ 2⎠. 0

3

Escalonamos esta matriz: ⎛ 0 1 −1  =⎜ 1 1 D ⎝1 1 −1 −1

⎛ ⎞ 2 1 ⎜ ⎟ F ↔F 2 ⎠ 12→  ⎝0 0 1 ⎛

1 F3 ←F3 −F1 ⎜ →  ⎝0 0   es Esta matriz escalonada D la matriz ampliada del sistema (8): ⎧ ⎪ ⎪ ⎪ x1 + x2 + x3 = 2 ⎨ x2 − x3 = 2 ⎪ ⎪ ⎪ ⎩ −4x = 2. 3



1 F3 ←F3 +2F2 ⎜ →  ⎝0 0

1 1 −1

1 −1 −1

⎞ 2 ⎟ 2⎠ 0

1 1 −2

1 −1 −2

⎞ 2 ⎟ 2⎠ −2

1 1 0

1 −1 −4

⎞ 2 ⎟ . 2⎠ = D 2

  —el sisEl sistema de ecuaciones cuya matriz ampliada es la matriz D tema (8)— se resolvió en el § 10 (cf. p. 27); esta resolución daría por terminada la eliminación de Gauss del sistema de ecuaciones lineales (7).

I. SISTEMAS DE ECUACIONES LINEALES

Si queremos resolver el sistema de ecuaciones (7) por eliminación de  : Gauss–Jordan, buscamos la forma escalonada reducida de la matriz D ⎛

1  = ⎜ D ⎝0 0

1 1 0

1 −1 −4

⎛ ⎞ 2 1 ⎟ F3 ←(−1/4)F3 ⎜ 2 ⎠ →  ⎝ 0 0 2 F2 ←F2 +F3 F1 ←F1 −F3



1 ⎜ →  ⎝ 0 0 ⎛

1 ⎜ →  ⎝ 0 0 F1 ←F1 −F2

⎞ 2 ⎟ 2 ⎠ −1/2

1 1 0

1 −1 1

1 1 0

0 0 1

⎞ 5/2 ⎟ 3/2 ⎠ −1/2

0 1 0

0 0 1

⎞ 1 ⎟   . 3/2 ⎠ = D −1/2

  nos lleva a concluir que La lectura de la matriz escalonada reducida D el sistema de ecuaciones lineales (7) tiene solución única y que esta es la terna (1, 3/2, −1/2) (cf. § 23, p. 37).

4. Sistemas de ecuaciones con infinitas soluciones y sistemas de ecuaciones sin solución En el apartado anterior solo hemos tratado sistemas de ecuaciones lineales con una única solución. Pero hay sistemas que admiten infinitas soluciones y hay también sistemas que no admiten solución.3 Vemos ejemplos de ambos tipos en este apartado. También veremos algún ejemplo de sistema con distinto número de ecuaciones que de incógnitas. Un sistema con infinitas soluciones

26

Consideremos el siguiente sistema de dos ecuaciones y dos incóg-

nitas:

⎧ ⎨ 3x + y = −3 ⎩ 6x + 2y = −6.

(11)

Intentemos aplicar en este sistema el método de eliminación de Gauss– Jordan con la ayuda de las matrices. Escribimos entonces la matriz ampliada:

 = A

3 6

1 2

−3 −6

 ,

y tratamos de obtener su forma escalonada reducida. 3 Comprobaremos

más adelante (cf. § 45, p. 57), que no hay más posibilidades en lo que

a las soluciones de un sistema de ecuaciones lineales se refiere: solución única, infinitas soluciones o ninguna solución.

I.1. INTRODUCCIÓN A LOS SISTEMAS DE ECUACIONES LINEALES

 a una forma Una sola transformación elemental nos lleva la matriz A escalonada:  = A

3 6

1 2

−3 −6



F2 ←F2 −2F1



→ 

3 0

−3 0

1 0

  . =A

 solo tiene un pivote, pues su segunda fila es nula La matriz escalonada A (esto es, tiene todos sus términos nulos). En la columna de este pivote —la primera— ya es nulo el otro término, así que solo nos resta conseguir que el pivote sea igual a 1:   = A

3 0

1 0

−3 0





F1 ←(1/3)F1

→ 

1 0

1/3 0

−1 0

  . =A

  es la forma escalonada reducida de la matriz A. La matriz A Nota bene

  es, en efecto, escalonada, porque cada fila —salvo la La matriz A

primera— tiene más ceros iniciales que la anterior (como es una matriz de dos filas, esto se reduce simplemente a comprobar que la segunda fila tiene más  es efectivamente escalonada ceros iniciales que la primera). Y la matriz A reducida: es escalonada, su único pivote es igual a 1 y el único término que acompaña a este pivote en su columna es nulo.

Cualesquiera que sean los valores que tomen las incógnitas x y y, se va a satisfacer la ecuación 0x + 0y = 0; si quitamos o añadimos a un sistema esta ecuación, obtenemos otro equivalente.



Ahora, ¿cuál es el sistema de ecuaciones lineales cuya matriz ampliada  ? Este: es la matriz escalonada reducida A ⎧ 1 ⎪ ⎨ x + y = −1 3 ⎪ ⎩ 0x + 0y = 0,

o bien



x+

1 y = −1. 3

(12)

Este sistema —ya lo sabemos— es equivalente al original, el (11). ¿Cuál es su solución (si la hay)? De la única ecuación de este sistema, podemos deducir: x = −1 −

1 y. 3

(13)

Si sustituimos la letra y por algún número concreto, por ejemplo: y = 1, nos queda que x = −4/3, y una rápida comprobación nos confirma que el par (−4/3, 1) es solución de este sistema, y desde luego también del (11). Pero hay más soluciones. Si sustituimos y por otro número, digamos y = 0, lo que obtenemos para x: x = −1, nos configura otra solución: (−1, 0). De hecho, podemos sustituir la letra y por el número que queramos; el correspondiente valor de x de acuerdo con la igualdad x = −1 − y/3 nos

I. SISTEMAS DE ECUACIONES LINEALES

configura una solución del sistema. Realmente, todas las soluciones del sistema son los pares ordenados (x, y) tales que: x = −1 −

1 y, 3

donde y puede ser un número cualquiera.

El sistema de ecuaciones lineales (11) es, pues, un sistema con infinitas soluciones. Incógnitas básicas o incógnitas principales; incógnitas libres o parámetros

27

En un sistema de ecuaciones lineales cuya matriz ampliada es es-

calonada reducida, las incógnitas que figuran en primer lugar en alguna ecuación (y que por tanto son tales que su coeficiente es un pivote de la matriz y es igual a 1) se denominan incógnitas básicas o incógnitas principales; las restantes se denominan incógnitas libres, o parámetros. Por ejemplo, en el sistema (12), visto en el § 26, la primera incógnita en la única ecuación que tiene el sistema es x, luego esta es una incógnita básica (o principal), y la otra, la y, es una incógnita libre (o un parámetro). Cuando hemos buscado la solución de este sistema, hemos despejado la incógnita básica en función de la incógnita libre; es lo que está plasmado en la igualdad (13). Cuando un sistema cuya matriz ampliada es escalonada reducida admite solución y exhibe incógnitas libres o parámetros, en la expresión final de la solución se suelen sustituir estas incógnitas por otras letras, habitualmente griegas, para distinguirlas en su notación de las incógnitas principales. Para el sistema (12), y en definitiva para el (11), si denotamos la incógnita libre y por λ (léase “lambda”), podemos concluir lo siguiente: todas las soluciones del sistema (11) son los pares ordenados (x, y) tales que: ⎧ 1 ⎪ ⎨ x = −1 + λ 3 ⎪ ⎩ y= λ,

donde λ es un número cualquiera;

o también: todas las soluciones del sistema (11) son los pares ordenados de la forma:   1 −1 + λ, λ , 3 Otro sistema con infinitas soluciones, esta vez con más ecuaciones que incógnitas

28

donde λ es un número cualquiera.

Consideremos ahora el siguiente sistema de tres ecuaciones y cua-

tro incógnitas:

⎧ ⎪ =2 ⎪ ⎪ x1 − x2 + x3 ⎨ x2 + x3 + x4 = −1 ⎪ ⎪ ⎪ ⎩x + 2x3 + x4 = 1. 1

(14)

I.1. INTRODUCCIÓN A LOS SISTEMAS DE ECUACIONES LINEALES

A diferencia de los sistemas de ecuaciones lineales que hemos visto hasta ahora, este sistema tiene un número de ecuaciones distinto del de incógnitas. No por ello dejemos de intentar resolverlo con el método de eliminación de Gauss–Jordan (con la ayuda de las matrices). La matriz ampliada del sistema tiene tres filas y cinco columnas: ⎛ 1 −1 1 0 ⎜  1 1 1 A = ⎝0 1 0 2 1

⎞ 2 ⎟ −1 ⎠ . 1

Con dos transformaciones elementales llegamos a una matriz escalonada: ⎞ ⎞ ⎛ ⎛ 2 2 1 −1 1 0 1 −1 1 0 F ←F −F ⎟ 3 3 1 ⎜ ⎟ =⎜ 1 1 1 −1 ⎠ → 1 1 1 −1 ⎠  ⎝0 A ⎝0 1 1 0 2 1 0 1 1 1 −1 ⎛

1 F3 ←F3 −F2 ⎜ →  ⎝0 0

−1 1 0

1 1 0

0 1 0

⎞ 2 ⎟  . −1 ⎠ = A 0

 tiene dos pivotes (adviértase que la tercera fila es La matriz escalonada A nula), y ambos ya son iguales a 1; para obtener a partir de ella una matriz escalonada reducida solo resta conseguir que sea nulo el término que ocupa simultáneamente la ⎛ 1 −1 ⎜   1 A = ⎝0 0 0

primera fila y la segunda columna: ⎛ ⎞ 1 0 2 1 0 2 1 ⎟ F1 ←F1 +F2 ⎜ 1 1 −1 ⎠ →  ⎝0 1 1 1 0 0 0 0 0 0 0

⎞ 1 ⎟   . −1 ⎠ = A 0

 es efectivamente escalonada reducida: es escalonada (al pasar La matriz A de cada fila a la siguiente crece la cantidad de ceros iniciales), los pivotes son unitarios y las dos columnas en las que figuran los pivotes presentan   es, pues, la forma escalonada sus restantes términos nulos. La matriz A  reducida de la matriz A. Escribamos ahora el sistema de ecuaciones lineales cuya matriz am —el cual, bien lo sabemos, será equivalente al inicial, pliada es la matriz A  es nula, no escribimos la el (14)—. Como la tercera fila de la matriz A Si quitamos o añadimos a un sistema la ecuación 0x1 + 0x2 + 0x3 + 0x4 = 0, obtenemos otro equivalente.

ecuación correspondiente. Nos queda este sistema: ⎧ ⎨ x1 + 2x3 + x4 = 1 ⎩ x2 + x3 + x4 = −1.

(15)

Si en la primera ecuación despejamos la incógnita x1 y en la segunda la incógnita x2 , resulta: x1 = 1 − 2x3 − x4

y

x2 = −1 − x3 − x4 .

(16)

I. SISTEMAS DE ECUACIONES LINEALES

Ahora, de manera similar a como acontecía en el § 26 (cf. p. 40) con el sistema escrito en (12), si damos a las incógnitas x3 y x4 algún valor numérico concreto, los valores correspondientes de x1 y x2 obtenidos a partir de (16) nos configuran una solución del sistema. Por ejemplo, si ponemos x3 = 1 El lector adivinará que la cuaterna es lo análogo, para cuatro números, del par ordenado o de la terna.

y x4 = 2, obtenemos x1 = −3 y x2 = −4, y la cuaterna formada por estos cuatro valores numéricos (en su orden adecuado) es una solución del sistema: (−3, −4, 1, 2). Podemos afirmar que todas las soluciones del sistema de ecuaciones lineales (15), y por ende todas las del (14), son las cuaternas (x1 , x2 , x3 , x4 ) tales que: ⎧ ⎨ x1 = 1 − 2x3 − x4 , donde x3 y x4 son números cualesquiera. ⎩ x2 = −1 − x3 − x4 , En particular, el sistema de ecuaciones lineales (14) tiene infinitas soluciones. De acuerdo con la nomenclatura introducida en el § 27, las incógnitas x1 y x2 son las incógnitas básicas del sistema (15) (pues son las que figuran en primer lugar en alguna ecuación), y las incógnitas x3 y x4 son las incógnitas libres. En las igualdades de (16), figuran despejadas las incógnitas básicas en función de las libres. Si, como es usual, sustituimos las letras de las incógnitas libres por letras griegas —por ejemplo, x3 por λ y x4 por μ (léase “mi”)—, entonces podemos escribir que todas las soluciones del sistema (15), y por tanto las del (14), son las cuaternas (x1 , x2 , x3 , x4 ) tales que:

⎧ ⎪ ⎪ ⎪ x1 ⎪ ⎪ ⎪ ⎨ x2 ⎪ ⎪ x3 ⎪ ⎪ ⎪ ⎪ ⎩x 4

=

1 − 2λ − μ

= −1 − λ − μ =

λ

=

donde λ y μ son números cualesquiera;

μ,

o bien: tales soluciones son todas las cuaternas de la forma: (1 − 2λ − μ, −1 − λ − μ, λ, μ), Un sistema sin solución

29

donde λ y μ son números cualesquiera.

Estudiemos este sistema de tres ecuaciones y tres incógnitas: ⎧ ⎪ ⎪ ⎪ x1 + x2 − x3 = 5 ⎨ 2x1 + x2 =2 ⎪ ⎪ ⎪ ⎩ x + x = −1. 1

Su matriz ampliada es:



1 =⎜ 2 A ⎝ 1

3

1 1 0

−1 0 1

⎞ 5 ⎟ 2⎠, −1

(17)

I.1. INTRODUCCIÓN A LOS SISTEMAS DE ECUACIONES LINEALES

y una forma escalonada de esta matriz se puede obtener así: ⎛

1 ⎜  A = ⎝2 1

1 1 0

−1 0 1

⎛ ⎞ 5 1 ⎟ F2 ←F2 −2F1 ⎜ 2 ⎠ →  ⎝0 −1 1 ⎛

1 ⎜ →  ⎝0 0 F3 ←F3 −F1



1 ⎜ 0 →  ⎝ 0 F3 ←F3 −F2

1 −1 0

−1 2 1

⎞ 5 ⎟ −8 ⎠ −1

1 −1 −1

−1 2 2

⎞ 5 ⎟ −8 ⎠ −6

1 −1 0

−1 2 0

⎞ 5 ⎟  −8 ⎠ = A 2

 , menos la primera, pre(nótese que cada una de las filas de la matriz A senta más ceros iniciales que su precedente: es escalonada). En este punto, de acuerdo con el método de eliminación de Gauss–Jordan, deberíamos   hasta llegar seguir aplicando transformaciones elementales a la matriz A a su forma escalonada reducida. Ahora bien, fijémonos: ¿cuál sería la tercera ecuación del sistema de ecuaciones lineales cuya matriz ampliada es la  ? Esta: matriz A 0x1 + 0x2 + 0x3 = 2.

(18)

Pero acontece que esta ecuación no admite solución: cualesquiera que sean los números que escribamos en vez de x1 , x2 y x3 , no obtendremos el número 2 como resultado de la operación 0x1 + 0x2 + 0x3 . Deducimos   no admite solución. Y entonces que el sistema cuya matriz ampliada es A si este sistema no admite solución, tampoco la admite el sistema original: el (17), que es equivalente a él. A modo de epílogo de la sección

30

A la vista de los sistemas de ecuaciones lineales que hemos visto

en este apartado y en el anterior, nos formulamos las siguientes preguntas: ¿cuál es el punto crucial que hace que un sistema admita solución o no?; y, una vez sabemos que el sistema admite solución, ¿cuál es la clave para saber si esta solución es única o admite más de una? Adelantamos al lector las respuestas, de las cuales quizá ya intuya algún aspecto. Si nos fijamos bien en la resolución del sistema (17) en el § 29, el detalle crucial que nos determina que el sistema no admita solución es que la matriz escalonada obtenida a partir de su matriz ampliada presenta un pivote en la última columna. Si una matriz escalonada, ampliada de un sistema de ecuaciones lineales, tiene un pivote en su última columna, entonces

I. SISTEMAS DE ECUACIONES LINEALES

la ecuación lineal que correspondería a la fila de este pivote tendría todos sus coeficientes nulos y el término independiente no nulo (como la ecuación lineal escrita en (18)); una ecuación lineal así no admite solución. Por el contrario, todos los demás sistemas que hemos estudiado en la sección actual, tanto en este apartado como en los anteriores, son tales que la matriz escalonada a la que hemos llegado a partir de su matriz ampliada no presenta un pivote en la última columna. Cuando una matriz escalonada no tiene pivote en su última columna, es posible encontrar alguna solución para el sistema correspondiente. Por otra parte, si tenemos un sistema tal que una forma escalonada de su matriz ampliada no presenta un pivote en la última columna (un sistema que, acuerdo con lo afirmado en el párrafo anterior, tiene solución), podemos saber si admite solución única o no comparando el número de pivotes de la forma escalonada con el de incógnitas: • Si el número de pivotes es igual al de incógnitas, la solución es única. Esto es lo que acontece en todos los sistemas trabajados antes del apartado actual. • Pero si el número de pivotes es menor que el número de incógnitas, hay más de una solución; de hecho, infinitas. Esto sucede en los sistemas (11) y (14) (cf. pp. 40 y 42, respectivamente). Además, en el caso de infinitas soluciones, el número de parámetros o incógnitas libres a partir de las cuales se expresa la solución es igual a la diferencia entre el número de incógnitas y el número de pivotes. Animamos al lector a comprobar este hecho con los citados sistemas (11) y (14). Veremos una justificación de todas estas afirmaciones en la Sección I.3, que estará dedicada a presentar un método sintético para resolver cualquier sistema de ecuaciones lineales. Antes, en la Sección I.2, presentaremos las definiciones y propiedades de los sistemas de ecuaciones lineales en general.

I.1. INTRODUCCIÓN A LOS SISTEMAS DE ECUACIONES LINEALES

Ejercicios I.1 1

Resolver, tanto por sustitución como por reduc-

ción, el siguiente sistema de ecuaciones lineales: ⎧ ⎨ x+ y =6 ⎩ −x + 3y = 2. 2 Un sistema de dos ecuaciones y dos incógnitas se resuelve por igualación de la siguiente manera: se despeja en ambas ecuaciones una misma incógnita y se igualan las dos expresiones obtenidas, lo que lleva a una ecuación con una sola incógnita, la cual se resuelve; el resultado se sustituye en cualquiera de las dos expresiones obtenidas en el primer paso para así determinar el valor de la incógnita que falta. Resolver por igualación este sistema: ⎧ ⎨ 2x + 3y = 8 ⎩ 5x + 2y = −2.

5

Considérese el siguiente sistema de ecuaciones

lineales:

⎧ ⎨ x1 + ax2 = 1 ⎩ ax1 + x2 = 1,

donde a designa un número (real). a)

¿Es el par ordenado (1, 1) solución del sistema

para algún valor de a? b)

¿Hay solución cualquiera que sea el valor de a?

c)

Si a es tal que el sistema admite alguna solución,

encontrarlas todas. 6

Considérese el siguiente sistema de ecuaciones

lineales:

⎧ ⎨ x1 − x2 = 2 ⎩ 2x1 − 2x2 = 4.

Justificar que es solución de este sistema cualquier par

Treinta y cinco garrafas de vino, unas de dos

ordenado de la forma (2 + λ, λ) donde λ es un número real. Justificar que también es solución cualquier par

litros y otras de cinco, se llenan al vaciar completamen-

ordenado de la forma (2 − 2λ, −2λ) donde λ es un nú-

te una tinaja que contiene cien litros. ¿Cuántas garrafas de cada tipo hay?

mero real. ¿Hay alguna contradicción entre ambas afir-

3

4 les:

Resolver el siguiente sistema de ecuaciones linea⎧ ⎪ 2x + 3y + 5z = 1 ⎪ ⎪ ⎨ 5y − z = 1 ⎪ ⎪ ⎪ ⎩2x + 8y + 5z = 2.

maciones? 7

Si las letras a, b, c y d designan números tales

que a ≠ 0 y ad − bc ≠ 0, resuélvase este sistema de ecuaciones lineales: ⎧ ⎨ ax1 + bx2 = 1 ⎩ cx1 + dx2 = 1.

I. SISTEMAS DE ECUACIONES LINEALES

I.2 DEFINICIONES Y PROPIEDADES 1. Ecuaciones lineales. Sistemas de ecuaciones lineales En este apartado, presentamos las primeras definiciones necesarias sobre sistemas de ecuaciones lineales, así como sus propiedades básicas. En particular, veremos la definición general de algunos conceptos ya citados en la sección anterior, y analizaremos con detalle la representación matricial de un sistema de ecuaciones lineales.

Ecuación lineal Ecuación lineal. Incógnitas, coeficientes y término independiente

31

Fijemos un número natural positivo m. Una ecuación lineal en

las m incógnitas (o variables) x1 , x2 , . . . , xm es una expresión de la forma: a1 x1 + a2 x2 + · · · + am xm = c, donde a1 , a2 , . . . , am son números (reales), que llamaremos coeficientes de la ecuación, y c es otro número (también real), que llamaremos término independiente de la ecuación. Por ejemplo, la expresión 1x1 + (−1)x2 + 5x3 + 0x4 +

√ 2 x5 = −5,

que escribiremos simplemente así: x1 − x2 + 5x3 +

√ 2 x5 = −5, es una

ecuación lineal en las incógnitas x1 , x2 , x3 , x4 y x5 . Los coeficientes de la √ ecuación son 1, −1, 5, 0 y 2 (en este orden). El término independiente de la ecuación es −5. Otro ejemplo: las tres siguientes son ecuaciones lineales en las incógnitas x1 , x2 y x3 : x1 − x2 − 3x3 = 2,

x3 = 1 y



1 x1 + 4x3 = 0. 5

Los coeficientes de la primera ecuación son 1, −1 y −3; los de la segunda: 0, 0 y 1; y los de la tercera: −1/5, 0 y 4. Los tres términos independientes son 2, 1 y 0, respectivamente. Las siguientes también son ecuaciones en las incógnitas x1 , x2 y x3 , pero no son lineales: x1 x2 + x3 = 2,

x12 + 3x2 − x3 = −1,

2x1 −

1 = 1. x3

I.2. DEFINICIONES Y PROPIEDADES

Muchas veces se emplean otras letras para designar las incógnitas, como x, y, z, t o u, acompañadas o no de subíndices. Por ejemplo, las siguientes son ecuaciones lineales en las incógnitas x, y, z y t: 2x + 3y − 2z + t = −3 y

− 2y − z − t = 1.

Y estas son ecuaciones lineales en las incógnitas y1 , y2 y y3 : y1 + y3 = 0

y

3y2 + y3 = −7.

Y esta lo es en las incógnitas z1 y z2 : 2z1 − z2 = 1. Ecuaciones lineales: detalles de notación

32

Como puede el lector deducir de los ejemplos del parágrafo ante-

rior, si un coeficiente en una ecuación lineal es nulo, no se suele escribir el sumando correspondiente. Por ejemplo, se escribe −2x1 + x3 = 2 en vez de −2x1 + 0x2 + x3 = 2 (salvo que se quiera enfatizar por alguna razón el valor nulo del coeficiente). Pero hay una excepción: si todos los coeficientes de la ecuación lineal son nulos, los escribiremos explicitamente: 0x1 + 0x2 + 0x3 = −1,

o 0x1 + 0x2 + 0x3 + 0x4 = 0.

Otro detalle de notación que debe observarse es el siguiente. Podrían pedirnos, por ejemplo, que consideráramos la ecuación lineal 3x2 = −1 en las incógnitas x1 , x2 , x3 y x4 . En tal caso, la ecuación en cuestión sería realmente esta: 0x1 + 3x2 + 0x3 + 0x4 = −1. Habitualmente, el contexto nos dará cuenta de qué incógnitas debemos considerar. A falta de contexto o de otras referencias, tomaremos para una ecuación dada tantas incógnitas como marque el mayor subíndice con coeficiente no nulo. Verbigracia, si no tenemos más información, la ecuación 4x2 = 3 debe considerarse como una ecuación lineal en las incógnitas x1 y x2 .

Solución de una ecuación lineal Solución de una ecuación lineal

33

Consideremos una ecuación lineal en las m incógnitas (o varia-

bles) x1 , x2 , . . . , xm : a1 x1 + a2 x2 + · · · + am xm = c. (En particular, ya sabemos entonces que las letras a1 , a2 , . . . , am y c están designando números reales.) Dada una m-upla (s1 , s2 , . . . , sm ) de números,

I. SISTEMAS DE ECUACIONES LINEALES

Obsérvese que una m-upla es lo análogo, para m números, de un par ordenado o de una terna. (De hecho, si m = 2, una m-upla es justamente un par ordenado.) Los números que figuran escritos en una m-upla son sus componentes: primera, segunda, . . . , m-ésima, en el mismo orden en que están escritos.

diremos que es una solución de la ecuación lineal si al sustituir, en la ecuación, x1 por s1 , x2 por s2 , . . . , xm por sm se obtiene una igualdad. Es decir, si se verifica: a1 s1 + a2 s2 + · · · + am sm = c. Por ejemplo, consideremos esta ecuación lineal en las incógnitas x1 , x2 y x3 : x1 + x2 + 2x3 = −1. La terna (0, −3, 1) es una solución de la ecuación, pues si sustituimos x1 por 0, x2 por −3 y x3 por 1, obtenemos una igualdad: 0 + (−3) + 2 · 1 = −1. Por el contrario, la terna (1, 1, 1) no es una solución de la ecuación, pues escribir 1, 1 y 1 en vez de x1 , x2 y x3 , respectivamente, nos lleva a 1 + 1 + 2 · 1 = 4 ≠ −1. El lector puede comprobar que la terna (0, 0, −1/2) es otra solución de la

En efecto:

 1 = −1. 0+0+2· − 2

ecuación. Se trata de una ecuación lineal con más de una solución. 34

Más ejemplos

Consideremos la ecuación lineal 3x2 = 1, en las incógnitas x1 y x2 .

Más explícitamente, se trata de la ecuación 0x1 + 3x2 = 1. Una solución es el par ordenado (1, 1/3), pues la sustitución x1 = 1 y x2 = 1/3 nos lleva a una igualdad: 0·1+3·

1 = 1. 3

Si nos fijamos, realmente todo par ordenado de la forma (a, 1/3), siendo a un número cualquiera, es una solución de la ecuación: Hacemos la sustitución x1 = a y x2 = 1/3.

0·a+3·

1 = 1. 3

Examinemos ahora esta otra ecuación lineal: 3x1 = 1. Si no nos dicen Si m = 1, una m-upla se reduce a un solo número.

nada más, debemos pensar que es una ecuación solo en la incógnita x1 ; como tal, tiene solución única: el número 1/3. Pero podríamos considerar que es una ecuación lineal en las incógnitas (por ejemplo) x1 y x2 ; más explícitamente: 3x1 + 0x2 = 0. En este caso, una solución de la ecuación sería un par ordenado y no simplemente un número. En concreto, podemos

En efecto: 3 ·

1 + 0 · a = 1. 3

comprobar que todo par ordenado de la forma (1/3, a), con a un número arbitrario, configura una solución de la ecuación así considerada. La ecuación lineal 3x1 = 1, en las incógnitas x1 y x2 , tiene infinitas soluciones.

I.2. DEFINICIONES Y PROPIEDADES

35

Solución de una ecuación lineal con todos los coeficientes nulos (cf. § 32)

La ecuación lineal 0x1 + 0x2 + 0x3 = −1 (en las incógnitas x1 , x2

y x3 ) no admite solución. En efecto, cualesquiera que sean los números que escribamos en lugar de x1 , x2 y x3 , la operación 0x1 + 0x2 + 0x3 tiene como resultado el número 0, y no −1. Por el contrario, la ecuación lineal 0x1 + 0x2 + 0x3 = 0 admite como solución cualquier terna de números. En general, dada una ecuación lineal de la forma: 0x1 + 0x2 + · · · + 0xm = c, acontece lo siguiente: si c ≠ 0, no admite solución; si c = 0, admite como solución cualquier m-upla de números. 36

Posibilidades para las soluciones de una ecuación lineal: una, infinitas o ninguna

En los § 34 y 35, hemos visto ejemplos de ecuaciones lineales con

una única solución (como la ecuación 3x1 = 1 en la incógnita x1 ), con infinitas soluciones (como la ecuación 3x2 = 1 en las incógnitas x1 y x2 ) o sin solución (como las ecuaciones con todos sus coeficientes nulos y el término independiente no nulo). Realmente, no hay más posibilidades para las soluciones de una ecuación lineal: una, infinitas o ninguna.

Comprobémoslo con una ecuación lineal en dos incógnitas (para más incógnitas la comprobación sería análoga).

Supongamos que tenemos dos soluciones

distintas de la ecuación lineal a1 x1 + a2 x2 = c. Es decir, tenemos dos pares ordenados (s1 , s2 ) y

(s1 , s2 ),

con s1 ≠ s1 o s2 ≠ s2 , tales que: a 1 s 1 + a2 s 2 = c

y

a1 s1 + a2 s2 = c.

(19)

Se tiene entonces lo siguiente: cualquiera que sea el número b, es solución de la ecuación lineal el par orde  nado s1 + b(s1 − s1 ), s2 + b(s2 − s2 ) , lo que establece que la ecuación lineal tiene en definitiva infinitas soluciones.

mos lo siguiente:     a1 s1 + b(s1 − s1 ) + a2 s2 + b(s2 − s2 ) = a1 s1 + a2 s2 + b(a1 s1 + a2 s2 ) − b(a1 s1 + a2 s2 ) = c + bc − bc = c, donde hemos tenido en cuenta (19). Efectivamente,   pues, el par ordenado s1 + b(s1 − s1 ), s2 + b(s2 − s2 ) es solución de la ecuación lineal, y ello cualquiera que sea el número b. Además, como s1 ≠ s1 o s2 ≠ s2 , se obtiene un par ordenado distinto para cada valor de b: la ecuación lineal tiene infinitas soluciones. Vemos así que una ecuación lineal que admite más de una solución admite de hecho infinitas. Esto prueba

Para probarlo, en la ecuación sustituimos x1 por s1 + b(s1 − s1 ) y x2 por s2 + b(s2 − s2 ). Obtene-

la afirmación de este parágrafo: una ecuación lineal admite una solución, infinitas soluciones o ninguna.

Operaciones con ecuaciones lineales Multiplicación por un número de una ecuación lineal

37

Las ecuaciones lineales, en tanto que son igualdades, pueden multi-

plicarse por un número. Ello se lleva a cabo multiplicando ambos miembros

I. SISTEMAS DE ECUACIONES LINEALES

por el número. Por ejemplo, de multiplicar por el número −2 la ecuación lineal x1 − 3x2 + 2x3 = −1, resulta: (−2) · (x1 − 3x2 + 2x3 ) = (−2) · (−1),

de donde:

− 2x1 + 6x2 − 4x3 = 2.

El resultado de esta operación es también una ecuación lineal, obtenida de la original multiplicando tanto los coeficientes como el término independiente por el número en cuestión. En general, el producto de un número b por una ecuación lineal como a1 x1 + a2 x2 + · · · + am xm = c es igual a la ecuación lineal siguiente: (ba1 )x1 + (ba2 )x2 + · · · + (bam )xm = bc. Adición de ecuaciones lineales

38

Las ecuaciones lineales también pueden sumarse, como se suman

habitualmente dos igualdades, miembro a miembro. Por ejemplo, consideremos estas dos ecuaciones lineales, ambas en las incógnitas x1 , x2 y x3 : 2x1 + x2 − 3x3 = 1 y

− 6x1 + x3 = −1.

Su suma se puede calcular así: +

de donde:

2x1

+ x2

− 3x3 =

−6x1

1

+ x3 = −1

2x1 − 6x1

+ x2

− 3x3 + x3 = 1 − 1,

−4x1

+ x2

− 2x3 =

0.

La suma de las dos ecuaciones lineales es, como vemos, otra ecuación lineal, en las mismas incógnitas que ambas ecuaciones, y tal que el coeficiente que acompaña a cada incógnita es la suma de los coeficientes que acompañan a la misma incógnita en cada ecuación, y también tal que su término independiente es la suma de ambos términos independientes. En general, la suma de dos ecuaciones lineales en las mismas incógnitas: a1 x1 + a2 x2 + · · · + am xm = c

y

b1 x1 + b2 x2 + · · · + bm xm = d,

es igual a la ecuación lineal: (a1 + b1 )x1 + (a2 + b2 )x2 + · · · + (am + bm )xm = c + d. Sumar a una ecuación un múltiplo de otra

39

A modo de combinación de las dos operaciones entre ecuaciones

lineales que hemos visto en los §s 37 y 38, podemos sumar a una ecuación

I.2. DEFINICIONES Y PROPIEDADES

un múltiplo de otra (tomadas ambas ecuaciones en las mismas incógnitas). No es más que multiplicar la segunda ecuación por un número y sumar el resultado a la primera. Efectuemos una operación de este tipo con las siguientes dos ecuaciones lineales (ambas en las incógnitas x1 , x2 y x3 ): x1 + 3x2 − x3 = 0

2x1 − 4x2 + 6x3 = −8.

y

Sumemos a la primera la segunda multiplicada por −1/2. Del producto de la segunda por −1/2, obtenemos:  1  1 − · (2x1 − 4x2 + 6x3 ) = − · (−8), 2 2

de donde:

− x1 + 2x2 − 3x3 = 4.

Y de la suma de la primera con esta última: +

x1 + 3x2 − x3 = 0 −x1 + 2x2 − 3x3 = 4 5x2 − 4x3 = 4.

La ecuación lineal 5x2 − 4x3 = 4 es el resultado. Sumar a una ecuación un múltiplo de otra para anular algún coeficiente

40

Incidentalmente, obsérvese que la ecuación obtenida en el § 39 tiene

nulo su coeficiente de x1 , cuando las ecuaciones originales no lo tenían. Habitualmente, el objetivo de sumar a una ecuación un múltiplo de otra es precisamente que la ecuación obtenida como resultado tenga nulo algún coeficiente concreto. Parémonos un momento a ver esto en un caso general. Tenemos dos ecuaciones lineales: a1 x1 + a2 x2 + · · · + am xm = c

y

b1 x1 + b2 x2 + · · · + bm xm = d,

con a1 ≠ 0 y b1 ≠ 0, y querríamos, sumando a la primera un múltiplo adecuado de la segunda, obtener una ecuación con el coeficiente de x1 nulo. ¿Cómo lo logramos?

Como el coeficiente de x1 en la primera ecuación

es igual a a1 , tras multiplicar la segunda ecuación por algún número deberíamos obtener un coeficiente de x1 igual a −a1 . Lo conseguimos si tal número es −a1 /b1 :  a   a  1 1 − · (b1 x1 + b2 x2 + · · · + bm xm ) = − · d, b1 b1 de donde:

− a1 x1 −

a1 b2 a1 bm a1 d x2 − · · · − xm = − . b1 b1 b1

I. SISTEMAS DE ECUACIONES LINEALES

Ahora, al sumar la primera ecuación y esta última obtenida, conseguimos una ecuación cuyo coeficiente de x1 es nulo. Esquemáticamente: a1 x1 +

a2 x2 + · · · =

−a1 x1 −

a1 b2 x2 − · · · = b1

+

c −

a1 d b1

 a1 b2  a1 d x2 + · · · = c − 0x1 + a2 − . b1 b1 Tal y como queríamos, la ecuación obtenida tiene nulo su coeficiente de x1 . Si quisiéramos, a partir de las mismas dos ecuaciones, conseguir que fuera nulo otro coeficiente, digamos el de xj (donde 1  j  m y bj ≠ 0), el número por el cual habría que multiplicar la segunda ecuación sería −aj /bj . Soluciones de una ecuación lineal tras efectuar operaciones con ella

41

Si multiplicamos una ecuación lineal por un número, obteniendo

con ello una segunda ecuación, las soluciones de la primera ecuación, ¿son también soluciones de la segunda? Sí.

Una cuaterna es una m-upla con m = 4.

Veamos un ejemplo. Consideremos la ecuación lineal 2x1 − x2 + x4 = 1, de la cual una solución es la cuaterna (1, 3, 5, 2), pues: 2 · 1 − 3 + 2 = 1. Multipliquemos la ecuación por 2; obtenemos: 4x1 − 2x2 + 2x4 = 2. Acontece que la cuaterna (1, 3, 5, 2) también es solución de esta última ecuación, pues: 4 · 1 − 2 · 3 + 2 · 2 = 2. Con la adición de ecuaciones lineales acontece algo similar. Lo que sea solución simultáneamente de las dos ecuaciones lineales que se suman sigue siendo solución de la ecuación lineal suma. Por ejemplo, la terna (1, 1, 1) es

x1 − x2 − x3 = −1 +

x1 + x2 − 2x3 = 2x1

solución de estas dos ecuaciones lineales:

0

− 3x3 = −1

x1 − x2 − x3 = −1 y

x1 + x2 − 2x3 = 0;

(20)

pero también es solución de la ecuación lineal suma de ambas ecuaciones, que es: 2x1 − 3x3 = −1. Dejamos al lector la comprobación de los detalles. Nota bene

Cuando decimos que toda solución de dos ecuaciones lineales lo es

también de su suma, se exige que tal solución lo sea de las dos ecuaciones que se suman.



Como consecuencia de lo dicho en este parágrafo, si sumamos a una ecuación lineal un múltiplo de otra, cualquier solución común a las dos ecuaciones originales también será solución de la ecuación lineal obtenida como resultado.

I.2. DEFINICIONES Y PROPIEDADES

A modo de ejemplo, podemos partir de nuevo de las ecuaciones lineales escritas en (20). Ya sabemos que la terna (1, 1, 1) es solución de ambas. Acontece que esta terna también es solución de la ecuación que resulta de x1 − x2 − x3 = −1 +

−x1 − x2 + 2x3 =

0

−2x2 + x3 = −1

sumar a la primera de las ecuaciones la segunda multiplicada por −1. En efecto, el resultado de tal operación es la ecuación −2x2 + x3 = −1, y claramente la terna (1, 1, 1) es solución de ella. La justificación en general de todo lo afirmado en este parágrafo se deja como ejercicio al lector.

Sistemas de ecuaciones lineales ¿Qué es un sistema de ecuaciones lineales?

42

Un sistema de ecuaciones lineales es una lista (finita) de ecuaciones

lineales consideradas simultáneamente, todas en las mismas incógnitas. Si n y m son dos números naturales positivos, la expresión general de un sistema de n ecuaciones lineales en las m incógnitas x1 , x2 , . . . , xm es esta:

⎧ a11 x1 + a12 x2 + · · · + a1m xm = c1 ⎪ ⎪ ⎪ ⎪ ⎨ a21 x1 + a22 x2 + · · · + a2m xm = c2 ⎪ ⎪ ........................................ ⎪ ⎪ ⎩ an1 x1 + an2 x2 + · · · + anm xm = cn .

Nótese que, fijados dos números naturales i y j, con 1  i  n y 1  j  m, en la expresión general anterior se designa por aij el coeficiente que, en la i-ésima ecuación lineal, acompaña a la incógnita xj . Por otra parte, las letras c1 , c2 , . . . , cn designan los n términos independientes. Por ejemplo, el siguiente es un sistema de dos ecuaciones y cuatro incógnitas:

⎧ ⎨ 2x1

+ 3x3 − x4 = 2 ⎩ x1 + x2 + 4x3 + x4 = −1.

(21)

Nótese que ambas son efectivamente ecuaciones lineales en las mismas incógnitas: x1 , x2 , x3 y x4 .

Solución de un sistema de ecuaciones lineales. Sistemas equivalentes Solución de un sistema de ecuaciones lineales

43

Dado un sistema de n ecuaciones lineales y m incógnitas, una solu-

ción del sistema es una m-upla que es solución de todas y cada una de las n ecuaciones lineales del sistema (cf. § 33, p. 49). Por ejemplo, la cuaterna (1, −2, 0, 0) es una solución del sistema (21), de dos ecuaciones y cuatro incógnitas, escrito en el § 42, pues es una solución

I. SISTEMAS DE ECUACIONES LINEALES

Recordamos el sistema (21): ⎧ ⎨ 2x1 + 3x3 − x4 = 2 ⎩ x + x + 4x + x = −1. 1

2

3

4

de cada una de sus dos ecuaciones. En efecto, si escribimos 1, −2, 0 y 0 en vez de x1 , x2 , x3 y x4 , respectivamente, obtenemos dos igualdades, una a partir de cada ecuación: ⎧ ⎨2 · 1 ⎩

+3·0−0=

2

1 + (−2) + 4 · 0 + 0 = −1.

Por el contrario, la cuaterna (1, 0, 1, 3), verbigracia, no es solución de este sistema citado: aunque es solución de su primera ecuación, no lo es de su segunda. El lector puede tener a bien comprobar ambas afirmaciones. Ejemplos de solución de sistemas

44

En una sección posterior (Sección I.3), estudiaremos un método

sistemático para resolver cualquier sistema de ecuaciones lineales (es decir, para encontrar todas sus soluciones, lo que incluye determinar que el sistema no tiene solución si es el caso). En los ejemplos de sistemas de este parágrafo, escribimos para cada uno todas sus soluciones, y nos limitamos a comprobar que las soluciones escritas efectivamente lo son. En la sección introductoria de este capítulo (cf. Sección I.1), vimos este sistema de ecuaciones (el sistema (1), escrito en el § 1, p. 19): ⎧ ⎨ 4x − 2y = 8 ⎩ 3x + y = 1, y comentamos que tenía una única solución: el par (1, −2). El lector puede comprobar que este par es efectivamente solución del sistema. Este otro sistema:

⎧ ⎨ x1 + x2 = 1 ⎩ 2x1 + 2x2 = 2,

admite infinitas soluciones: todas los pares ordenados de la forma (1−a, a) con a un número cualquiera. Lo comprobamos sustituyendo x1 por a y x2 por 1 − a; obtenemos con ello dos igualdades: ⎧ ⎨ a + (1 − a) = 1 ⎩ 2a + 2(1 − a) = 2. Por otra parte, el sistema (21) admite como solución todas las cuaternas

Recordamos de nuevo el sistema (21): ⎧ ⎨ 2x1 + 3x3 − x4 = 2 ⎩ x + x + 4x + x = −1. 1

2

3

4

de la forma:   3 1 5 3 1− a+ b, −2− a− b, a, b , donde a y b son números cualesquiera. 2 2 2 2 La comprobación es esta: ⎧  1  3 ⎪ ⎪ ⎪ + 3a − b = 2 ⎨2 1 − a+ b 2 2     ⎪ 3 1 5 3 ⎪ ⎪ ⎩ 1 − a + b + −2 − a − b + 4a + b = −1. 2 2 2 2

I.2. DEFINICIONES Y PROPIEDADES

Finalmente, salta a la vista que el siguiente sistema de dos ecuaciones ¡Dos números no pueden sumar 1 y 2 a la vez!

lineales no admite solución: ⎧ ⎨ x1 + x2 = 1 ⎩ x1 + x2 = 2. Enfatizamos, para tranquilidad del lector, que todavía no estamos en condiciones, a la luz de lo que hemos visto hasta ahora, de llegar por nosotros mismos a las soluciones de sistemas aquí consignadas.

Posibilidades para las soluciones de un sistema de ecuaciones lineales: una, infinitas o ninguna

45

En el § 44, acabamos de citar varios ejemplos de sistemas de ecua-

ciones lineales: uno de ellos con una única solución, dos con infinitas soluciones y un cuarto sin solución. De acuerdo con lo visto en el § 36 (cf. p. 51), son estas tres las posibilidades para la cantidad de soluciones de un sistema de ecuaciones lineales. Dado un sistema de ecuaciones lineales, se satisface una y solo una de las siguientes afirmaciones: admite una solución, admite infinitas soluciones o no admite ninguna.

Nomenclatura: sistema compatible determinado, sistema compatible indeterminado y sistema incompatible

46

De un sistema que admite solución única diremos que es compa-

tible determinado; de uno que admite infinitas soluciones diremos que es compatible indeterminado; y de uno que no admite solución diremos que es incompatible. De acuerdo con lo afirmado en el § 45, todo sistema de ecuaciones lineales es de una, y solo una, de estas tres clases. Por ejemplo (§ 44), los siguientes sistemas: ⎧ ⎧ ⎨ x1 + x2 = 1 ⎨ 4x − 2y = 8 y ⎩ 3x + y = 1, ⎩ 2x1 + 2x2 = 2

⎧ ⎨ x1 + x2 = 1 ⎩ x1 + x2 = 2,

son, respectivamente, compatible determinado, compatible indeterminado e incompatible. Sistemas que incluyen ecuaciones con todos los coeficientes nulos

47

Sabemos que una ecuación lineal con todos sus coeficientes nulos

pero con el término independiente no nulo, es decir, una ecuación lineal como esta: 0x1 + 0x2 + · · · + 0xm = c,

con c ≠ 0,

no admite solución (cf. § 35, p. 51). Por tanto, si un sistema incluye tal ecuación entre las suyas, podemos afirmar que el sistema no admite solución: se tratará de un sistema de ecuaciones lineales incompatible.

I. SISTEMAS DE ECUACIONES LINEALES

También sabemos (del mismo § 35) que, por el contrario, la ecuación lineal con todos sus coeficientes nulos y con el término independiente también nulo, esto es, la ecuación 0x1 + 0x2 + · · · + 0xm = 0 Ecuación nula

(22)

(lo que llamaremos una ecuación nula), admite como solución toda m-upla de números reales. Si un sistema de ecuaciones lineales incluye esta ecuación, podemos eliminarla, en el sentido de que el sistema resultante tendrá las mismas soluciones que el original. En efecto, si una m-upla es solución del sistema que incluye la ecuación (22), será solución de todas y cada una de sus ecuaciones lineales, y por tanto del sistema formado por cualesquiera de ellas. Recíprocamente, si el sistema resultante de eliminar la ecuación (22) admite alguna solución, tal m-upla también será solución de esta ecuación, pues cualquier m-upla lo es.

Sistemas equivalentes

48

Diremos que dos sistemas de ecuaciones lineales son equivalentes

si tienen las mismas soluciones; es decir, si toda solución del primero también es solución del segundo, y si toda solución del segundo también es solución del primero. Si dos sistemas de ecuaciones lineales en las mismas incógnitas no admiten solución, también diremos que ambos sistemas son equivalentes. De acuerdo con lo visto en el § 47, si un sistema de ecuaciones lineales tiene alguna ecuación nula, al eliminar esta obtenemos un nuevo sistema equivalente al original. En la Sección I.1, ya vimos algunos primeros ejemplos de sistemas equivalentes. En estos ejemplos, a partir de un sistema dado obteníamos un sistema equivalente llevando a cabo en el primero ciertas operaciones con sus ecuaciones. Estudiamos estas operaciones entre ecuaciones en el parágrafo siguiente. Manipulaciones en sistemas de ecuaciones lineales

49

Recordemos, pues, las operaciones entre ecuaciones que llevába-

mos a cabo en sistemas de ecuaciones lineales en la Sección I.1. Son las siguientes: • intercambiar dos ecuaciones; • multiplicar una ecuación por un número no nulo; • sumar a una ecuación un múltiplo de otra. Una manipulación de cualquiera de estos tipos transforma un sistema de ecuaciones lineales en otro equivalente.

I.2. DEFINICIONES Y PROPIEDADES

Comprobamos esta afirmación para cada uno de los tres tipos de manipulación señalados.

otra ecuación de modo que ambas tienen las mismas soluciones.

Esto prueba que la operación de multi-

En primer lugar, si en un sistema de ecuaciones li-

plicar una ecuación por un número no nulo nos lleva

neales intercambiamos dos de ellas, el sistema sigue teniendo, en definitiva, las mismas ecuaciones: es claro

un sistema de ecuaciones lineales a otro equivalente. Finalmente, analicemos la operación de sumar a

que toda solución de uno es también solución del otro.

una ecuación un múltiplo de otra.

Esta operación efectivamente transforma un sistema de

supongamos que las ecuaciones involucradas son las

ecuaciones lineales en otro equivalente.

dos primeras: a la primera ecuación de un sistema

Por fijar ideas,

En segundo lugar, consideremos en un sistema

se le suma la segunda previamente multiplicada por

de ecuaciones lineales la multiplicación de alguna

un número b. Podemos comprobar que, si sumamos

ecuación por un número no nulo, digamos b. Note-

a la nueva primera ecuación la segunda multiplicada

mos que, si multiplicamos por el número no nulo b

por −b, recuperamos con ello la primera ecuación origi-

una ecuación lineal, a partir de la ecuación obtenida podemos recuperar la original multiplicando a su vez

nal. Como toda solución común a dos ecuaciones también lo es de la ecuación que resulta de sumar a una

por 1/b. Pero ya sabemos que la multiplicación de una

de las ecuaciones un múltiplo de la otra, deducimos

ecuación lineal por un número cualquiera nos lleva a

lo siguiente: antes y después de sumar a la primera

otra ecuación lineal tal que toda solución de la primera

ecuación la segunda multiplicada por b los sistemas co-

ecuación sigue siéndolo de la segunda (cf. § 41, p. 54).

rrespondientes tienen las mismas soluciones. Sumar a

Deducimos entonces lo siguiente: al multiplicar una

una ecuación un múltiplo de otra transforma, pues, un

ecuación lineal por un número no nulo, obtenemos

sistema de ecuaciones lineales en otro equivalente.

Un ejemplo de aplicación de las operaciones entre ecuaciones

50

A modo de ejemplo ilustrativo de estas manipulaciones, considere-

mos el siguiente sistema de tres ecuaciones y tres incógnitas: ⎧ ⎪ x + x2 − 2x3 = 0 ⎪ ⎪ ⎨ 1 + 2x3 = 1 x1 ⎪ ⎪ ⎪ ⎩ x − x + 7x = 3, 1

2

(23)

3

y tratemos, mediante la aplicación de operaciones entre ecuaciones, de llevarlo a otro sistema equivalente que sea sencillo de resolver. Sigamos para ello la pauta de los ejemplos estudiados en la Sección I.1. Empezamos buscando un sistema cuya segunda ecuación tenga nulo el coeficiente de x1 ; lo conseguimos sumando a la segunda ecuación del sis-

−x1 − x2 + 2x3 = 0 +

x1

+ 2x3 = 1 −x2 + 4x3 = 1

tema original la primera multiplicada por −1: ⎧ ⎪ ⎪ ⎪ x1 + x2 − 2x3 = 0 ⎨ −x2 + 4x3 = 1 ⎪ ⎪ ⎪ ⎩ x − x + 7x = 3. 1

2

3

Continuamos tratando de conseguir que la tercera ecuación también tenga nulo el coeficiente de x1 ; ello se logra sumando a la tercera ecuación la

I. SISTEMAS DE ECUACIONES LINEALES

−x1 − x2 + 2x3 = 0 +

x1 − x2 + 7x3 = 3 −2x2 + 9x3 = 3

primera multiplicada por −1: ⎧ ⎪ x + x2 − 2x3 = 0 ⎪ ⎪ ⎨ 1 − x2 + 4x3 = 1 ⎪ ⎪ ⎪ ⎩ −2x2 + 9x3 = 3. En un siguiente paso, “hacemos nulo” el coeficiente de x2 de la tercera ecuación recién obtenida; llegamos a ello sumando a esta tercera ecuación

2x2 − 8x3 = −2 +

−2x2 + 9x3 =

3

x3 =

1

la segunda multiplicada por −2: ⎧ ⎪ ⎪ ⎪ x1 + x2 − 2x3 = 0 ⎨ −x2 + 4x3 = 1 ⎪ ⎪ ⎪ ⎩ x3 = 1.

(24)

Este último sistema de ecuaciones lineales es fácil de resolver: la tercera ecuación ya nos dice que x3 = 1; sustituyendo x3 por 1 en la segunda ecuación, llegamos a: −x2 + 4 · 1 = 1,

de donde: x2 = 3.

Y sustituyendo x3 y x2 por 1 y 3, respectivamente, en la primera ecuación, obtenemos: x1 + 3 − 2 · 1 = 0,

de donde: x1 = −1.

La terna (−1, 3, 1) es, pues, solución del sistema (24), y por ende del original: el (23), pues ambos son equivalentes al haberse obtenido uno de otro con la aplicación de operaciones entre ecuaciones del tipo descrito en el § 49. Esta solución es de hecho única, pues la resolución del sistema (24) nos ha llevado obligadamente a ella; el sistema es compatible determinado. Hemos resuelto el sistema de ecuaciones lineales (24) con un método que Sustitución hacia atrás

se suele llamar sustitución hacia atrás: se despeja en la última ecuación la única incógnita que figura, y el resultado se sustituye en las restantes ecuaciones; con ello, una nueva incógnita queda solitaria en la penúltima ecuación y se procede de igual manera: tal incógnita se despeja y su valor se sustituye en las demás ecuaciones; se sigue este proceso hasta tener todas las incógnitas despejadas. Podemos aplicar este método porque el sistema (24) está escrito de una forma adecuada: su última ecuación tiene una única incógnita, y leído el sistema de abajo arriba cada ecuación añade una incógnita nueva. Nota

El sistema de ecuaciones lineales (24) es compatible determinado, pero

también puede aplicarse la sustitución hacia atrás a sistemas compatibles indeterminados. En el § 92 (cf. p. 95) veremos un ejemplo de ello, pero adelantamos  aquí que la idea es básicamente la misma.

I.2. DEFINICIONES Y PROPIEDADES

Continuación del ejemplo

51

En el ejemplo del § 50, hemos llegado al sistema (24) y lo hemos

resuelto (por sustitución hacia atrás), pero podríamos haber seguido aplicando a partir de este sistema operaciones entre ecuaciones con el fin de simplificarlo aún más. Hagámoslo. En primer lugar, busquemos que sea igual a 1 el coeficiente de la primera incógnita de cada ecuación; para ello, solo hace falta multiplicar por −1 la segunda ecuación del sistema (24), lo cual nos lleva a: ⎧ ⎪ x + x2 − 2x3 = 0 ⎪ ⎪ ⎨ 1 x2 − 4x3 = −1 ⎪ ⎪ ⎪ ⎩ x = 1. 3

A continuación, tratemos de llegar a un sistema en el que sea nulo el coeficiente de x2 de la primera ecuación; ello se logra sumando a la primera ecuación la segunda multiplicada por −1: ⎧ ⎪ + 2x3 = 1 ⎪ ⎪ x1 ⎨ x2 − 4x3 = −1 ⎪ ⎪ ⎪ ⎩ x3 = 1. Finalmente, “anulemos” los coeficientes de la incógnita x3 en las ecuaciones primera y segunda. Para el de la primera, sumamos a esta ecuación la tercera multiplicada por −2; para el de la segunda, sumamos a esta segunda ecuación la tercera multiplicada por 4. Llegamos a este sistema: ⎧ ⎪ = −1 ⎪ ⎪ x1 ⎨ = 3 x2 ⎪ ⎪ ⎪ ⎩ x3 = 1, que, por supuesto, es equivalente al (24), y por tanto al (23). Su solución salta a la vista: (−1, 3, 1).

2. Representación matricial de un sistema de ecuaciones lineales En este apartado, además de introducir la definición de matriz, vemos las matrices que se definen a partir de un sistema de ecuaciones lineales con el fin de representarlo más sintéticamente. También, consideramos ciertos tipos de transformaciones ejecutadas en matrices (las llamadas transformaciones elementales), y de matrices (en concreto, las matrices escalonadas y las matrices escalonadas reducidas), relevantes para el tratamiento de los sistemas de ecuaciones lineales. En el Capítulo II estudiaremos las matrices con mucho más detalle.

I. SISTEMAS DE ECUACIONES LINEALES

Definición de matriz. Matrices definidas a partir de un sistema de ecuaciones lineales 52

Matriz

Dados dos números naturales positivos n y m, una matriz de or-

den (n, m) (o de orden n × m) es una disposición de n · m números (reales) en forma rectangular en n filas y m columnas. Los números que se escriben en una matriz se denominan términos de la matriz. Las matrices se suelen denotar con letras mayúsculas. Un ejemplo de matriz es

 A=

2 0

−3 1

0 1

 .

Aquí estamos denotando con la letra A una matriz de orden (2, 3): se trata de 2 · 3 = 6 números dispuestos en dos filas y tres columnas. Los términos de la primera fila son 2, −3 y 0 (en este orden, de izquierda a derecha); los de la segunda: 0, 1 y 1. Los términos de la primera columna son 2 y 0 (de arriba abajo); los de la segunda: −3 y 1; y los de la tercera: 0 y 1. Matriz de coeficientes (o asociada) de un sistema de ecuaciones lineales

53

Consideremos un sistema de n ecuaciones lineales en las m incóg-

nitas x1 , x2 , . . . , xm : ⎧ a11 x1 + a12 x2 + · · · + a1m xm = c1 ⎪ ⎪ ⎪ ⎪ ⎨ a21 x1 + a22 x2 + · · · + a2m xm = c2 ⎪ ⎪ ........................................ ⎪ ⎪ ⎩ an1 x1 + an2 x2 + · · · + anm xm = cn .

(25)

Se denomina matriz de coeficientes (o matriz asociada) del sistema la matriz de orden (n, m) siguiente: ⎛ a11 ⎜ ⎜ a21 ⎜ ⎜ . ⎜ .. ⎝ an1

a12 a22 .. . an2

... ... .. . ...

⎞ a1m ⎟ a2m ⎟ ⎟ . .. ⎟ . ⎟ ⎠ anm

Si i y j son dos números naturales tales que 1  i  n y 1  j  m, nótese que los términos de la i-ésima fila de esta matriz son los coeficientes de la i-ésima ecuación del sistema de ecuaciones lineales, y que los términos de la j-ésima columna de la matriz son los coeficientes que acompañan a la j-ésima incógnita en las ecuaciones del sistema. Recordemos el sistema (23): ⎧ ⎪ x1 + x2 − 2x3 = 0 ⎪ ⎪ ⎨ + 2x3 = 1 x1 ⎪ ⎪ ⎪ ⎩ x − x + 7x = 3. 1

2

3

Por ejemplo, la matriz de coeficientes del sistema de ecuaciones lineales (23) es la siguiente matriz de orden (3, 3): ⎛ ⎞ 1 1 −2 ⎜ ⎟ 0 2⎠. ⎝1 1 −1 7

I.2. DEFINICIONES Y PROPIEDADES

Los términos de la segunda fila, verbigracia, son 1, 0 y 2, precisamente los coeficientes de la segunda ecuación del sistema; y los de la tercera columna son −2, 2 y 7, justamente los coeficientes que acompañan a la incógnita x3 (tercera incógnita) en el sistema. Nótese que hay tantas filas en la matriz como ecuaciones en el sistema, y tantas columnas en una como incógnitas en el otro. Matriz ampliada de un sistema de ecuaciones lineales

54

La matriz de coeficientes de un sistema de ecuaciones lineales no

consigna los términos independientes del sistema; solo sus coeficientes. Dado el sistema de ecuaciones lineales (25), se denomina matriz ampliada del sistema la matriz de orden (n, m + 1) siguiente: ⎛

a11 ⎜ ⎜ a21 ⎜ ⎜ . ⎜ .. ⎝ an1

a12 a22 .. . an2

... ... .. . ...

a1m a2m .. . anm

⎞ c1 ⎟ c2 ⎟ ⎟ . .. ⎟ . ⎟ ⎠ cn

Esta matriz se diferencia de la de coeficientes en que tiene una columna más, cuyos términos son los términos independientes del sistema. Asimismo, se suele trazar una raya vertical para separar la última columna de las demás y así enfatizarla. Volvamos a recordar el sistema (23): ⎧ ⎪ ⎪ ⎪ x1 + x2 − 2x3 = 0 ⎨ + 2x3 = 1 x1 ⎪ ⎪ ⎪ ⎩ x − x + 7x = 3. 1

2

Por ejemplo, la matriz ampliada del sistema (23) es esta matriz de orden (3, 4):



1 ⎜ ⎝1 1

3

1 0 −1

−2 2 7

⎞ 0 ⎟ 1⎠. 3

Designaremos la matriz de coeficientes de un sistema de ecuaciones lineales con la letra A (salvo que esté ya empleada en la notación de otra cosa), y distinguiremos la matriz ampliada con un acento circunflejo coronando la misma letra que designa la matriz de los coeficientes; habitual Por ejemplo, para el sistema (23) podemos escribir: mente, pues, A. ⎛

1 ⎜ A = ⎝1 1

1 0 −1

⎞ −2 ⎟ 2⎠ 7



y

1 =⎜ A ⎝1 1

1 0 −1

−2 2 7

⎞ 0 ⎟ 1⎠. 3

Transformaciones elementales por filas de una matriz Intercambio de filas

55

Hemos visto (cf. § 49, p. 58) varios tipos de operaciones entre las

ecuaciones de un sistema de ecuaciones lineales que lo transforman en otro sistema equivalente. A saber: intercambiar dos ecuaciones, multiplicar una

I. SISTEMAS DE ECUACIONES LINEALES

ecuación por un número no nulo, y sumar a una ecuación un múltiplo de otra. Estas operaciones entre las ecuaciones de un sistema tienen un correlato como transformaciones entre las filas de las matrices ampliadas (y por ende también de las matrices de coeficientes) correspondientes. En primer lugar, al intercambio de ecuaciones en el sistema le corresponde un intercambio de filas en la matriz. Por ejemplo, si en el sistema (23) intercambiamos las filas primera y segunda, los dos sistemas, antes y después del intercambio, son respectivamente estos: ⎧ ⎧ ⎪ ⎪ x + 2x3 = 1 ⎪ ⎪ ⎪ x1 + x2 − 2x3 = 0 ⎪ ⎨ ⎨ 1 + 2x3 = 1 y x1 x1 + x2 − 2x3 = 0 ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎩ x − x + 7x = 3 ⎩ x − x + 7x = 3, 1 2 3 1 2 3 y las matrices ampliadas correspondientes a estos sistemas son, respectivamente, las siguientes: ⎛

1 ⎜ 1 ⎝ 1

1 0 −1

−2 2 7

⎞ 0 ⎟ 1⎠ 3

⎛ y

1 ⎜ 1 ⎝ 1

0 1 −1

2 −2 7

⎞ 1 ⎟ 0⎠; 3

apreciamos que, efectivamente, se ha producido una permutación entre las filas primera y segunda. Esta transformación: “intercambiar las filas primera y segunda de la matriz”, se denotará así: F1 ↔ F2 , y escribiremos: ⎛

1 ⎜ ⎝1 1

1 0 −1

−2 2 7

⎛ ⎞ 0 1 ⎟ F1 ↔F2 ⎜ 1 ⎠ →  ⎝1 3 1

0 1 −1

2 −2 7

⎞ 1 ⎟ 0⎠. 3

Recíprocamente, si en la matriz ampliada del sistema (23) ejecutáramos la ¿Puede comprobarlo el lector?

transformación de permutar las filas primera y segunda, el sistema cuya matriz ampliada es la matriz obtenida diferiría del original en que tendría permutadas sus ecuaciones primera y segunda. En general, podemos afirmar: a la operación de intercambiar las ecuaciones i-ésima y j-ésima de un sistema de ecuaciones lineales le corresponde la transformación de intercambiar las filas i-ésima y j-ésima de la matriz ampliada (con i y j dos números naturales comprendidos entre 1

Fi ↔ Fj

y el número de ecuaciones del sistema —o de filas de la matriz—). Esta transformación en la matriz se denota así: Fi ↔ Fj .

Multiplicar una fila por un número no nulo

56

De manera similar, a la multiplicación de la ecuación (de un sistema

de ecuaciones lineales) por un número no nulo le corresponde la multiplicación de una fila (de la matriz ampliada correspondiente) por el número

I.2. DEFINICIONES Y PROPIEDADES

no nulo. La transformación, ejecutable en matrices, de multiplicar la fila Fi ← bFi

i-ésima por un número no nulo b se denotará así: Fi ← bFi (siendo i un número natural comprendido entre 1 y el número de filas de la matriz). Por ejemplo, podemos escribir: ⎛ ⎞ ⎛ 1 1 −2 0 1 ⎜ ⎟ F2 ←(−1)F2 ⎜ 1 0 −1 4 0                                  →   ⎝ ⎠ ⎝ 0 0 1 1 0

1 1 0

⎞ 0 ⎟ −1 ⎠ , 1

−2 −4 1

(26)

para indicar que hemos multiplicado la segunda fila de la primera matriz por el número (no nulo) −1. Nótese que todos los términos de la segunda fila quedan multiplicados por −1, y que los términos de las restantes filas no se ven alterados. Nota bene

Multiplicar una fila de una matriz por un número significa multiplicar

todos y cada uno de los términos de tal fila por el número.



Continuando con el ejemplo, obsérvese que la primera de las matrices escritas en (26) es la matriz ampliada del sistema (24) (cf. p. 60), y que la segunda es la matriz ampliada del primer sistema escrito en el § 51 (cf. p. 61). Recordamos ambos sistemas: ⎧ ⎪ x + x2 − 2x3 = 0 ⎪ ⎪ ⎨ 1 −x2 + 4x3 = 1 ⎪ ⎪ ⎪ ⎩ x =1 3

y

⎧ ⎪ x + x2 − 2x3 = 0 ⎪ ⎪ ⎨ 1 x2 − 4x3 = −1 ⎪ ⎪ ⎪ ⎩ x3 = 1.

Apreciamos así lo que hicimos al principio del citado § 51: se ha obtenido el segundo sistema del primero multiplicando la segunda ecuación por −1. Sumar a una fila un múltiplo de otra

57

Finalmente, la operación (en un sistema de ecuaciones lineales) de

sumar a una ecuación un múltiplo de otra se corresponde con la transformación (en la matriz ampliada) de sumar a una fila un múltiplo de otra. La transformación, en una matriz, de sumar a la fila i-ésima el resultado de

Fi ← Fi + bFj

multiplicar por un número b (nulo o no) la fila j-ésima se designará de esta forma: Fi ← Fi + bFj (aquí i y j denotan números naturales comprendidos entre 1 y el número de filas de la matriz).

La transformación F2 ← F2 + (−1)F1 también se puede denotar de esta forma: F2 ← F2 − F1 .

A modo de ejemplo, podemos escribir: ⎛ ⎞ ⎛ 1 1 1 −2 0 ⎟ F2 ←F2 +(−1)F1 ⎜ ⎜ 0 2 1 ⎠ →  ⎝ 0 ⎝1 1 −1 7 3 1

1 −1 −1

−2 4 7

⎞ 0 ⎟ 1⎠, 3

(27)

y así señalar que, en la primera matriz escrita, se suma a la segunda fila el resultado de multiplicar la primera fila por −1. Nótese que las filas primera

I. SISTEMAS DE ECUACIONES LINEALES

y tercera no se han alterado, y que a cada término de la segunda fila se le ha sumado el término correspondiente de la primera previamente multiplicado La primera fila, tras multiplicarla por −1, queda: −1

−1

2

por −1: +

0.

Nota bene

1

0

2

1

−1

−1

2

0

0

−1

4

1.

En esta transformación, la fila que se multiplica por el número —la

primera en el ejemplo— queda finalmente inalterada. Al ejecutar en una matriz la transformación Fi ← Fi +bFj , solo puede verse cambiada la fila i-ésima; todas las demás, y en particular la j-ésima, permanecen inalteradas.



Entre las matrices escritas en (27), la primera es la matriz ampliada del sistema (23), y la segunda es la matriz ampliada del segundo sistema escrito en el § 50 (cf. p. 59). Los recordamos; respectivamente: ⎧ ⎪ x + x2 − 2x3 = 0 ⎪ ⎪ ⎨ 1 + 2x3 = 1 x1 ⎪ ⎪ ⎪ ⎩ x − x + 7x = 3 1 2 3

y

⎧ ⎪ x + x2 − 2x3 = 0 ⎪ ⎪ ⎨ 1 −x2 + 4x3 = 1 ⎪ ⎪ ⎪ ⎩ x − x + 7x = 3. 1 2 3

Como vimos en el citado § 50, el segundo de estos dos sistemas se obtenía del primero precisamente sumando a la segunda ecuación la primera multiplicada por −1. Transformaciones elementales por filas de una matriz

58

Vemos, pues, tres tipos de transformaciones que se ejecutan en

matrices: • intercambiar dos filas; • multiplicar una fila por un número no nulo; • sumar a una fila un múltiplo de otra. Las llamaremos transformaciones elementales por filas de una matriz, de tipo i, ii y iii, respectivamente. En los parágrafos anteriores, hemos ido presentando las transformaciones elementales como un correlato en las matrices ampliadas de las operaciones que realizábamos en los sistemas de ecuaciones lineales correspondientes (intercambio de ecuaciones, multiplicación de una ecuación por un número no nulo y suma de una ecuación y un múltiplo de otra). Según lo visto en el § 49 (cf. p. 58), estas operaciones entre ecuaciones nos llevan un sistema de ecuaciones lineales a otro equivalente. De acuerdo con ello, podemos entonces afirmar:

I.2. DEFINICIONES Y PROPIEDADES

Si a la matriz ampliada de un sistema de ecuaciones lineales se le aplica una transformación elemental, la matriz resultante es la matriz ampliada de un sistema de ecuaciones lineales equivalente al original. De nuevo, el sistema de ecuaciones del ejemplo del § 50 (cf. p. 59)

59

De esta forma, dado un sistema de ecuaciones lineales, podemos

escribir su matriz ampliada y aplicarle transformaciones elementales sucesivas hasta llegar a la matriz ampliada de algún sistema fácil de resolver (o, en su caso, del que podamos fácilmente concluir que no admite solución). El sistema obtenido será equivalente al sistema dado. Como ilustración de ello, consideremos de nuevo el sistema de ecuaciones lineales (23) (cf. p. 59): ⎧ ⎪ x + x2 − 2x3 = 0 ⎪ ⎪ ⎨ 1 + 2x3 = 1 x1 ⎪ ⎪ ⎪ ⎩ x − x + 7x = 3, 1 2 3 y apliquemos a su matriz ampliada las transformaciones elementales que se corresponden con las operaciones entre ecuaciones que llevamos a cabo en el § 50 (cf. p. 59), y también en el § 51 (cf. p. 61). La matriz ampliada es: ⎛ ⎞ 1 1 −2 0 ⎟ =⎜ 0 2 1⎠, A ⎝1 1 −1 7 3

El lector puede comparar las operaciones entre ecuaciones del § 50 con las realizadas aquí entre las filas de las matrices ampliadas.

y podemos escribir: ⎛ 1 1 =⎜ 0 A ⎝1 1 −1

−2 2 7

⎛ ⎞ 0 1 ⎟ F2 ←F2 −F1 ⎜ 1 ⎠ →  ⎝0 3 1 ⎛

1 F3 ←F3 −F1 ⎜ →  ⎝0 0 ⎛

1 ⎜ →  ⎝0 0 F3 ←F3 −2F2

1 −1 −1

−2 4 7

⎞ 0 ⎟ 1⎠ 3

1 −1 −2

−2 4 9

⎞ 0 ⎟ 1⎠ 3

1 −1 0

−2 4 1

⎞ 0 ⎟  . 1⎠ = A 1

 , es la matriz ampliada del sistema de ecuaciones La matriz obtenida: A lineales (24) (cf. p. 60), el cual recordamos: ⎧ ⎪ ⎪ ⎪ x1 + x2 − 2x3 = 0 ⎨ −x2 + 4x3 = 1 ⎪ ⎪ ⎪ ⎩ x3 = 1.

I. SISTEMAS DE ECUACIONES LINEALES

Este sistema puede considerarse fácil de resolver; se resolvió, de hecho, por sustitución hacia atrás en el citado § 50.  , y ello de acuerPero continuemos con la transformación de la matriz A do con lo realizado en el § 51: ⎛

1  = ⎜ A ⎝0 0

1 −1 0

−2 4 1

⎞ ⎛ 0 1 ⎟ F ←(−1)F ⎜ 1 ⎠ 22→  ⎝ 0 1 0 ⎛

1 ⎜ →  ⎝ 0 0 F1 ←F1 −F2

F1 ←F1 −2F3 F2 ←F2 +4F3



1 ⎜ 0 →  ⎝ 0

El orden de aplicación de estas dos transformaciones es de arriba abajo.

1 1 0

−2 −4 1

⎞ 0 ⎟ −1 ⎠ 1

0 1 0

2 −4 1

⎞ 1 ⎟ −1 ⎠ 1

0 1 0

0 0 1

⎞ −1 ⎟  . 3⎠ = A 1

  es precisamente el El sistema cuya matriz ampliada es la matriz final A último que obteníamos en el citado § 51; lo escribimos aquí de nuevo: ⎧ ⎪ x = −1 ⎪ ⎪ ⎨ 1 x2 = 3 ⎪ ⎪ ⎪ ⎩ x3 = 1. Su solución salta a la vista: es única y es la terna (−1, 3, 1).

Matriz escalonada Fila nula

60

Dada una matriz, una fila nula es una fila cuyos términos son todos

nulos. Por ejemplo, dada la matriz: ⎛ 0 0 ⎜ ⎜0 0 ⎜ ⎜0 0 ⎝ 6 7

0 1 0 2

⎞ 0 ⎟ 0⎟ ⎟, 0⎟ ⎠ −1

acontece que sus filas primera y tercera son nulas, y que no lo son sus filas En una fila nula, todos los términos son nulos; en una fila no nula, alguno de los términos es no nulo.

segunda y cuarta. En cuanto hay un término no nulo en una fila, esta fila ya no es nula. Por supuesto, hay matrices sin filas nulas. Verbigracia: ⎛

1 ⎜ ⎝0 1

0 −2 0

⎞ −1 ⎟ 0⎠. 0

I.2. DEFINICIONES Y PROPIEDADES

Y hay matrices con todas sus filas nulas, como ⎛ ⎞   0 0 0 0 0 ⎜ ⎟ o ⎝0 0⎠. 0 0 0 0 0 De una matriz con todas sus filas nulas (o lo que es lo mismo: con todos Matriz nula Ceros iniciales

sus términos nulos) diremos es una matriz nula. 61

Dado un número natural k, se dice que una fila no nula de una

matriz tiene k ceros iniciales si los k primeros términos de la fila son nulos y el (k + 1)-ésimo no lo es. Por ejemplo, en la matriz



0 ⎜ ⎜0 ⎜ ⎜0 ⎝ 6

0 0 0 7

0 1 0 2

⎞ 0 ⎟ 0⎟ ⎟, 0⎟ ⎠ −1

su segunda fila —que es no nula— presenta k = 2 ceros iniciales, pues los dos primeros términos de esta fila son nulos pero el tercero ya no lo es. Su cuarta fila —que tampoco es nula— no tiene ceros iniciales. Otro ejemplo. Para la matriz ⎛ 0 1 ⎜ ⎝0 0 0 0

−2 0 0

⎞ 0 ⎟ −1 ⎠ , 0

podemos afirmar: en la primera fila hay un cero inicial; en la segunda, tres. Y la última fila es nula. Matriz escalonada

62

Una matriz escalonada es una matriz con la siguiente propiedad: o

bien es nula, o bien sus filas no nulas son las primeras, y cada una de ellas, salvo la primera, tiene más ceros iniciales que su precedente. Por ejemplo, la última matriz escrita en el § 61: ⎛ ⎞ 0 1 −2 0 ⎜ ⎟ 0 −1 ⎠ , ⎝0 0 0 0 0 0 es escalonada: tiene dos filas no nulas y son las primeras, y la segunda tiene más ceros iniciales que la primera. Otro ejemplo. Comparemos estas dos matrices: ⎛ ⎞ ⎛ 3 5 −1 0 3 5 −1 ⎜ ⎟ ⎜ ⎜0 0 ⎟ ⎜0 0 1 −2 1 ⎜ ⎟ y ⎜ ⎜0 0 ⎟ ⎜0 0 0 3 2 ⎝ ⎠ ⎝ 0 0 0 0 0 0 0

⎞ 0 ⎟ −2 ⎟ ⎟. 3⎟ ⎠ 0

I. SISTEMAS DE ECUACIONES LINEALES

La primera es escalonada: tiene tres filas no nulas, son las tres primeras de la matriz, y cada una de ellas, salvo la primera, tiene más ceros iniciales que la anterior (ninguno la primera, dos la segunda y tres la tercera). Pero la segunda matriz no es escalonada: aunque sus filas no nulas también son las primeras, sus filas segunda y tercera tienen la misma cantidad de ceros iniciales. Más ejemplos

63

Incidentalmente, note el lector que la segunda de las matrices solo presenta una columna.

Estas dos matrices no son escalonadas: ⎛ ⎞ ⎛ ⎞ 1 2 2 1 ⎜ ⎟ ⎜ ⎟ ⎝ 0 0 0 ⎠ y ⎝ −1 ⎠ . 0 1 0 0

La primera no cumple que sus filas no nulas sean las primeras; la segunda sí lo cumple, pero sus dos primeras filas tienen la misma cantidad de ceros iniciales (en este caso, ninguno). La tercera de estas matrices solo tiene una fila. Toda matriz con una sola fila es escalonada. ¿Se da cuenta el lector de la razón?

Estas cuatro matrices sí son escalonadas: ⎛ ⎞   1   0 ⎜ ⎟ 0 1 −1 0 2 , ⎝ ⎠, 0 0

⎛ y

1 ⎜ ⎝0 0

2 1 0

⎞ 2 ⎟ 0⎠. 1

Obsérvese que la segunda es una matriz nula: las matrices nulas son escalonadas. Pivote

64

En una matriz escalonada, el primer término no nulo de cada fila

recibe el nombre de pivote. Si reescribimos las matrices escalonadas que hemos visto en los §s 62 y 63 de forma que destacamos en cada una todos sus pivotes con un recuadro, podemos escribir: ⎛

0 ⎜ ⎝0 0

1 0 0

−2 0 0

⎞ 0 ⎟ −1 ⎠ 0



3 ⎜ ⎜0 ⎜ ⎜0 ⎝ 0

y

−1 1 0 0

5 0 0 0

⎞ 0 ⎟ −2 ⎟ ⎟, 3⎟ ⎠ 0

y también: ⎛ ⎞ 1 ⎜ ⎟ ⎝0⎠, 0 Algunas propiedades de los pivotes

65

  0 , 0



1

−1

0

2



⎛ y

1 ⎜ ⎝0 0

2 1 0

⎞ 2 ⎟ 0⎠. 1

Nótese que las filas nulas de una matriz escalonada no tienen pivo-

tes; en particular, una matriz nula —que es escalonada— no tiene ningún pivote. Es de observar también que cada fila en una matriz escalonada tiene a lo más un pivote; y exactamente un pivote si la fila es no nula.

I.2. DEFINICIONES Y PROPIEDADES

Nota bene

En una matriz escalonada, los pivotes figuran exactamente en las

primeras filas de la matriz, y hay tantos como filas no nulas.



También acontece que cada columna en una matriz escalonada tiene a lo más un pivote. En efecto: si una columna tuviera dos pivotes, habría dos filas con su primer término no nulo en la misma posición, lo que sería tanto como decir que habría dos filas con el mismo número de ceros iniciales: ello estaría en contradicción con el supuesto de que la matriz es escalonada.

En una matriz escalonada, el número de pivotes es menor o igual que el número de filas y menor o igual que el número de columnas.

Forma escalonada de una matriz. Escalonar una matriz

66

Dada una matriz cualquiera, es posible obtener a partir de ella, me-

diante la aplicación de transformaciones elementales sucesivas, una matriz escalonada. De la matriz obtenida se dice que es una forma escalonada de la matriz dada; también se dice que hemos escalonado la matriz original.

Recordemos el sistema (23): ⎧ ⎪ ⎪ ⎪ x1 + x2 − 2x3 = 0 ⎨ + 2x3 = 1 x1 ⎪ ⎪ ⎪ ⎩ x − x + 7x = 3. 1

2

3

Para ver un ejemplo, recordemos el § 59 (cf. p. 67), en el que trabajamos con la matriz ampliada del sistema de ecuaciones lineales (23) (cf. p. 59): ⎛

1 ⎜  A = ⎝1 1

1 0 −1

−2 2 7

⎞ 0 ⎟ 1⎠. 3

 le aplicamos varias transformaciones elementales sucesivas A esta matriz A que nos llevaron a esta otra matriz: ⎛

1  = ⎜ A ⎝0 0

1 −1 0

−2 4 1

⎞ 0 ⎟ 1⎠. 1

  es escalonada (de hecho, nos El lector puede observar que la matriz A  es, pues, una forma hemos permitido señalar ya sus pivotes). La matriz A  escalonada de la matriz A. Recordemos el sistema (24): ⎧ ⎪ ⎪ ⎪ x1 + x2 − 2x3 = 0 ⎨ −x2 + 4x3 = 1 ⎪ ⎪ ⎪ ⎩ x = 1. 3

 es la matriz ampliada de un sistema de Adicionalmente, la matriz A ecuaciones lineales: el sistema (24) (cf. p. 60), el cual es un ejemplo de sistema compatible determinado que puede resolverse fácilmente por sustitución hacia atrás (cf. § 50, p. 59). Cuando la matriz ampliada de un sistema de ecuaciones lineales es escalonada, el sistema puede resolverse por sustitución hacia atrás. Ello también es válido para sistemas compatibles indeterminados; remitimos al lector al futuro § 92 (cf. p. 95) para un ejemplo.

I. SISTEMAS DE ECUACIONES LINEALES

Un procedimiento para escalonar una matriz

67

Comprobemos ahora que efectivamente es posible escalonar cual-

quier matriz. Describimos un procedimiento para ello, y lo ejemplificamos con esta matriz:



0 ⎜ A=⎝ 2 −1

1 4 0

1 6 −1

⎞ 1 ⎟ 0⎠. 2

En primer lugar, nos vamos a la primera columna que tenga algún térSi la matriz de partida tuviera todas sus columnas nulas (de forma que no es posible aplicar este paso), entonces se trataría de una matriz nula: la matriz original ya sería escalonada.

mino no nulo (la primera columna no nula), y seleccionamos en ella un término no nulo. Mediante una adecuada transformación elemental de tipo i (intercambiar dos filas), conseguimos que este término no nulo figure como el primero de su columna. Este término será el pivote de la primera fila; vale la pena recuadrarlo para enfatizar que será un pivote. En el caso de la matriz A, su primera columna no nula es la primera columna, que tiene dos términos no nulos; seleccionamos uno cualquiera de ellos, verbigracia el último, que es igual a −1. La transformación elemental (de tipo i) que intercambia las filas primera y tercera nos sitúa este término como el primero de su columna. No se nos olvida recuadrarlo: ⎛

0 ⎜ A=⎝ 2 −1

1 4 0

1 6 −1

⎞ ⎛ 1 −1 ⎟ F1 ↔F3 ⎜ 0 ⎠ →  ⎝ 2 2 0

−1 6 1

0 4 1

⎞ 2 ⎟ 0⎠. 1

En segundo lugar, “anulamos” los términos que están por debajo del pivote en su misma columna; esto se logra con transformaciones elementales de tipo iii. En el ejemplo, con una sola transformación elemental lo conseguimos: ⎛

−1 ⎜ ⎝ 2 0

0 4 1

−1 6 1

⎛ ⎞ 2 −1 ⎟ F2 ←F2 +2F1 ⎜ 0 ⎠ →  ⎝ 0 1 0

−1 4 1

0 4 1

⎞ 2 ⎟ 4⎠. 1

En tercer lugar, “ignoramos” la primera fila, y procedemos con el resto de la matriz como en los pasos anteriores. Se trata de trabajar con la matriz “como si no estuviera” la primera fila: ⎛ ⎞ · · · · ⎜ ⎟ ⎝0 4 4 4⎠. 0 1 1 1 Así, ¿cuál es la primera columna no nula? La segunda.

En nuestro caso, este tercer paso implica que busquemos un término no nulo en la segunda columna. Podemos elegir entre el término igual a 4 y el término igual a 1; nos quedamos, por ejemplo, con el primero. Procedemos a anular el término por debajo de él: ⎛

−1 ⎜ ⎝ 0 0

0 4 1

−1 4 1

⎛ ⎞ 2 −1 ⎟ F3 ←F3 +(−1/4)F2 ⎜ 4 ⎠ →  ⎝ 0 1 0

0 4 0

−1 4 0

⎞ 2 ⎟ 4⎠. 0

I.2. DEFINICIONES Y PROPIEDADES

Esta matriz que hemos obtenido: ⎛ −1 ⎜  A =⎝ 0 0

0 4 0

−1 4 0

⎞ 2 ⎟ 4⎠, 0

ya es escalonada. Es una forma escalonada de la matriz A. Como acontece con toda matriz escalonada, tiene tantos pivotes como filas no nulas —dos en este caso—, y están situados en las primeras filas, uno en cada una. La forma escalonada de una matriz no es única en general

68

En el procedimiento descrito en el § 67 para escalonar una matriz

—el cual hemos aplicado a la matriz A vista en ese parágrafo—, se nos pide en su primer paso que busquemos la primera columna no nula —la primera columna, en el caso de la matriz A—, y que seleccionemos en ella un término no nulo. Para la matriz A del parágrafo citado, en este primer paso fue elegido el término igual a −1, pero podríamos haber elegido el término igual a 2. Es decir: ⎛ 0 1 1 ⎜ 6 A=⎝ 2 4 −1 0 −1

⎞ ⎛ 1 2 ⎟ F ↔F2 ⎜ 0 ⎠ 1→  ⎝ 0 2 −1

4 1 0

6 1 −1

⎞ 0 ⎟ 1⎠. 2

De esta forma, el primer paso del proceso para escalonar la matriz A nos da ahora un pivote para la primera fila igual a 2. Continuemos con el procedimiento a partir de aquí. Anulamos entonces los términos de la columna del pivote que están por debajo de él: ⎛ ⎛ ⎞ 2 4 6 0 2 ⎜ ⎟ F3 ←F3 +(1/2)F1 ⎜ 1 1 ⎠ → ⎝ 0 1  ⎝0 −1 0 −1 2 0

4 1 2

6 1 2

⎞ 0 ⎟ 1⎠. 2

Y seleccionamos un término no nulo de la segunda columna (con la primera fila ignorada), verbigracia el que es igual a 1, y anulamos el término que tiene debajo en su misma columna: ⎛ ⎛ ⎞ 2 4 6 0 2 ⎜ ⎟ F3 ←F3 −2F2 ⎜  ⎝0 ⎝ 0 1 1 1 ⎠ → 0 2 2 2 0

4 1 0

6 1 0

⎞ 0 ⎟ 1⎠. 0

La matriz recién obtenida es una matriz escalonada. Ha sido obtenida a partir de la matriz A aplicando a esta transformaciones elementales sucesivas. También es, por tanto, una forma escalonada de la matriz A, como lo era la matriz A deducida en el § 67. En general, la forma escalonada de una matriz no es única (solo es única si la matriz es nula). Por eso, dada una matriz, hablamos de una forma escalonada de la matriz.

I. SISTEMAS DE ECUACIONES LINEALES

Unicidad en el número de pivotes de todas las formas escalonadas de una matriz

69

Para la matriz A con la que hemos trabajado en los § 67 y 68, hemos

obtenido, pues, dos formas escalonadas; respectivamente: ⎛

−1 ⎜ ⎝ 0 0

0 4 0

⎞ 2 ⎟ 4⎠ 0

−1 4 0



2 ⎜ ⎝0 0

y

4 1 0

6 1 0

⎞ 0 ⎟ 1⎠. 0

Si las comparamos, vemos que ambas matrices escalonadas presentan el mismo número de pivotes —dos en este caso—, y además en las mismas columnas —primera y segunda. Realmente, este es un ejemplo de un resultado general importante: todas las formas escalonadas de una misma matriz tienen el mismo número de pivotes, y estos pivotes figuran en las mismas columnas. La justificación de este resultado debe dejarse para más adelante, en este mismo capítulo (cf. § 99, p. 101). Otro ejemplo en el que escalonamos una matriz

70

Busquemos, con el procedimiento descrito en el § 67, una forma

escalonada de esta matriz: ⎛

1 ⎜ ⎜ −1 A=⎜ ⎜ 0 ⎝ 1

⎞ 0 ⎟ 0⎟ ⎟. 1⎟ ⎠ −1

0 2 −1 0

En primer lugar, seleccionamos la primera columna no nula de la matriz, la cual es la primera, y en ella elegimos un término no nulo; nos quedamos, por ejemplo, con el primero, que es igual a 1. Al haber podido elegir el primero, no hay que aplicar en este paso ninguna transformación elemental de tipo i. Señalamos el término, en tanto es el futuro pivote de la primera fila: ⎛

1 ⎜ ⎜ −1 A=⎜ ⎜ 0 ⎝ 1

⎞ 0 ⎟ 0⎟ ⎟. 1⎟ ⎠ −1

0 2 −1 0

En segundo lugar, “anulamos” los términos que están por debajo del término señalado y en su misma columna. Ello se consigue con transformaciones elementales adecuadas de tipo iii: ⎛

1 ⎜ ⎜ −1 ⎜ ⎜ 0 ⎝ 1

0 2 −1 0

⎛ ⎞ 0 1 ⎜ ⎟ ⎜ 0⎟ 0 F ←F +F 1 ⎟ 22→  ⎜ ⎜0 1⎟ ⎝ ⎠ −1 1

0 2 −1 0

⎛ ⎞ 0 1 ⎜ ⎟ ⎜ 0⎟ 0 F ←F −F 1 ⎟ 44→  ⎜ ⎜0 1⎟ ⎝ ⎠ −1 0

0 2 −1 0

⎞ 0 ⎟ 0⎟ ⎟. 1⎟ ⎠ −1

I.2. DEFINICIONES Y PROPIEDADES ⎛

· ⎜ ⎜0 ⎜ ⎜0 ⎝ 0

⎞ · ⎟ 0⎟ ⎟ 1⎟ ⎠ −1

· 2 −1 0

En tercer lugar, “ignoramos” la primera fila y procedemos con el resto de la matriz como en los pasos anteriores. La primera columna no nula es ahora la segunda, y debemos elegir un término no nulo de ella; nos quedamos, verbigracia, con el que es igual a 2. Este término será el pivote de la segunda fila. Anulamos los términos que están debajo de él en su misma columna: ⎛

1 ⎜ ⎜0 ⎜ ⎜0 ⎝ 0



· ⎜ ⎜· ⎜ ⎜0 ⎝ 0

· · 0 0

⎞ · ⎟ ·⎟ ⎟ 1⎟ ⎠ −1

⎛ ⎞ 0 1 ⎜ ⎟ ⎜ ⎟ 0 ⎟ F3 ←F3 +(1/2)F2 ⎜ 0 →  ⎜ 1⎟ ⎝0 ⎠ −1 0

0 2 −1 0

0 2 0 0

⎞ 0 ⎟ 0⎟ ⎟. 1⎟ ⎠ −1

A continuación, debemos “ignorar” también la segunda fila y proceder con la matriz restante como en los dos primeros pasos. La primera columna no nula es ahora la tercera, y en ella elegimos un término no nulo; por ejemplo, escogemos el que es igual a 1: este será el pivote de la tercera fila. Terminamos anulando el término que, en esta tercera columna, queda debajo del nuevo pivote: ⎛ 1 0 ⎜ ⎜0 2 ⎜ ⎜0 0 ⎝ 0 0

⎛ ⎞ 0 1 ⎜ ⎟ ⎜ 0⎟ 4 +F3 ⎜ 0 ⎟ F4←F →  ⎜ 1⎟ ⎝0 ⎠ −1 0

0 2 0 0

⎞ 0 ⎟ 0⎟ ⎟. 1⎟ ⎠ 0

La última matriz que hemos obtenido es escalonada, y tiene tres pivotes. Es una forma escalonada de la matriz A. Otro ejemplo más

71

Busquemos una forma escalonada de esta matriz: ⎛

1 ⎜ B = ⎝0 1

−1 0 3

⎞ 2 ⎟ 1⎠. 1

La primera columna no nula de la matriz es la primera; nos quedamos en esta con su primer término (que es no nulo): será el pivote de la primera fila. Anulamos los términos que figuran debajo del pivote en su misma columna: ⎛

1 ⎜ B = ⎝0 1 ⎛

· ⎜ ⎝0 0

· 0 4

⎞ · ⎟ 1⎠ −1

−1 0 3

⎛ ⎞ 2 1 ⎟ F3 ←F3 −F1 ⎜ 1 ⎠ →  ⎝0 1 0

−1 0 4

⎞ 2 ⎟ 1⎠. −1

A continuación, ignoramos la primera fila. Con ello, la primera columna no nula es la segunda. Pero esta columna solo tiene un término no nulo: el que es igual a 4, y debemos colocarlo como el primero de su columna. Al

I. SISTEMAS DE ECUACIONES LINEALES

tener ignorada la primera fila, esto significa que debemos llevar tal término hasta la segunda fila. Lo conseguimos con una transformación elemental de tipo i:



1 ⎜ ⎝0 0 ⎛

· ⎜ ⎝· 0

· · 0

⎞ · ⎟ ·⎠ 1

⎛ ⎞ 2 1 ⎟ F2 ↔F3 ⎜ 1 ⎠ →  ⎝0 0 −1

−1 0 4

−1 4 0

⎞ 2 ⎟ −1 ⎠ . 1

Finalmente, ignoramos también la segunda fila, lo que nos deja solo una columna no nula: la tercera, y solo un término no nulo en ella. Este es directamente el pivote de la tercera fila. El procedimiento ha terminado y hemos llegado a:



1 ⎜ B = ⎝ 0 0

−1 4 0

⎞ 2 ⎟ −1 ⎠ . 1

La matriz B  es efectivamente escalonada: una forma escalonada de la matriz B. Como vemos, tiene tres pivotes.

Matriz escalonada reducida Matriz escalonada reducida

72

Una matriz escalonada reducida es una matriz escalonada con es-

tas dos propiedades adicionales: todos sus pivotes (si los tiene) son iguales a 1 (son unitarios), y en toda columna donde hay un pivote es este el único término no nulo. Por ejemplo, estas tres matrices son escalonadas reducidas: ⎛ ⎞ ⎛ ⎞ ⎞ ⎛ 1 2 0 ⎜ ⎟ 1 0 −2 3 1 0 0 ⎜0 0 1⎟ ⎜ ⎟ ⎟ ⎜ ⎜ ⎟. 1 1 1 1 0 0 0 ⎝ ⎠ y ⎜ ⎠, ⎝ 0 0 0⎟ ⎝ ⎠ 0 0 0 0 0 0 1 0 0 0 Las tres son escalonadas, sus pivotes son iguales a 1, y las columnas en las que están los pivotes son tales que el único término no nulo de ellas es el pivote mismo. Por el contrario, estas otras tres matrices no son escalonadas reducidas: ⎛

1 ⎜ ⎝0 0

0 1 1

−2 1 0

⎞ 3 ⎟ 1⎠, 0



1 0

0 2

−1 0



 y

1 ⎜ ⎝0 0

0 1 0

⎞ −1 ⎟ 0⎠. 1

La primera no es escalonada; la segunda sí lo es, pero presenta al menos un pivote distinto de 1; la tercera también es escalonada, y sí presenta todos sus pivotes unitarios, pero en la columna de uno de ellos —la tercera— hay un término no nulo además del pivote.

I.2. DEFINICIONES Y PROPIEDADES

Forma escalonada reducida de una matriz

73

Dada una matriz cualquiera, también es posible obtener a partir de

ella, mediante la aplicación de transformaciones elementales sucesivas, una matriz escalonada reducida. De la matriz obtenida se dice que es la forma escalonada reducida de la matriz dada. Para ver un ejemplo, recordemos de nuevo el § 59 (cf. p. 67). Allí trabajamos —entre otras— con estas dos matrices: ⎛ ⎛ ⎞ 1 1 −2 0 1 ⎟ =⎜  = ⎜ 0 2 1⎠ y A A ⎝1 ⎝0 1 −1 7 3 0

Para recordar con más preci obteníamos sión, a partir de A  , y a partir de una matriz A   . esta llegábamos a A

0 1 0

0 0 1

⎞ −1 ⎟ 3⎠ , 1

y podíamos obtener la segunda a partir de la primera mediante la aplicación   es de transformaciones elementales sucesivas. Acontece que la matriz A escalonada reducida: además de ser escalonada, sus pivotes son unitarios y en la columna de cada uno de ellos el único término no nulo es el propio   es la forma escalonada pivote. Podemos afirmar, pues, que la matriz A  reducida de la matriz A.

Unicidad de la forma escalonada

Nota

Habrá observado el lector que hablamos de la forma escalonada reducida.

Esto es así porque la forma escalonada reducida de una matriz es única (a diferencia de la forma escalonada sin más). Lo comprobaremos más adelante en este mismo capítulo (cf. § 100, p. 102).

Recordemos el sistema citado: ⎧ ⎪ = −1 ⎪ ⎪ x1 ⎨ = 3 x2 ⎪ ⎪ ⎪ ⎩ x3 = 1.



Por otra parte, en el citado § 59 escribimos el sistema de ecuaciones  : un sistema compatible delineales cuya matriz ampliada es la matriz A terminado cuya solución salta a la vista. Los sistemas de ecuaciones lineales cuya matriz ampliada es escalonada reducida son muy sencillos de resolver (y esta afirmación también es válida para los sistemas compatibles indeterminados). Lo veremos con detalle en la sección siguiente.

Obtención de la forma escalonada reducida de una matriz

74

¿Cómo podemos obtener efectivamente la forma escalonada redu-

cida de una matriz dada? En primer lugar, escalonamos la matriz (ya sabemos cómo). En segundo lugar, transformamos en 1 todos los pivotes de la forma escalonada recién obtenida con la ayuda de transformaciones elementales de tipo ii: en concreto, multiplicamos cada fila en la que hay un pivote por el inverso de tal pivote. En tercer lugar, en la columna de cada pivote, “anulamos” los términos que están por encima del propio pivote. A modo de ejemplo, calculemos la forma escalonada reducida de la matriz B que vimos en el § 71 (cf. p. 75): ⎛ 1 −1 ⎜ 0 B = ⎝0 1 3

⎞ 2 ⎟ 1⎠. 1

I. SISTEMAS DE ECUACIONES LINEALES

En el mismo parágrafo citado, obtuvimos para esta matriz la siguiente forma escalonada:



1 ⎜ B = ⎝ 0 0

⎞ 2 ⎟ −1 ⎠ , 1

−1 4 0

lo que ya nos proporciona el primer paso del procedimiento. El segundo paso consiste en hacer iguales a 1 todos los pivotes de esta forma escalonada; para ello solo nos resta multiplicar por 1/4 la segunda fila: ⎞ ⎞ ⎛ ⎛ 1 −1 2 1 −1 2 F ←(1/4)F ⎟ ⎟ ⎜ ⎜ 2 2 4 −1 ⎠ → 1 −1/4 ⎠ . B = ⎝ 0  ⎝0 1 1 0 0 0 0 Finalmente, en la columna de cada pivote, debemos “anular” los términos que figuran encima del pivote: ⎛

1 ⎜ ⎝0 0

−1 1 0

⎛ ⎞ 2 1 ⎟ F1 ←F1 +F2 ⎜ −1/4 ⎠ →  ⎝0 1 0

⎞ F ←F +(1/4)F ⎛ 2 2 3 7/4 1 ⎟ F1 ←F1 −(7/4)F3 ⎜ −1/4 ⎠ →  ⎝ 0 1 0

0 1 0

0 1 0

⎞ 0 ⎟ 0⎠. 1

La última matriz obtenida es la forma escalonada reducida de la matriz B. Otro ejemplo

75

En el § 67 (cf. p. 72), escalonamos esta matriz: ⎛ ⎞ 0 1 1 1 ⎜ ⎟ 6 0⎠, A=⎝ 2 4 −1 0 −1 2

y obtuvimos la siguiente matriz escalonada: ⎛ −1 0 −1 ⎜  4 A =⎝ 0 4 0 0 0

⎞ 2 ⎟ 4⎠. 0

(28)

Con ello ya tenemos el primer paso para llegar a la forma escalonada reducida de la matriz A. El segundo paso requiere hacer iguales a 1 los pivotes; lo conseguimos multiplicando la primera fila por −1 y la segunda por 1/4: ⎛

−1 ⎜ A = ⎝ 0 0

0 4 0

−1 4 0

⎞ F ←(−1)F ⎛ 1 1 2 1 ⎟ F ←(1/4)F2 ⎜ 4 ⎠ 2→  ⎝ 0 0 0

La matriz a la que hemos llegado: ⎛ 1 ⎜ A = ⎝ 0 0

0 1 0

1 1 0

⎞ −2 ⎟ 1⎠, 0

0 1 0

1 1 0

⎞ −2 ⎟ 1⎠. 0

I.2. DEFINICIONES Y PROPIEDADES

ya es escalonada reducida sin más cálculos. La matriz A es la forma escalonada reducida de la matriz A. Pero para la matriz A obtuvimos, en el § 68 (cf. p. 73), otra forma escalonada distinta a la matriz A escrita ⎛ 2 4 ⎜ ⎝0 1 0 0

en (28); en concreto, esta: ⎞ 6 0 ⎟ 1 1⎠ . 0 0

A partir de ella, podemos llegar también a la forma escalonada reducida de la matriz A. Transformamos en 1 los pivotes: ⎛ ⎞ ⎛ 2 4 6 0 1 ⎟ F1 ←(1/2)F1 ⎜ ⎜  ⎝0 ⎝ 0 1 1 1 ⎠ → 0 0 0 0 0

2 1 0

3 1 0

⎞ 0 ⎟ 1⎠, 0

y anulamos los términos que figuran en las columnas de los pivotes encima de ellos:



1 ⎜ ⎝0 0

2 1 0

3 1 0

⎛ ⎞ 0 1 ⎟ F1 ←F1 −2F2 ⎜ 1 ⎠ →  ⎝0 0 0

0 1 0

1 1 0

⎞ −2 ⎟ 1⎠. 0

Esta última matriz es escalonada reducida. De hecho, es la misma matriz A que obtuvimos en la primera parte de este parágrafo. Nota bene

A partir de la matriz A, hemos llegado a la misma matriz escalonada

reducida A pasando por dos formas escalonadas de A distintas. ¿Cómo son las matrices escalonadas reducidas?

76



¿Podemos saber cómo son todas las matrices escalonadas reduci-

das? Sí, y ello será especialmente relevante en la sección siguiente, sobre todo para ciertas consideraciones teóricas. Antes de verlo propiamente, establecemos la siguiente propiedad de las matrices escalonadas reducidas: con intercambios adecuados de columnas, toda matriz escalonada reducida se puede escribir de forma que sus pivotes figuren en las primeras columnas. A modo de ejemplo de lo que queremos decir, consideremos la siguiente matriz escalonada reducida:



1 ⎜ ⎜0 A=⎜ ⎜0 ⎝ 0

2 0 0 0

⎞ 0 ⎟ 1⎟ ⎟. 0⎟ ⎠ 0

Sus pivotes están en las primeras filas, como acontece con toda matriz escalonada. Ahora bien, el pivote de la primera fila está en la primera columna,

I. SISTEMAS DE ECUACIONES LINEALES

pero el de la segunda fila no está en la segunda columna, sino en la tercera. Podemos conseguir que este pivote sí esté en la segunda columna intercambiando las columnas segunda y tercera: ⎛ 1 0 ⎜ ⎜0 1 ⎜ ⎜0 0 ⎝ 0 0

⎞ 2 ⎟ 0⎟ ⎟. 0⎟ ⎠ 0

La matriz resultante es, efectivamente, escalonada reducida, pues el intercambio de columnas ha dejado la misma cantidad de ceros iniciales en todas las filas excepto en la segunda (que ahora tiene exactamente un cero inicial más de los que hay en la primera fila), y las columnas de los pivotes siguen teniendo los mismos términos (unitario el pivote mismo y nulos los demás). Es decir, a partir de la matriz escalonada reducida A, y con la ayuda de un intercambio de columnas, hemos conseguido escribir una matriz escalonada reducida que tiene sus pivotes en las primeras columnas.

Esbocemos una prueba general de este resultado. Dada una matriz escalonada reducida, supongamos

vote, permutamos las columnas i-ésima y j-ésima. Con ello, obtenemos una nueva matriz con esta caracterís-

que no todos sus pivotes están en las primeras colum-

tica: la fila i-ésima tiene exactamente un cero inicial

nas.

más que su fila precedente, y las restantes filas siguen

Por un momento, consideremos ordenados los pi-

teniendo el mismo número de ceros iniciales (pues los

votes por la fila que ocupan: el primero es el de la pri-

términos por debajo de la fila i-ésima son nulos en

mera fila, el segundo el de la segunda fila, y así sucesi-

las dos columnas permutadas). La matriz nueva sigue

vamente. Consideremos el primer pivote de la matriz

siendo escalonada reducida, y presenta el pivote de la

con la siguiente propiedad: el pivote figura en la fila

fila i-ésima en la columna i-ésima.

i-ésima, pero no en la columna i-ésima, sino en otra columna, digamos la j-ésima, con j > i (en la matriz A del

Continuaríamos el proceso de permutación de columnas con los siguientes pivotes hasta que todos que-

ejemplo anterior, teníamos i = 2 y j = 3). Para este pi-

daran en las primeras columnas.

Nota bene

El número de pivotes de la matriz escalonada reducida es el mismo

antes y después del intercambio de columnas explicado. ¿Cómo son las matrices escalonadas reducidas? (Continuación)

77



Consideremos una matriz de orden (n, m) que es escalonada re-

ducida, y designemos por r la cantidad de sus pivotes. Distinguimos dos casos: r = m (tantos pivotes como columnas) y r < m (menos pivotes que columnas). A su vez, dentro de cada caso, distinguimos dos posibilidades adicionales: r = n (tantos pivotes como filas) y r < n (menos pivotes que filas). Como el número de pivotes es menor o igual que el de columnas y menor o igual que el de filas (cf. § 65, p. 70), no hay más opciones.

I.2. DEFINICIONES Y PROPIEDADES

En el primer caso: r = m, hay un pivote en cada columna. La matriz escalonada reducida presenta una de estas dos formas, según sea r = n o r < n, respectivamente: ⎛ ⎛

1 ⎜ ⎜0 ⎜ ⎜. ⎜ .. ⎝ 0 

0 1 .. . 0

... ... .. . ... 

r =m

⎞⎫ 0 ⎪ ⎪ ⎟⎪ ⎪ ⎪ ⎬ 0⎟ ⎟ ⎟ .. ⎟ ⎪ r = n .⎠⎪ ⎪ ⎪ ⎪ ⎭ 1 

1 ⎜0 ⎜ ⎜ ⎜ .. ⎜. ⎜ ⎜ ⎜0 ⎜ ⎜0 ⎜ ⎜. ⎜. ⎝. 0 

,

0 1 .. . 0 0 .. . 0

⎞⎫ 0 ⎪ ⎪ ⎪ ⎪ ⎬ 0⎟ ⎟⎪ ⎟ r .. ⎟ ⎪ ⎪ .⎟ ⎟⎪ ⎪ ⎪ ⎟⎭ 1⎟ ⎫ . ⎟ ⎪ 0⎟ ⎟⎪ ⎪ ⎬ .. ⎟ ⎟ n−r .⎠⎪ ⎪ ⎪ 0 ⎭

... ... .. . ... ... .. . ... 



r =m

La primera de estas matrices tiene un nombre especial: es la llamada matriz Matriz identidad de orden n

identidad de orden n. Tiene el mismo número de filas que de columnas, y todos sus términos son nulos salvo los que tienen igual número de fila que de columna, que son iguales a 1. No tiene filas nulas. Por el contrario, la segunda de las matrices escritas sí presenta filas nulas: tantas como marca la diferencia n − r . En el segundo caso: r < m, podemos considerar que los r pivotes de la matriz ocupan las r primeras columnas (posiblemente tras la aplicación de intercambios de columnas adecuados, cf. § 76). La matriz escalonada reducida tiene finalmente uno de estos aspectos, según sea r = n o r < n, respectivamente: ⎛ ⎛

1 ⎜ ⎜0 ⎜ ⎜. ⎜ .. ⎝ 0 

0 1 .. . 0

... ... .. . ...  r

0 • 0 • .. .. . . 1 •  

... ... .. . ... 

m−r

⎞⎫ • ⎪ ⎪ ⎟⎪ ⎪ ⎪ ⎬ •⎟ ⎟ r =n .. ⎟ ⎪ .⎟ ⎪ ⎠⎪ ⎪ ⎪ ⎭ • 

,

1 ⎜0 ⎜ ⎜ ⎜ .. ⎜. ⎜ ⎜ ⎜0 ⎜ ⎜0 ⎜ ⎜. ⎜. ⎝. 0 

0 1 .. . 0 0 .. . 0

... ... .. . ... ... .. . ...  r

0 0 .. . 1 0 .. . 0 

• • .. . • 0 .. . 0 

... ... .. . ... ... .. . ... 

m−r

⎞⎫ ⎪ • ⎪ ⎪ ⎪ ⎬ •⎟ ⎟⎪ ⎟ r .. ⎟ ⎪ ⎪ .⎟ ⎟⎪ ⎪ ⎪ ⎟⎭ •⎟ ⎫ . ⎟ ⎪ 0⎟ ⎪ ⎟⎪ ⎬ .. ⎟ ⎟ n−r .⎠⎪ ⎪ ⎪ 0 ⎭ 

Las puntos: ‘•’, señalan posiciones que pueden ser ocupadas por cualquier número, nulo o no, y ambas matrices tienen tantas columnas con términos de este tipo como señala la diferencia m − r . Por otra parte, como en el caso anterior, la primera matriz no tiene filas nulas, y la segunda tiene tantas como indica la diferencia n − r .

I. SISTEMAS DE ECUACIONES LINEALES

Ejercicios I.2 1

Considérense los siguientes sistemas de ecua-

ciones lineales, el primero de una sola ecuación y el segundo de dos: 

2x1 − x2 + x3 = 1,

y

cierto, ¿de qué tipo son? Si a designa un número, nos dan la ecuación li-

neal ax1 = 0. Se pide: a)

considerando esta ecuación lineal en la incógni-

ta x1 , calcular su solución (o soluciones) distinguiendo los casos a = 0 y a ≠ 0; b)

hacer lo mismo, pero considerando la ecuación

dada en las incógnitas x1 y x2 ; c)

Considérese el siguiente sistema de ecuaciones

⎧ ⎨ 2x1 − x2 + x3 = 1 ⎩ 8x1 − 4x2 + 4x3 = 4.

Justificar (sin resolverlos) que son equivalentes. Por

2

6

lineales:

si c también designa un número, calcular las

soluciones de la ecuación lineal ax1 = c, tomada en las incógnitas x1 y x2 , distinguiendo los cuatro casos que resultan de tomar a y c nulos o no.

⎧ ⎪ x + 2y =0 ⎪ ⎪ ⎨ 2x + 2y + z = 1 ⎪ ⎪ ⎪ ⎩−x − 2y + z = 2.

Se pide: a)

escribir la matriz de coeficientes y la matriz am-

pliada del sistema; b) calcular la forma escalonada reducida de la matriz ampliada; c)

escribir el sistema cuya matriz ampliada es la

matriz escalonada reducida obtenida en el apartado anterior; d)

calcular la solución del sistema; ¿de qué tipo ha

resultado ser el sistema?

7

Considérese la matriz: ⎛

3

calonadas, y señalar los   0 0 0 a) y 0 0 0

b)

c)

1 ⎜ ⎝ 2 −1

Determinar qué matrices de las siguientes son espivotes de las que lo sean: ⎛ ⎞ −1 ⎜ ⎟ ⎝ 0 ⎠; 0 ⎛ ⎞ ⎛ ⎞ −1 0 0 1 0 ⎜ ⎟ ⎜ ⎟ ⎝ 0 0 ⎠ y ⎝ 0 2 0 ⎠; 0 1 0 0 0 ⎛ ⎞ ⎛ ⎞ 0 1 0 2 1 0 ⎜ ⎟ ⎜ ⎟ ⎝ 0 0 1 ⎠ y ⎝ 0 5 0 ⎠. 0 0 0 0 0 3

2 4 −2

0 1 1

⎞ a ⎟ b⎠, c

donde a, b y c designan tres números reales. a)

Escalonar la matriz.

¿Cuántos pivotes tiene la

matriz escalonada obtenida? Escribir también la forma escalonada reducida de la matriz. b) Si un sistema de ecuaciones lineales es tal que la matriz del enunciado es su matriz ampliada, ¿qué se puede decir del sistema a la luz de lo obtenido en el apartado anterior?

4

De cada una de las matrices del ejercicio 3 que

no sea escalonada, encontrar al menos dos formas escalonadas. 5 De todas las matrices del ejercicio 3, ¿cuáles son escalonadas reducidas? De cada matriz que no lo sea, escribir su forma escalonada reducida.

8

¿Cómo es una matriz escalonada que tiene una

sola fila? ¿Y la que tiene una sola columna?

9

¿Cómo es una matriz escalonada reducida que

tiene una sola fila? ¿Y la que tiene una sola columna?

I.3. DISCUSIÓN Y RESOLUCIÓN DE UN SISTEMA DE ECUACIONES LINEALES

I.3 DISCUSIÓN Y RESOLUCIÓN DE UN SISTEMA DE ECUACIONES LINEALES 1. Un método para discutir y resolver un sistema de ecuaciones lineales Dedicamos este apartado a presentar un método general para discutir y resolver un sistema de ecuaciones lineales. Lo iniciamos indicando qué se entiende por discutir y por resolver un sistema.

Planteamiento del método Discutir frente a resolver un sistema de ecuaciones lineales

78

Sabemos (cf. § 45 y 46, p. 57) que hay tres tipos de sistemas de ecua-

ciones lineales atendiendo a su solución: incompatibles (no tienen solución), compatibles determinados (tienen una única solución) y compatibles indeterminados (tienen infinitas soluciones). Por discutir un sistema de ecuaciones lineales nos referimos a determinar de cuál de estos tres tipos es el sistema. Por resolver el sistema nos referimos a encontrar efectivamente todas sus soluciones.

Esquema de trabajo: una distinción de casos

79

Consideremos un sistema de ecuaciones lineales que queremos re-

solver, con n ecuaciones y m incógnitas. Designamos por A su matriz de coeficientes (recordemos: la matriz cuyos términos son los coeficientes del  su matriz ampliada. La primera tendrá orsistema, cf. § 53, p. 62), y por A den (n, m) (tantas filas como ecuaciones y tantas columnas como incógnitas); la segunda, orden (n, m + 1) (tiene una columna más, con los términos independientes).   una forma escalonada (no necesariamente reducida) Denotemos por A  (también es habitual esta notación para una forma escalode la matriz A nada: se añade una “prima” a la letra de la matriz original). Sabemos que el  es equivalente al sistema de sistema cuya matriz ampliada es la matriz A  partida, con matriz ampliada A. Consideraremos tres casos:  presenta un pivote en su última columna. • La matriz A   no presenta un pivote en su última columna y la cantidad • La matriz A de sus pivotes coincide con la cantidad de incógnitas del sistema.   no presenta un pivote en su última columna y la cantidad • La matriz A de sus pivotes es menor que la cantidad de incógnitas del sistema.

I. SISTEMAS DE ECUACIONES LINEALES

Como veremos en los siguientes parágrafos, estos tres casos se corresponden con los tres tipos de sistemas de ecuaciones lineales (en virtud de su solución) que ya conocemos: respectivamente, sistema incompatible, sistema compatible determinado y sistema compatible indeterminado. Nota bene

El número de pivotes de una matriz escalonada es menor o igual

que el de columnas (cf. § 65, p. 70), y hay tantas columnas en la matriz de coeficientes como incógnitas en el sistema, luego todo sistema de ecuaciones lineales está contemplado en uno (y solo en uno) de los casos anteriores.



Sistemas incompatibles Sistema incompatible

80

Como en el § 79, consideramos un sistema de n ecuaciones lineales  y suponemos y m incógnitas que queremos resolver, con matriz ampliada A,   de la matriz A  con la característica de que existe una forma escalonada A presentar un pivote en su última columna.  en la que está el pivote de la última columna tiene La fila de la matriz A por términos los siguientes: 0 

0

... 

0 

a,

m ceros

donde a es un número que es no nulo, y la ecuación lineal que se corresponde con esta fila es 0x1 + 0x2 + · · · + 0xm = a,

con a ≠ 0.

Pero un sistema de ecuaciones lineales que incluye una ecuación de este tipo es incompatible (cf. § 47, p. 57).  es incompatible. El sisEs decir, el sistema cuya matriz ampliada es A  ), que es equivalente a él, también tema de partida (con matriz ampliada A lo será. Si una forma escalonada de la matriz ampliada de un sistema de ecuaciones lineales tiene un pivote en su última columna, entonces el sistema no tiene solución: es un sistema incompatible. Un ejemplo

81

Consideremos el siguiente sistema de ecuaciones lineales: ⎧ ⎪ ⎪ ⎪ x1 + 2x2 + 4x3 = 1 ⎨ x2 + 2x3 = −3 ⎪ ⎪ ⎪ ⎩ x + 3x + 6x = 2. 1

2

3

(29)

I.3. DISCUSIÓN Y RESOLUCIÓN DE UN SISTEMA DE ECUACIONES LINEALES

Su matriz ampliada es esta: ⎛

1 =⎜ A ⎝0 1

2 1 3

4 2 6

⎞ 1 ⎟ −3 ⎠ . 2

Calculamos para ella una forma escalonada; por ejemplo, con el procedimiento descrito en el § 67 (cf. p. 72): ⎛

1 =⎜ A ⎝0 1

2 1 3

4 2 6

⎛ ⎞ 1 1 F ←F −F ⎟ 3 3 1 ⎜ −3 ⎠ →  ⎝0 2 0 ⎛

1 ⎜ →  ⎝0 0 F3 ←F3 −F2

2 1 1

4 2 2

⎞ 1 ⎟ −3 ⎠ 1

2 1 0

4 2 0

⎞ 1 ⎟  . −3 ⎠ = A 4

 , tiene un pivote en su última columna. La matriz escalonada obtenida: A De acuerdo con el resultado del § 80, el sistema (29) no admite solución: es incompatible.  es la matriz ampliada Comprobar lo afirmado es sencillo. La matriz A de este sistema:

⎧ ⎪ x1 + 2x2 + 4x3 = 1 ⎪ ⎪ ⎨ x2 + 2x3 = −3 ⎪ ⎪ ⎪ ⎩ 0x + 0x + 0x = 4, 1 2 3

el cual no admite solución: no hay ninguna terna de números que satisfaga su tercera ecuación.

Sistemas compatibles determinados Sistema compatible determinado

82

De nuevo como en el § 79, consideramos un sistema de n ecua-

ciones lineales y m incógnitas que deseamos resolver. Su matriz ampliada  y suponemos que una forma escalonada suya, denotada por A  , es tal es A, que no presenta un pivote en su última columna y tiene tantos pivotes como incógnitas hay en el sistema.

Nótese que una matriz escalonada reducida tiene el mismo número de pivotes que la matriz escalonada a partir de la cual se ha calculado, y ambas matrices tienen los pivotes en las mismas columnas.

Con el procedimiento descrito en el § 74 (cf. p. 77), podemos calcular  a partir de su forma escalola forma escalonada reducida de la matriz A    (para la forma escalonada nada A . Denotamos la matriz obtenida por A reducida, es usual añadir una segunda “prima” a la letra que denota la ma  ignoramos momentáneamente la última triz original). Si en esta matriz A columna (la que figura a la derecha de la barra espaciadora, y que no tiene

I. SISTEMAS DE ECUACIONES LINEALES

pivotes), tenemos una matriz de orden (n, m), también escalonada reduSi en una matriz escalonada eliminamos la última columna (o las últimas columnas), la matriz que se obtiene sigue siendo escalonada. Lo mismo acontece con matrices escalonadas reducidas.

cida, y con tantos pivotes como columnas. En el § 77 (cf. p. 80) vimos cómo son estas matrices. De acuerdo con ello, y denotando por r el número de pi  (volvemos a considerarle la última votes, podemos afirmar que la matriz A columna) será de una de las dos siguientes formas, según sea el número de pivotes igual que el de filas (r = n) o menor (r < n), respectivamente: ⎞⎫ ⎛ 1 0 . . . 0 d1 ⎪ ⎪ ⎪ ⎜0 1 ... 0 d ⎟ ⎪ ⎪ ⎜ 2 ⎟ ⎬ ⎛ ⎞⎫ ⎟ ⎜ 1 0 . . . 0 d1 ⎪ r . . . . ⎟ ⎜ ⎪ . . . .. .. ⎟ ⎪ ⎜ ⎜ .. .. ⎟⎪ ⎪ ⎪ ⎜ 0 1 . . . 0 d2 ⎟ ⎪ ⎟⎪ ⎜ ⎪ ⎬ ⎪ ⎜ ⎟⎭ ⎜ ⎟ ⎜. . . r =n , ⎜ 0 0 . . . 1 dm ⎟ ⎫ , (30) .. ⎟ ⎪ ⎜ .. .. ⎟ ⎜ ⎟ . . ... ⎪ . ⎠⎪ ⎟ ⎜ ⎝ ⎪ ⎪ 0 0 . . . 0 0 ⎪ ⎟⎪ ⎜ ⎪ ⎭ ⎬ ⎜. . . 0 0 . . . 1 dm .. .. ⎟ ⎟ n−r ⎜. . . . . ⎠ ⎝ . . . ⎪    ⎪ ⎪ ⎭ r =m 0 0 0 ... 0    r =m

y donde d1 , d2 , . . . , dm pueden ser números cualesquiera (nulos o no). La primera de las matrices escrita en (30) es la matriz ampliada de este sistema de ecuaciones lineales:

⎧ x1 ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎩

= d1 = d2

x2 ..

.

.. .

(31)

xm = dm .

La segunda de las matrices de (30) difiere de la primera solo en que tiene filas nulas adicionales; como las filas nulas en la matriz ampliada de un sistema se corresponden con ecuaciones nulas —que eliminadas de un sistema nos dejan otro equivalente—, se tiene que el sistema cuya matriz ampliada es la segunda matriz de (30) es equivalente al sistema (31). En definitiva, el sistema de ecuaciones lineales (31) es el sistema que  (o al menos tiene por matriz ampliada la matriz escalonada reducida A  , el es equivalente a él). De acuerdo con la construcción de la matriz A sistema (31) también será equivalente al que tiene por matriz ampliada la  , y lo que es más importante: será equivalente al que matriz escalonada A  Es decir, el sistema (31) es equivatiene por matriz ampliada la matriz A. lente al sistema que originalmente queremos resolver. El sistema de ecuaciones lineales (31) tiene solución única, la cual salta a la vista: la m-upla (d1 , d2 , . . . , dm ). El sistema de partida es, pues, compatible determinado.

I.3. DISCUSIÓN Y RESOLUCIÓN DE UN SISTEMA DE ECUACIONES LINEALES

Si una forma escalonada de la matriz ampliada de un sistema de ecuaciones lineales tiene tantos pivotes como incógnitas, y ninguno de los pivotes está en la última columna, entonces el sistema tiene una única solución: es un sistema compatible determinado. Un ejemplo

83

Consideremos el siguiente sistema de ecuaciones lineales: ⎧ ⎪ =2 x − 2x2 ⎪ ⎪ ⎨ 1 2x2 + 3x3 = 0 ⎪ ⎪ ⎪ ⎩ x − 2x + 2x = 6. 1

2

(32)

3

 y la llevamos a una Escribimos su matriz ampliada, que denotamos por A, forma escalonada; con una sola transformación elemental lo conseguimos: ⎛ ⎛ ⎞ ⎞ 1 −2 0 2 1 −2 0 2 ⎟ F3 ←F3 −F1 ⎜ ⎟ =⎜  . 2 3 0⎠ = A 2 3 0 ⎠ →  ⎝0 A ⎝0 1 −2 2 6 0 0 2 4   tiene tres pivotes, tantos como incógnitas, y ninguLa matriz escalonada A no de ellos figura en la última columna. De acuerdo con lo visto en el § 82, el sistema (32) es compatible determinado: admite una única solución. Acabamos de discutir el sistema (32). Ahora querríamos resolverlo, es decir, encontrar efectivamente la única solución que ya sabemos tiene. Lo visto en el mismo § 82 nos sugiere cómo buscar tal solución: calculamos la forma escalonada reducida de la matriz ampliada del sistema y escribimos el sistema que la tiene como matriz ampliada; este sistema será inmediato de resolver, y su solución será la que buscamos.  podemos Para encontrar la forma escalonada reducida de la matriz A, seguir aplicando transformaciones elementales adecuadas a su forma esca  (cf. § 74, p. 77): lonada A ⎛

1  = ⎜ A ⎝0 0

−2 2 0

0 3 2

⎛ ⎞ F ←(1/2)F 2 2 2 1 ⎟ F3 ←(1/2)F3 ⎜ 0 ⎠ →  ⎝0 4 0 ⎛

1 ⎜ →  ⎝0 0 F2 ←F2 −(3/2)F3



1 F1 ←F1 +2F2 ⎜ →  ⎝0 0

−2 1 0

0 3/2 1

−2 1 0

0 0 1

0 1 0

0 0 1

⎞ 2 ⎟ 0⎠ 2 ⎞ 2 ⎟ −3 ⎠ 2

⎞ −4 ⎟  . −3 ⎠ = A 2

I. SISTEMAS DE ECUACIONES LINEALES

Ahora, el sistema de ecuaciones lineales cuya matriz ampliada es la matriz  es este: escalonada reducida A

Nótese que la solución única (de un sistema compatible determinado) se puede leer, de arriba abajo, en la última columna de la forma escalona (eliminando da reducida A antes las filas nulas si las hay). Continuación del ejemplo: resolución alternativa con sustitución hacia atrás

⎧ ⎪ ⎪ ⎪ x1 ⎨ ⎪ ⎪ ⎪ ⎩

= −4 = −3

x2

x3 =

2.

Su solución es única, e inmediata: (−4, −3, 2). Esta terna es también la solución única del sistema compatible determinado (32). 84

En el § 83, una vez discutido el sistema de ecuaciones lineales (32),

lo hemos resuelto a partir de la forma escalonada reducida de su matriz ampliada. Pero podríamos haberlo resuelto de otra manera: por sustitución hacia atrás (cf. p. 60) a partir de una forma escalonada (no necesariamente reducida) de su matriz ampliada. En el mismo § 83, obtuvimos esta forma escalonada de la matriz ampliada del sistema (32): ⎛

1  = ⎜ A ⎝0 0

−2 2 0

0 3 2

⎞ 2 ⎟ 0⎠. 4

El sistema de ecuaciones linales del cual es matriz ampliada es este: ⎧ ⎪ x − 2x2 =2 ⎪ ⎪ ⎨ 1 2x2 + 3x3 = 0 ⎪ ⎪ ⎪ ⎩ 2x3 = 4.

(33)

De la tercera ecuación se deduce: x3 = 4/2 = 2, que sustituido en la segunda nos lleva a: 2x2 + 6 = 0, de donde: x3 = −6/2 = −3; y sustuido este valor en la primera ecuación, obtenemos: x1 + 6 = 2, de donde: x1 = −4. Es decir, la solución del sistema (33) es la terna (−4, −3, 2). Como los sistemas (33) y (32) son equivalentes, vemos confirmada la solución de este último que calculamos en el § 83. Otro ejemplo

85

Discutamos, y resolvamos en su caso, el siguiente sistema de tres

ecuaciones y dos incógnitas: ⎧ ⎪ x − 2y = 5 ⎪ ⎪ ⎨ 2x + y = 0 ⎪ ⎪ ⎪ ⎩ x + 3y = −5.

(34)

I.3. DISCUSIÓN Y RESOLUCIÓN DE UN SISTEMA DE ECUACIONES LINEALES

Para discutir el sistema, escribimos su matriz ampliada: ⎛

1 ⎜ B = ⎝ 2 1

⎞ 5 ⎟ 0⎠, −5

−2 1 3

y buscamos una forma escalonada de esta matriz ampliada: ⎛

1 ⎜ ⎝2 1

−2 1 3

⎞ ⎛ F2 ←F2 −2F1 5 1 ⎟ F3 ←F3 −F1 ⎜ 0 ⎠ →  ⎝ 0 −5 0

−2 5 5

⎞ ⎛ 5 1 ⎟ F3 ←F3 −F2 ⎜ −10 ⎠ →  ⎝0 −10 0

−2 5 0

⎞ 5 ⎟ −10 ⎠ . 0

La matriz escalonada obtenida, denotémosla B , tiene dos pivotes, tantos como incógnitas, y ninguno de ellos figura en la última columna. El sistema de ecuaciones lineales (34) es, pues, compatible determinado. Para resolver el sistema, buscamos la forma escalonada reducida de su matriz ampliada. Lo hacemos a partir de la forma escalonada B  recién obtenida en el párrafo anterior: ⎛

1 ⎜ ⎝0 0

−2 5 0

⎛ ⎞ 5 1 F ←(1/5)F ⎟ 2 2 ⎜ −10 ⎠ →  ⎝0 0 0

−2 1 0

⎛ ⎞ 5 1 F ←F +2F ⎟ 1 1 2 ⎜ −2 ⎠ →  ⎝0 0 0

0 1 0

⎞ 1 ⎟ −2 ⎠ = B . 0

El sistema de ecuaciones cuya matriz ampliada es la matriz escalonada reducida B  que acabamos de deducir es este: ⎧ ⎪ x ⎪ ⎪ ⎨

=

1

y = −2 ⎪ ⎪ ⎪ ⎩ 0x + 0y = 0,

Como el sistema es compatible determinado, la solución única se puede leer en la última columna de la matriz B , eliminando antes su tercera fila por ser nula. Si en el sistema de matriz ampliada B quitamos la ecuación nula (que es la tercera), queda: ⎧ ⎨ x − 2y = 5 ⎩ 5y = −10.

el cual es equivalente (quitando la ecuación nula) a: ⎧ ⎨ x = 1 ⎩ y = −2, sistema de solución evidente: (1, −2). En conclusión, el sistema de ecuaciones lineales (34) es compatible determinado y su única solución es el par ordenado (1, −2). Es de observar que, para resolver el sistema (34), podríamos haber escrito el sistema de ecuaciones lineales cuya matriz ampliada es la matriz escalonada B , y haber resuelto este sistema por sustitución hacia atrás (tras eliminar su tercera ecuación, que es nula). Dejamos al lector la tarea de confirmar que con ello se obtiene la misma solución.

I. SISTEMAS DE ECUACIONES LINEALES

Sistemas compatibles indeterminados Sistema compatible indeterminado

86

De nuevo (por última vez) como en el § 79, consideramos un sis-

tema de n ecuaciones lineales y m incógnitas que pretendemos resolver.  y suponemos que existe una forma Designamos su matriz ampliada por A,  de esta matriz ampliada con la siguiente propiedad: no preescalonada A senta un pivote en su última columna y tiene una cantidad de pivotes menor que la cantidad de incógnitas del sistema.  , calculamos la forma escalonada reA partir de la matriz escalonada A  Como es habitual, denotamos la matriz obtenida ducida de la matriz A.  . ¿Cómo es esta matriz escalonada reducida A  ? Denotemos el por A número de sus pivotes por r , y supongamos adicionalmente que este nú-

Recordemos que la última co  no tiene pivotes. lumna de A

mero de pivotes es menor que el de filas (r < n). Supongamos también que los pivotes están en las primeras columnas. De acuerdo con el § 77,   tiene esta forma: podemos afirmar que la matriz A ⎛

1 ⎜0 ⎜ ⎜ ⎜ .. ⎜. ⎜ ⎜ ⎜0 ⎜ ⎜0 ⎜ ⎜. ⎜. ⎝. 0 

En el § 77 escribimos puntos: ‘•’; ahora escribimos los términos bij (1  i  r y r + 1  j  m) y los términos dk (1  k  r ).

0 1 .. . 0 0 .. . 0

... ... .. . ... ... .. . ...  r

0 b1(r +1) . . . 0 b2(r +1) . . . .. .. .. . . . 1 br (r +1) . . . 0 0 ... .. .. .. . . . 0 0 ...    m−r

b1m b2m .. . br m 0 .. . 0 

⎞⎫ d1 ⎪ ⎪ ⎪ ⎪ ⎬ d2 ⎟ ⎟⎪ ⎟ r .. ⎟ ⎪ ⎪ . ⎟ ⎟⎪ ⎪ ⎟⎪ ⎭ dr ⎟ ⎫ ⎟ ⎪ 0 ⎟ ⎟⎪ ⎪ ⎬ .. ⎟ ⎟ n−r . ⎠⎪ ⎪ ⎪ 0 ⎭

(35)

donde todos los bij (1  i  r y r + 1  j  m) y todos los dk (1  k  r ) pueden ser números cualesquiera (nulos o no). El sistema de ecuaciones lineales cuya matriz ampliada es la matriz escrita en (35) es equivalente (tras eliminar las ecuaciones nulas) al siguiente: ⎧ x + b1(r +1) xr +1 + · · · + b1m xm = d1 ⎪ ⎪ ⎪ 1 ⎪ ⎪ ⎪ ⎪ x2 + b2(r +1) xr +1 + · · · + b2m xm = d2 ⎨ (36) .. .. .. .. ⎪ ⎪ . . . . ⎪ ⎪ ⎪ ⎪ ⎪ ⎩ xr + br (r +1) xr +1 + · · · + br m xm = dr . De acuerdo con su construcción, este sistema es entonces equivalente al que  , y por ende también es tiene por matriz ampliada la matriz escalonada A  Esto es, el sistema equivalente al que tiene por matriz ampliada la matriz A. escrito en (36) es equivalente al sistema que originalmente pretendemos resolver.

I.3. DISCUSIÓN Y RESOLUCIÓN DE UN SISTEMA DE ECUACIONES LINEALES

Sistema compatible indeterminado (continuación)

87

¿Qué solución, o soluciones, tiene el sistema de ecuaciones linea-

les (36)? A partir de él, podemos despejar las incógnitas x1 , x2 , . . . , xr en función de las restantes incógnitas xr +1 , . . . , xm : ⎧   ⎪ x1 = d1 − b1(r +1)xr +1 + · · · + b1m xm , ⎪ ⎪ ⎪   ⎪ ⎪ ⎨ x2 = d2 − b2(r +1)xr +1 + · · · + b2m xm , ⎪ ⎪ .............................................. ⎪ ⎪ ⎪  ⎪ ⎩ x = d − b r r r (r +1) xr +1 + · · · + br m xm .

(37)

Ahora, si sustituimos las letras xr +1 , . . . , xm por números concretos, por ejemplo: xr +1 = . . . = xm = 0, de las igualdades anteriores podemos deducir: x1 = d1 , x2 = d2 , . . . , xr = dr . Una rápida comprobación nos confirma que es solución del sistema (36) esta m-upla: 

 d1 , d2 , . . . , dr , 0, . . . , 0 .    m − r ceros

Pero hay más soluciones. Si sustituimos xr +1 , . . . , xm por otros números, verbigracia: xm = −1 y los restantes nulos, el valor correspondiente para las incógnitas x1 , x2 , . . . , xr que obtenemos a partir de las igualdades de (37) nos configura otra solución: 

 d1 + b1m , d2 + b2m , . . . , dr + br m , 0, . . . , 0 , −1 .    m − r − 1 ceros

De hecho, hay infinitas soluciones: una por cada valor numérico que demos a las incógnitas xr +1 , . . . , xm . Podemos afirmar: todas las soluciones del sistema (36) son las m-uplas de la forma:    d1 − b1(r +1)xr +1 + · · · + b1m xm ,   d2 − b2(r +1) xr +1 + · · · + b2m xm , . . . ,

   dr − br (r +1) xr +1 + · · · + br m xm , xr +1 , . . . , xm ,

Los números xr +1 , . . . , xm pueden ser nulos o no, iguales o distintos; enfatizamos: cualesquiera.

donde xr +1 , . . . , xm son números cualesquiera. En particular, el sistema de ecuaciones lineales (36) es compatible indeterminado. Si el número de pivotes de una forma escalonada de la matriz ampliada de un sistema de ecuaciones lineales es menor que el número de incógnitas del sistema, y ninguno de los pivotes está en la última columna, entonces el sistema tiene infinitas soluciones: es un sistema compatible indeterminado.

I. SISTEMAS DE ECUACIONES LINEALES

Algunas consideraciones sobre los desarrollos anteriores

88

Antes de pasar a ver algunos ejemplos de resolución de sistemas

compatibles indeterminados (como suponemos que el lector estará deseando que hagamos), debemos aclarar algunos puntos del desarrollo de los § 86 y 87.  es En primer lugar, supusimos que el número de pivotes de la matriz A menor que el número de filas: r < n, pero podría ser igual: r = n. En este  estaría formada exclusivamente por las r primeras último caso, la matriz A  sería la matriz de (35) sin las filas de la matriz escrita en (35) (es decir, A filas nulas), pero el sistema de ecuaciones lineales con matriz ampliada la   sería justamente el sistema (36). También en este caso, pues, matriz A obtendríamos la conclusión de sistema compatible indeterminado a la que llegamos en el § 87.  están En segundo lugar, admitimos que los r pivotes de la matriz A situados en las primeras columnas. Según lo que vimos en el § 76 (cf. p. 79), con intercambios adecuados de columnas, toda matriz escalonada reducida se puede escribir de forma que sus pivotes estén en las primeras columnas. Pero acontece lo siguiente: si una matriz en la que procedemos a intercambiar columnas es la matriz ampliada de un sistema de ecuaciones lineales  —, y ninguna de las columnas intercam—como es el caso de la matriz A biadas es la última, tal intercambio de columnas se corresponde con una reordenación de las incógnitas del sistema. Además, los sistemas antes y después de la reordenación de incógnitas son de la misma clase en lo que a su discusión se refiere: si, por ejemplo, uno es incompatible, el otro también lo es, y lo mismo acontece con las otras dos clases. Lo vemos mejor con un ejemplo. Fijémonos en esta matriz:  C=

1 0

2 0

0 1

1 2



(la cual, por cierto, es escalonada reducida, y en su última columna no figura ningún pivote). La matriz C es la matriz ampliada de este sistema: ⎧ ⎨ x1 + 2x2 ⎩

=1

(38)

x3 = 2.

Por un lado, si intercambiamos en la matriz C las columnas segunda y tercera (a fin, por ejemplo, de que figuren los dos pivotes en las dos primeras columnas), nos queda:

 D=

1 0

0 1

2 0

1 2

 .

I.3. DISCUSIÓN Y RESOLUCIÓN DE UN SISTEMA DE ECUACIONES LINEALES

Por otro lado, si reescribimos el sistema (38) considerando que el orden de las incógnitas es x1 , x3 y x2 (esto es, invirtiendo el orden original de las incógnitas segunda y tercera), ponemos: ⎧ ⎨ x1 + 2x2 = 1 ⎩ = 2. x3

(39)

Apreciamos que este último sistema de ecuaciones lineales tiene por matriz ampliada precisamente la matriz D. Podemos decir más: si comparamos los sistemas (38) y (39), vemos Por ejemplo, la terna (1, 0, 2) es solución del sistema (38), y la terna (1, 2, 0) es solución del (39). Otro ejemplo lo tenemos con las ternas (−1, 1, 2) y (−1, 2, 1).

que a partir de una terna que sea solución de uno se escribe una terna (y exactamente una) que es solución del otro, sin más que intercambiar sus componentes segunda y tercera; es decir, si una terna (a, b, c) es solución de uno, la terna (a, c, b) lo es del otro. Finalmente, acontece que ambos sistemas son efectivamente de la misma clase: ambos son compatibles indeterminados.   del § 86, podeEn lo que concierne a la matriz escalonada reducida A mos entonces considerar, sin pérdida de generalidad, que sus pivotes figuran en las primeras columnas (si no es el caso, basta una reordenación adecuada de las incógnitas, con la cual el sistema seguirá siendo de la misma clase en lo que a su discusión se refiere). La conclusión de sistema compatible indeterminado a la que hemos llegado finalmente en el § 87 es válida,  no tenga originalmente topues, aunque la forma escalonada reducida A dos sus pivotes en las primeras columnas.

Un ejemplo

89

Discutamos y resolvamos el siguiente sistema de tres ecuaciones

lineales y cuatro incógnitas: ⎧ ⎪ ⎪ ⎪ x1 + x2 + x3 + 2x4 = 1 ⎨ x1 + 2x2 + 3x3 + 2x4 = 3 ⎪ ⎪ ⎪ ⎩ x + x + 2x + 6x = 1. 1 2 3 4

(40)

Para discutir el sistema, escribimos su matriz ampliada y buscamos una forma escalonada de esta matriz ampliada. Tenemos: ⎛

1 ⎜  1 A=⎝ 1

1 2 1

1 3 2

2 2 6

⎛ ⎞ F2 ←F2 −F1 1 1 ⎟ F3 ←F3 −F1 ⎜ 3 ⎠ → 0  ⎝ 1 0

1 1 0

1 2 1

2 0 4

⎞ 1 ⎟  . 2⎠ = A 0

 tiene menos pivotes que incógnitas (de estas hay La matriz escalonada A cuatro y de aquellos hay tres), y ninguno de los pivotes figura en la última

I. SISTEMAS DE ECUACIONES LINEALES

columna. De acuerdo con el resultado del § 87, el sistema de ecuaciones lineales (40) es compatible indeterminado. Para resolver el sistema, procedemos como se sugiere en los § 86 y 87:  (la ampliada del siscalculamos la forma escalonada reducida de la matriz A tema), y escribimos el sistema de ecuaciones lineales cuya matriz ampliada es justamente esta forma escalonada reducida. Como ya tenemos una forma  —la matriz A  —, seguimos a partir de ella: escalonada de la matriz A ⎛

1  = ⎜ A ⎝0 0

1 1 0

1 2 1

2 0 4

⎛ ⎞ 1 1 ⎟ F1 ←F1 −F2 ⎜ 2 ⎠ →  ⎝0 0 0 F2 ←F2 −2F3 F1 ←F1 +F3



1 ⎜ →  ⎝0 0 Nótese que la matriz escalona  presenta sus da reducida A pivotes en las primeras columnas.

0 1 0

−1 2 1

0 1 0

0 0 1

2 0 4 6 −8 4

⎞ −1 ⎟ 2⎠ 0 ⎞ −1 ⎟  . 2⎠ = A 0

Ahora, el sistema de ecuaciones lineales de matriz ampliada la matriz esca  es este: lonada reducida A ⎧ ⎪ + 6x4 = −1 x ⎪ ⎪ ⎨ 1 − 8x4 = 2 x2 (41) ⎪ ⎪ ⎪ ⎩ x + 4x = 0. 3

4

Despejando las incógnitas x1 , x2 y x3 en función de la incógnita x4 , obtenemos:

⎧ ⎪ x1 = −1 − 6x4 , ⎪ ⎪ ⎨ x2 = 2 + 8x4 , ⎪ ⎪ ⎪ ⎩ x3 = − 4x4 .

(42)

Si damos a la incógnita x4 algún valor numérico concreto, el valor correspondiente de las incógnitas x1 , x2 y x3 dado por las tres igualdades de (42) configura una solución del sistema. Por ejemplo, tomando x4 = 0, nos queda x1 = −1, x2 = 2 y x3 = 0, y la cuaterna (−1, 2, 0, 0) es una solución del sistema. Otro ejemplo: tomando x4 = 1, obtenemos como solución la cuaterna (−7, 10, −4, 1). Finalmente, podemos afirmar que todas las soluciones del sistema de A modo de comprobación, en el sistema (40), puede el lector sustituir x1 por −1 − 6x4 , x2 por 2 + 8x4 y x3 por −4x4 . . .

Incógnitas básicas e incógnitas libres

ecuaciones lineales (41), y por tanto las del sistema de ecuaciones lineales (40) (ambos son equivalentes), son todas las cuaternas de la forma:  90

 −1 − 6x4 , 2 + 8x4 , −4x4 , x4 ,

donde x4 es un número cualquiera.

En un sistema de ecuaciones lineales cuya matriz ampliada es es-

calonada reducida, las incógnitas que figuran en primer lugar en alguna

I.3. DISCUSIÓN Y RESOLUCIÓN DE UN SISTEMA DE ECUACIONES LINEALES

ecuación (y que por tanto son tales que su coeficiente es un pivote de la matriz y es igual a 1) se denominan incógnitas básicas o incógnitas principales; las restantes se denominan incógnitas libres, o parámetros. Cuando buscamos escribir la solución del sistema, despejamos las incógnitas básicas en función de las incógnitas libres. Por ejemplo, en el sistema de ecuaciones lineales (41), visto en el § 89, y que tiene por matriz ampliada una matriz escalonada reducida, la incógnita x1 es la primera incógnita de la primera ecuación, con lo que es una incógnita básica (o principal). También son incógnitas básicas las incógnitas x2 y x3 , primeras de las ecuaciones segunda y tercera, respectivamente. La incógnita x4 , por el contrario, es una incógnita libre (o un parámetro). Cuando hemos buscado la solución de este sistema, hemos despejado las incógnitas básicas en función de la incógnita libre; esto es justamente lo que está plasmado en las igualdades de (42). Notación habitual para las incógnitas libres, con letras griegas. Continuación del ejemplo del § 89

91

Cuando un sistema cuya matriz ampliada es escalonada reducida

admite solución y exhibe incógnitas libres o parámetros, en la expresión final de la solución se suelen sustituir las incógnitas libres por otras letras, habitualmente griegas, para distinguirlas en su notación de las incógnitas principales. Por ejemplo, para el sistema (41), y en definitiva para el (40) —que

Letra griega λ (léase “lambda”).

es equivalente a él—, si denotamos la incógnita libre x4 por λ, podemos concluir lo siguiente: todas las soluciones del sistema (40) son las cuaternas (x1 , x2 , x3 , x4 ) tales que: ⎧ ⎪ ⎪ ⎪ x1 = −1 − 6λ, ⎪ ⎪ ⎪ ⎨ x2 = 2 + 8λ, donde λ es un número cualquiera; ⎪ ⎪ − 4λ, x3 = ⎪ ⎪ ⎪ ⎪ ⎩x = λ, 4 o también: todas las soluciones del sistema (40) son las cuaternas de la forma: 

Sustitución hacia atrás en el sistema del § 89

 −1 − 6λ, 2 + 8λ, −4λ, λ ,

donde λ es un número cualquiera.

92 Volvamos al sistema de ecuaciones lineales (40). Una vez hemos  de su matriz ampliada —la cual nos ha llegado a la forma escalonada A permitido deducir que el sistema es compatible indeterminado—, podemos  : tal escribir el sistema cuya matriz ampliada es esta matriz escalonada A sistema es equivalente al (40) y puede ser resuelto por sustitución hacia atrás (cf. § 50, p. 59). Veámoslo.

I. SISTEMAS DE ECUACIONES LINEALES

 es el siguiente: El sistema cuya matriz ampliada es la matriz A ⎧ ⎪ ⎪ ⎪ x1 + x2 + x3 + 2x4 = 1 ⎨ =2 x2 + 2x3 ⎪ ⎪ ⎪ ⎩ x3 + 4x4 = 0. En la tercera ecuación despejamos x3 : x3 = −4x4 ; lo sustuimos en la segunda ecuación y obtenemos que x2 − 8x4 = 2, de donde: x2 = 2 + 8x4 ; finalmente, en la primera ecuación sustituimos x2 y x3 por las expresiones deducidas, y llegamos a x1 + 6x4 = 1, y así: x1 = 1 − 6x4 . En definitiva, obtenemos justamente las igualdades escritas en (42). La solución a la que llegamos para el sistema es, por supuesto, la misma; la recordamos: todas las cuaternas de la forma: 

Otro ejemplo

 −1 − 6x4 , 2 + 8x4 , −4x4 , x4 ,

93

donde x4 es un número cualquiera.

Consideremos el siguiente sistema de ecuaciones lineales: ⎧ ⎨

= 4 x1 + 2x2 ⎩ −2x1 − 4x2 + x3 + x4 = −7.

(43)

Con el fin de discutir el sistema, escalonamos su matriz ampliada:  = A

1 −2

2 −4

0 1

0 1

4 −7



F2 ←F2 +2F1

→ 



1 0

2 0

0 1

0 1

4 1

  . =A

  tiene dos pivotes, menos que el total de incógnitas La matriz escalonada A del sistema, y ninguno de ellos figura en la última columna. El sistema de ecuaciones lineales (43) es, pues, compatible indeterminado.   ya es escalonada Para resolver el sistema, fijémonos en que la matriz A   = A  . Acontece también que la reducida; de hecho, podemos escribir: A   no presenta sus pivotes en las primeras comatriz escalonada reducida A lumnas. Para solventarlo, y así seguir directamente lo explicado en el § 87 (cf. p. 91), podríamos reordenar las incógnitas del sistema de manera similar a como hicimos en el ejemplo del § 88 (cf. p. 92), a fin de que sí queden los pivotes en las primeras columnas (en concreto, podríamos considerar el orden x1 , x3 , x2 y x4 ). Pero no vamos a proceder así.  es El sistema cuya matriz ampliada es la matriz escalonada reducida A este:

⎧ ⎨ x1 + 2x2 ⎩

=4 x3 + x4 = 1.

(44)

I.3. DISCUSIÓN Y RESOLUCIÓN DE UN SISTEMA DE ECUACIONES LINEALES

De acuerdo con la nomenclatura introducida en el § 90, en el sistema (44) las incógnitas x1 y x3 son básicas (cada una es la primera de una ecuación), y las incógnitas x2 y x4 son libres. Despejamos las incógnitas básicas en función de las libres; obtenemos: ⎧ ⎨ x1 = 4 − 2x2 , ⎩ x3 = 1 − x4 . Así vemos que, dando valores numéricos concretos a x2 y x4 , los valores correpondientes de x1 y x3 obtenidos de las igualdades anteriores nos configuran una solución del sistema. Por ejemplo, si x2 = 1 y x4 = 2, se obtiene que x1 = 2 y x3 = −1, y la cuaterna (2, 1, −1, 2) es una solución del sistema. Finalmente, si —como es usual— sustituimos las letras de las incógnitas Letra griega μ (léase “mi”).

libres por letras griegas —por ejemplo, x2 por λ y x4 por μ—, entonces podemos concluir que todas las soluciones del sistema (44), y por tanto las del (43), son las cuaternas (x1 , x2 , x3 , x4 ) tales que: ⎧ ⎪ x1 ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ x2 ⎪ ⎪ x3 ⎪ ⎪ ⎪ ⎪ ⎩x 4

= 4 − 2λ =

λ

=1 =

donde λ y μ son números cualesquiera;

−μ μ,

o bien: tales soluciones son todas las cuaternas de la forma: 

Más sobre la distinción entre incógnitas básicas e incógnitas libres

 4 − 2λ, λ, 1 − μ, μ ,

94

donde λ y μ son números cualesquiera.

La nomenclatura que hemos introducido en el § 90, con la que dis-

tinguimos entre incógnitas básicas e incógnitas libres, es aplicable también a sistemas de ecuaciones lineales compatibles determinados. Lo que acontece con estos sistemas es que no presentan incógnitas libres: todas son básicas.

Dado un sistema de ecuaciones lineales con matriz

pivotes que incógnitas, y si hubiera menos, el sistema

ampliada escalonada, acontece lo siguiente: si el sis-

sería compatible indeterminado. Si la matriz ampliada

tema es compatible determinado, la matriz ampliada

del sistema, además de escalonada, es escalonada redu-

no presenta ningún pivote en su última columna y tiene

cida, al haber un pivote por incógnita resulta que cada

tantos pivotes como incógnitas. ¿Por qué? Por un lado,

incógnita es la primera de alguna ecuación, es decir,

si hubiera un pivote en la última columna, el sistema sería incompatible; por otro lado, no puede haber más

todas las incógnitas son básicas, y no hay incógnitas libres.

I. SISTEMAS DE ECUACIONES LINEALES

Por otra parte, surge la pregunta de cuántas incógnitas libres (o parámetros) presenta finalmente en su solución un sistema de ecuaciones lineales. La respuesta es esta: tantas como marca la diferencia entre el número de incógnitas y el número de pivotes. Esta afirmación es válida para sistemas tanto compatibles determinados como compatibles indeterminados (en el primer caso, la citada diferencia es nula). Animamos al lector a comprobar la afirmación particularmente en los sistemas de ecuaciones lineales compatibles indeterminados que hemos ido viendo en los últimas páginas.

2. Sistemas homogéneos Este apartado está dedicado a un tipo particular de sistema de ecuaciones lineales: los sistemas homogéneos. Sistemas homogéneos

95

Un sistema de ecuaciones lineales homogéneo es un sistema en el

cual el término independiente de cada ecuación es nulo. Por ejemplo, el siguiente es un sistema de ecuaciones lineales homogéneo:

Si hacemos x1 = 0, x2 = 0 y x3 = 0 en el sistema, obtenemos una igualdad de cada ecuación.

⎧ ⎨ x1 − 2x2 + x3 = 0 ⎩ x1 − 2x3 = 0,

(45)

pues sus dos términos independientes son nulos. En este sistema vemos al menos una solución obvia: la terna (0, 0, 0) (o terna nula). En general, un sistema homogéneo de n ecuaciones en las m incógnitas x1 , x2 , . . . , xm tiene esta forma: ⎧ ⎪ a11 x1 + a12 x2 + · · · + a1m xm = 0 ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ a21 x1 + a22 x2 + · · · + a2m xm = 0 ⎪ ⎪ ........................................ ⎪ ⎪ ⎪ ⎪ ⎩ a x + a x + · · · + a x = 0. n1 1 n2 2 nm m Es claro que tiene al menos una solución: la llamada solución nula, dada por x1 = x2 = . . . = xm = 0; es decir, esta m-upla: 

 0, 0, . . . , 0 .    m ceros

Nótese también que la última columna de la matriz ampliada de un sistema homogéneo es nula; en particular, no puede dar lugar a un pivote al escalonar la matriz, lo que vuelve a confirmar que el sistema no es incompatible: admite al menos una solución.

I.3. DISCUSIÓN Y RESOLUCIÓN DE UN SISTEMA DE ECUACIONES LINEALES

Discusión de sistemas homogéneos

96

Como todo sistema homogéneo admite al menos una solución: la

nula, la discusión de un sistema homogéneo se reduce a determinar si admite solamente esta solución nula (compatible determinado) o si admite más soluciones (compatible indeterminado). Dado que la última columna de la

Recordemos que esta última columna es nula.

matriz ampliada de un sistema homogéneo no da lugar a ningún pivote, la forma de determinar la clase de sistema se puede reducir a escalonar solamente la matriz de coeficientes del sistema y contar sus pivotes: si tiene tantos como incógnitas, el sistema es compatible determinado; si tiene menos pivotes que incógnitas, el sistema es compatible indeterminado. Los sistemas homogéneos, sin embargo, verifican esta propiedad: Si un sistema de ecuaciones lineales homogéneo tiene más incógnitas que ecuaciones, entonces es compatible indeterminado. ¿Por qué? Supongamos que ya tenemos una forma escalonada de la matriz ampliada del sistema. Si hay más incógnitas que ecuaciones, entonces hay más incógnitas en el sistema que filas en la forma escalonada (pues hay tantas de estas como ecuaciones). Como en toda matriz escalonada el número de pivotes es menor o igual que el de filas, en definitiva hay más incógnitas en el sistema que pivotes en la forma escalonada de su matriz ampliada, con lo que el sistema es compatible indeterminado. Por ejemplo, el sistema homogéneo (45) tiene más incógnitas que ecuaciones, luego es compatible indeterminado.

Un ejemplo de resolución de un sistema homogéneo

97

De acuerdo con lo visto en el § 96, el sistema de ecuaciones lineales

homogéneo (45) es compatible indeterminado. Pero, ¿cuáles son todas sus soluciones? En principio, los sistemas homogéneos compatibles indeterminados se resuelven como hemos visto hasta ahora: de su matriz ampliada, se busca la forma escalonada reducida, y se plantea el sistema que tiene esta forma escalonada reducida como matriz ampliada. Pero puede haber una pequeña salvedad en virtud de que se trata de un sistema homogéneo. La última columna de la matriz ampliada es nula, y cualquier transformación elemental (por filas) que se le aplique seguirá dejando nula esta última columna; a

Como decíamos en el § 96 para la discusión de un sistema homogéneo: solo la matriz de coeficientes.

fin de no arrastrar una columna nula a cada cálculo, en la práctica es más operativo escalonar solamente la matriz de coeficientes del sistema. Con el sistema (45), empezamos escalonando su matriz de coeficientes:     1 −2 1 F2 ←F2 −F1 1 −2 1 A= = A . →  1 0 −2 2 −3 0

I. SISTEMAS DE ECUACIONES LINEALES

Como la matriz escalonada A tiene dos pivotes, menos que incógnitas tiene el sistema, se ve confirmado lo que ya sabemos: que se trata de un sistema compatible indeterminado. Concluimos el cálculo de la forma escalonada reducida de la matriz A a partir de esta forma    1 −2 1 F2 ←(1/2)F2 1  →  A = 2 −3 0 0  1 F1 ←F1 +2F2 →  0

escalonada A :  −2 1 1 −3/2  0 −2 = A . 1 −3/2

Ahora, el sistema homogéneo cuya matriz de coeficientes es la matriz esca¡Que no se nos olviden los términos independientes nulos!

lonada reducida A es este: ⎧ ⎨ x1 ⎩



2x3 = 0

x2 − (3/2)x3 = 0.

En este sistema, las incógnitas x1 y x2 son básicas, y la incógnita x3 es libre; despejamos aquellas en función de esta: 3 x3 . 2 Denotando la incógnita libre por λ, concluimos que todas las soluciones del x1 = 2x3

y

x2 =

sistema homogéneo (45) son las ternas (x1 , x2 , x3 ) tales que: ⎧ ⎪ x = 2λ, ⎪ ⎪ 1 ⎪ ⎪ ⎨ 3 x2 = λ, donde λ es un número cualquiera; ⎪ 2 ⎪ ⎪ ⎪ ⎪ ⎩ x3 = λ,

Otro ejemplo

o bien: todas las ternas de la forma:   3 2λ, λ, λ , donde λ es un número cualquiera. 2 98 El siguiente sistema de ecuaciones lineales es homogéneo: ⎧ ⎨ 4x1 + 2x2 = 0 ⎩ 2x1 − 3x2 = 0. Resolvámoslo. Escalonamos su matriz de coeficientes:    4 2 F2 ←F2 −(1/2)F1 4 A= →  2 −3 0

2 −4

 = A .

Como la matriz escalonada A exhibe dos pivotes, tantos como incógnitas tiene el sistema, deducimos que el sistema es compatible determinado. Sin más cálculos, concluimos que su única solución es el par ordenado nulo: (0, 0).

I.3. DISCUSIÓN Y RESOLUCIÓN DE UN SISTEMA DE ECUACIONES LINEALES

3. Resultados adicionales importantes En este apartado probamos dos resultados que hemos citado a lo largo de las páginas anteriores: todas las formas escalonadas de una misma matriz tienen idéntico número de pivotes (y tienen estos en las mismas columnas), y la unicidad de la forma escalonada reducida de una matriz.

Invarianza del número de pivotes al escalonar una matriz Todas las formas escalonadas de una matriz tienen el mismo número de pivotes

99

Una matriz nula solamente tiene una forma escalonada: ella misma,

pero una matriz no nula admite infinitas formas escalonadas. Todas las formas escalonadas de una matriz tienen el mismo número de pivotes, y en todas ellas los pivotes están situados en las mismas columnas.

Consideremos una matriz A no nula (tiene, pues, un término no nulo al menos). En primer lugar, comprobamos este resultado: si encontramos una forma escalonada de la matriz A con un pivote en la última columna, entonces cualquier otra forma escalonada de A tiene también un pivote en su última columna.

forma escalonada de la matriz A que no tenga un pivote en su última columna (si la hubiera, el sistema con matriz ampliada A sería compatible determinado o compatible indeterminado). Todas las formas escalonadas de la matriz A presentan, pues, un pivote en su última columna. De acuerdo con lo probado, podemos afirmar lo si-

Si la matriz A solo tiene una columna (es decir, es

guiente: o bien todas las formas escalonadas de la ma-

de orden (n, 1) para algún número n), para escalonarla

triz A presentan un pivote en su última columna, o bien

procedemos así: se selecciona algún término no nulo

no lo presenta ninguna.

de la matriz (de su única columna), se lleva a la pri-

En segundo lugar, comprobamos este otro resul-

mera posición y se anulan los que están por debajo de

tado: fijada una columna de la matriz A, digamos la

él; cualquier forma escalonada de A es, pues, de esta forma: ⎛

de columnas de A), si alguna forma escalonada de la



a ⎜ ⎟ ⎜0⎟ ⎜ ⎟ ⎜ . ⎟, ⎜ .⎟ ⎝ .⎠ 0

j-ésima (con j un número natural entre 1 y el número matriz A presenta un pivote en su columna j-ésima, entonces cualquier otra forma escalonada de A presenta

para algún número a no nulo,

también un pivote en su columna j-ésima. Si la j-ésima columna es la última, estamos ante el primer resultado (probado en los párrafos anteriores).

y podemos afirmar que todas estas formas escalona-

Si tal columna no es la última, podemos eliminar, tanto

das tienen un pivote en su última columna. Suponga-

de la forma escalonada citada en el enunciado como

mos ahora que la matriz A tiene dos columnas o más,

de la propia matriz A, las últimas columnas de forma

de forma que puede considerarse la matriz ampliada

que la j-ésima quede como nueva última. La matriz

de un sistema de ecuaciones lineales. Como hay una

obtenida al quitar estas columnas en la forma escalo-

forma escalonada de A con un pivote en su última co-

nada de A es, a su vez, una forma escalonada de la matriz que queda al quitar tales columnas en la matriz A.

lumna, tal sistema es incompatible, y cualquier sistema cuya matriz ampliada sea una forma escalonada de A será también incompatible. No puede haber, pues, una

Aplicando el primer resultado, concluimos el segundo. De esta forma, podemos afirmar lo siguiente: o bien

I. SISTEMAS DE ECUACIONES LINEALES

todas las formas escalonadas de la matriz A presentan

a lo más un pivote, podemos finalmente concluir que

un pivote en la columna j-ésima, o bien no lo presenta

todas las formas escalonadas de la matriz A tienen los

ninguna. Como cada columna de una matriz escalonada tiene

pivotes en las mismas columnas; en particular, todas tienen el mismo número de pivotes.

Dada una matriz, todas sus formas escalonadas tienen el mismo número de pivotes, y estos pivotes figuran en las mismas columnas.

Nota bene

El resultado anterior también es verificado por una matriz nula.



Unicidad de la forma escalonada reducida La forma escalonada reducida de una matriz es única

100

La forma escalonada reducida de una matriz es única. Es decir,

solo hay una matriz escalonada reducida que pueda obtenerse a partir de la matriz dada con la aplicación de transformaciones elementales sucesivas.

Consideremos una matriz no nula A de or-

Supondremos que la matriz A admite dos formas

den (n, m). Todas sus formas escalonadas (reducidas

escalonadas reducidas, que denotaremos B y D, y com-

o no) tienen la misma cantidad de pivotes (cf. § 99);

probaremos que B = D.

denotemos esta cantidad por r .

Las matrices B y D tienen sus pivotes en las mis-

Si la cantidad de pivotes es igual a la de colum-

mas columnas; sin pérdida de generalidad podemos

nas: r = m, cualquier posible forma escalonada redu-

suponer que ambas los tienen en las primeras colum-

cida de la matriz A es una matriz de orden (n, m), escalonada reducida, y con m pivotes. De acuerdo con

nas (si no es el caso, una reordenación adecuada de las

el § 77 (cf. p. 80), una matriz de estas características

pivotes donde queremos). De nuevo de acuerdo con el § 77 (cf. p. 80), la matriz B tiene esta forma: ⎞⎫ ⎛ 1 0 . . . 0 b1(r +1) . . . b1m ⎪ ⎪ ⎟⎪ ⎜ ⎪ ⎜ 0 1 . . . 0 b2(r +1) . . . b2m ⎟ ⎪ ⎬ ⎟ ⎜ ⎜. r =n , .. .. .. .. ⎟ .. .. ⎪ ⎟ ⎜. . . ⎪ . . . . ⎠⎪ ⎝. ⎪ ⎪ ⎭ 0 0 . . . 1 br (r +1) . . . br m

debe ser así: o bien es la matriz identidad de orden m, o bien es la matriz resultante de “añadir filas nulas por debajo” (tantas como señale la diferencia n−r ) a la matriz identidad de orden m, y tenemos un caso u otro según sea el número de pivotes igual al de filas (r = n) o menor (r < n), respectivamente. En cualquiera de los

columnas —la misma para ambas matrices— sitúa los





 





dos casos, la forma escalonada reducida de la matriz A resulta ser única.

para algunos números bij (1  i  r y r + 1  j  m);

r

m−r

A partir de ahora, supongamos que el número de

y la matriz D también tiene la misma forma, pero en

pivotes es menor que el número de columnas: r < m.

vez de los números bij tiene eventualmente otros, que

Por comodidad, pongámonos también en el caso en el

denotamos por dij (1  i  r y r + 1  j  m).

que el número de pivotes es igual al de filas: r = n

Ahora observamos que el sistema homogéneo con

(si r < n, el desarrollo sería el mismo, solo que con fi-

matriz de coeficientes B es equivalente al sistema ho-

las nulas o ecuaciones nulas añadidas a las matrices o a los sistemas, respectivamente, que consideramos).

mogéneo con matriz de coeficientes D; toda solución, pues, del primero debe serlo del segundo, y viceversa.

I.3. DISCUSIÓN Y RESOLUCIÓN DE UN SISTEMA DE ECUACIONES LINEALES

El segundo sistema, verbigracia, toma este aspecto: ⎧ ⎪ x1 ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎨

cientes D), del que también es solución, obtenemos:

+ d1(r +1)xr +1 + · · · + d1m xm = 0 + d2(r +1)xr +1 + · · · + d2m xm = 0

x2 ..

⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎩

.. .

.

.. .

.. .

xr + dr (r +1) xr +1 + · · · + dr m xm = 0.

⎧ b1m + d1m (−1) = 0, ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ b2m + d2m (−1) = 0, ⎪ ...................... ⎪ ⎪ ⎪ ⎪ ⎪ ⎩ br m + dr m (−1) = 0,

La siguiente m-upla es una solución del primer sistema

de donde: b1m = d1m , b2m = d2m , . . . , br m = dr m . Para

(el de matriz de coeficientes B) :

cada j tal que r + 1  j < m, procedemos de manera



 b1m , b2m , . . . , br m , 0, . . . , 0 , −1 ,    m − r − 1 ceros

análoga: consideramos la solución del sistema de matriz de coeficientes B obtenida dando a las incógnitas libres estos valores: xj = −1 y nulas las demás, y la

“construida” tomando las incógnitas libres de esta ma-

sustituimos en el sistema de matriz de coeficientes D;

nera: xm = −1 y nulas las demás. Al sustituir esta

con ello obtenemos: b1j = d1j , b2j = d2j , . . . , br j = dr j .

m-upla en el segundo sistema (el de matriz de coefi-

Las matrices B y D resultan, efectivamente, iguales.

Dada una matriz, su forma escalonada reducida es única.

4. Ejemplos de discusión y resolución de sistemas de ecuaciones lineales En este apartado, consideramos varios ejemplos de sistemas de ecuaciones lineales en los que figura algún parámetro, y los discutimos y resolvemos Recordemos que también hemos empleado el vocablo parámetro como sinónimo de incógnita libre.

según los valores del parámetro o parámetros que tengan. En este contexto, un parámetro es una variable que figura en algún coeficiente o término independiente del sistema y puede tomar diferentes valores (si no se especifica otra cosa, podrá tomar como valor cualquier número real); según los valores de esta variable, el sistema puede ser de una clase u otra, o puede tener una solución u otra.

Un ejemplo con dos incógnitas

101

Discutamos y resolvamos, según los valores del parámetro a, el si-

guiente sistema de dos ecuaciones lineales y dos incógnitas: ⎧ ⎨ x− y =2 ⎩ 2x + ay = 1. La matriz ampliada del sistema es esta:   1 −1 2 = A . 1 2 a

(46)

I. SISTEMAS DE ECUACIONES LINEALES

Tratemos de escalonarla con el procedimiento que conocemos:  = A

−1 a

1 2

2 1



F2 ←F2 −2F1



→ 

−1 a+2

1 0

2 −3

  . =A

 , ¿es escalonada? Sí. ¿Qué pivotes tiene? Sabemos La matriz obtenida: A que su primer pivote es igual a 1 y que figura en la primera columna. ¿Y un segundo pivote? Lo hay, pero no sabemos si figura en la segunda columna o en la tercera; ello dependerá del valor del parámetro a. La expresión a + 2 puede ser nula o no, según el valor de a. Si es no nula, entonces el segundo pivote de la matriz está en la segunda columna (sería igual, justamente, a a+2); si es nula, está en la tercera columna (sería igual a −3). Distingamos, pues, ambos casos. Por un lado: a + 2 ≠ 0, es decir: a ≠ −2; por otro lado: a + 2 = 0, esto es: a = −2.  toma la forma: Primer caso: a ≠ −2. La forma escalonada de la matriz A 

 , escribimos: A  1 . En vez de: A Añadimos subíndices para señalar los distintos casos.

1 = A

1 0

−1 a+2

2 −3

 .

Esta matriz, forma escalonada de la matriz ampliada del sistema (46) para este caso, no presenta un pivote en su última columna, y el número de sus pivotes es igual al número de incógnitas del sistema. En este caso, pues, el sistema (46) es compatible determinado.  es ahora: Segundo caso: a = −2. La forma escalonada de la matriz A  Un nuevo subíndice.

2 = A

1 0

−1 0

2 −3

 ,

la cual presenta un pivote en su última columna. En este caso, entonces, el sistema (46) es incompatible. Una vez tenemos discutido el sistema en función de los valores del parámetro a, resolvámoslo. Para ello, solamente debemos seguir trabajando en el primer caso —el de a ≠ −2—, pues el otro nos lleva a un sistema in compatible. Calculemos, pues, la forma escalonada reducida de la matriz A en el caso en que a ≠ −2. Seguimos el procedimiento general ya conocido,  1 . Primero hacemos y partimos de la forma escalonada recién calculada: A unitarios los pivotes; para ello solo debemos multiplicar la segunda fila por el inverso de a + 2:   1 = A

1 0

−1 a+2

2 −3



⎛ ⎜ →  ⎝ F2 ←[1/(a+2)]F2

1

−1

0

1

⎞ 2 ⎟ 3 ⎠. − a+2

I.3. DISCUSIÓN Y RESOLUCIÓN DE UN SISTEMA DE ECUACIONES LINEALES

Y ahora anulamos el término que figura en la misma columna del segundo pivote: ⎛

Otra vez añadimos un subíndice para señalar los casos; es  .   , en vez de: A cribimos: A 1

⎜ ⎝

1

−1

0

1

⎛ ⎞ 2 ⎜1 ⎟ F1 ←F1 +F2 ⎜  ⎜ 3 ⎠ → ⎝ − 0 a+2

3 a+2 3 − a+2

2−

0 1

⎞ ⎟ ⎟  ⎟=A 1. ⎠

 La matriz A 1 obtenida ya es ecalonada reducida. El sistema que la tiene por matriz ampliada es este: ⎧ ⎪ ⎪ ⎪ ⎨x

3 2a + 1 2− = a+2 a+2

Nótese que podemos leer esta solución única en la última co lumna de la matriz A 1.

⎪ ⎪ ⎪ ⎩

2a + 1 a+2 3 , y =− a+2 =

y su solución única salta a la vista: el par ordenado  2a + 1 a+2

,−

3  . a+2

Es esta la solución del sistema (46) en el caso en que a ≠ −2. Resumimos lo obtenido tras el análisis del sistema de ecuaciones lineales (46): • si a ≠ −2, el sistema es compatible determinado, y su única solución   es el par ordenado 2 − 3/(a + 2), −3/(a + 2) ; • si a = −2, el sistema es incompatible. Otro ejemplo con dos incógnitas

102

Discutamos y resolvamos, según los valores del parámetro a, este

sistema de ecuaciones lineales: ⎧ ⎨ x− y =2 ⎩ 2x + ay = 4.

(47)

Escribimos la matriz ampliada del sistema:   1 −1 2 = A , 4 2 a y buscamos escalonarla:  1 −1  A= 2 a

2 4



F2 ←F2 −2F1

→ 



1 0

−1 a+2

2 0

 . =A

  obtenida es escalonada, pero es ambiguo el número de sus La matriz A pivotes si no tenemos información sobre el valor del parámero a. Más en concreto, sabemos que la matriz tiene un primer pivote —igual a 1, y en su

I. SISTEMAS DE ECUACIONES LINEALES

primera columna—, pero podría tener otro más —en su segunda columna—, o no tener ninguno más: todo según sea la expresión a + 2 distinta de 0 o igual a 0, respectivamente.  toma la forma: Si a + 2 ≠ 0, es decir, si a ≠ −2, la matriz A   1 −1 2   A1 = . 0 a+2 0 Se trata de una matriz con dos pivotes, tantos como incógnitas, y ninguno en la última columna: sistema compatible determinado.  resulta ser: Si a + 2 = 0, es decir, si a = −2, la matriz A   1 −1 2 2 = A . 0 0 0 Estamos ante un único pivote que no figura en la última columna: sistema compatible indeterminado. La discusión del sistema (47) nos ha llevado, pues, a dos posibilidades: compatible determinado o compatible indeterminado, según sea a ≠ −2 o a = −2, respectivamente. Para la resolución del sistema, en ambos casos buscamos llegar a la forma escalonada reducida correspondiente.

  La matriz A 1 es la matriz ampliada de: ⎧ ⎨x =2 ⎩ y = 0.

  Podríamos escribir: A 2 = A2 .

En el primer caso: a ≠ −2, tenemos:    1 −1 2 F2 ←[1/(a+2)]F2 1  1 = A →  0 a+2 0 0  1 F1 ←F1 +F2 →  0

−1 1 0 1

2 0

2 0 



  =A 1,

y podemos leer la solución única correspondiente en la última columna de   esta matriz A 1 : el par ordenado (2, 0). 2 resulta ser ya esEn el segundo caso: a = −2, la matriz escalonada A calonada reducida. En el sistema que la tiene como matriz ampliada, eliminamos la ecuación nula (correspondiente a la segunda fila de la matriz), y obtenemos un sistema con una sola ecuación:  x − y = 2.

La incógnita x es la primera de la única ecuación del sistema.

Este sistema presenta una incógnita básica: la x, y una incógnita libre: la y. Expresamos la primera en función de la segunda: x = 2 + y, y sustituimos la segunda —por ser incógnita libre— por la letra griega λ. Todas las soluciones del sistema son, pues, los pares ordenados (x, y) de la forma: ⎧ ⎨ x = 2 + λ, donde λ es un número cualquiera. ⎩y = λ,

I.3. DISCUSIÓN Y RESOLUCIÓN DE UN SISTEMA DE ECUACIONES LINEALES

O lo que es lo mismo: las soluciones son todos los pares ordenados (2+λ, λ) con λ un número cualquiera. Recapitulamos el estudio del sistema de ecuaciones lineales (47): • si a ≠ −2, el sistema es compatible determinado, y su única solución es el par ordenado (2, 0); • si a = −2, el sistema es compatible indeterminado, y sus soluciones son los pares ordenados de la forma (2 + λ, λ) con λ un número cualquiera. Un ejemplo de discusión de un sistema según el valor de dos parámetros

103

Discutamos, según los valores de los parámetros a y b, el siguiente

sistema de ecuaciones lineales: ⎧ ⎪ x + az = b + 2 ⎪ ⎪ ⎨ 2x + y + 2az = 2b + 3 ⎪ ⎪ ⎪ ⎩ −2x − y = − 3.

(48)

Como siempre, escribimos la matriz ampliada del sistema y la intentamos escalonar: ⎛

1 =⎜ A ⎝ 2 −2

0 1 −1

⎛ ⎞ F2 ←F2 −2F1 b+2 1 F ←F +2F ⎜ ⎟ 3 3 1 2b + 3 ⎠ →  ⎝0 −3 0

a 2a 0



1 ⎜ →  ⎝0 0 F3 ←F3 +F2

0 1 −1 0 1 0

a 0 2a a 0 2a

⎞ b+2 ⎟ −1 ⎠ 2b + 1 ⎞ b+2 ⎟  . −1 ⎠ = A 2b

La matriz obtenida es escalonada y exhibe al menos dos pivotes —en las dos primeras columnas—, pero queda ambigua la existencia de un tercero. Según sean nulos o no los parámetros a y b, podría haber o no un tercer pivote, y en caso afirmativo estar este pivote en la tercera columna o en la cuarta. Más en concreto, si a ≠ 0, entonces figura un tercer pivote en la tercera columna; si a = 0 y b ≠ 0, entonces encontramos el tercer pivote en la cuarta columna; y si a = b = 0, no hay tal tercer pivote. Examinemos más detenidamente cada caso.  toma la forma: Si a ≠ 0, la matriz A ⎛

Nótese que, si a ≠ 0, el sistema es compatible determinado independientemente de que b sea nulo o no.

1 1 = ⎜ A ⎝0 0

0 1 0

a 0 2a

⎞ b+2 ⎟ −1 ⎠ , 2b

con tantos pivotes como incógnitas y ninguno en la última columna: sistema compatible determinado.

I. SISTEMAS DE ECUACIONES LINEALES

 queda así: Si a = 0 y b ≠ 0, la matriz A ⎛

1 ⎜   A2 = ⎝ 0 0

0 1 0

⎞ b+2 ⎟ −1 ⎠ , 2b

0 0 0

con un pivote en la última columna: sistema incompatible.   resulta: Finalmente, si a = b = 0, la matriz A ⎛

1 3 = ⎜ A ⎝0 0

0 1 0

0 0 0

⎞ 2 ⎟ −1 ⎠ , 0

con menos pivotes que incógnitas, y ninguno en la última columna: sistema compatible indeterminado. Continuación del ejemplo anterior

104

En el § 103, hemos discutido el sistema de ecuaciones (48) según

los valores de los parámetros a y b; ahora, resolvámoslo. Si a ≠ 0, el sistema es compatible determinado; el cálculo de la forma escalonada reducida de la matriz ampliada toma esta forma: ⎛

1  1 = ⎜ A ⎝0 0

0 1 0

a 0 2a

⎛ ⎞ b+2 1 ⎟ F3 ←[1/(2a)]F3 ⎜ −1 ⎠ →  ⎝0 2b 0 ⎛

1 F1 ←F1 −aF3 ⎜ →  ⎝0 0

0 1 0

a 0 1

⎞ b+2 ⎟ −1 ⎠ b/a

0 1 0

0 0 1

⎞ 2 ⎟   −1 ⎠ = A 1. b/a

  Leyendo la última columna de la matriz A 1 , deducimos que la única solución del sistema (48) en este caso es la terna (2, −1, b/a). Si a = 0 y b ≠ 0, el sistema (48) es incompatible, y no hay nada más que hacer. Finalmente, si a = b = 0, el sistema es compatible indeterminado. La 3 , forma escalonada de la matriz A  en este caso, ya es escalonada matriz A

 = A  . Podríamos escribir: A 3 3

 3 se reduce a este reducida. El sistema cuya matriz ampliada es la matriz A

Nótese que el sistema, con todos los coeficientes explicitados, sería este: ⎧ ⎪ x + 0y + 0z = 2 ⎪ ⎪ ⎨ 0x + y + 0z = −1 ⎪ ⎪ ⎪ ⎩ 0x + 0y + 0z = 0.

(eliminando la ecuación nula): ⎧ ⎨x ⎩

= y

2

= −1,

el cual debe ser considerado —no lo olvidemos— un sistema en las tres incógnitas x, y y z. Las incógnitas x y y son básicas, y en este caso toman un valor fijo; la incógnita z, aunque no figure, es libre. Haciendo uso de la

I.3. DISCUSIÓN Y RESOLUCIÓN DE UN SISTEMA DE ECUACIONES LINEALES

letra griega λ para designar la incógnita libre, podemos escribir que todas las soluciones del sistema son las ternas (x, y, z) tales que: ⎧ ⎪ x= 2 , ⎪ ⎪ ⎨ y = −1 , donde λ es un número cualquiera; ⎪ ⎪ ⎪ ⎩z= λ, es decir: las ternas de la forma (2, −1, λ) con λ un número cualquiera. Recapitulamos la discusión y resolución del sistema de ecuaciones lineales (48): • si a ≠ 0, el sistema es compatible determinado, y su única solución es la terna (2, −1, b/a); • si a = 0 y b ≠ 0, el sistema es incompatible; • si a = b = 0, el sistema es compatible indeterminado, y sus soluciones son las ternas de la forma (2, −1, λ) con λ un número cualquiera. Ejemplo de un sistema en el que figuran tres parámetros

105

Discutamos y resolvamos, según los valores de los parámetros a, b

y c, el siguiente sistema de ecuaciones lineales: ⎧ ⎪ 2x1 − 3x3 + x4 = a ⎪ ⎪ ⎨ x2 − 6x3 + 2x4 = b ⎪ ⎪ ⎪ ⎩ 4x − x = c. 1

(49)

2

Empezamos escalonando la matriz ampliada del sistema: ⎛ ⎞ ⎞ ⎛ 2 0 −3 1 a 2 0 −3 1 a ⎟ F3 ←F3 −2F1 ⎜ ⎟ =⎜ b ⎠ 1 −6 2 b ⎠ → 1 −6 2  ⎝0 A ⎝0 4 −1 0 0 c 0 −1 6 −2 c − 2a ⎛

2 ⎜ →  ⎝0 0 F3 ←F3 +F2

0 1 0

−3 −6 0

1 2 0

⎞ a ⎟  . b ⎠=A c − 2a + b

 exhibe al menos dos pivotes, y en sus dos primeras La matriz escalonada A columnas. Si c − 2a + b ≠ 0, hay un tercer pivote, justamente en la última columna: el sistema es incompatible en este caso. Si c − 2a + b = 0, no hay más pivotes, y el sistema resulta ser compatible indeterminado (dos pivotes frente a cuatro incógnitas). Resolvamos ahora el sistema en el caso en que hay solución, esto es, en  el caso en que c − 2a + b = 0. La forma escalonada reducida de la matriz A toma la forma: ⎛ 2 0 −3 ⎜ ⎝ 0 1 −6 0 0 0

1 2 0

⎛ ⎞ a 1 ⎟ F1 ←(1/2)F1 ⎜ b ⎠ →  ⎝0 0 0

0 1 0

−3/2 −6 0

1/2 2 0

⎞ a/2 ⎟ b ⎠. 0

I. SISTEMAS DE ECUACIONES LINEALES

En el sistema cuya matriz ampliada es la matriz escalonada reducida anterior, eliminamos la tercera ecuación (que es nula), y obtenemos: ⎧ ⎪ ⎨ x1 ⎪ ⎩



3 1 a x3 + x4 = 2 2 2

x2 − 6x3 + 2x4 = b .

Las incógnitas x1 y x2 son básicas, y las incógnitas x3 y x4 son libres. Despejando aquellas en función de estas, y escribiendo las letras griegas λ y μ en vez de x3 y x4 , respectivamente, podemos concluir que todas las soluciones del sistema son las cuaternas (x1 , x2 , x3 , x4 ) tales que: ⎧ 3 1 a ⎪ ⎪ ⎪ x1 = + λ − μ, ⎪ ⎪ 2 2 2 ⎪ ⎪ ⎪ ⎪ ⎨ x = b + 6λ − 2μ, 2 donde λ y μ son números cualesquiera; ⎪ ⎪ ⎪ ⎪ λ , x3 = ⎪ ⎪ ⎪ ⎪ ⎪ ⎩x = μ, 4 o bien: todas las soluciones del sistema son las cuaternas de la forma: a 2 Sobre este sistema podemos afirmar que una condición necesaria y suficiente (cf. nota p. 168) para que admita solución es: c − 2a + b = 0.

+

 3 1 λ − μ, b + 6λ − 2μ, λ, μ , 2 2

con λ y μ números cualesquiera.

Resumamos el estudio del sistema de ecuaciones lineales (49): • si c − 2a + b ≠ 0, el sistema es incompatible; • si c − 2a + b = 0, el sistema es compatible indeterminado, y sus soluciones son todas las cuaternas (a/2 + (3/2)λ − μ/2, b + 6λ − 2μ, λ, μ) con λ y μ números cualesquiera.

I.3. DISCUSIÓN Y RESOLUCIÓN DE UN SISTEMA DE ECUACIONES LINEALES

Ejercicios I.3 1

Resolver este sistema de ecuaciones lineales: ⎧ ⎪ x+ y+ z=1 ⎪ ⎪ ⎨ 2y − z = 2 ⎪ ⎪ ⎪ ⎩x − 3y + 3z = −3.

2

Resolver el sistema de ecuaciones lineales ⎧ ⎪ x1 + x2 − x3 − 2x4 = −1 ⎪ ⎪ ⎨ = 4 2x1 − x2 + 2x3 ⎪ ⎪ ⎪ ⎩ 3x + x − 2x = 3. 1

3

4

3 Resolver el sistema de ecuaciones lineales homogéneo cuya matriz de coeficientes es ⎛ ⎞ 1 0 1 −1 ⎜ ⎟ 3⎠. ⎝ −1 2 1 0 1 1 1 4

Resolver el sistema de ecuaciones lineales cuya

matriz ampliada es ⎛

1 ⎜ ⎜0 ⎜ ⎜1 ⎝ 1

5

1 1 0 1

0 1 1 2

⎞ 2 ⎟ 2⎟ ⎟. −1 ⎟ ⎠ 2

Nos dan el siguiente sistema de ecuaciones linea-

les, en el que figuran tres parámetros, a, b y c: ⎧ ⎪ x − 3y = a ⎪ ⎪ ⎨ 2x + y = b ⎪ ⎪ ⎪ ⎩ 3x − 2y = c. a)

¿Para qué valores de los parámetros a, b y c ad-

mite solución? b)

Resolver el sistema cuando los parámetros a, b

y c son tales que el sistema es compatible determinado. 6

7

Discutir y resolver, según los valores del paráme-

tro p, el siguiente sistema de ecuaciones lineales: ⎧ ⎪ =1 x1 − x2 + x3 ⎪ ⎪ ⎨ x2 + x3 + x4 = 1 ⎪ ⎪ ⎪ ⎩ 2x − 2x + px = 2. 1 2 3 8

Discutir y resolver, según los valores de los pa-

rámetros a, b y c, el siguiente sistema de ecuaciones lineales: ⎧ ⎪ + x4 = a x1 + x2 ⎪ ⎪ ⎨ x2 − x3 − x4 = b ⎪ ⎪ ⎪ ⎩ −x + x − x = c. 1

9

2

3

Discutir y resolver, según los valores de los pa-

rámetros a, b, r y s, el sistema de ecuaciones lineales cuya matriz ampliada es 

10

1 b

a 1

r s

 .

Discutir y resolver, según los valores de los pará-

metros p y m, el siguiente sistema de ecuaciones lineales: ⎧ ⎪ + x3 = 2 − p x ⎪ ⎪ ⎨ 1 x3 = p2 x1 + mx2 + ⎪ ⎪ ⎪ ⎩x + (m + 2)x = 2. 1

11

3

Siendo a un parámetro, nos dan la matriz: ⎛

1 ⎜ ⎝2 0

1 0 2

−1 5 a

⎞ 3 ⎟ −1 ⎠ . 7

Discutir y resolver, según los valores de los pará-

metros a y m, este sistema de ecuaciones lineales: ⎧ ⎨ x− y =2 ⎩ 2x + ay = m.

Si esta matriz es la de coeficientes de cierto sistema de ecuaciones lineales, ¿para qué valores del parámetro a podemos afirmar que tal sistema admite solución cualesquiera que sean sus términos independientes?

I. SISTEMAS DE ECUACIONES LINEALES

RECAPITULACIÓN I Ecuaciones lineales  Una ecuación lineal en las m incógnitas (o variables) x1 , x2 , . . . , xm es una

admite infinitas soluciones, se dice que es compatible indeterminado; y si no admite solución, se dice que es

expresión de la forma:

incompatible.

a1 x1 + a2 x2 + · · · + am xm = c,

Dado un sistema de ecuaciones lineales, o bien es (i )

donde a1 , a2 , . . . , am son números reales, llamados coeficientes de la ecuación, y c es otro número real,

compatible determinado, o bien es compatible indeterminafo, o bien es incompatible.  Dos sistemas de ecuaciones lineales son equivalentes si tienen las mismas soluciones; si dos sistemas en

llamado término independiente de la ecuación.  Dada una m-upla (s1 , s2 , . . . , sm ) de números, se dice que es una solución de la ecuación lineal (i ) si al sustituir, en la ecuación, x1 por s1 , x2 por s2 , . . . , xm por sm , se obtiene una igualdad. Es decir, si se verifica:

las mismas incógnitas no admiten solución, también diremos que ambos son equivalentes. Si en un sistema de ecuaciones lineales intercambiamos dos ecuaciones, o multiplicamos una ecuación por un número no nulo, o sumamos a una ecuación un múltiplo de otra, obtenemos un sistema equivalente al

a1 s1 + a2 s2 + · · · + am sm = c.

original.  Las ecuaciones lineales se pueden multiplicar por un número (decimos en este caso que hemos calculado un múltiplo de la ecuación lineal) y se pueden sumar miembro a miembro. Si sumamos a una ecuación lineal un múltiplo de otra, cualquier solución común a las dos ecuaciones originales también será solución de la ecuación lineal obtenida como resultado.

Representación matricial de un sistema de ecuaciones lineales

 Una matriz de orden (n, m) (o de

orden n × m) es una disposición de n · m números (reales) en forma rectangular en n filas y m columnas. Los números que se escriben en una matriz se denominan términos de la matriz.  Se denomina matriz de coeficientes, o matriz aso-

Sistemas de ecuaciones lineales

 Un sistema de

ecuaciones lineales es una lista (finita) de ecuaciones lineales consideradas simultáneamente, todas en las mismas incógnitas.

La expresión general de un sis-

tema de n ecuaciones lineales en las m incógnitas x1 , x2 , . . . , xm es: ⎧ a11 x1 + a12 x2 + · · · + a1m xm = c1 ⎪ ⎪ ⎪ ⎪ ⎨ a21 x1 + a22 x2 + · · · + a2m xm = c2 ⎪ ⎪ ........................................ ⎪ ⎪ ⎩ an1 x1 + an2 x2 + · · · + anm xm = cn .

ciada, del sistema de ecuaciones lineales (ii ) a esta matriz de orden (n, m): ⎛ a11 a12 ⎜ ⎜ a21 a22 ⎜ ⎜ . .. ⎜ . . ⎝ . an1 an2

... ... .. . ...

⎞ a1m ⎟ a2m ⎟ ⎟ . .. ⎟ ⎟ . ⎠ anm

Los términos de la i-ésima fila son los coeficientes de la (ii )

 Se llama solución de un sistema de n ecuaciones lineales y m incógnitas a toda m-upla que sea solución, simultáneamente, de todas y cada una de las n ecuaciones lineales del sistema.  Si un sistema de ecuaciones lineales admite solución única, se dice que es compatible determinado; si

i-ésima ecuación del sistema, y los términos de la j-ésima columna son los coeficientes que acompañan a la j-ésima incógnita en las ecuaciones del sistema.  Se denomina matriz ampliada del sistema de ecuaciones lineales (ii ) ⎛ a11 ⎜ ⎜ a21 ⎜ ⎜ . ⎜ . ⎝ . an1

a esta matriz de orden (n, m + 1): ⎞ a12 . . . a1m c1 ⎟ a22 . . . a2m c2 ⎟ ⎟ . .. .. .. ⎟ .. ⎟ . . . . ⎠ an2 . . . anm cn

RECAPITULACIÓN I

Esta matriz se diferencia de la de coeficientes en que

 Una matriz escalonada reducida es una matriz es-

tiene una columna más, cuyos términos son los térmi-

calonada que satisface además estas dos condiciones:

nos independientes del sistema.

todos sus pivotes (si los tiene) son iguales a 1 (son unitarios), y en toda columna donde hay un pivote es este

 Se denominan transformaciones elementales por filas de una matriz, de tipo i, ii y iii, respectivamente, a estos tres tipos de transformaciones que se ejecutan en matrices: • intercambiar dos filas; • multiplicar una fila por un número no nulo; • sumar a una fila un múltiplo de otra. Estas transformaciones son un correlato, en las ma-

el único término no nulo. Dada una matriz cualquiera, es posible obtener a partir de ella, mediante la aplicación de transformaciones elementales sucesivas, una matriz escalonada reducida, de la que se dice que es la forma escalonada reducida de la matriz original. La forma escalonada reducida de una matriz es única.

trices ampliadas, de las operaciones en los sistemas

 Dada una matriz escalonada reducida de or-

de intercambio de ecuaciones, multiplicación de una ecuación por un número no nulo y suma a una ecuación

den (n, m), con r pivotes, si suponemos que estos

de un múltiplo de otra, respectivamente.

aplicación de intercambios de columnas adecuados), la

Si a la matriz ampliada de un sistema de ecuaciones lineales se le aplica una transformación elemental, la matriz resultante es la matriz ampliada de un sistema de ecuaciones lineales equivalente al original.  En una matriz, una fila nula es una fila con todos sus términos nulos. Una matriz nula es una matriz con todos sus términos nulos. Dado un número natural k, se dice que una fila no nula de una matriz tiene k ceros iniciales si los k primeros términos de la fila son nulos y el (k + 1)-ésimo no lo es.

ocupan las r primeras columnas (posiblemente tras la matriz tiene esta forma: ⎛ 1 0 ... 0 • ⎜ ⎜0 1 ... 0 • ⎜ ⎜. .. . . . .. ⎜. . .. ⎜. . . ⎜ ⎜0 0 ... 1 • ⎜ ⎜ ⎜0 0 ... 0 0 ⎜ ⎜. .. . . . .. ⎜ .. . .. . . ⎝ 0 0 ... 0 0     r

... ... .. . ... ... .. . ... 

m−r

⎞ • ⎟ •⎟ ⎟ .. ⎟ ⎟ .⎟ ⎟ •⎟ ⎟ ⎟ 0⎟ ⎟ .. ⎟ .⎟ ⎠ 0 

⎫ ⎪ ⎪ ⎪ ⎪ ⎪ ⎬ ⎪ ⎪ ⎪ ⎪ ⎪ ⎭ ⎫ ⎪ ⎪ ⎪ ⎬

r

⎪ ⎪ ⎪ ⎭

n−r

.

 Una matriz escalonada es una matriz que satisface

Las puntos: ‘•’, señalan posiciones que pueden ser ocu-

esta condición: o bien es nula, o bien sus filas no nulas

padas por cualquier número, nulo o no, y esta matriz

son las primeras, y cada una de ellas salvo la primera

tiene tantas columnas con términos de este tipo como

tiene más ceros iniciales que su precedente.

señala la diferencia m−r . También, la matriz tiene tan-

En una matriz escalonada, se llama pivote al primer término no nulo de cada fila. En cualquier matriz,

tas filas como indica la diferencia n − r . En esta matriz, puede ocurrir que m − r = 0 o que n − r = 0 (o ambas

el número de pivotes es menor o igual que el número

igualdades a la vez).

de filas y menor o igual que el número de columnas. Dada una matriz cualquiera, es posible obtener a

Un método para discutir y resolver un sistema de

partir de ella, mediante la aplicación de transformacio-

ecuaciones lineales

nes elementales sucesivas, una matriz escalonada; de la

ecuaciones lineales nos referimos a determinar de qué

matriz obtenida se dice que es una forma escalonada

tipo es: incompatible, compatible determinado o com-

de la matriz dada; también se dice que se ha escalona-

patible indeterminado. Por resolver un sistema nos referimos a encontrar efectivamente todas sus solu-

do la matriz original. Cualquier matriz no nula admite infinitas formas escalonadas (una matriz nula solo admite una: ella misma).

 Por discutir un sistema de

ciones (cuando las admite).  Dado un sistema de ecuaciones lineales (con n ecuaciones y m incógnitas), designemos por A su ma-

I. SISTEMAS DE ECUACIONES LINEALES

 su matriz ampliada, y denotriz de coeficientes y por A   una forma escalonada (no necesariamente temos por A

número de incógnitas y el número de pivotes (ello tam-

 Hay tres posibilidades: reducida) de la matriz A.  presenta un pivote en su última co• la matriz A

dos: para tales sistemas, la citada diferencia es nula).

lumna: sistema incompatible;  no presenta un pivote en su última • la matriz A

biuén es válido para sistemas compatibles determina-

Sistemas homogéneos

 Un sistema de ecuaciones

lineales homogéneo es un sistema en el que es nulo el

columna y la cantidad de sus pivotes coincide con

término independiente de cada ecuación. En general,

la cantidad de incógnitas del sistema: sistema

un sistema homogéneo de n ecuaciones en las m in-

compatible determinado;  no presenta un pivote en su última • la matriz A columna y la cantidad de sus pivotes es menor que la cantidad de incógnitas del sistema: sistema compatible indeterminado.  Un sistema del cual sabemos que admite solución puede resolverse de alguna de estas dos formas: • Una. Se escribe el sistema cuya matriz ampliada es una forma escalonada de la matriz ampliada del sistema; este nuevo sistema es equivalente al original y se puede resolver por sustitución hacia atrás (se resuelve la última ecuación y el resultado se sustituye en las demás, se resuelve a continuación la penúltima y se sustituye de nuevo el resultado en las restantes, y así sucesivamente). • Dos. Se escribe el sistema cuya matriz anpliada es la forma escalonada reducida de la matriz ampliada del sistema; este nuevo sistema también es equivalente al original, y su resolución es inmediata (véase el párrafo siguiente).  En un sistema de ecuaciones lineales cuya matriz ampliada es escalonada reducida, las incógnitas que figuran en primer lugar en alguna ecuación se denomi-

cógnitas x1 , x2 , . . . , xm tiene esta forma: ⎧ ⎪ a11 x1 + a12 x2 + · · · + a1mxm = 0 ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ a21 x1 + a22 x2 + · · · + a2mxm = 0 ⎪ ⎪ ........................................ ⎪ ⎪ ⎪ ⎪ ⎩ an1 x1 + an2 x2 + · · · + anmxm = 0. Cualquier sistema homogéneo tiene al menos la solución nula, dada por x1 = x2 = . . . = xm = 0; es   decir, esta m-upla: 0, 0, . . . , 0 .    m ceros

 La discusión de un sistema homogéneo se reduce a determinar si admite solamente la solución nula (compatible determinado) o si admite más soluciones (compatible indeterminado). Para ello, basta escalonar solamente la matriz de coeficientes del sistema y contar sus pivotes: si tiene tantos como incógnitas, el sistema es compatible determinado; si tiene menos pivotes que incógnitas, el sistema es compatible indeterminado. Si un sistema de ecuaciones lineales homogéneo tiene más incógnitas que ecuaciones, entonces es compatible indeterminado. Discusión y resolución de sistemas de ecuaciones li-

nan incógnitas básicas (o incógnitas principales); las

neales en los que figuran parámetros

restantes se denominan incógnitas libres (o paráme-

ramos también sistemas de ecuaciones lineales en los

 Conside-

tros). Para escribir la solución del sistema, se despe-

que figura algún parámetro, los cuales se discuten y

jan las incógnitas básicas en función de las incógnitas

resuelven según los valores del parámetro o paráme-

libres. En la expresión final de la solución, se suelen

tros que tengan. En este contexto, un parámetro es una

sustituir las incógnitas libres por letras griegas (para

variable que figura en algún coeficiente o término inde-

distinguirlas en su notación de las básicas).

pendiente del sistema y puede tomar diferentes valores

En general, las soluciones de un sistema de ecuaciones lineales presentan tantas incógnitas libres (o

(habitualmente, cualquier número real); según los valores de esta variable, el sistema puede ser de una clase

tantos parámetros) como marca la diferencia entre el

u otra, o puede tener una solución u otra.

Capítulo II

MATRICES

II. MATRICES

ESQUEMA 3. Rango y sistemas de ecuaciones lineales Ejercicios II.4

Presentación del capítulo

1. Definición de matriz 1. Definición de matriz . . . . . . . . . . . 119 2. Algunos tipos de matrices . . . . . . . . 121 3. Matrices columna y matrices fila de una matriz Ejercicios II.1

2. Operaciones con matrices 1. Adición de matrices . . . . . . 2. Multiplicación por un número de triz . . . . . . . . . . . . . . 3. Multiplicación de matrices . . .

. . una . . . .

. . . 127 ma. . . 129 . . . 130

Ejemplos y definición . La no conmutatividad de la multiplicación de matrices . Productos de matrices dados por columnas o por filas . Propiedades de la multiplicación de matrices • Notación matricial de un sistema de ecuaciones lineales

Ejercicios II.2

3. Transformaciones elementales de una matriz 1. Transformaciones elementales por filas Tipos de transformaciones elementales por filas • Transformaciones elementales inversas

2. Matrices elementales . . . . . . . . . . . 152 Definición y ejemplos • Algunas propiedades

Ejercicios II.3

4. Rango de una matriz 1. Definición de rango de una matriz 2. Propiedades del rango de una matriz

5. Inversa de una matriz cuadrada 1. Definición de inversa de una matriz cuadrada 2. Propiedades de la inversa de una matriz cuadrada . . . . . . . . . . . . . . . . 176 3. Método práctico para el cálculo de la matriz inversa Ejercicios II.5

6. Traspuesta de una matriz 1. Traspuesta de una matriz . . . . . . . . . 188 Definición y ejemplos • Propiedades

2. Traza de una matriz . . . . . . . . . . . 194 Ejercicios II.6

7. Otros temas sobre matrices 1. Transformaciones elementales por columnas . . . . . . . . . . . . . . . . . . . 199 2. Más tipos de matrices Matriz triangular superior y matriz triangular inferior • Matriz simétrica y matriz antisimétrica • Matriz ortogonal • Matriz idempotente y matriz nilpotente

3. Inversa por la izquierda e inversa por la derecha . . . . . . . . . . . . . . . . . 212 Inversa por la izquierda • Inversa por la derecha

4. Matrices dadas por bloques . . . . . . . . 219 Ejercicios II.7

Recapitulación II

PRESENTACIÓN DEL CAPÍTULO

PRESENTACIÓN DEL CAPÍTULO En el Capítulo I, ya hemos presentado las matrices, motivadas como una forma de sintetizar los elementos que describen un sistema de ecuaciones lineales (coeficientes y términos independientes), y hemos visto cómo, gracias a ellas, se pueden realizar de una forma muy cómoda los cálculos relacionados con el sistema. Pero las matrices tienen interés por sí mismas, más allá —mucho más allá– de su utilidad para estudiar un sistema de ecuaciones lineales. En este capítulo, presentamos las matrices desde el principio. Esto hace que —si echamos una mirada al Capítulo I— algunas definiciones estén repetidas (como la misma definición de matriz, o la de transformación elemental por filas), pero no queríamos dejar de ofrecer un capítulo lo más autosuficiente y completo posible. La primera sección presenta la definición de matriz, y nos da un primer listado de algunos tipos particulares de matrices que se utilizan en lugares diversos (matriz fila y matriz columna, matriz diagonal, matriz identidad y matriz nula). También se definen las llamadas matrices columna y matrices fila de una matriz. Las matrices son objetos matemáticos que en cierto sentido generalizan los números.

Un aspecto de esta generalización es que es posible

definir operaciones entre matrices como la adición o la multiplicación por un número, con propiedades similares a las operaciones entre números. Hay una operación, sin embargo, que no puede verse como una generalización de ninguna operación entre números: nos referimos a la multiplicación matricial. De hecho, por ejemplo, esta multiplicación matricial no es en general conmutativa, como sí lo es la multiplicación de números reales (con La motivación de la definición de la multiplicación matricial se ve cuando se estudian las aplicaciones lineales.

números, el orden de los factores no altera el producto). La segunda sección está dedicada a todas estas cuestiones. Al final de la sección, es de destacar la llamada notación matricial de un sistema de ecuaciones lineales, que permite representar un sistema con la ayuda de un producto de matrices. La tercera sección presenta las transformaciones elementales por filas. Con respecto a lo ya visto en el Capítulo I, incluye cuestiones como las transformaciones elementales inversas y las matrices elementales. Estas últimas permiten ver la aplicación de una transformación elemental como un producto de matrices. La cuarta sección está dedicada al importante concepto de rango de una matriz. Aquí nos permitimos recodar algunas cuestiones vistas con detalle

II. MATRICES

en el Capítulo I, como las matrices escalonadas y algunas de sus propiedades. La relación entre el concepto de rango y los sistemas de ecuaciones lineales es muy estrecha, y no dejamos de dedicarle un apartado. Es verdad que ya sabemos —del citado Capítulo I— cómo discutir y resolver un sistema de ecuaciones lineales, pero podemos explorar ahora cuestiones como si un sistema admite o no solución para cualquier elección de los términos independientes. La quinta sección define lo que es la inversa de una matriz cuadrada, da condiciones para saber si existe o no, y enseña a calcularla cuando existe. La inversa de una matriz trata de dar respuesta a esta cuestión: dada una matriz, ¿existe otra cuyo producto por la primera sea igual a una matriz identidad? La sexta sección nos enseña qué es la traspuesta de una matriz; también qué es la traza de una matriz. Estos conceptos, sobre todo el primero, tienen gran utilidad en diversos lugares. Finalmente, la sección séptima incluye cuestiones adicionales sobre matrices que no dejan de ser importantes. Las transformaciones elementales por columnas posiblemente inquietan al lector desde que se estudian las transformaciones por filas, y este es lugar para estudiarlas con detalle. También se amplía el expediente de tipos de matrices, viendo las matrices triangulares, las simétricas o las idempotentes, por ejemplo. Asimismo, se extiende el concepto de inversa para que pueda ser aplicado a matrices no necesariamente cuadradas (inversa por la izquierda e inversa por la derecha). Finalmente, se ve brevemente el manejo de las matrices dadas por bloques, que es una forma de agilizar la presentación de ciertas matrices de gran tamaño.

II.1. DEFINICIÓN DE MATRIZ

II.1 DEFINICIÓN DE MATRIZ 1. Definición de matriz Dedicamos este apartado a ver la definición general de matriz y a detallar la forma de denotar las matrices. ¿Qué es una matriz?

106

Dados dos números naturales positivos n y m, una matriz de or-

den (n, m) (o de orden n × m) es una disposición de n · m números (reales) en forma rectangular en n filas y m columnas, que son las filas y las columnas de la matriz. Los números que se escriben en una matriz se denominan términos de la matriz. Por ejemplo, una matriz de orden (2, 3) (o de orden 2 × 3) es una disposiUn primer ejemplo

ción en dos filas y en tres columnas de 2 · 3 = 6 números. Con la notación:  A=

2 1

−3 0

π 1/2

 ,

estamos introduciendo una matriz concreta de orden (2, 3). La estamos designando por A (las matrices se suelen denotar con letras mayúsculas), y tiene efectivamente dos filas y tres columnas. En cualquier matriz, las filas se leen de arriba abajo y las columnas de izquierda a derecha, así que la primera fila de la matriz A es la formada por los números 2, −3 y π ; o dicho más formalmente: los términos de la primera fila de la matriz A son 2, −3 y π . Análogamente, los términos de la segunda fila de A son 1, 0 y 1/2; los términos de la primera columna de A son 2 y 1; los de la segunda columna, −3 y 0; y los de la tercera, π y 1/2. En la matriz A también observamos que, en la primera fila y en la segunda columna, por ejemplo, está situado el número −3; se dice que el término de posición (1, 2) de la matriz A es igual a −3, y se escribe: a12 = −3. Los términos se denotan con la misma letra que designa la matriz pero en minúscula, y figurando como subíndices el número de fila y el número de columna, en este orden y sin comas. Análogamente, podemos decir que el término de posición (2, 2) de la matriz A es igual a 0, y se escribe: a22 = 0. Otros términos de A son: a11 = 2, a13 = π o a23 = 1/2. Otro ejemplo

107

Consideremos la matriz: ⎛

1 ⎜ B = ⎝0 9

3 2 1

5 1 0

⎞ 2/3 ⎟ −1 ⎠ . 1/5

II. MATRICES

La matriz B es de orden (3, 4): tiene tres filas y cuatro columnas. Los términos de la segunda fila, por ejemplo, son 0, 2, 1 y −1; los de la tercera columna: 5, 1 y 0. El término de posición (2, 4), verbigracia, es igual a −1, lo cual se escribe así: b24 = −1. También podemos escribir: b31 = 9, b34 = 1/5, o b14 = 2/3. Notaciones para una matriz general

108

En general, una matriz A de orden (n, m) ⎛ a11 a12 . . . a1j . . . ⎜ ⎜ a21 a22 . . . a2j . . . ⎜ ⎜ . .. .. .. .. ⎜ .. . . . . ⎜ ⎜ A= ⎜ ai1 ai2 . . . aij . . . ⎜ ⎜ . .. .. .. .. ⎜ . . . . . ⎝ . an1 an2 . . . anj . . .

se escribe así: ⎞ a1m ⎟ a2m ⎟ ⎟ .. ⎟ . ⎟ ⎟ ⎟. aim ⎟ ⎟ .. ⎟ ⎟ . ⎠ anm

Observemos que, si i es un número natural tal que 1  i  n, entonces los términos de la i-ésima fila de la matriz A son estos: ai1 , ai2 , . . . , aim . Vemos, en particular, que los términos de una misma fila tienen común el primer subíndice. Por otra parte, si j es un número natural tal que 1  j  m, los términos de la j-ésima columna son: a1j , a2j , . . . , anj . Los términos de una misma columna tienen en común el segundo subíndice. Nota bene

El término de posición (i, j) en la matriz A es aij .



Para la matriz A, también se hace uso de la notación:   A = aij ; 1  i  n, 1  j  m ,   o bien (cuando no hay riesgo de confusión): A = aij . Igualdad de matrices

Solo definimos la igualdad de dos matrices cuando ambas matrices son del mismo orden.

109

Dos matrices son iguales si son del mismo orden y sus términos

correspondientes son iguales (en la misma posición,   el mismo  número).  Dicho más formalmente, dos matrices A = aij y B = bij , ambas de orden (n, m), son iguales si: aij = bij

para cada 1  i  n y cada 1  j  m.

Si las matrices A y B son iguales, escribiremos: A = B.

II.1. DEFINICIÓN DE MATRIZ

2. Algunos tipos de matrices Este apartado presenta los primeros tipos de matrices que utilizaremos. Veremos más adelante otras clases de matrices (cf. § 223 y ss., p. 206). Matriz fila

110

Una matriz puede tener una sola fila; de una matriz de este tipo se

dice que es una matriz fila. Por ejemplo:  1 3

 4 ,



−3

0

0

 −1 ,

1/2



−1

 34 .

Estas matrices son de orden (1, 3), (1, 5) y (1, 2), respectivamente. Cualquier matriz fila tiene orden (1, m) para algún número natural positivo m. Nota bene

Al anotar una matriz, no se escriben comas u otros signos para se-

parar sus términos; solamente se deja un cierto espacio. En particular, los tér-

Ya vimos lo que es una terna y lo que son sus componentes (cf. p. 23).

minos de una matriz fila se escriben separadospor un espacio, sin comas entre  ellos. No debe confundirse, pues, la matriz fila 1 3 4 con la terna (1, 3, 4),

111 Matriz columna



cuyas componentes sí se escriben separadas por comas.

También hay matrices con una sola columna; de una matriz así se

dice que es una matriz columna. Por ejemplo: ⎛



1 ⎜ ⎟ ⎝ 2 ⎠, √ 2

⎛ 

−1 0

 ,

⎞ 2 ⎜ ⎟ ⎜ −3 ⎟ ⎜ ⎟ ⎜ 1/2 ⎟ , ⎝ ⎠ −2

las cuales son de orden (3, 1), (2, 1) y (4, 1), respectivamente. Cualquier matriz columna es de orden (n, 1) para algún número natural positivo n. Hay matrices que son, simultáneamente, una matriz fila y una matriz  2 . No

columna: las de orden (1, 1). Tienen un solo término; por ejemplo:   debe confundirse la matriz 2 con el número 2. Matriz cuadrada

112

Son de especial interés las matrices que tienen el mismo número

de filas que de columnas: son las llamadas matrices cuadradas. Más en concreto, una matriz cuadrada de orden n es una matriz con n filas y con n columnas, es decir, una matriz de orden (n, n). Por ejemplo, las siguientes matrices son cuadradas, de orden, respectivamente, 2, 3 y 4: 

1 0

−3 1



 ,

3 ⎜ ⎝1 1



2 1/4 0



0 ⎟ 10 ⎠ , 2 e



1/3 ⎜ 3 ⎜π ⎜ ⎜ 0 ⎝ 1

2 1/4 10−4 −2/7

−2 1 1 −1

⎞ 5 ⎟ 4 ⎟ ⎟. √ 3/2 ⎟ ⎠ 0

II. MATRICES

Términos de la diagonal principal en una matriz cuadrada Un ejemplo de diagonal principal: √ ⎞ ⎛ 3 2 0 ⎟ ⎜ ⎝ 1 1/4 10 ⎠ . 1 0 e2

En una matriz cuadrada de orden n, los términos de la diagonal principal son los que ocupan las posiciones (1, 1), (2, 2), . . . , (n, n). Verbigracia, en la primera de las matrices cuadradas del párrafo anterior, los términos de la diagonal principal son 1 y 1 —los de posición, respectivamente, (1, 1) y (2, 2)—; en la segunda son 3, 1/4 y e2 —los de posición, respectivamente, (1, 1), (2, 2) y (3, 3)—; y en la tercera, 1/3, 1/4, 1 y 0. Nota bene

Para las matrices cuadradas, decimos “orden n”, y no “orden (n, n)”.

 113 Matriz diagonal

De una matriz cuadrada que tiene nulos los términos que no están

en la diagonal principal diremos es una matriz diagonal. Por ejemplo, estas matrices son diagonales: 

0 0

0 0



 ,

−1/2 ⎜ ⎝ 0 0



⎞ 0 ⎟ 0 ⎠ 2/3

0 1 0

0 ⎜ ⎜0 ⎜ ⎜0 ⎝ 0

y

0 −2 0 0

0 0 1/6 0

⎞ 0 ⎟ 0 ⎟ ⎟. 0 ⎟ ⎠ 2π

Nótese que, en una matriz diagonal, no se exige nada sobre los términos de la diagonal principal: pueden ser iguales a cualquier número (en particular, pueden ser nulos o no). Cuando una matriz diagonal presenta los términos de la diagonal prinMatriz identidad (o unitaria)

cipal iguales a 1, decimos de ella que es una matriz identidad (o unitaria). Para cada orden n hay una, que se denota In . Las de orden 2, 3 y 4 son, respectivamente, las siguientes:  I2 =

1 0

0 1



 ,

1 ⎜ I3 = ⎝ 0 0

0 1 0





0 ⎟ 0⎠ 1

y

1 ⎜ ⎜0 I4 = ⎜ ⎜0 ⎝ 0

0 1 0 0

0 0 1 0

⎞ 0 ⎟ 0⎟ ⎟. 0⎟ ⎠ 1

La genérica de orden n se puede escribir así: ⎛

1 ⎜ ⎜0 ⎜ In = ⎜ . ⎜ .. ⎝ 0

Letra griega δ (léase “delta”).

0 1 .. . 0

... ... .. . ...

⎞ 0 ⎟ 0⎟ ⎟ . .. ⎟ .⎟ ⎠ 1

Es frecuente designar los términos de  una matriz identidad con la letra griega δ, de forma que se escribe In = δij (si nos referimos a la de orden n). Nótese entonces que, para i = j, estamos en la diagonal principal de

II.1. DEFINICIÓN DE MATRIZ

la matriz, y por tanto δij = 1; y que, para i ≠ j, estamos fuera de la diagonal principal de la matriz, y así δij = 0. Es decir:  δij = Nota Delta de KRONECKER

1,

si i = j;

0,

si i ≠ j.

La notación δij que se ha introducido para los términos de una matriz



identidad se denomina delta de KRONECKER.

114

Matriz nula (o cero)

Destacamos finalmente otro tipo de matriz: la matriz nula. Una ma-

triz, del orden que sea (cuadrada o no), es una matriz nula (o también: una matriz cero) si todos sus términos son iguales al número 0. Cualquier matriz nula se denota por O. De acuerdo con la notación para matrices  general  vista en el § 108 (cf. p. 120), podemos escribir: O = 0 . Por ejemplo, las siguientes matrices son nulas: 

0



0 ,

⎛ ⎞ 0 ⎜ ⎟ ⎝0⎠, 0



0 0

0 0

0 0



 y

0 0

0 0

 ,

de orden, respectivamente, (1, 2), (3, 1), (2, 3) y (2, 2). Nota bene

En la notación de una matriz nula, no se señala —en principio— el

orden de la matriz, el cual suele venir implícito por el contexto. La experiencia muestra que ello no da lugar a confusión a poca atención que se ponga.



3. Matrices columna y matrices fila de una matriz A partir de una matriz dada, se construyen con sus términos ciertas matrices columna y ciertas matrices fila que son utilizadas en varios contextos. 115

Empecemos con un ejemplo. Consideremos la siguiente matriz de

orden (3, 4):



1/2 ⎜ A=⎝ 3 1 Ejemplo de matrices columna de una matriz

2 1/4 −2/7

−2 1 −1

⎞ 5 ⎟ 4⎠ . 0

La primera matriz columna de la matriz A se define como aquella matriz columna cuyos términos son los de la primera columna de A. Se denota: C1 (A). Los términos de la primera columna de A son 1/2, 3 y 1, así que



1/2 ⎜ ⎝ 3 1

2 1/4 −2/7

−2 1 −1

⎞ 5 ⎟ 4⎠ 0



⎞ 1/2 ⎜ ⎟ C1 (A) = ⎝ 3 ⎠ . 1

II. MATRICES

Análogamente se definen la restantes matrices columna de A, hasta hacer un total de cuatro, dado que la matriz A tiene cuatro columnas: ⎛ ⎛ ⎛ ⎞ ⎞ ⎞ 2 −2 5 ⎜ ⎜ ⎜ ⎟ ⎟ ⎟ C2 (A) = ⎝ 1/4 ⎠ , C3 (A) = ⎝ 1 ⎠ y C4 (A) = ⎝ 4 ⎠ . −2/7 −1 0 Una vez definidas las matrices columna de la matriz A, se considera la llamada notación por columnas de A. Si A1 , A2 , A3 y A4 designan las cuatro matrices columna de la matriz A, la notación por columnas de A es esta:   A = A1 A2 A3 A4 . Ejemplo de matrices fila de una matriz

116

También se consideran las matrices fila de una matriz, que se de-

finen, mutatis mutandis, como las matrices columna. Para la matriz A con la que hemos trabajado en el § 115, su segunda matriz fila, verbigracia, que



1/2 ⎜ ⎝ 3 1

2 1/4 −2/7

−2 1 −1

⎞ 5 ⎟ 4⎠ 0

se denota por F2 (A), es esta:

 F2 (A) = 3

1/4

 4 ;

1

como vemos, sus términos son los de la segunda fila de A. Por supuesto, hay tantas matrices fila como filas tiene la matriz: tres en este caso. Análogamente se considera la notación por filas de la matriz A: si F1 , F2 y F3 son las tres matrices fila de la matriz A, la notación por filas de A es: ⎛ ⎞ F1 ⎜ ⎟ ⎜ ⎟ ⎟ A=⎜ ⎜ F2 ⎟ . ⎝ ⎠ F3 117

Para ver en general estos conceptos, consideremos una matriz A de

orden (n, m), que escribimos de forma que se enfatice una columna genérica:



a11 ⎜ ⎜ a21 ⎜ A=⎜ . ⎜ .. ⎝ an1 Matrices columna de una matriz

a12 a22 .. . an2

... ... .. . ...

a1j a2j .. . anj

... ... .. . ...

⎞ a1m ⎟ a2m ⎟ ⎟ . .. ⎟ . ⎟ ⎠ anm

Fijemos un número natural j tal que 1  j  m. Se define la j-ésima matriz columna de la matriz A, que se denota: Cj (A), como aquella matriz columna de orden (n, 1) cuyos términos son los de la j-ésima columna de A. Es decir:



a11 ⎜a ⎜ 21 ⎜ ⎜ . ⎜ . ⎝ . an1

. . . a1j . . . a2j . .. . . . . . . anj

... ... ..

.

...

⎞ a1m a2m ⎟ ⎟ ⎟ . ⎟ . ⎟ . ⎠ anm



⎞ a1j ⎜ ⎟ ⎜ a2j ⎟ ⎜ ⎟ Cj (A) = ⎜ . ⎟ . ⎜ .. ⎟ ⎝ ⎠ anj

II.1. DEFINICIÓN DE MATRIZ

Notación por columnas

Si A1 , A2 , . . . , Am son las m matrices columna de la matriz A, la notación por columnas de A es:  A = A1 118

A2

...

 Am .

Sigamos considerando una matriz A de orden (n, m), pero esta vez

escribámosla así:



a11 ⎜ ⎜ a21 ⎜ ⎜ . ⎜ .. ⎜ A=⎜ ⎜ ai1 ⎜ ⎜ . ⎜ . ⎝ . an1

a12 a22 .. . ai2 .. . an2

... ... .. . ... .. . ...

⎞ a1m ⎟ a2m ⎟ ⎟ .. ⎟ . ⎟ ⎟ ⎟, aim ⎟ ⎟ .. ⎟ ⎟ . ⎠ anm

con el fin de resaltar una fila genérica. Fijemos un número natural i tal Matrices fila de una matriz ⎛

a11 ⎜ ⎜ . ⎜ . ⎜ . ⎜ ⎜ ai1 ⎜ ⎜ . ⎜ . ⎜ . ⎝ an1

a12 . . . ai2 . . . an2

... .. . ... .. . ...

Notación por filas

⎞ a1m ⎟ . ⎟ . ⎟ . ⎟ ⎟ aim ⎟ ⎟ . ⎟ . ⎟ . ⎟ ⎠ anm

que 1  i  n. Se define la i-ésima matriz fila de la matriz A, que se denota: Fi (A), como aquella matriz fila de orden (1, m) cuyos términos son los de la i-ésima fila de A. Es decir:  Fi (A) = ai1

ai2

...

 aim .

Si F1 , F2 , . . . , Fn son las n matrices fila de la matriz A, la notación por filas de A es:



F1



⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ F2 ⎟ ⎜ ⎟ A = ⎜ . ⎟. ⎜ . ⎟ ⎜ ⎟ ⎜ . ⎟ ⎝ ⎠ Fn

II. MATRICES

Ejercicios II.1 1

Dada la matriz:

5 

A=

2 1

0 5

2 −3



Considérense las siguientes dos matrices, donde

las letras minúsculas que figuran en los términos de,

signan números: ⎛

a ⎜ A=⎝1 0

se pide: determinar su orden, escribir el término de posición (1, 1), el de posición (2, 3) y el de posición (1, 3); y escribir los términos de la primera fila y los de la tercera columna.

⎞ b2 ⎟ −1 ⎠ c



y

0 ⎜ B = ⎝d 0

⎞ 1 ⎟ −1 ⎠ . e

Si nos dicen que estas matrices son iguales, es decir, si escriben que A = B, ¿qué se puede deducir del valor

2

Escribir los términos de la diagonal principal, y

numérico de las letras a, b, c, d y e?

también la segunda matriz columna y la tercera matriz fila, de la siguiente matriz: ⎛

1 ⎜ B = ⎝ −2 1

−1 0 3



1 ⎟ 1⎠. 1

6

En una matriz cuadrada, a veces se consideran

los términos de la llamada diagonal secundaria: informalmente, son los que ocupan la diagonal que no es la principal. A modo de ejemplo, señalamos tales términos en la siguiente matriz cuadrada:

3

Detallar todas las matrices columna y todas las



2 ⎜ ⎝1 0

matrices fila de la siguiente matriz:  C=

1 0

2 1

−1 2

 .

2 −1 2

⎞ −4 ⎟ 0⎠. −1

Escribir una definición formal para los términos de la 4

Encontrar todas las matrices nulas que tienen

exactamente seis términos.

diagonal secundaria de una matriz cuadrada de orden n.

II.2. OPERACIONES CON MATRICES

II.2 OPERACIONES CON MATRICES Vemos en esta sección las operaciones básicas con matrices: adición (y substracción), multiplicación escalar (o multiplicación por un número de una matriz) y multiplicación matricial.

1. Adición de matrices La adición de matrices generaliza, en cierta forma, la adición de números. Un primer ejemplo de suma de dos matrices OJO: debe distinguirse entre adición (nombre que se da a la operación) y suma (nombre que se da al resultado de la operación).

119

Si tenemos dos matrices del mismo orden, su suma es otra matriz,

también de este mismo orden, obtenida sumando los términos de la misma posición de las matrices dadas. Por ejemplo, dadas las matrices:   2 −1 1 A= , 0 3 5

 B=

−1 1

−3 −2

0 1

 ,

ambas del mismo orden: (2, 3), su suma, que se denota: A + B, es la matriz, también de orden (2, 3), obtenida sumando los términos de la misma posición de A y B:  A+B =  = 120

2 0

−1 3

2 + (−1) 0+1

1 5



 +

−1 1

−1 + 0 3+1

−3 −2



1 + (−3) 5 + (−2)



 =

1 1

−1 4

−2 3

 .

En general, si A y B son dos matrices del mismo orden, ponga-

mos (n, m), es decir:   A = aij ; 1  i  n, 1  j  m Definición de la adición de matrices

0 1

y

  B = bij ; 1  i  n, 1  j  m ,

se define la suma de A y B, que se denota: A + B, como la matriz, también de orden (n, m), siguiente:   A + B = aij + bij ; 1  i  n, 1  j  m . Es decir, cada término de la matriz suma se obtiene sumando los términos de la misma posición de las matrices sumandos. 121

¿Qué ocurre si a una matriz le sumamos una matriz nula (siendo

ambas del mismo orden, por supuesto)? Que obtenemos la misma matriz original. Comprobémoslo, primero con un ejempo y después en general.

II. MATRICES

Como ejemplo nos puede valer este: ⎛ ⎞ ⎛ ⎞ ⎛ 1 −1 0 0 1+0 ⎜ ⎟ ⎜ ⎟ ⎜ 5⎠ + ⎝0 0⎠ = ⎝ 2 + 0 ⎝ 2 −3 −2 0 0 −3 + 0 Una propiedad de la adición de matrices A+O =O+A =A

⎞ ⎛ −1 + 0 1 ⎟ ⎜ 5 + 0⎠ = ⎝ 2 −2 + 0 −3

⎞ −1 ⎟ 5⎠ . −2

Y en general, si A es una matriz cualquiera y O es la matriz nula que tiene el mismo orden que A (para poder sumarlas), podemos escribir:         A + O = aij + 0 = aij + 0 = aij = A. Y de la misma manera podríamos obtener que O + A = A. 122

Sabemos lo que es el opuesto de un número: si a es un número

cualquiera, su opuesto es −a (verbigracia, el opuesto de 2 es −2, el de −1/4 es −(−1/4) = 1/4, y el de 0 es él mismo: 0). En tanto hay una operación de adición (que satisface la propiedad vista en el § 121), también se define un opuesto para matrices. Matriz opuesta

Dada una matriz A, la matriz opuesta de A, que se denota: −A, es la matriz del mismo orden cuyos términos son los opuestos de los  términos  aij , entonces: −A = −aij . Por

correspondientes de A. Es decir, si A = ejemplo: ⎛

1 ⎜ si A = ⎝ 0 3

⎞ ⎛ 1/5 −1 √ ⎟ ⎜ − 3 ⎠ , entonces: −A = ⎝ −0 −π 2 −3

⎞ ⎛ −1 −1/5 √ ⎟ ⎜ −(− 3 ) ⎠ = ⎝ 0 −(−π 2 ) −3

⎞ −1/5 √ ⎟ 3 ⎠. π2

Nótese que las matrices A y −A son efectivamente del mismo orden. A + (−A) = O Substracción de matrices

Es inmediato comprobar que A + (−A) = O para cualquier matriz A. 123

Al estar definido un opuesto, podemos considerar la substracción

de matrices: si A y B son dos matrices del mismo orden, entonces su diferencia es: A − B = A + (−B), de forma que la matriz A − B resulta del mismo orden que A y B y tiene por términos la diferencia de los términos correspondientes de las matrices A y B. Por ejemplo, si ⎛

1 ⎜ A=⎝ 2 −3

⎞ −1 ⎟ 5⎠ −2



y

2 ⎜ B = ⎝1 0

⎞ −1 ⎟ 0⎠, 3

entonces: ⎛

1 ⎜ A−B =⎝ 2 −3

⎞ ⎛ −1 2 ⎟ ⎜ 5⎠ − ⎝1 −2 0

⎞ ⎛ −1 −1 ⎟ ⎜ 0⎠ = ⎝ 1 3 −3

⎞ 0 ⎟ 5⎠. −5

II.2. OPERACIONES CON MATRICES

124

Dados dos números naturales positivos n y m, la notación Mnm (R)

designa el conjunto de las matrices de orden (n, m) cuyos términos son números reales. En este libro, si no se dice expresamente otra cosa, trabajamos en todo momento con números reales, pero en la notación del conjunto de las matrices se incluye la letra R porque se podrían considerar matrices con términos en otro conjunto (por ejemplo, con términos en C, el conjunto de los números complejos). Más propiedades de la adición de matrices

En la adición de matrices, las matrices sumandos y la matriz suma tienen el mismo orden, luego podemos considerar esta operación como una operación definida sobre el conjunto Mnm (R). La adición de matrices articula el conjunto Mnm (R) como un grupo abeliano. ¿Qué significa esto? Significa que se satisfacen las siguientes propiedades:

A + (B + C) = (A + B) + C

• La adición es asociativa; esto es, si A, B y C son tres matrices cualesquiera del mismo orden (n, m) (tres elementos de Mnm (R)), entonces se cumple: A + (B + C) = (A + B) + C. • La adición tiene elemento neutro; es decir, existe una matriz, precisamente la nula de orden (n, m), tal que A+O = O+A = A para cualquier matriz A de Mnm (R). • Todo elemento de Mnm (R) es simetrizable; ello significa: para cualquier matriz A de Mnm (R), existe una matriz, la cual es precisamente su opuesta: −A, que sumada a A nos da como resultado el elemento neutro: A + (−A) = (−A) + A = O.

A+B =B+A

• La adición es conmutativa; con ello se quiere decir: si A y B son dos matrices cualesquiera de Mnm (R), entonces se tiene: A + B = B + A. Las propiedades primera y cuarta son de comprobación sencilla: se reducen en definitiva a las mismas propiedades pero trasladadas a los números reales; las propiedades segunda y tercera se comprobaron en los § 121 y 122, respectivamente. Note el lector que la propiedad asociativa nos permite escribir la suma de tres matrices A, B y C (de un mismo orden) de esta manera: A + B + C, sin necesidad de indicar paréntesis. Cómo llevemos a cabo tal suma es indiferente: bien A + (B + C), bien (A + B) + C.

2. Multiplicación por un número de una matriz Vemos en este apartado la multiplicación por un número de una matriz. En este libro, puede entenderse el término escalar como sinónimo de número, o de numérico.

Este tipo de multiplicación también se denomina multiplicación escalar, para distinguirla de la multiplicación de matrices propiamente dicha, que se verá en el apartado siguiente.

II. MATRICES

Un primer ejemplo de producto por un número de una matriz

125

Dados un número y una matriz, el producto por el número de la

matriz es la matriz que se obtiene multiplicando cada uno de los términos de la matriz dada por el número. Por ejemplo, dada la matriz:  A=

−1 3

2 0

1 5

 ,

el producto por el número 2 de la matriz A, producto que se denota: 2A, se efectúa así:  2A = 2

2 0

−1 3

1 5



 =

2·2 2·0

2 · (−1) 2·3

2·1 2·5



 =

4 0

−2 6

2 10

 .

Fíjese el lector en qué resultaría el producto por el número −1 de esta matriz A: (−1)A = (−1)



2 0

−1 3

1 5



 =  =

(−1)A = −A Definición de la multiplicación escalar

(−1) · 2 (−1) · 0 −2 0

(−1) · (−1) (−1) · 1 (−1) · 3 (−1) · 5  1 −1 = −A. −3 −5



Esta igualdad obtenida: (−1)A = −A, se verifica para cualquier matriz A.   126 En el caso general, dados una matriz A: A = aij , y un número λ, se define el producto por λ de A, que se denota: λA, como la matriz siguiente: λA =



λaij



.

Esto es, la matriz λA es la matriz cuyos términos son los de A multiplicados por λ. Nótese que el orden de la matriz λA es el mismo que el de la matriz A.

3. Multiplicación de matrices Pasamos ahora a estudiar la multiplicación matricial. Esta operación entre matrices ya no puede verse como una generalización más o menos inmediata de una operación entre números.

Ejemplos y definición Requisito previo para multiplicar dos matrices: nº de columnas de la primera = nº de filas de la segunda

127

Lo primero que debe decirse de la multiplicación de matrices es

que no se pueden multiplicar dos matrices cualesquiera: deben cumplir un requisito previo. Tal requisito es este: el número de columnas de la primera matriz debe ser igual al número de filas de la segunda. Y cuando es el caso,

II.2. OPERACIONES CON MATRICES

el resultado de la multiplicación, es decir, el producto de las dos matrices, es una matriz con tantas filas como tiene la primera y tantas columnas como tiene la segunda. Por ejemplo, el producto de dos matrices A y B (en este orden), la primera de orden (4, 3) y la segunda de orden (3, 2), puede efectivamente efectuarse, porque el número de columnas de la primera y el número de filas de la segunda son el mismo —tres en este caso—. El producto, que se denota: AB, resultará ser una matriz de orden (4, 2): tantas filas como tiene A y tantas columnas como tiene B. Un primer ejemplo de producto de dos matrices

128

Consideremos, a modo de ejemplo, estas dos matrices:  A=

2 1

−1 0

0 −3



 y

−2 ⎜ B=⎝ 2 1

1 0 1

0 −2 −3

⎞ 1/3 ⎟ 1 ⎠. 2/3

La matriz A es de orden (2, 3) y la matriz B es de orden (3, 4). De acuerdo con lo visto en el § 127, el producto AB puede efectivamente llevarse a cabo (la matriz A tiene tantas columnas como filas tiene la matriz B), y será una matriz de orden (2, 4) (el mismo número de filas que A y el mismo número de columnas que B). Para calcular el término de posición (i, j) de una matriz producto (en este ejemplo, i es igual a 1 o a 2, y j es igual a 1, a 2, a 3 o a 4), intervienen solamente los términos de la i-ésima fila de la primera matriz (A en este caso) y los de la j-ésima columna de la segunda matriz (B en este caso), y tal término es igual a la suma de los productos de los términos correspondientes de esa fila y de esa columna. De acuerdo con ello, calculemos detalladamente, por ejemplo, el término de posición (1, 2) de la matriz producto AB (con lo que i = 1 y j = 2). En este cálculo intervienen solamente los términos de la primera fila de A: 2, −1 y 0, y los de la segunda columna de B: 1, 0 y 1. ¿Qué hacemos con ellos? ·

2 1 2+

−1 0

0 1

Sumamos los productos de términos correspondientes: 2 · 1 + (−1) · 0 + 0 · 1 = 2.

0+0=2

Esquemáticamente, podríamos representar este cálculo de la siguiente manera (en las posiciones de la matriz producto cuyos términos son aún desconocidos colocamos un punto: ‘•’): 

2 1

−1 0

0 −3





−2 ⎜ ⎝ 2 1

1 0 1

0 −2 −3

⎞  1/3 • ⎟ 1 ⎠= • 2/3

2 · 1 + (−1)0 + 0 · 1 •

• •

• •

 ,

II. MATRICES

y así:



2 1

−1 0

0 −3





−2 ⎜ ⎝ 2 1

1 0 1

0 −2 −3

⎞  1/3 • ⎟ 1 ⎠= • 2/3

• •

2 •

• •

 .

Análogamente, en el cálculo del término de posición (1, 1) de la matriz AB concurren exclusivamente los términos de la primera fila de A y los 2 −2

·

−1 2

de la primera columna de B: 0 1

(−4) + (−2) + 0 = −6

2 · (−2) + (−1) · 2 + 0 · 1 = −6. Esquemáticamente: ⎛  −2  2 −1 0 ⎜ ⎝ 2 1 0 −3 1

1 0 1

de donde: 

2 1

−1 0

0 −3



⎞  1/3 2(−2) + (−1)2 + 0 · 1 ⎟ 1 ⎠= • 2/3

0 −2 −3 ⎛

−2 ⎜ ⎝ 2 1

1 0 1

0 −2 −3

⎞  1/3 −6 ⎟ 1 ⎠= • 2/3

• •

2 •

• •

 2 • • , • • •

 .

Otro término más: en el cálculo del de posición (2, 3), intervienen solo los términos de la segunda fila de A y los de la tercera columna de B: ·

1 0 0+

0 −2 0+

−3 −3



9=9

2 1

−1 0

0 −3 

=



−6 •



−2 ⎜ ⎝ 2 1 2 •

1 0 1

0 −2 −3

⎞ 1/3 ⎟ 1 ⎠ 2/3

• 1 · 0 + 0(−2) + (−3)(−3)

• •



 =

−6 •

2 •

• 9

• •

 .

De manera similar se calcularían los demás términos. El resultado final es este: ¿Se anima al lector a comprobarlo?

Definición de la multiplicación de matrices

También se dice que B se multiplica, por la izquierda, por A para obtener C. Y también que A se multiplica, por la derecha, por B para obtener C.

 AB = 129

2 1

−1 0

0 −3





−2 ⎜ ⎝ 2 1

1 0 1

0 −2 −3

⎞  1/3 −6 ⎟ 1 ⎠= −5 2/3

2 −2

2 9

−1/3 −5/3

 .

En el caso general, dadas dos matrices A y B, de orden, respectiva-

mente, (n, m) y (m, p):   A = aij ; 1  i  n, 1  j  m

y

  B = bij ; 1  i  m, 1  j  p ,

se define el producto de Apor B, que se denota: AB,  como la matriz de orden (n, p) siguiente: C = cij ; 1  i  n, 1  j  p , con términos: cij =

m  k=1

aik bkj ,

1  i  n, 1  j  p.

II.2. OPERACIONES CON MATRICES

Nota bene

En esta definición, los órdenes de las matrices A y B son tales que

el número de columnas de A coincide con el número de filas de B, y la matriz producto: C = AB, tiene el mismo número de filas que A y el mismo número de  columnas que B.

Detengámonos un momento para confirmar que esta definición efectivamente generaliza los cálculos del § 128. La matriz producto C = AB tiene n filas y p columnas. Si i es cualquier número natural entre 1 y n, y j es cualquier número natural entre 1 y p, examinemos cómo es el término de posición (i, j) de la matriz C, es decir, cómo es cij . La suma que define cij presenta un sumando por cada valor posible del índice k entre 1 y m. En concreto, el primer sumando se obtiene con k = 1: ai1 b1j ; el segundo, con k = 2: ai2 b2j , y así sucesivamente hasta el último, que se obtiene con k = m: aim bmj . Es decir: cij =

m 

aik bkj = ai1 b1j + ai2 b2j + · · · + aim bmj .

k=1

En este desarrollo, que es una suma de productos, los términos que proceden de la matriz A son ai1 , ai2 , . . . , aim , los cuales son todos los términos de la i-ésima fila de la matriz A (son m términos y el primer subíndice en cada uno es i); y los términos que proceden de la matriz B son b1j , b2j , . . . , bmj , los cuales son todos los términos de la j-ésima columna de B (de nuevo m términos, y el segundo subíndice en cada uno es j). Esto es, la suma que define cij es la suma de los productos de los términos correspondientes de la fila i-ésima de A y de la columna j-ésima de B: precisamente lo que calculábamos en el ejemplo del § 128. Otro ejemplo de producto de matrices

130

Veamos otro ejemplo de producto de matrices. Consideremos estas

dos:

 A=

1 2

0 3

−1 4



 y

0 ⎜ B = ⎝1 1

⎞ 2 ⎟ −2 ⎠ , 0

y calculemos el producto AB. Las matrices A y B son de orden, respectivamente, (2, 3) y (3, 2), luego efectivamente está definido el producto de A por B (el número de columnas de A y el de filas de B es el mismo), y será una matriz C de orden (2, 2) (tantas filas como A y tantas columnas como B). En el cálculo del término c11 , intervienen exclusivamente los términos de la primera fila de A: 1, 0 y −1, y los de la primera columna de B: 0, 1 y 1; y tal término c11 es igual a la suma de los productos de los términos

II. MATRICES

correspondientes de estas fila y columna: c11 = 1 · 0 + 0 · 1 + (−1) · 1 = −1. Esquemáticamente: ⎛   0 1 0 −1 ⎜ ⎝1 2 3 4 1

⎞  2 1 · 0 + 0 · 1 + (−1) · 1 ⎟ −2 ⎠ = • 0

• •



 =

−1 •

• •

 .

El término c12 es la suma de los productos de los términos correspondientes 

1 2

0 3

−1 4





0 ⎜ ⎝1 1

⎞ 2 ⎟ −2 ⎠ 0

de la primera fila de A y de la segunda columna de B: c12 = 1 · 2 + 0 · (−2) + (−1) · 0 = 2. Y análogamente: c21 = 2·0+3·1+4·1 = 7 y c22 = 2·2+3·(−2)+4·0 = −2. En conclusión:  AB =

1 2

0 3

−1 4





0 ⎜ ⎝1 1

⎞  2 −1 ⎟ −2 ⎠ = 7 0

2 −2

 = C.

Por cierto, ¿pueden multiplicarse estas matrices A y B en el otro orden?; es decir, ¿puede efectuarse el producto BA? Sí. El lector puede verlo —y calcularlo— por sí mismo (lo recomendamos vivamente), pero el resultado puede verse en el § 131.

La no conmutatividad de la multiplicación de matrices El orden en la multiplicación matricial importa

131

Quizá el lector ya se ha percatado de que, en general, no es indi-

ferente el orden en el que se escriben dos matrices A y B que se quieren multiplicar, a diferencia de lo que ocurre con los números (con los cuales el orden de los factores no altera el producto). En primer lugar, puede estar definido el producto AB y no estar definido el producto en el otro orden. Por ejemplo, para las matrices A y B cuyo producto AB calculamos en el § 128, no estaría definido el producto BA: el orden de la matriz B es (3, 4) y el de la matriz A es (2, 3), y no acontece que el número de columnas de B (que sería ahora la primera matriz) sea igual al número de filas de A (que sería la segunda matriz). En segundo lugar, también puede ocurrir que tanto el producto AB como el BA estén definidos, pero que sean matrices de distinto orden, y por ende distintas. Por ejemplo, si A es de orden (2, 3) y B de orden (3, 2), ambos productos se pueden efectuar, pero AB resultaría de orden (2, 2) y BA de orden (3, 3). Las matrices A y B vistas en el § 130 están justamente en estas circunstancias; en este parágrafo citado, la matriz AB ya fue calculada:   −1 2 AB = , 7 −2

II.2. OPERACIONES CON MATRICES

y la matriz BA puede calcularse ahora: ⎛

¡Anímese el lector a calcular por sí mismo esta matriz producto BA!

0 ⎜ BA = ⎝ 1 1

⎞ 2  ⎟ 1 −2 ⎠ 2 0

−1 4

0 3





4 ⎜ = ⎝ −3 1

⎞ 8 ⎟ −9 ⎠ . −1

6 −6 0

Finalmente, puede ocurrir que ambos productos, tanto AB como BA, estén definidos y sean matrices del mismo orden, pero ser ambas matrices producto distintas. En el § 132 vemos un ejemplo de esta situación. El orden en la multiplicación matricial importa (continuación)

132

Consideremos las matrices siguientes:  A=

0 1

1 0



 y

2 0

B=

0 −2

 .

Ambas son cuadradas de orden 2 (ambas son de orden (2, 2), si se quiere), con lo que los dos productos AB y BA están definidos y son también, a su vez, matrices cuadradas de orden 2. Pero estos dos productos son distintos:  AB =  BA =



0 1

1 0

2 0

0 −2

2 0



0 −2 0 1

1 0



 =



 =

−2 0

0 2 0 −2

2 0

 ,  .

Por otra parte, consideremos estas otras matrices cuadradas de orden 2:  S=

1 1

0 1



 y

T =

0 −3

0 0

 .

También están definidos los dos productos ST y T S, y ambos son matrices cuadradas de orden 2. Pero en este caso ambos productos coinciden:  ST =  TS = Matrices que conmutan y matrices que no conmutan

133

1 1 0 −3

0 1



0 0

0 −3



1 1

0 0 0 1



 =



 =

0 −3

0 0

0 −3

0 0

 ,  .

Cuando dos matrices A y B son tales que están definidos sus pro-

ductos AB y BA y estos son dos matrices iguales, se dice que las matrices A y B conmutan. Si los productos AB y BA están definidos y son del mismo orden, pero no son iguales, se dice que las matrices A y B no conmutan. Por ejemplo, las matrices A y B del § 133 no conmutan, pero las matrices S y T vistas en ese mismo parágrafo sí conmutan.

II. MATRICES

Nota

Si dos matrices A y B son tales que los dos productos AB y BA están

definidos y tienen el mismo orden (sean los productos iguales o no), entonces necesariamente las matrices A y B son cuadradas del mismo orden (cf. ejerci cio 5, p. 147). La no conmutatividad de la multiplicación de matrices

134

Si n es un número natural mayor o igual que 1, recordemos que

la notación Mnn (R) designa el conjunto de las matrices de orden (n, n) cuyos términos son números reales (cf. § 124, p. 129). Es decir, el conjunto Mnn (R) es el de las matrices cuadradas de orden n (con términos números reales). Como el producto de dos matrices cuadradas de orden n puede efectuarse —tanto en un orden como en el otro— y el resultado sigue siendo una matriz cuadrada de orden n, podemos considerar la multiplicación de matrices como una operación sobre el conjunto Mnn (R). ¿Qué propiedades verifica esta operación sobre Mnn (R)? Veremos algunas propiedades de la multiplicación de matrices en los epígrafes siguientes, pero ya podemos dar noticia de una propiedad que no se verifica, al menos cuando n  2: la conmutatividad. Las dos matrices A y B vistas en el § 133, las cuales no conmutan, nos avisan de ello para el caso n = 2, pero no es difícil escribir algún ejemplo similar con matrices cuadradas de cualquier orden mayor. La multiplicación de matrices cuadradas de orden n, con n  2, no es conmutativa. Y en el caso n = 1, ¿qué Las cuadradas de orden 1 solo  ocurre?   matrices  a b tienen un término. Si A = yB= son dos matrices cualesquiera de orden 1, se tiene: AB =



a



b



       a = BA. = ab = ba = b

Esto es: la multiplicación de matrices cuadradas de orden 1 sí es una operación conmutativa.

Productos de matrices dados por columnas o por filas Producto dado por columnas

135

Presentamos ahora una fórmula que expresa el producto de dos

matrices cuando una de ellas, en concreto la segunda, viene escrita en su notación por columnas. Consideremos para ello dos matrices A y B tales que está definido el producto AB. Sabemos que el número de columnas de la matriz producto AB

II.2. OPERACIONES CON MATRICES

es el mismo que el número de columnas de la matriz B; denotemos este número de columnas por p. Acontece lo siguiente: si Bj es la j-ésima matriz columna de la matriz B (y por tanto 1  j  p), entonces la j-ésima matriz columna de la matriz producto AB es ABj . Escrito de otra forma (recordando la notación para las matrices columna de una matriz, cf. § 115, p. 123): Cj (AB) = A Cj (B),

¿Cómo podemos demostrar estas igualdades? Nótese que son p igualdades. Para cada número natural j,

1  j  p.

cir: el de posición (1, 1)) es justamente el término de posición (1, j) de la matriz AB, que es:

con 1  j  p, se trata de demostrar la igualdad entre

m 

las matrices Cj (AB) y A Cj (B). Lo primero que debemos comprobar es que se trata de matrices del mismo orden. La matriz Cj (AB) tiene tantas filas como el producto AB, y este producto tiene tantas filas como su primer factor, que es la matriz A;

Por otra parte, el primer término de la matriz A Cj (B) es el término de posición (1, 1) de este producto: ⎞ b1j ⎟ ⎜ ⎜ b2j ⎟ ⎟ ⎜ A Cj (B) = A ⎜ . ⎟ , ⎜ . ⎟ ⎝ . ⎠ bmj ⎛

las como su primer factor, que también es A. Por otro lado, la matriz Cj (AB) es una matriz columna, y la matriz producto A Cj (B) tiene tantas columnas como su segundo factor, que también es una matriz columna. orden: ambas tienen tantas filas como la matriz A y una sola columna.

que es también igual a m 

Comprobemos ahora que los términos de la misma posición en ambas matrices son iguales. Veámoslo   con detalle con el primero de ellos. Pongamos A = aij   y B = bij , y designemos por m el número de colum-

a1k bkj .

k=1

Análogamente se probaría la igualdad de los restantes términos. En efecto se tiene que Cj (AB) = A Cj (B), y ello para

nas de A (que es el mismo que el número de filas de B). El primer término de la matriz Cj (AB) (queremos de-

a1k bkj .

k=1

asimismo, la matriz producto A Cj (B) tiene tantas fi-

Las matrices Cj (AB) y A Cj (B) son, pues, del mismo

(1)

cada 1  j  p.

De acuerdo con (1), si la notación por columnas de la matriz B es   B = B1 B2 . . . Bp , entonces la notación por columnas del producto AB es   AB = AB1 AB2 . . . ABp . Es decir:

 A B1

B2

...

  Bp = AB1

AB2

...

 ABp .

II. MATRICES

Un ejemplo

136

Fijémonos, a modo de ejemplo, en estas dos matrices: ⎛ ⎞ ⎛ ⎞ 1 0 1 ⎜ ⎟ 0 0 1 1 ⎜2 1 2⎟ ⎜ ⎟ ⎜ ⎟, A = ⎝1 3 2 1⎠ y B = ⎜ ⎟ ⎝1 1 1⎠ 0 0 1 1 3 1 3

cuyo producto AB podemos efectuar. Como la segunda de ellas tiene dos columnas iguales —la primera y la tercera—, para calcular el producto puede valer la pena hacer uso del resultado visto en el § 135. Las matrices columna de la matriz B son: ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 0 1 ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜2⎟ ⎜1⎟ ⎜2⎟ ⎜ ⎟ ⎜ ⎟ ⎟ B1 = ⎜ ⎜ 1 ⎟ , B2 = ⎜ 1 ⎟ y B3 = ⎜ 1 ⎟ , ⎝ ⎠ ⎝ ⎠ ⎝ ⎠ 3 1 3   y su notación por columnas es B = B1 B2 B3 . De acuerdo con el resul    tado citado: AB = A B1 B2 B3 = AB1 AB2 AB3 . Esto es: • la primera matriz columna de AB es: ⎛

0 ⎜ AB1 = ⎝ 1 0

0 3 0

1 2 1

⎛ ⎞ ⎞ 1 ⎛ ⎞ 1 ⎜ ⎟ 4 ⎟ ⎜ 2 ⎟⎜ ⎟ ⎟ 1⎠⎜ ⎜ 1 ⎟ = ⎝ 12 ⎠ ; ⎝ ⎠ 1 4 3

• la segunda matriz columna de AB es: ⎛

0 ⎜ AB2 = ⎝ 1 0

0 3 0

1 2 1

⎛ ⎞ ⎞ 0 ⎛ ⎞ 1 ⎜ ⎟ 2 ⎟ ⎜ ⎟ 1 ⎟⎜ ⎜ ⎟ 1⎠⎜ ⎟ = ⎝6⎠; ⎝1⎠ 1 2 1

• y la tercera matriz columna de AB es AB3 , pero como B3 = B1 , resulta: ⎛ ⎞ 4 ⎜ ⎟ AB3 = AB1 = ⎝ 12 ⎠ . 4 Finalmente: 

AB = AB1

Nota bene

AB2

AB3





4 ⎜ = ⎝ 12 4

2 6 2

⎞ 4 ⎟ 12 ⎠ . 4

Cuando se efectúa un producto de matrices, si la segunda matriz

tiene dos (o más) columnas iguales, también las tendrá iguales la matriz pro ducto (y serán las de la misma posición).

II.2. OPERACIONES CON MATRICES

Producto dado por filas

137

Vemos ahora una fórmula para el producto de dos matrices cuando

una de ellas, esta vez la primera, viene escrita en su notación por filas. Recordemos que el número de filas del producto de dos matrices es igual al número de filas de la primera matriz. Dadas dos matrices A y B para las cuales el producto AB está definido, denotando por n el número de filas de A (que es entonces el mismo que el número de filas de AB), acontece lo siguiente: para cada 1  i  n, si Fi es la i-ésima matriz fila de la matriz A, entonces la i-ésima matriz fila de la matriz producto AB es Fi B. En otras palabras (con la ayuda de la notación para las matrices fila de una matriz, La prueba de estas n igualdades es completamente análoga a la vista en el § 135 para las p igualdades del producto por columnas.

cf. § 115, p. 123): Fi (AB) = Fi (A) B,

1  i  n.

De acuerdo con lo anterior, si la notación por filas de la matriz A es ⎛ ⎞ F1 ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ F2 ⎟ ⎜ ⎟ A = ⎜ . ⎟, ⎜ . ⎟ ⎜ ⎟ ⎜ . ⎟ ⎝ ⎠ Fn entonces la notación por filas de la matriz producto AB es ⎞ ⎛ F1 B ⎟ ⎜ ⎟ ⎜ ⎜ F2 B ⎟ ⎟ ⎜ ⎟ ⎜ AB = ⎜ . ⎟ . ⎜ . ⎟ ⎜ . ⎟ ⎟ ⎜ ⎠ ⎝ Fn B Esto es:

Un ejemplo

138

⎛ ⎞ ⎛ ⎞ F1 B F1 ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ F2 B ⎟ ⎜ F2 ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎟, ⎜ ⎟B = ⎜ ⎜ .. ⎟ ⎜ .. ⎟ ⎜ . ⎟ ⎜ . ⎟ ⎜ ⎟ ⎜ ⎟ ⎝ ⎠ ⎝ ⎠ Fn Fn B Para ver un ejemplo del resultado recién estudiado en el § 137, con-

sideremos de nuevo las matrices con las que trabajamos en el § 136: ⎛ ⎞ ⎛ ⎞ 1 0 1 ⎜ ⎟ 0 0 1 1 ⎜2 1 2⎟ ⎜ ⎟ ⎟ A = ⎝1 3 2 1⎠ y B = ⎜ ⎜1 1 1⎟. ⎝ ⎠ 0 0 1 1 3 1 3

II. MATRICES

La primera de estas matrices tiene dos filas iguales —primera y tercera—, luego puede resultar útil hacer uso del resultado citado. La expresión de A en notación por filas es: ⎛ ⎞ F1 ⎜ ⎟ ⎜ ⎟ ⎟ A=⎜ ⎜ F2 ⎟ , ⎝ ⎠ F3 siendo:  F1 = 0

0

1

 1 ,

F2 =



1

3

2

1



y

 F3 = 0

0

1

 1 .

De acuerdo con el resultado del § 137, se tiene: ⎛ ⎞ ⎞ ⎛ F1 F1 B ⎜ ⎟ ⎟ ⎜ ⎜ ⎟ ⎟ ⎜ ⎟ ⎟ ⎜ F F B AB = ⎜ B = ⎜ 2⎟ ⎜ 2 ⎟. ⎝ ⎠ ⎠ ⎝ F3 F3 B Esto es: • la primera matriz fila de AB es:  F1 B = 0

0

1



1 ⎜ ⎜2 1 ⎜ ⎜1 ⎝ 3

• la segunda matriz fila de AB es: ⎛ F2 B =



1

3

2

1 ⎜ ⎜2 1 ⎜ ⎜1 ⎝ 3

⎞ 1 ⎟  2⎟ ⎟= 4 1⎟ ⎠ 3

0 1 1 1

0 1 1 1

⎞ 1 ⎟  2⎟ ⎟ = 12 1⎟ ⎠ 3

2

 4 ;

6

 12 ;

• la tercera matriz fila de AB es F3 B, pero dado que F3 = F1 , resulta:   F3 B = F1 B = 4 2 4 . Finalmente:

Nota bene





⎛ ⎟ ⎜ 4 ⎟ ⎜ ⎜ ⎟ = ⎝ 12 F B AB = ⎜ 2 ⎟ ⎜ ⎠ ⎝ 4 F3 B F1 B

2 6 2

⎞ 4 ⎟ 12 ⎠ . 4

En un producto de matrices, si la primera matriz tiene dos (o más)

filas iguales, también las tendrá iguales la matriz producto (y serán las de la misma posición).



II.2. OPERACIONES CON MATRICES

Propiedades de la multiplicación de matrices Nota En este epígrafe, y con ánimo de ganar claridad, debajo de algunas matrices escribiremos su orden. Por ejemplo, la notación A significará que la

139

Propiedad asociativa

(n,m)



matriz A es de orden (n, m).

La multiplicación de matrices, como la de números (reales), es aso-

ciativa. ¿Qué significa esto? Que si A, B y C son tres matrices (de órdenes adecuados), entonces se verifica: C )=( A

A ( B

(n,m) (m,p) (p,q)

     aij , B = bij y C = cij , y     designemos a su vez por D = dij y E = eij los Pongamos: A =



productos AB y BC, respectivamente: D = AB y E = BC. Es claro que las matrices (AB)C y A(BC) son del mismo orden: (n, q), con lo que solo resta comprobar que los términos de la misma posición en ambas matrices son iguales. Fijemos una posición cualquiera (i, j), con 1  i  n y 1  j  q. El término de esta posición

mino de posición (i, j) de la matriz A(BC), esto es, de la matriz AE, es el siguiente: m 

aik ekj =

k=1

l=1

dil clj =

p  m   l=1 k=1

aik

k=1

p 

p m    bkl clj = aik bkl clj ,

l=1

k=1 l=1

donde se ha considerado que ekj es el término de posi-

p m  

p m    aik bkl clj = aik bkl clj , l=1 k=1

m 

ción (k, j) del producto BC. Las dos sumas obtenidas:

en la matriz (AB)C, es decir, en la matriz DC, es este: p 

B ) C .

(n,m) (m,p) (p,q)

aik bkl clj

l=1 k=1

p m  

y

aik bkl clj ,

k=1 l=1

son iguales. Los términos de una misma posición de las

donde hemos hecho uso de que dil es el término de posición (i, l) del producto AB. Por otra parte, el tér-

matrices (AB)C y A(BC) son, pues, iguales. Efectivamente se cumple que A(BC) = (AB)C.

En virtud de la propiedad asociativa, podemos hablar del producto de más de dos matrices, y se hace innecesario escribir paréntesis cuando tengamos que expresarlo. Verbigracia, escribiremos simplemente ABC en vez de A(BC) o (AB)C. Propiedad distributiva

140

La multiplicación de matrices es distributiva, tanto por la derecha

como por la izquierda, respecto de la adición de matrices. Esto significa lo siguiente: dadas unas matrices A, A1 y A2 , y B, B1 y B2 (de órdenes adecuados), se cumple: A ( B1 + B2 ) (m,p) (n,m) (m,p)

= A

B1 + A B2 , (n,m) (m,p) (n,m) (m,p)

( A1 + A2 ) B

= A1

y también: (n,m)

(n,m) (m,p)

B

(n,m) (m,p)

+ A2

B .

(n,m) (m,p)

II. MATRICES

Los números satisfacen una propiedad análoga: si a, b y c son tres números, entonces a(b + c) = ab + ac, y también: (a + b)c = ac + bc. Esta propiedad es la que nos permite realizar la conocida “manipulación” de sacar factor común en una suma de productos cuando hay un factor que se repite en todos los productos. Vemos que con las matrices también puede llevarse a cabo este tipo de manipulación. La propiedad distributiva para matrices se deduce sin dificultad de la definición del producto de dos matrices y de la propiedad distributiva para números. Dejamos al lector su justificación. Producto por una matriz identidad

141

El producto de una matriz por una matriz identidad, tanto por la

derecha como por la izquierda, nos devuelve la matriz original. Es decir, si A es una matriz, entonces se cumple: In A (n,n) (n,m)

= A

(n,m)

= A

Im (n,m) (m,m)

(recuérdese que con In y Im se designan las matrices identidad de orden, respectivamente, n y m). Para comprobar la igualdad In A = A, fijemos una posición cualquiera (i, j), con 1  i  n y 1  j  m. El término de esta posición en la matriz producto In A y el de esta misma posición en la matriz A son, respectivamente, estos:

n 

δikakj

y

aij ,

k=1

donde δik designa el término de posición (i, k) de la matriz identidad In (cf. § 113, p. 122). Pero estos términos son iguales: En esta suma, cuando el índice k recorre todos los valores de 1 a n, el factor δik se anula para todos ellos excepto para k = i, para el cual resulta igual a 1.

Producto por una matriz nula

n 

δik akj = δii aij = aij .

k=1

Las matrices In A y A son, efectivamente, la misma matriz. La otra igualdad: AIm = A, se probaría de forma similar. 142

El producto, tanto por la derecha como por la izquierda, por una

matriz nula tiene como resultado otra matriz nula: si A es una matriz, entonces se verifica: O

A

(p,n) (n,m)

=

O (p,m)

y

A

O = O .

(n,m) (m,q)

(n,q)

Esta propiedad se concluye inmediatamente de la definición del producto de dos matrices y del hecho de que todos los términos de una matriz nula son iguales a 0.

II.2. OPERACIONES CON MATRICES

El producto de dos matrices no nulas puede ser una matriz nula

143

Si a y b son dos números tales que ab = 0, entonces a = 0 o b = 0

(quizá ambas cosas a la vez). Sin embargo, las matrices no verifican una propiedad análoga; queremos decir: si A y B son dos matrices tales que AB = O, no podemos deducir de ello que deba ser nula alguna de las matrices A o B. Por ejemplo, el siguiente es un producto de dos matrices no nulas que es igual a una matriz nula: 

1 1

1 1



1 −1

−1 1



 =

0 0

0 0

 .

Notación matricial de un sistema de ecuaciones lineales Un sistema de ecuaciones lineales como un producto de matrices

144

La multiplicación de matrices puede aprovecharse para escribir los

sistemas de ecuaciones lineales de una forma más sintética. Consideremos un sistema de n ecuaciones lineales en las m incógnitas x1 , x2 , . . . , xm (cf. § 42, p. 55): ⎧ a11 x1 + a12 x2 + · · · + a1m xm = c1 ⎪ ⎪ ⎪ ⎪ ⎨ a21 x1 + a22 x2 + · · · + a2m xm = c2 ⎪ ⎪ ........................................ ⎪ ⎪ ⎩ an1 x1 + an2 x2 + · · · + anm xm = cn .

(2)

Ya sabemos que la matriz de coeficientes (o matriz asociada) de este sistema es la matriz de orden (n, m) siguiente (cf. § 53, p. 62): ⎛

a11 ⎜ ⎜ a21 ⎜ A=⎜ . ⎜ .. ⎝ an1

a12 a22 .. . an2

... ... .. . ...

⎞ a1m ⎟ a2m ⎟ ⎟ . .. ⎟ . ⎟ ⎠ anm

Pero a partir del sistema se pueden definir otras matrices. La matriz de Matriz de incógnitas

incógnitas es la matriz columna de orden (m, 1) cuyos términos son las incógnitas del sistema: x1 , x2 , . . . , xm ; se denota por X: ⎞ x1 ⎟ ⎜ ⎜ x2 ⎟ ⎟ ⎜ ⎟. ⎜ X= ⎜ ... ⎟ ⎠ ⎝ xm ⎛

Matriz de términos independientes

También se define la matriz de términos independientes: es la matriz columna, esta vez de orden (n, 1), cuyos términos son los términos indepen-

II. MATRICES

dientes del sistema: c1 , c2 , . . . , cn ; se denota por C: ⎛

⎞ c1 ⎜ ⎟ ⎜ c2 ⎟ ⎜ ⎟ C = ⎜ . ⎟. ⎜ .. ⎟ ⎝ ⎠ cn Considerando las matrices anteriores, el sistema de ecuaciones lineales (2) es equivalente a la igualdad matricial AX = C. En efecto. El producto AX está definido (la matriz A tiene m columnas, tantas como filas tiene la matriz X), y el resultado es una matriz de orden (n, 1) —matriz columna, por tanto—, que es precisamente el orden de la matriz C. Por otra parte, los términos de la primera fila de la matriz A son a11 , a12 , . . . , a1m , y los términos de la única columna de la matriz X son x1 , x2 , . . . , xm ; el término de posición (1, 1) del producto AX (si queremos, el primer término de esta matriz columna) es, pues, igual a a11 x1 + a12 x2 + · · · + a1m xm , que es justamente el primer miembro de la primera ecuación del sistema (2). Análogamente, para cada número natural i tal que 1  i  n, el término de posición (i, 1) del producto AX es igual al primer miembro de la i-ésima ecuación del sistema (2). También acontece que los términos de la matriz columna C son los segundos miembros de las ecuaciones del sistema. El sistema (2) es, pues, una forma de escribir la igualdad entre los términos correspondientes de las matrices AX y C. De la igualdad matricial AX = C diremos es la notación matricial del sistema de ecuaciones lineales (2). Un ejemplo

145

A modo de ejemplo de notación matricial, recordemos el sistema de

ecuaciones lineales (40) (cf. p. 93) del Capítulo I: ⎧ ⎪ x + x2 + x3 + 2x4 = 1 ⎪ ⎪ ⎨ 1 x1 + 2x2 + 3x3 + 2x4 = 3 ⎪ ⎪ ⎪ ⎩ x + x + 2x + 6x = 1. 1 2 3 4 La matriz de coeficientes del sistema es esta: ⎛

1 ⎜ A = ⎝1 1

1 2 1

1 3 2

⎞ 2 ⎟ 2⎠, 6

y la matriz de incógnitas y la matriz de términos independientes son, res-

II.2. OPERACIONES CON MATRICES

pectivamente, las siguientes:

⎞ x1 ⎟ ⎜ ⎜ x2 ⎟ ⎟ X=⎜ ⎜x ⎟ ⎝ 3⎠ x4 ⎛

y

⎛ ⎞ 1 ⎜ ⎟ C = ⎝3⎠. 1

La notación matricial del sistema es: AX = C; específicamente: ⎞ ⎛ ⎛ ⎛ ⎞ ⎞ x1 ⎟ 1 1 1 2 ⎜ 1 ⎟ ⎜ x ⎜ ⎜ ⎟ ⎟ 2⎟ 3⎠. = ⎝1 2 3 2⎠⎜ ⎝ ⎜x ⎟ 3⎠ 1 1 2 6 ⎝ 1 x4

(3)

El lector puede comprobar que este producto de matrices expresa lo mismo que las ecuaciones del sistema propiamente dicho. Solución de un sistema en notación matricial

146

Ya sabemos que una solución de un sistema de ecuaciones linea-

les en las m incógnitas x1 , x2 , . . . , xm es una m-upla (s1 , s2 , . . . , sm ) donde los m números s1 , s2 , . . . , sm tienen esta propiedad: al sustituir, en cada una de las ecuaciones, x1 por s1 , x2 por s2 , . . . , xm por sm , se obtiene una igualdad. Si el sistema de ecuaciones lineales está escrito en notación matricial, resulta cómodo llamar solución también a la matriz columna cuyos términos son los números s1 , s2 , . . . , sm : ⎛ ⎞ s1 ⎜ ⎟ ⎜ s2 ⎟ ⎜ ⎟ ⎜ . ⎟. ⎜ .. ⎟ ⎝ ⎠ sm Nótese que si AX = C es la notación matricial de un sistema de ecuaciones lineales con m incógnitas, afirmar que una matriz columna X1 de orden (m, 1) es solución del sistema es lo mismo que afirmar que el producto de matrices AX1 es igual a la matriz C; esto es: AX1 = C. Por ejemplo, el sistema que hemos recordado en el § 145, y cuya notación matricial hemos escrito en (3), tiene por solución todas las cuaternas de la forma (cf. § 91, p. 95):   −1 − 6λ, 2 + 8λ, −4λ, λ ,

donde λ es un número cualquiera.

De acuerdo con lo dicho, podemos afirmar también que todas sus soluciones son las matrices columna de la forma: ⎛ ⎞ −1 − 6λ ⎜ ⎟ ⎜ 2 + 8λ ⎟ ⎜ ⎟ ⎜ −4λ ⎟ , donde λ es un número cualquiera. ⎝ ⎠ λ

II. MATRICES

Por ejemplo, el primer término del producto AX1 quedaría:

Y, efectivamente, si denotamos la matriz columna anterior por X1 , el producto de la matriz A por la matriz X1 tiene por resultado: ⎛

(−1 − 6λ) + (2 + 8λ)

1 ⎜ AX1 = ⎝ 1 1

+ (−4λ) + 2λ = (−1 + 2) + (−6 + 8 − 4 + 2)λ = 1.

1 2 1

1 3 2



⎞ ⎛ ⎞ −1 − 6λ 2 ⎜ ⎟ 1 ⎜ ⎟ 2 + 8λ ⎟ ⎟ ⎜ ⎟ 2⎠⎜ ⎜ −4λ ⎟ = ⎝ 3 ⎠ = C, ⎠ 6 ⎝ 1 λ ⎞

y ello para cualquier número λ. Una observación final: una matriz columna como la X1 se escribe a veces de esta manera:

Notación matricial de un sistema homogéneo

147



⎞ −1 − 6λ ⎜ ⎟ ⎜ 2 + 8λ ⎟ ⎜ ⎟ ⎜ −4λ ⎟ = ⎝ ⎠ λ



⎞ ⎛ ⎞ −1 −6 ⎜ ⎟ ⎜ ⎟ ⎜ 2⎟ ⎜ ⎟ ⎜ ⎟ + λ⎜ 8⎟. ⎜ 0⎟ ⎜ −4 ⎟ ⎝ ⎠ ⎝ ⎠ 0 1

Los sistemas de ecuaciones lineales homogéneos —ya lo sabemos

del Capítulo I— son los que tienen todos los términos independientes nulos: si los escribimos en notación matricial, su matriz de términos independientes es entonces una matriz nula. La notación matricial de un sistema homogéneo de matriz de coeficientes A y matriz de incógnitas X es, pues, así: AX = O. Por ejemplo, podemos recordar el sistema de ecuaciones lineales homogéneo (45) (cf. p. 98):

⎧ ⎨ x1 − 2x2 + x3 = 0 ⎩ x1 − 2x3 = 0.

Introduciendo las matrices:  A=

1 1

−2 0

1 −2

⎞ x1 ⎟ ⎜ X = ⎝ x2 ⎠ x3 ⎛

 y

(matriz de coeficientes y matriz de incógnitas, respectivamente, del sistema), la notación matricial del sistema sería: AX = O, o más específicamente:



1 1

−2 0

1 −2



⎞   x1 0 ⎟ ⎜ . ⎝ x2 ⎠ = 0 x3 ⎛

Adicionalmente, recordemos que el sistema homogéneo anterior fue resuelto en el § 97 (cf. p. 99); sus soluciones son las ternas de la forma:   3 2λ, λ, λ , 2

donde λ es un número cualquiera.

II.2. OPERACIONES CON MATRICES

Podemos añadir que las soluciones del sistema también son las matrices columna de la forma: ⎛ ⎞ 2 ⎜ ⎟ λ ⎝ 3/2 ⎠ , 1

donde λ es un número cualquiera.

Ejercicios II.2 1

Dadas las matrices A y B siguientes: ⎛

2 ⎜ A = ⎝1 5





1 ⎟ −1 ⎠ 3

2 ⎜ y B = ⎝3 3

6 ⎞

0 ⎟ 1⎠, −2

calcular la suma de A y B. Calcular también la matriz opuesta de A. 2

Dadas las matrices: ⎛ ⎞ ⎛ 1 1 −2 ⎜ ⎟ ⎜ ⎜ −2 ⎜ −1 0⎟ ⎜ ⎟ ⎜ A=⎜ y B=⎜ 3⎟ ⎝ 0 ⎠ ⎝ 3 4 −1 4

⎞ −1 ⎟ 0⎟ ⎟, −3 ⎟ ⎠ −1

escribir la matriz 2A − 3B. 3

7 a)

A=

2

−1

Se considera una matriz A de orden (n, m): Fijado 1  j  m, probar que la j-ésima ma-

propia matriz A y la j-ésima matriz columna de la matriz identidad Im ; en símbolos: Cj (A) = A Cj (Im),

3

⎞ 1 ⎟ 0⎠. 1

triz columna de la matriz A es igual al producto de la

Con las matrices 

Estudiar si conmutan las matrices A y B en los

siguientes casos:     a) A= 3 y B = −2 ;     1 2 3 0 b) A= y B= ; 2 −1 1 −1 ⎛ ⎞ ⎛ 1 1 −1 2 −1 ⎜ ⎟ ⎜ 1 0⎠ y B = ⎝0 1 c) A=⎝ 0 −1 −1 2 1 0



y

⎛ ⎞ 1 ⎜ ⎟ B = ⎝0⎠, 3

b)

Fijado 1  i  n, demostrar que la i-ésima ma-

triz fila de la matriz A es igual al producto de la i-ésima matriz fila de la matriz identidad In por la matriz A: Fi (A) = Fi (In ) A,

calcular el producto de A por B: AB, y el producto de B por A: BA.

1  j  m.

c)

1  i  n.

Comprobar los resultados de los apartados an-

teriores con la primera matriz columna y la primera 4

Calcular este producto de matrices:      a b u u v , c d v

donde las letras escritas designan números (reales). ¿Qué queda cuando b = c? 5

Nos dan dos matrices A y B tales que los dos

matriz fila de la matriz A= 8



2 3

Dadas las matrices:   1 2 A= 3 5

1 −2

y

 .

C=

  1 , 5

productos AB y BA están definidos y son matrices del

encontrar alguna matriz columna X1 tal que AX1 = C.

mismo orden. Demostrar que las matrices A y B deben ser cuadradas y del mismo orden.

Interpretar el resultado en el contexto de los sistemas de ecuaciones lineales.

II. MATRICES

9

Consideremos el sistema de ecuaciones lineales

siguiente:

10

⎧ ⎨ 2x1 + x2 − x3 = 1 ⎩ x1 + x2 = −1.

por A2 ; esto es: A2 = AA. Demostrar que si A y B son matrices cuadradas del mismo orden, se tiene:

a)

Encontrar todas sus soluciones.

b)

Escribirlo en notación matricial: AX = C.

c)

Si X  y C  son las matrices fila cuyos términos

(A + B)2 = A2 + AB + BA + B 2 .

Nota bene

son, respectivamente, los términos de las matrices co-

X  = x1

x2

x3



y



C = 1

Si las matrices A y B no conmutan, en-

tonces (A + B)2 es distinto de A2 + 2AB + B 2 ,

lumna X y C del apartado anterior, es decir: 

Si A es una matriz cuadrada, el producto de A

por A está definido, y la matriz producto AA se denota

a diferencia de lo que ocurre con los números;



recordemos que si a y b son dos números, enton-

−1 ,



ces: (a + b)2 = a2 + 2ab + b2 .

encontrar alguna matriz B tal que X  B = C  . d)

En general: si AX = C es la notación matricial

11

Nos dan la matriz: 

de un sistema de n ecuaciones lineales y m incógnitas, ¿cómo es una matriz B tal que X  B = C  , donde X  y C  se construyen a partir de X y C, respectivamente, como en el apartado anterior?

1 0

1 1

 .

Calcular A2 (cf. ejercicio 10), y calcular también la po-

Nota bene Con las notaciones de este ejercicio, la igualdad matricial X  B = C  (con la matriz B adecuada que se obtiene tras resolverlo) es equivalente al sistema de ecuaciones lineales cuya notación matricial es AX = C.

A=



tencia A3 (donde A3 = AAA). Asimismo, encontrar una expresión para la potencia An , donde n es un número natural positivo y An se define de la forma: An = AA ·· · A . n veces

II.3. TRANSFORMACIONES ELEMENTALES DE UNA MATRIZ

II.3 TRANSFORMACIONES ELEMENTALES DE UNA MATRIZ Se definen también transformaciones elementales por columnas. Las veremos a partir del § 212 (cf. p. 199).

Ya hemos visto las transformaciones elementales (por filas) en el Capítulo I. En esta sección las recordamos sucintamente y presentamos contenidos relacionados con ellas que todavía no hemos estudiado, como las transformaciones elementales inversas y las matrices elementales.

1. Transformaciones elementales por filas Recordamos aquí los tres tipos de transformaciones elementales por filas de una matriz e introducimos la idea de transformación elemental inversa.

Tipos de transformaciones elementales por filas Los tres tipos de transformaciones elementales por filas (recordatorio)

148

Llamamos transformaciones elementales (por filas) a cualquiera de

los tres tipos de transformaciones siguientes, que se aplican sobre matrices: • Tipo i: intercambiar dos filas. Si las filas que se intercambian son la i-ésima y la j-ésima, esta transformación se denota: Fi ↔ Fj . Nótese que las otras filas —las que no se intercambian— no sufren variación. • Tipo ii: multiplicar una fila por un número no nulo. Si la fila es la i-ésima y el número no nulo se designa por λ, la transformación se denota: Fi ← λFi . Tras esta transformación, las restantes filas quedan inalteradas. • Tipo iii: sumar a una fila un múltiplo de otra. Si a la fila i-ésima se le suma un múltiplo de la fila j-ésima (con j ≠ i), es decir, se le suma esta fila j-ésima previamente multiplicada por un número, digamos α

Letra griega α (léase “alfa”).

(nulo o no), entonces la transformación se denota: Fi ← Fi + αFj . Es especialmente importante notar que esta transformación solo puede alterar una fila: aquella a la que se suma el múltiplo de otra; las otras filas, incluyendo aquella cuyo múltiplo se calcula, quedan inalteradas. Un ejemplo de transformación elemental por filas de cada tipo

149

Aunque en el citado Capítulo I hemos visto ya bastantes ejemplos

de transformaciones elementales por filas, veamos ahora alguno más. Consideremos para ello la matriz ⎛

0 ⎜ ⎝2 1

1 0 1

3 −4 3

⎞ 2 ⎟ 2⎠. 1

II. MATRICES

La transformación elemental, de tipo i, de intercambiar entre sí las filas primera y segunda, aplicada a esta matriz, tiene este efecto: ⎛

0 ⎜ ⎝2 1

1 0 1

3 −4 3

⎛ ⎞ 2 2 ⎟ F1 ↔F2 ⎜ 2 ⎠ →  ⎝0 1 1

⎞ 2 ⎟ 2⎠. 1

−4 3 3

0 1 1

La transformación elemental, de tipo ii, por la cual se multiplica por el número 1/2 —que es no nulo— la segunda fila de la matriz dada tiene como resultado:



0 ⎜ ⎝2 1

1 0 1

3 −4 3

⎛ ⎞ 0 2 ⎟ F2 ←(1/2)F2 ⎜ 2 ⎠ →  ⎝1 1 1

1 0 1

3 −2 3

⎞ 2 ⎟ 1⎠. 1

Y la transformación elemental, de tipo iii, que suma a la segunda fila la tercera multiplicada por el número −2, ejecutada en la matriz considerada, da como resultado: ⎛

0 ⎜ ⎝2 1

1 0 1

3 −4 3

⎛ ⎞ 2 0 ⎟ F2 ←F2 +(−2)F3 ⎜ 2 ⎠ →  ⎝ 0 1 1

1 −2 1

3 −10 3

⎞ 2 ⎟ 0⎠. 1

No queremos dejar de enfatizar que, en esta última matriz, solo ha cambiado la segunda fila; las demás no se han alterado, incluida la tercera (la cual solo se ha multiplicado por −2 a efectos de ser sumado el resultado a la segunda fila).

Transformaciones elementales inversas Transformaciones elementales inversas

150

Dada cualquier transformación elemental, existe otra con esta pro-

piedad: al aplicar ambas sucesivamente, en un orden o en el otro, a cualquier matriz (de un orden adecuado1 ), se obtiene como resultado la matriz original. Diremos, en este caso, que cualquiera de ellas es transformación elemental inversa de la otra (o que ambas son inversas entre sí).

. . . de tipo I

Por ejemplo, fijémonos en la transformación elemental F1 ↔ F2 (intercambiar las filas primera y segunda). Si la aplicamos a una matriz dada, ¿se nos ocurre una transformación elemental que podríamos ejecutar tras ella para obtener la matriz de origen? Nos sirve ella misma, aplicada entonces 1 Decimos

orden adecuado porque, verbigracia, no podríamos aplicar la transformación

elemental F1 ↔ F4 a una matriz de solo tres filas. A partir de ahora, y en ausencia de otra especificación, las matrices genéricas a las que nos refiramos serán del orden adecuado para aquello de lo que se esté hablando.

II.3. TRANSFORMACIONES ELEMENTALES DE UNA MATRIZ

de nuevo. Lo vemos en un caso concreto: ⎛ ⎛ ⎛ ⎞ ⎞ 1 −2 −4 0 1 ⎜ ⎟ F1 ↔F2 ⎜ ⎟ F1 ↔F2 ⎜ 0 ⎠ →  ⎝ 1 −2 ⎠ →  ⎝ −4 ⎝ −4 0 −1 0 −1 0

⎞ −2 ⎟ 0⎠, −1

y obviamente es lo mismo en el otro orden. En general, una transformación elemental de tipo i, pongamos Fi ↔ Fj , es inversa de sí misma. Tras aplicar ambas, una después de otra, a una

Recuérdese cómo denotamos las matrices fila de una matriz (cf. § 118, p. 125).

. . . de tipo II

matriz cualquiera, obtenemos la matriz de partida: ⎞ ⎞ ⎞ ⎛ ⎛ ⎛ . . . ⎜ .. ⎟ ⎜ .. ⎟ ⎜ .. ⎟ ⎟ ⎟ ⎟ ⎜ ⎜ ⎜ ⎟ ⎟ ⎟ ⎜ ⎜ ⎜ ⎜ F (A) ⎟ ⎜ F (A) ⎟ ⎜ F (A) ⎟ ⎟ ⎟ ⎟ ⎜ j ⎜ i ⎜ i ⎟ ⎟ ⎟ ⎜ ⎜ ⎜ ⎟ F ↔F ⎜ ⎟ F ↔F ⎜ ⎟ ⎜ ⎜ .. ⎟ i j ⎜ .. ⎟ i j ⎜ .. ⎟ ⎜ . ⎟ →  ⎜ . ⎟ →  ⎜ . ⎟ . ⎟ ⎟ ⎟ ⎜ ⎜ ⎜ ⎟ ⎟ ⎟ ⎜ ⎜ ⎜ ⎟ ⎟ ⎟ ⎜ ⎜ ⎜ ⎜ Fi (A) ⎟ ⎜ Fj (A) ⎟ ⎜ Fj (A) ⎟ ⎟ ⎟ ⎟ ⎜ ⎜ ⎜ ⎟ ⎟ ⎟ ⎜ ⎜ ⎜ ⎝ . ⎠ ⎝ . ⎠ ⎝ . ⎠ .. .. .. 151

Fijémonos ahora en las transformaciones elementales de tipo ii. Si

en una matriz multiplicamos una de sus filas por un número λ no nulo, podemos aplicar una segunda transformación elemental de tipo ii para recuperar la matriz original: multiplicar la misma fila por el número 1/λ. Por ejemplo: ⎛

⎞ ⎛ −2 3/2 ⎟ F1 ←(3/2)F1 ⎜ 0 ⎠ →  ⎝−4 −1 0

1 ⎜ ⎝ −4 0

⎛ ⎞ −3 1 ⎟ F1 ←(2/3)F1 ⎜ 0 ⎠ →  ⎝ −4 −1 0

⎞ −2 ⎟ 0⎠. −1

En general, las transformaciones elementales, de tipo ii, Fi ← λFi (siendo λ ≠ 0) y Fi ← (1/λ)Fi son inversas una de la otra: ⎛

.. .





.. .





.. .



⎟ ⎟ ⎟ ⎜ ⎜ ⎜ ⎟ ⎟ ⎟ ⎜ ⎜ ⎜ ⎟ ⎟ Fi ←(1/λ)Fi ⎜ ⎟ ⎜ ⎜ i ⎟ ⎟, ⎜ Fi (A) ⎟ Fi←λF ⎜ ⎜ λ F (A) F (A)               →                                        →   i i ⎟ ⎟ ⎟ ⎜ ⎜ ⎜ ⎟ ⎟ ⎟ ⎜ ⎜ ⎜ ⎠ ⎝ . ⎠ ⎝ ⎝ . ⎠ . .. .. .. y se llega a lo mismo aplicando las transformaciones en el otro orden. . . . de tipo III

152

Finalmente, consideremos las transformaciones elementales de ti-

po iii. Si en una matriz sumamos a una fila un múltiplo de otra, podemos recuperar la matriz original restando a la misma fila lo que habíamos

II. MATRICES

sumado: ese mismo múltiplo. Por ejemplo, si sumamos a la segunda fila la primera multiplicada por 4, desde la matriz que resulta obtenemos la de partida sumando a la segunda fila la primera multiplicada por −4 (que es tanto como restar la primera fila multiplicada por 4). Lo vemos con la matriz que venimos considerando en los ejemplos de este apartado: ⎛ ⎞ ⎛ ⎛ ⎞ ⎞ 1 −2 1 −2 1 −2 ⎜ ⎟ F2 ←F2 +4F1 ⎜ ⎟ F2 ←F2 −4F1 ⎜ ⎟ 0 ⎠ → 0⎠ .  ⎝ 0 −8 ⎠ →  ⎝ −4 ⎝ −4 0 −1 0 −1 0 −1 En el caso general, podemos decir que son inversas una de la otra las Nótese que el número α puede ser nulo o no.

transformaciones elementales, de tipo iii, Fi ← Fi + αFj y Fi ← Fi − αFj , donde α es un número cualquiera y i ≠ j: ⎞ ⎞ ⎞ ⎛ ⎛ ⎛ .. .. .. . ⎟ ⎜ . ⎟ ⎜ ⎜ . ⎟ ⎟ ⎟ ⎟ ⎜ ⎜ ⎜ ⎟ Fi ←Fi +αFj ⎜ ⎟ Fi ←Fi −αFj ⎜ ⎟ ⎜ ⎜ Fi (A) ⎟ → ⎜ Fi (A) + α Fj (A) ⎟ → ⎜ Fi (A) ⎟ .    ⎟ ⎟ ⎟ ⎜ ⎜ ⎜ ⎟ ⎟ ⎟ ⎜ ⎜ ⎜ ⎠ ⎠ ⎝ . ⎠ ⎝ ⎝ . . .. .. .. Si ejecutáramos ambas transformaciones en el otro orden, llegaríamos al mismo resultado.

2. Matrices elementales Presentamos en este apartado las matrices elementales, que permiten relacionar las transformaciones elementales con la multiplicación de matrices.

Definición y ejemplos 153

Las matrices elementales son las matrices que se obtienen cuando

se aplica una transformación elemental a una matriz identidad. Matriz elemental de orden n asociada a una transformación elemental

Más en concreto, si n es un número natural, llamaremos matriz elemental de orden n asociada a una transformación elemental a la matriz que resulta tras aplicar la transformación elemental a la matriz identidad de orden n. Hay, por supuesto, tres tipos de matrices elementales, según el tipo de transformación elemental a la cual estén asociadas. Empecemos viendo un

. . . de tipo I

ejemplo de matriz elemental de tipo i. La matriz elemental de orden n = 3 asociada a la transformación elemental F1 ↔ F3 , verbigracia, se obtiene intercambiando las filas primera ⎛ 1 0 ⎜ I3 = ⎝ 0 1 0 0

y tercera de la matriz identidad I3 : ⎛ ⎞ ⎞ 0 0 0 1 ⎟ F1 ↔F3 ⎜ ⎟ 0 ⎠ →  ⎝0 1 0⎠. 1 1 0 0

II.3. TRANSFORMACIONES ELEMENTALES DE UNA MATRIZ

Resulta cómodo en estos casos escribir las matrices en su notación por filas. Si designamos (como haremos en todo este apartado) por L1 , L2 , . . . , las matrices fila de la matriz identidad, podemos escribir la igualdad anterior de esta forma:



L1





L3



⎜ ⎟ ⎜ ⎟ ⎜ ⎟ F1 ↔F3 ⎜ ⎟ ⎟ ⎟ I3 = ⎜  ⎜ ⎜ L2 ⎟ → ⎜ L2 ⎟ . ⎝ ⎠ ⎝ ⎠ L3 L1 La matriz





⎛ ⎜ ⎟ 0 ⎜ ⎟ ⎜ ⎜ L2 ⎟ = ⎝ 0 ⎜ ⎟ ⎝ ⎠ 1 L1 L3

⎞ 1 ⎟ 0⎠ 0

0 1 0

es entonces la matriz elemental de orden 3 asociada a la transformación elemental F1 ↔ F3 . Otro ejemplo. ¿Cuál es la matriz elemental de orden 4 asociada a la transformación elemental F2 ↔ F3 ? Esta: ⎛ ⎞ L1 ⎛ ⎜ ⎟ ⎜ ⎟ ⎜1 0 ⎜ L3 ⎟ ⎜ 0 0 ⎜ ⎟ ⎜ ⎜ ⎟=⎜ ⎜L ⎟ ⎝0 1 ⎜ 2⎟ ⎝ ⎠ 0 0 L4

0 1 0 0

⎞ 0 ⎟ 0⎟ ⎟. 0⎟ ⎠ 1

En general, la matriz elemental de orden n asociada a la transformación elemental Fi ↔ Fj toma el aspecto: ⎛



. ⎜ .. ⎟ ⎜ ⎟ ⎜ ⎟ ⎟ i-ésima→ ⎜ ⎜ Lj ⎟ ⎜ ⎟ ⎜ . ⎟ ⎜ . ⎟= ⎜ . ⎟ ⎜ ⎟ ⎜ ⎟ ⎟ j-ésima→⎜ ⎜ Li ⎟ ⎜ ⎟ ⎝ . ⎠ ..

⎛ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎝

i-ésima

j-ésima

.. .

.. .



1 ..

.





...

0 ... 1 ... .. . . . . .. .

...

1 ... 0 ... .. .. . . . . .

⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎠ 1

(lo que no está escrito —matrices fila o términos— debe entenderse igual a lo correspondiente en la matriz identidad In ). . . . de tipo II

154

Una matriz elemental de tipo ii es la que resulta, simplemente, de

multiplicar por algún número no nulo una de las filas de la matriz identidad

II. MATRICES

correspondiente. Por ejemplo, la matriz elemental de orden 3 asociada a la transformación elemental F3 ← 3F3 es esta: ⎛ ⎞ ⎛ L1 ⎜ ⎟ 1 0 ⎜ ⎟ ⎜ ⎜ L2 ⎟ = ⎝ 0 1 ⎜ ⎟ ⎝ ⎠ 0 0 3L3

⎞ 0 ⎟ 0⎠, 3

resultante de multiplicar por el número no nulo 3 la tercera fila de la matriz identidad I3 . En general, la matriz elemental de orden n asociada a la transformación elemental Fi ← λFi (con λ ≠ 0) toma la forma: ⎛



.. ⎜ . ⎟ ⎜ ⎟ ⎜ ⎟ ⎟ i-ésima→ ⎜ λL ⎜ i⎟= ⎜ ⎟ ⎝ . ⎠ ..

⎛ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎝

i-ésima





1 ..

.

⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎠

.. .

... λ .. .

... .. . 1

(de nuevo, lo no escrito debe entenderse igual a lo de la misma posición en la matriz In ). . . . de tipo III

155

Finalmente, una matriz elemental de tipo iii se obtiene, a partir de la

matriz identidad correspondiente, sumando a una fila un múltiplo de otra. Por ejemplo, la matriz elemental de orden 4 asociada a la transformación elemental F2 ← F2 + 3F1 es la siguiente: ⎛



⎛ ⎟ ⎜ ⎟ ⎜1 ⎜ ⎜ L2 + 3L1 ⎟ ⎜ 3 ⎟ ⎜ ⎜ ⎟=⎜ ⎜ ⎟ ⎝0 ⎜ L ⎟ ⎜ 3 ⎠ ⎝ 0 L4 L1

0 1 0 0

0 0 1 0

⎞ 0 ⎟ 0⎟ ⎟, 0⎟ ⎠ 1

resultado de sustituir la segunda fila de la matriz identidad I4 por la suma de ella misma y el resultado de multiplicar la primera por 3. Otro ejemplo: la matriz elemental de orden 3 asociada a la transformación elemental F1 ← F1 + (−2)F3 es ⎛ ⎞ ⎛ L1 − 2L3 ⎜ ⎟ 1 ⎜ ⎟ ⎜ ⎜ ⎟ = ⎝0 L 2 ⎜ ⎟ ⎝ ⎠ 0 L3

0 1 0

⎞ −2 ⎟ 0⎠. 1

II.3. TRANSFORMACIONES ELEMENTALES DE UNA MATRIZ

La matriz elemental de orden n asociada a la transformación elemental Fi ← Fi + αFj (con α un número cualquiera y i ≠ j) es así:





.. . ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ i-ésima→ ⎜ L + αL j⎟ ⎜ i ⎟ ⎜ ⎟= ⎜ .. ⎟ ⎜ ⎟ ⎜ . ⎟ ⎜ ⎟ ⎜ ⎠ ⎝ .. .

⎛ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎝

i-ésima ↓

j-ésima

..





1

⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎠

.. .

.

... 1 ... α ... . .. . .. 1 ..

. 1

(recuérdese que lo no escrito se debe rellenar con los elementos correspondientes de In ).

Algunas propiedades Efectuar una transformación elemental es como multiplicar, por la izquierda, por su matriz elemental

156

Vemos en este parágrafo una propiedad que permite relacionar la

aplicación de transformaciones elementales con la multiplicación de matrices; a saber: efectuar una transformación elemental en una matriz es lo mismo que multiplicarla, por la izquierda, por la matriz elemental correspondiente. A modo de ejemplo, consideremos la transformación elemental (de tipo iii) F1 ← F1 + (−2)F3 , y consideremos ⎛ 1 1 ⎜ 0 A = ⎝ −1 1 −1

también esta matriz: ⎞ 0 1 ⎟ 1 2⎠, 2 1

la cual tiene tres filas (con lo que se le puede aplicar la transformación elemental anterior). La matriz elemental de orden 3 asociada a la transformación elemental se obtiene ⎛ 1 0 ⎜ I3 = ⎝ 0 1 0 0

aplicándo esta a la matriz identidad de orden 3: ⎛ ⎞ ⎞ 0 1 0 −2 ⎟ F1 ←F1 +(−2)F3 ⎜ ⎟ 0 ⎠ → 0 ⎠ = M.  ⎝ 0 1 1 0 0 1

Acontece que la matriz resultante de aplicar a la matriz A la transformación elemental F1 ← F1 + (−2)F3 es igual, justamente, al producto MA. En efecto; de la primera manera, obtenemos: ⎛ ⎛ ⎞ 1 1 0 1 −1 ⎜ ⎟ F1 ←F1 +(−2)F3 ⎜ 0 1 2 ⎠ → A = ⎝ −1  ⎝ −1 1 −1 2 1 1

3 0 −1

−4 1 2

⎞ −1 ⎟ 2⎠, 1

II. MATRICES

y de la segunda: ⎛

1 ⎜ MA = ⎝ 0 0

0 1 0

⎞⎛ −2 1 ⎟⎜ 0 ⎠ ⎝ −1 1 1

1 0 −1

0 1 2

⎞ ⎛ 1 −1 ⎟ ⎜ 2 ⎠ = ⎝ −1 1 1

3 0 −1

−4 1 2

⎞ −1 ⎟ 2⎠; 1

y vemos que llegamos a la misma matriz de una forma y de otra.

Para verlo en general, consideremos una matriz A

En el primer caso, se tiene que Fk (B) = Fk (A). Pero

y una transformación elemental que se puede aplicar a ella, de la que resulta una matriz que denotamos por B.

también queda inalterada la k-ésima fila de la matriz In cuando se le aplica la transformación elemental para

Si la matriz A tiene n filas, y M es la matriz elemen-

obtener la matriz elemental M, así que Fk (M) = Fk (In).

tal de orden n asociada a la transformación elemental,

De acuerdo con el citado resultado del § 137 y con la

comprobemos que MA = B. Con este fin, fijemos un

igualdad (4), podemos escribir:

número natural k entre 1 y n, y veamos que la k-ésima

Fk (MA) = Fk (M)A = Fk (In )A = Fk (A) = Fk (B).

matriz fila del producto MA es igual a la k-ésima matriz fila de la matriz B: Fk (MA) = Fk (B).

En el segundo caso, supongamos que la transfor-

En lo que sigue, haremos uso de esta igualdad: Fk (A) = Fk (In )A,

mación elemental es de tipo ii, digamos Fk ← λFk (4)

la cual es consecuencia de aplicar el resultado del § 137 (cf. p. 139) a la igualdad In A = A (cf. ejercicio II.2.7,

para algún número λ ≠ 0. Entonces: Fk (B) = λ Fk (A) y Fk (M) = λ Fk (In ). De nuevo de acuerdo con el resultado del § 137 y con la igualdad (4), deducimos:

p. 147). Al ejecutar la transformación elemental en la ma-

Fk (MA) = Fk (M)A = λ Fk (In )A = λ Fk (A) = Fk (B).

triz A, hay dos posibilidades para su k-ésima fila: que

Si la transformación elemental fuera de cualquiera de

permanezca inalterada o que cambie.

los otros dos tipos, la prueba sería análoga.

Dada una matriz de n filas, se obtiene el mismo resultado llevando a cabo una transformación elemental que multiplicando, por la izquierda, por la matriz elemental de orden n asociada a la transformación elemental. El producto de las matrices elementales asociadas a transformaciones elementales inversas es la matriz identidad

157

Si multiplicamos dos matrices elementales del mismo orden aso-

ciadas a transformaciones elementales inversas, el producto es la matriz identidad correspondiente. Más en concreto, si M es la matriz elemental de orden n asociada a una transformación elemental, y M  es la matriz elemental del mismo orden asociada a la transformación elemental inversa, entonces: MM  = M  M = In . A modo de ejemplo, las transformaciones elementales F1 ← F1 + 3F3 y F1 ← F1 − 3F3 son inversas una de la otra. Sus matrices elementales de

II.3. TRANSFORMACIONES ELEMENTALES DE UNA MATRIZ

orden 3 son, respectivamente: ⎛ ⎞ 1 0 3 ⎜ ⎟ M = ⎝0 1 0⎠ 0 0 1



y

1 ⎜ M = ⎝ 0 0

⎞ −3 ⎟ 0⎠. 1

0 1 0

Si las multiplicamos, obtenemos la matriz identidad ⎛ ⎞⎛ ⎞ ⎛ 1 0 3 1 0 −3 1 ⎜ ⎟⎜ ⎟ ⎜ 0⎠ = ⎝0 MM  = ⎝ 0 1 0 ⎠ ⎝ 0 1 0 0 1 0 0 1 0

I3 : 0 1 0

⎞ 0 ⎟ 0 ⎠ = I3 , 1

y lo mismo en el otro orden: M  M = I3 . En el caso general, esta propiedad es consecuencia de la probada en el § 156. El producto MM  coincide con la aplicación, a la matriz M  , de la transformación elemental de matriz elemental asociada M. Pero esta transformación elemental es inversa de la que tiene a M  como matriz elemental asociada, luego devuelve esta matriz M  a la matriz identidad In . Es decir: MM  = In . Análogamente se probaría la otra igualdad.

Ejercicios II.3 1

Consideremos esta matriz:   1 1 A= . 0 2

e)

Escribir la matriz A como un producto de ma-

trices elementales. (Indicación: Escribir las transformaciones elementales inversas de las transformaciones obtenidas en el primer apartado; el producto —en un

Se pide: a)

Aplicando transformaciones elementales sucesi-

vas a la matriz A, obtener la matriz identidad I2 . b)

orden adecuado— de las matrices elementales de orden 3 de estas transformaciones elementales inversas proporciona lo que se pide.)

Aplicar las mismas transformaciones elementa-

les obtenidas en el apartado anterior, y en el mismo

2



orden, a la matriz identidad I2 . c)

1 ⎜ A=⎝ 2 −1

Denotando por B la matriz que resulta en el

apartado anterior, efectuar los productos AB y BA. d)

Calcular las matrices elementales (de orden 3) de

las transformaciones obtenidas en el primer apartado, y multiplicarlas en orden (si M1 es la matriz elemental de la primera transformación, y M2 es la de la segunda, nos referimos a multiplicarlas en el orden M2 M1 , y de

Se considera la matriz:

a)

2 2 −2

⎞ 0 ⎟ 1⎠. 1

Obtener, a partir de la matriz A, la matriz identi-

dad I3 mediante la aplicación de transformaciones elementales sucesivas. b)

Ejecutar las transformaciones obtenidas en el

la misma manera si hay más transformaciones). ¿Qué

apartado anterior, y en el mismo orden, en la matriz

matriz se obtiene?

identidad I3 . Multiplicar la matriz resultante por A.

II. MATRICES

II.4 RANGO DE UNA MATRIZ En esta sección, introducimos el concepto de rango de una matriz y vemos algunas de sus propiedades. Asimismo, lo relacionamos con los sistemas de ecuaciones lineales.

1. Definición de rango de una matriz Este apartado presenta la definición de rango de una matriz. Ello requiere que recordemos, aun sucintamente, las matrices escalonadas, ya vistas con detalle en el Capítulo I. De nuevo las matrices escalonadas

158

Empezamos recordando que una fila no nula de una matriz tiene k

ceros iniciales si los primeros k términos de la fila son nulos pero el término (k + 1)-ésimo no lo es. Con ello, una matriz escalonada es una matriz que cumple lo siguiente: o bien es nula, o bien sus filas no nulas son las primeras, y cada una de ellas, salvo la primera, tiene más ceros iniciales que la precedente. En una matriz escalonada, el primer término no nulo de cada fila recibe el nombre de pivote. Por ejemplo, consideremos estas tres matrices: ⎛

−1 ⎜ ⎜ 0 ⎜ ⎜ 0 ⎝ 0

0 3 0 0

⎞ 2 ⎟ −3 ⎟ ⎟, 7⎟ ⎠ 0



0 0

1 0

−2 0

1/2 4



 y

1 ⎜ ⎝ −1 0

2 0 −2

−1 −2 3

⎞ −1 ⎟ 2⎠. −1

(5)

Las dos primeras son escalonadas: en ambas, las filas no nulas son las primeras (la segunda matriz, de hecho, no tiene filas nulas), y el número de ceros iniciales en estas filas no nulas es creciente según las leemos en su orden habitual de arriba abajo (verbigracia, en la segunda matriz pasamos de un cero inicial en la primera fila a tres en la segunda); además, como es costumbre, las hemos escrito remarcando los pivotes: apreciamos que cada fila no nula tiene uno y solo uno (el primer término no nulo), y que la fila nula (de la primera matriz) no tiene pivote. La tercera matriz escrita no es escalonada: sus filas primera y segunda tienen ambas el mismo número de ceros iniciales (en este caso, ninguno). En el capítulo citado, también aprendimos que a partir de cualquier matriz es posible obtener una matriz escalonada mediante la aplicación de transformaciones elementales sucesivas. De la matriz escalonada resultante se dice que es una forma escalonada de la matriz original. También vimos

II.4. RANGO DE UNA MATRIZ

un procedimiento para obtener una forma escalonada de cualquier matriz (o, como también se dice, para escalonar cualquier matriz). A modo de recordatorio, escalonamos la tercera de las matrices del párrafo anterior: ⎛

1 ⎜ ⎝ −1 0

2 0 −2

−1 −2 3

⎞ ⎛ −1 1 ⎟ F2 ←F2 +F1 ⎜ 2 ⎠ →  ⎝0 −1 0 ⎛

1 ⎜ →  ⎝0 0 F3 ←F3 +F2

2 2 −2 2 2 0

⎞ −1 ⎟ 1⎠ −1

−1 −3 3 −1 −3 0

⎞ −1 ⎟ 1⎠. 0

Vemos que obtenemos una matriz escalonada con dos pivotes. Rango de una matriz

159

En general, la forma escalonada de una matriz no es única (de he-

cho, salvo que sea nula, toda matriz admite infinitas formas escalonadas). Sin embargo, dada una matriz, sí acontece que todas sus formas escalonadas tienen el mismo número de pivotes (cf. § 99, p. 101). A este número se le denomina rango de la matriz. Si la matriz se denota por A, su rango se designa así: rango A. El rango de una matriz es, pues, el número de pivotes de cualquiera de sus formas escalonadas. Dado que en toda matriz escalonada hay exactamente un pivote por cada fila no nula y viceversa, el rango de una matriz Definición alternativa

también puede definirse como el número de filas no nulas de cualquiera de sus formas escalonadas. A modo de ejemplo, calculemos el rango de esta matriz: ⎛

1 ⎜ A = ⎝ −1 −1

2 1 4

⎞ −2 ⎟ 3⎠. 0

Para calcular el rango de una matriz, basta escalonarla y contar los pivotes; escalonemos, pues, la matriz A: ⎛

1 ⎜ A = ⎝ −1 −1

2 1 4

⎛ ⎞ F2 ←F2 +F1 1 −2 F ←F +F ⎟ 3 3 1 ⎜ 3 ⎠ →  ⎝ 0 0 0

2 3 6

⎛ ⎞ −2 1 F ←F −2F ⎟ 3 3 2 ⎜ 1 ⎠ →  ⎝0 0 −2

2 3 0

⎞ −2 ⎟ 1 ⎠ = A . −4

La matriz escalonada A tiene tres pivotes, luego: rango A = 3. Nótese que tres es a su vez la cantidad de filas no nulas de la forma escalonada A . Más ejemplos

160

¿Cuál es el rango de las tres matrices escritas en (5) (cf. p. 158)? Las

dos primeras ya son escalonadas, así que nos limitamos a contar sus pivotes

II. MATRICES

(o sus filas no nulas): ⎛ −1 0 ⎜ ⎜ 0 3 rango ⎜ ⎜ 0 0 ⎝ 0 0

⎞ 2 ⎟ −3 ⎟ ⎟=3 y 7⎟ ⎠ 0

 rango

0 0

1 0

−2 0

1/2 4

 = 2.

Por el contrario, la tercera matriz escrita en (5) no es escalonada, aunque la escalonamos en el § 158; la forma escalonada que obtuvimos para ella tiene dos pivotes (o dos filas no nulas), con lo que podemos escribir: ⎛ ⎞ 1 2 −1 −1 ⎜ ⎟ 0 −2 2 ⎠ = 2. rango ⎝ −1 0 −2 3 −1 Nota bene

Para calcular el rango de una matriz que ya es escalonada, directa-

mente se cuentan sus pivotes (o sus filas no nulas).



2. Propiedades del rango de una matriz Vemos ahora las propiedades más importantes del rango. Definimos también lo que se entiende por matriz de rango máximo, y vemos algunas propiedades de las matrices de este tipo que son cuadradas. Rango de una matriz nula

161

Como una matriz nula es escalonada y no tiene pivotes, el rango de

una matriz nula es igual a 0; es decir: rango O = 0. Por ejemplo: ⎛ ⎞   0 0 0 0 0 ⎜ ⎟ rango = 0 y rango ⎝ 0 0 ⎠ = 0. 0 0 0 0 0 Entre las matrices que son escalonadas, solamente las nulas no tienen pivotes.

Recíprocamente, si una matriz tiene rango igual a 0, entonces es necesariamente una matriz nula. En definitiva, afirmar que una matriz tiene rango igual a 0 es lo mismo que afirmar que la matriz es nula. En símbolos, si A es una matriz, podemos

El signo ‘⇐⇒’ es el signo de equivalencia (cf. nota p. 168). Relación entre el rango y el número de filas y el de columnas

En símbolos, si una matriz A es de orden (n, m), entonces: rango A  n y rango A  m.

escribir: rango A = 0 ⇐⇒ A = O. 162

Vimos en el Capítulo I (cf. § 65, p. 70) que el número de pivotes de

una matriz escalonada es menor o igual que el número de filas y menor o igual que el número de columnas. De acuerdo con ello: El rango de una matriz es menor o igual que el número de sus filas y menor o igual que el número de sus columnas.

II.4. RANGO DE UNA MATRIZ

Matriz de rango máximo

163

Diremos que una matriz tiene rango máximo cuando su rango coin-

cide con el número de filas o con el número de columnas (o con ambos si la matriz es cuadrada). En otras palabras, diremos que una matriz A de orden (n, m) tiene rango máximo si rango A = n o rango A = m. Por ejemplo, de las tres matrices escritas en (5) (cf. p. 158) —cuyos rangos están consignados en el § 160—, las dos primeras tienen rango máximo, pero la tercera no (el de esta es igual a 2, que no coincide ni con el número de filas ni con el de columnas). La matriz A vista en el § 159 también tiene rango máximo; para esta, que es cuadrada, el rango coincide tanto con el número de filas como con el de columnas. Nótese que, de acuerdo con el resultado del § 162, afirmar que una maHablamos de mínimo de dos números. . .

triz A de orden (n, m) tiene rango máximo es tanto como afirmar que el rango de A es igual al mínimo de los números n y m. (El mínimo de una lista finita de números se define como el menor de los números de la lista.)

El rango no varía al aplicar transformaciones elementales (por filas)

164

Las transformaciones elementales conservan el rango; es decir, si

aplicamos una transformación elemental a una matriz, el rango de la matriz antes y después de la transformación elemental es el mismo.

Para verlo, consideremos dos matrices A y B tales

tal inversa (cf. § 150, p. 150) de la que originalmente

que B puede obtenerse de A mediante una transforma-

transforma A en B, para después aplicar las transfor-

ción elemental, y denotemos por A una forma escalo-

maciones elementales sucesivas que llevan A a A . Al



nada de A. Acontece que la matriz A también es una

ser la matriz A una forma escalonada tanto de la ma-

forma escalonada de la matriz B: basta llevar la ma-

triz A como de la matriz B, estas dos matrices tienen el

triz B hasta la matriz A por la transformación elemen-

mismo rango.

Por ejemplo, las tres matrices que escribimos en el § 159: ⎛

1 ⎜ A = ⎝ −1 −1

2 1 4

⎞ −2 ⎟ 3⎠, 0



1 ⎜ ⎝0 0

2 3 6

⎞ −2 ⎟ 1⎠ −2



y

1 ⎜ A = ⎝ 0 0

2 3 0

⎞ −2 ⎟ 1⎠, −4

tienen el mismo rango —igual a 3—, pues puede obtenerse cada una de las otras mediante la aplicación de transformaciones elementales sucesivas. De hecho, la tercera es una forma escalonada de las otras dos.

Si aplicamos una transformación elemental (por filas) a una matriz, la matriz resultante tiene el mismo rango que la original.

II. MATRICES

Rango de una matriz identidad rango In = n

165

Una matriz identidad es escalonada y tiene tantos pivotes como

columnas (o tantos como filas, pues es cuadrada): es, pues, una matriz de rango máximo. Más en concreto, el rango de la matriz identidad In es igual a n. Por ejemplo:  rango I2 = rango

1 0

0 1



 = 2,

y

1 ⎜ rango I3 = rango ⎝ 0 0

0 1 0

⎞ 0 ⎟ 0 ⎠ = 3. 1

El rango de la matriz identidad In es igual a n.

Rango de una matriz elemental

166

Recordemos que una matriz elemental se obtiene tras aplicar a

una matriz identidad una transformación elemental (cf. § 153, p. 152). De acuerdo con el resultado del § 164, el rango de una matriz elemental es igual al de la matriz identidad de la que proviene (en particular, también es máximo); es decir: el rango de una matriz elemental de orden n es igual a n. Verbigracia, las siguientes matrices elementales de orden 3: ⎛

1 ⎜ ⎝0 0

0 0 1

⎞ 0 ⎟ 1⎠, 0



1 ⎜ ⎝0 0

0 3 0

⎞ 0 ⎟ 0⎠ 1

⎛ y

1 ⎜ ⎝0 0

2 1 0

⎞ 0 ⎟ 0⎠ 1

(obtenidas tras aplicar a la matriz identidad I3 las transformaciones elementales F2 ↔ F3 , F2 ← 3F2 y F1 ← F1 +2F2, respectivamente), tienen todas rango igual a 3. El rango de cualquier matriz elemental de orden n es igual a n.

De nuevo las matrices escalonadas reducidas

167

En este punto, y antes de pasar a ver la siguiente propiedad del ran-

go, conviene recordar las matrices escalonadas reducidas, que vimos también con detalle en el Capítulo I. Una matriz escalonada reducida es una matriz escalonada con estas dos características adicionales: todos sus pivotes (si los tiene) son unitarios (es decir, iguales a 1), y en cada columna donde hay un pivote es este el único término no nulo. Entre estas tres matrices escalonadas: ⎛ ⎞ ⎛ ⎞ 1 −2 0 0 1 0 ⎜ ⎟ ⎜ ⎟ 0 1 0⎠, ⎝0 1⎠ ⎝0 0 0 0 1 0 0

⎛ y

1 ⎜ ⎝0 0

2 3 0

⎞ −2 ⎟ 1⎠, −4

(6)

II.4. RANGO DE UNA MATRIZ

son escalonadas reducidas las dos primeras: sus pivotes son unitarios y las columnas de estos tienen nulos los otros términos; por el contrario, la tercera no lo es: no todos sus pivotes son unitarios, por ejemplo. Nota bene

Para que una matriz escalonada sea escalonada reducida, a una co-

lumna que no tiene pivote no se le exige que sus términos no nulos sean unitarios. Al respecto de esto, véase, verbigracia, la segunda columna de la primera matriz de las escritas en (6), que es escalonada reducida.



En el capítulo citado, también vimos un procedimiento que permite obtener una matriz escalonada reducida a partir de una matriz dada. De la matriz obtenida decimos que es la forma escalonada reducida de la matriz original. Y decimos la, y no una, porque acontece que dada una matriz su forma escalonada reducida es única (cf. § 100, p. 102). El procedimiento del que hablamos para llegar a la forma escalonada reducida de una matriz pasa, en primer lugar, por escribir una forma escalonada de la matriz dada; en segundo lugar, a partir de ella se hacen unitarios los pivotes, y finalmente se hacen nulos los restantes términos de las columnas de los pivotes. Por ejemplo, para la matriz A del § 159 (cf. p. 159), podemos calcular la forma escalonada reducida a partir de la forma escalonada A que obtuvimos para Esta matriz A es justamente la tercera de las matrices escritas en (6).

ella en ese parágrafo: ⎛

1 ⎜ A = ⎝ 0 0

2 3 0

⎛ ⎞ F ←(1/3)F 2 2 −2 1 ⎟ F3 ←(−1/4)F3 ⎜ 1 ⎠ →  ⎝ 0 −4 0 ⎛

1 ⎜ →  ⎝ 0 0 F1 ←F1 −2F2

F1 ←F1 +(8/3)F3



1 F2 ←F2 −(1/3)F3 ⎜ →  ⎝ 0 0

2 1 0

⎞ −2 ⎟ 1/3 ⎠ 1

0 1 0

⎞ −8/3 ⎟ 1/3 ⎠ 1

0 1 0

⎞ 0 ⎟ 0 ⎠ = A . 1

La matriz A obtenida es la forma escalonada reducida de la matriz A. Nótese que coincide con la matriz identidad I3 . Matrices cuadradas de rango máximo

168

Una matriz cuadrada de rango máximo (es decir, con rango igual

tanto al número de filas como al de columnas) tiene por matriz escalonada reducida la matriz identidad de su mismo orden. En otras palabras: a partir de una matriz cuadrada de rango máximo se puede obtener, mediante la aplicación de transformaciones elementales sucesivas, la matriz identidad.

II. MATRICES

Más en concreto, si A es una matriz cuadrada de orden n y de rango igual a n, entonces la forma escalonada reducida de A es la matriz identidad In . En efecto: como el rango de la matriz A es igual a n, todas sus formas escalonadas, incluida la reducida, tienen n pivotes. Pero la única matriz, cuadrada de orden n, que es escalonada reducida y presenta n pivotes es justamente la matriz identidad In (pueden consultarse los detalles de esta última afirmación en el § 77, p. 80). Por ejemplo, en el § 159 (cf. p. 159) trabajamos con esta matriz: ⎛ ⎞ 1 2 −2 ⎜ ⎟ 3⎠. A = ⎝ −1 1 −1 4 0 Es cuadrada de orden 3 y su rango es igual a 3. En el § 167, obtuvimos su forma escalonada reducida: precisamente la matriz identidad I3 . Por otra parte, si una matriz cuadrada de orden n tiene por forma escalonada reducida la matriz identidad In , entonces su rango es igual a n (pues la matriz In tiene n pivotes). En definitiva, concluimos: Dada una matriz cuadrada de orden n, afirmar que su rango es igual a n es equivalente a afirmar que su forma escalonada reducida es la matriz identidad In . Matrices cuadradas de rango máximo (continuación)

169

Las matrices cuadradas de rango máximo tienen otra propiedad in-

teresante: se pueden escribir como un producto de matrices elementales.

Consideremos una matriz A, cuadrada de orden n, con rango igual a n. Existe una lista de transformacio-

miten recuperar la matriz A. Si M1 , M2 , . . . , Mp es la lista correspondiente de las matrices elementales de

nes elementales que, aplicadas sucesivamente a la ma-

orden n asociadas a estas transformaciones elemen-

triz A, nos llevan a la matriz In (cf. § 168). La lista de

tales inversas, de acuerdo con el resultado del § 156

las inversas de estas transformaciones, leída al revés,

(cf. p. 155), podemos escribir: Mp Mp−1 · · · M1 In = A;

es una lista de transformaciones elementales que, apli-

es decir: A = Mp Mp−1 · · · M1 . La matriz A es efectiva-

cadas sucesivamente a la matriz identidad In , nos per-

mente igual a un producto de matrices elementales.

Veamos un ejemplo de este resultado. Busquemos expresar como un producto de matrices elementales la siguiente matriz cuadrada de orden 2:   1 2 A= . −1 3 Lo hacemos siguiendo el esquema sugerido por la demostración anterior.

II.4. RANGO DE UNA MATRIZ

En primer lugar, la escalonamos para confirmar que su rango es máximo:     1 2 F2 ←F2 +F1 1 2 A= →  = A ; −1 3 0 5 la matriz escalonada A presenta dos pivotes, luego: rango A = 2. Calculemos ahora la forma escalonada reducida de la matriz A; seguimos con transformaciones elementales a partir de su forma escalonada A :       1 2 F2 ←(1/5)F2 1 2 F1 ←F1 −2F2 1 0  A = →  →  = A . 0 5 0 1 0 1 Vemos que la forma escalonada reducida de A es precisamente la matriz identidad I2 : A = I2 , lo que a su vez nos confirma el resultado del § 168. Llegados a este punto, si nos fijamos, hemos obtenido la matriz I2 aplicando a la matriz A las siguientes transformaciones elementales: F2 ← F2 + F1 ,

F2 ← (1/5)F2

y

F1 ← F1 − 2F2 ,

y en este mismo orden. Podemos recuperar la matriz A a partir de la matriz I2 haciendo uso de las transformaciones elementales inversas de las anteriores, pero aplicadas a su vez en orden contrario al escrito. Es decir, aplicamos a la matriz I2 , en primer lugar, la transformación elemental F1 ← F1 + 2F2 , que es la inversa de F1 ← F1 − 2F2 ; en segundo lugar, la transformación elemental F2 ← 5F2 , inversa a su vez de F2 ← (1/5)F2; y, finalmente, la transformación F2 ← F2 − F1 , inversa de F2 ← F2 + F1 . Lo comprobamos:    1 0 F1 ←F1 +2F2 1 I2 = →  0 1 0

2 1



F2 ←5F2



→ 

1 0

2 5



F2 ←F2 −F1

→ 



1 −1

2 3

 = A.

Para terminar, escribamos las matrices elementales (de orden 2) asociadas a las transformaciones elementales que acabamos de aplicar a la matriz I2 : F1 ← F1 + 2F2 , F2 ← 5F2 y F2 ← F2 − F1 ; tales matrices elementales son, respectivamente, estas:    1 2 1 M1 = , M2 = 0 1 0

0 5



 y

M3 =

1 −1

0 1

 .

Sabemos que aplicar una transformación elemental es lo mismo que multiplicar, por la izquierda, por su matriz elemental asociada (cf. § 156, p. 155), luego aplicar sucesivamente a la matriz I2 las tres transformaciones elementales anteriores es equivalente a multiplicar por la izquierda esta matriz, sucesivamente también, por las matrices elementales M1 , M2 y M3 . Como el

II. MATRICES

resultado de lo primero es la matriz A, también es esta matriz el resultado de lo segundo; es decir: A = M3 M2 M1 In ,

de donde: A = M3 M2 M1 .

Con ello ya tenemos escrita la matriz A como un producto de matrices elementales. Animamos al lector a realizar la comprobación:       1 0 1 0 1 2 1 2 = = A. M3 M2 M1 = −1 1 0 5 0 1 −1 3 La matriz A no es necesariamente cuadrada, ni necesariamente de rango máximo. La matriz T resulta ser cuadrada de rango máximo (véase, más adelante, § 171). Una propiedad del rango de un producto de matrices

Nota

Exactamente con el mismo argumento que se ha empleado en este pará-

grafo, podría demostrarse este otro resultado más general: si A es una matriz cualquiera, y A es su forma escalonada reducida, entonces la matriz A puede escribirse de la forma: A = T A , donde T es una matriz cuadrada que a su vez se puede escribir como un producto de matrices elementales. 

170

¿Hay alguna relación entre el rango de un producto de matrices y el

rango de las matrices que se multiplican? Podemos dar una respuesta afirmativa aquí mismo en un caso particular: cuando la primera de las matrices es cuadrada y de rango máximo. En concreto, acontece que el rango de una matriz no varía cuando se la multiplica, por la izquierda, por una matriz cuadrada de rango máximo.

Consideremos una matriz A, cuadrada de orden n y con rango igual a n, y una matriz B de n filas, de forma

aplicar a la matriz B la transformación elemental cuya matriz elemental asociada es M1 ; como la aplicación

que el producto AB está definido. De acuerdo con lo

de una transformación elemental mantiene el rango

probado en el § 169, podemos encontrar una lista de

(cf. § 164, p. 161), el rango del producto M1 B es el

matrices elementales M1 , M2 , . . . , Mp , de orden n, tales

mismo que el de la matriz B. El mismo argumento,

que A = Mp Mp−1 · · · M1 . Así:

aplicado a los sucesivos productos, por la izquierda, por las matrices elementales M2 , . . . , Mp , nos permite

AB = Mp Mp−1 · · · M1 B.

concluir que el rango del producto AB es finalmente el

Ahora bien, el producto M1 B es igual al resultado de

mismo que el de la matriz B.

Dada una matriz B cualquiera, si A es una matriz cuadrada de rango máximo tal que el producto AB está definido, entonces: rango(AB) = rango B. El producto de matrices cuadradas de rango máximo

171

Una consecuencia del resultado del § 170 es que el producto de

matrices cuadradas (del mismo orden, por supuesto) de rango máximo es, a su vez, una matriz cuadrada de rango máximo.

II.4. RANGO DE UNA MATRIZ

En efecto, si A y B son dos matrices cuadradas del mismo orden y ambas tienen rango máximo, entonces el producto AB está definido y su rango coincide con el de B (§ 170), y por tanto es máximo. El lector puede apreciar que este resultado se extiende sin dificultad al producto de más de dos matrices. El producto de matrices cuadradas de rango máximo (en tanto esté definido) es una matriz cuadrada de rango máximo. En particular, cualquier producto de matrices elementales del mismo orden es una matriz cuadrada de rango máximo. Otra propiedad del rango de un producto de matrices

172

De nuevo con la ayuda del resultado del § 170, podemos deducir

otra propiedad del rango de un producto de matrices; a saber: el rango de un producto de dos matrices es menor o igual que el rango de la primera de las matrices.

De acuerdo con la nota del final del § 169, la ma-

cia de la fórmula del producto dado por filas, cf. § 137,

triz A se puede escribir así: A = T A , donde T es una matriz cuadrada que es igual a un producto de matri-

p. 139). De acuerdo con ello, como la matriz A es escalonada reducida, y por tanto sus últimas filas son nulas,

ces elementales y A es la forma escalonada reducida

el producto A B tiene también nulas sus últimas filas,

de A. Por lo visto en el § 171, la matriz cuadrada T es de

y tiene de estas al menos tantas como la matriz A .

rango máximo, con lo que el producto, por la izquierda,

Cuando escalonemos la matriz A B, estas últimas filas

por ella no cambia el rango de una matriz. Es decir:

nulas seguirán siéndolo. De esta manera, tendremos

rango(AB) = rango(T A B) = rango(AB).

una forma escalonada de la matriz A B con una cantidad de filas no nulas menor o igual que la cantidad de

Ahora bien, en un producto de matrices, cada fila nula

filas no nulas de la matriz A . Es decir, el rango de A B

de la primera matriz nos lleva a que la fila correspondiente del producto también es nula (es una consecuen-

es menor o igual que el de A . En conclusión: rango(AB)  rango A.

Si A y B son dos matrices tales que el producto AB está definido, entonces: rango(AB)  rango(A).

3. Rango y sistemas de ecuaciones lineales Detallamos ahora la relación entre la discusión de un sistema de ecuaciones lineales y el rango de las matrices que se definen a partir del sistema. 173

La caracterización de la discusión de un sistema de ecuaciones li-

neales que hemos visto en el Capítulo I, formulada en términos de los

II. MATRICES

pivotes de una forma escalonada de la matriz ampliada del sistema, puede reformularse fácilmente en términos de rangos. El resultado de tal reformulación es el llamado teorema de ROUCHÉ–FROBENIUS. Consideremos un sistema de ecuaciones lineales, con matriz de coefi Sabemos que la matriz A  se forma adjuncientes A y matriz ampliada A. tando a la matriz A una columna más, con los términos independientes del  una forma escalonada de la matriz ampliada A;  sistema. Denotemos por A  su última columna, la matriz que resulta, desi eliminamos en la matriz A notémosla por A, es una forma escalonada de la matriz de coeficientes A.  no tiene un pivote en su última Sabemos que si la matriz escalonada A columna, entonces el sistema admite solución (es compatible, bien determinado, bien indeterminado). También tenemos noticia del recíproco: si el  no presenta un pivote en su sistema admite solución, entonces la matriz A  última columna (si lo tuviera, sería incompatible). Según son las matrices A  no tiene un pivote en su última columna es y A , afirmar que la matriz A lo mismo que afirmar que ambas matrices tienen el mismo número de pi y A tienen el mismo votes, y esto es tanto como afirmar que las matrices A rango. En definitiva: afirmar que el sistema admite solución es equivalente a afirmar que el rango de su matriz de coeficientes y el rango de su matriz ampliada coinciden. Acabamos de demostrar el siguiente resultado:

Teorema de ROUCHÉ–FROBENIUS

Teorema 1 Una condición necesaria y suficiente para que un sistema de ecuaciones lineales admita solución es que su matriz de coeficientes y su matriz ampliada tengan el mismo rango. Nota

El signo para indicar equivalencia es: ‘⇐⇒’.

Una observación sobre el lenguaje. Afirmar que un enunciado es condición

necesaria y suficiente para otro enunciado significa que ambos enunciados son equivalentes; es decir: si es verdadero el primero, entonces es verdadero el segundo, y si es verdadero el segundo, entonces es verdadero el primero. En el teorema anterior, estamos afirmando, pues, dos condiciones simultá-

Podemos escribir: el sistema admite solución    rango A = rango A.

Discusión de un sistema en términos de rangos

neamente. Una: si un sistema admite solución, entonces el rango de su matriz de coeficientes y el rango de su matriz ampliada coinciden. Dos: si el rango de la matriz de coeficientes y el rango de la matriz ampliada coinciden, entonces el sistema admite solución. Una condición es recíproca de la otra.

174



De acuerdo con el teorema de Rouché–Frobenius, la discusión de

un sistema de ecuaciones lineales de matriz de coeficientes A y matriz am puede formularse así: pliada A

II.4. RANGO DE UNA MATRIZ

 y este valor común del rango es igual al número • Si rango A = rango A de incógnitas del sistema, entonces el sistema es compatible determinado.  y este valor común del rango es menor que el • Si rango A = rango A número de incógnitas del sistema, entonces el sistema es compatible indeterminado.  entonces el sistema es incompatible. • Si rango A < rango A, Nota bene

No es posible el caso en el que el rango de la matriz de coeficientes A   sea mayor que el rango de la matriz ampliada A.

Cuando la matriz de coeficientes tiene rango igual al número de ecuaciones

175

Vale la pena que analicemos qué ocurre en un sistema de ecuaciones

lineales cuando su matriz de coeficientes tiene rango máximo. Distinguiremos para ello dos casos, que no son excluyentes: que el rango sea máximo por coincidir con el número de filas de la matriz (y por tanto con el número de ecuaciones del sistema), o que sea máximo por coincidir con el número de columnas de la matriz (y por ende con el número de incógnitas del sistema). Examinamos ahora el primero. Consideremos entonces un sistema de n ecuaciones lineales con m incógnitas, y —como es habitual— denotemos por A su matriz de coeficientes  su matriz ampliada. La matriz A es de orden (n, m) y la matriz A  es y por A de orden (n, m + 1) (recordemos que la segunda se construye adjuntando a la primera una columna más, con los términos independientes). Supon-

Como la matriz A es de orden (n, m), si rango A = n, entonces n  m (cf. § 162, p. 160).

gamos que la matriz A tiene rango igual al número de filas (o lo que es lo mismo: rango igual al número de ecuaciones); esto es: rango A = n.  también es igual a n. En efecto. El Acontece que el rango de la matriz A   n, pues tiene n rango de esta matriz no puede ser mayor que n: rango A   n, pues sus primeras m columfilas. Y sí es al menos igual a n: rango A nas, siendo m  n, son las mismas que las m columnas de A, con lo que de ellas saldrá el mismo número de pivotes (n en total).  y de acuerdo con la Al ser iguales los rangos de las matrices A y A, discusión de los sistemas de ecuaciones lineales en términos de rangos (cf. § 174), el sistema admite solución, y admite una (compatible determinado) o infinitas (compatible indeterminado) según sea el valor común del rango igual o menor, respectivamente, que el número de incógnitas (o lo que es equivalente: según sea n = m o n < m, respectivamente). Pero lo más llamativo es que todas estas conclusiones se verifican cualesquiera que sean los términos independientes del sistema. Es decir: un sistema de ecuaciones lineales cuya matriz de coeficien-

II. MATRICES

tes tiene rango igual al número de ecuaciones admite solución, y ello cualesquiera que sean sus términos independientes. Y será una única solución o serán infinitas según sea el rango igual o menor, respectivamente, que el número de incógnitas. En particular, la cantidad de soluciones no depende de los términos independientes. El recíproco de un enunciado del tipo “si P , entonces Q” es el enunciado “si Q, entonces P ”, donde P y Q son afirmaciones.

También se cumple el recíproco: si un sistema de ecuaciones lineales admite solución cualesquiera que sean los términos independientes, entonces el rango de su matriz de coeficientes es necesariamente igual al número de ecuaciones del sistema.

Consideremos un sistema de n ecuaciones lineales

único término no nulo procedente de ella sería el de

y m incógnitas que admite solución para cualquier elec-

posición (r + 1, m + 1). Con ello formaríamos una ma-

ción de los términos independientes. Denotemos por A su matriz de coeficientes, y por A una forma escalo-

triz de orden (n, m+1), denotémosla por B, que tendría un pivote en su última columna, y que sería por tanto

nada de A; ambas matrices son, pues, de orden (n, m).

la matriz ampliada de un sistema incompatible. Pero

Supongamos que el rango de A, que denotare-

el sistema cuya matriz ampliada es B sería equivalente

mos por r , no es igual al número de filas (es decir,

al original para alguna elección en este de los térmi-

suponemos que r es menor que n). Entonces la ma-

nos independientes, lo que va en contra de lo supuesto

triz A tendría n − r filas nulas (por supuesto, las úl-

desde el principio: que el sistema admite solución cua-

timas, pues es escalonada), y podríamos adjuntar a la

lesquiera que sean los términos independientes.

matriz A , a su derecha, una columna de este tipo: el

Debemos suponer, pues, que rango A = n; esto es,

término que acompaña a la primera de las filas nulas es distinto de 0 y todos los demás son nulos; es de-

que la matriz de coeficientes del sistema original tiene rango igual al número de filas, o lo que es lo mismo:

cir, podríamos adjuntar una columna de forma que el

rango igual al número de ecuaciones.

Para los clásicos, reductio ad absurdum.

Nota bene

Hemos justificado el resultado anterior por reducción al absurdo:

hemos supuesto que es falso (al suponer que el rango de A es distinto del número de filas) y hemos llegado a una contradicción (que el sistema original no tiene solución para alguna elección de los términos independientes). Este método de demostración es muy habitual.



Reuniendo en una las dos afirmaciones que hemos probado en este parágrafo (una recíproca de la otra), podemos en definitiva afirmar lo siguiente:

Una condición necesaria y suficiente para que un sistema de ecuaciones lineales admita solución para cualquier elección de los términos independientes es que el rango de la matriz de coeficientes sea igual al número de ecuaciones.

II.4. RANGO DE UNA MATRIZ

Un ejemplo

176

A modo de ejemplo de lo afirmado en el § 175, discutamos, según

los valores de los parámetros a, b y c, el siguiente sistema de ecuaciones ⎧ ⎪ x1 + 2x2 − 2x3 = a ⎪ ⎪ ⎨ −x1 + x2 + 3x3 = b ⎪ ⎪ ⎪ ⎩ −x + 4x = c. 1 2

lineales:

(7)

La matriz de coeficientes del sistema es ⎛ ⎞ 1 2 −2 ⎜ ⎟ 3⎠, A = ⎝ −1 1 −1 4 0 matriz cuyo rango calculamos en el § 159 (cf. p. 159): rango A = 3. Como este rango coincide con el número de ecuaciones del sistema, de acuerdo con el resultado del § 175, el sistema admite solución para cualquier elección de los términos independientes, es decir, cualesquiera que sean a, b y c. Por otra parte, como el rango también coincide con el número de incógnitas, el sistema es de solución única. En resumen: independientemente del valor de los parámetros a, b y c, el sistema (7) es compatible determinado. Y ya que estamos en ello, para cada valor de a, b y c, ¿cuál es la única solución del sistema (7)? En el citado § 159 y en el § 167 (cf. p. 162), calculamos una forma escalonada y la forma escalonada reducida, respectivamente, de la matriz A. Aplicamos estas transformaciones elementales: F2 ← F 2 + F1 ,

F3 ← F3 + F1 ,

F3 ← F3 − 2F2 ,

1 1 8 1 F2 , F3 ← − F3 , F1 ← F1 − 2F2 , F1 ← F1 + F3 , F2 ← F2 − F3 , 3 4 3 3 y en este mismo orden. Aplicándolas sucesivamente a la matriz ampliada F2 ←

del sistema:



1 ⎜ −1 ⎝ −1 obtenemos:

2 1 4

−2 3 0

⎞ a ⎟ b⎠, c



⎞ 3a + 2b − 2c ⎟ 3 ⎟ ⎟ 3a + 2b + c ⎟ ⎟. 1 0 ⎟ 12 ⎟ ⎟ a + 2b − c ⎠ 0 1 4 Así, fijados a, b y c, la solución única del sistema de ecuaciones lineales (7) ⎜1 ⎜ ⎜ ⎜ ⎜0 ⎜ ⎜ ⎜ ⎝ 0

es esta terna:

0

0

 3a + 2b − 2c 3a + 2b + c a + 2b − c  , , . 3 12 4

II. MATRICES

Cuando la matriz de coeficientes tiene rango igual al número de incógnitas

177

Cuando la matriz de coeficientes de un sistema de ecuaciones linea-

les es tal que su rango coincide con el número de incógnitas del sistema, entonces acontece que el sistema admite a lo más una solución. En efecto. En principio, el sistema puede admitir o no solución. Pero si la admite, según hemos visto en la discusión de los sistemas de ecuaciones lineales en términos de rangos (cf. § 174), es porque el rango de su matriz de coeficientes y el de su matriz ampliada coinciden; si este valor común del rango es además igual al número de incógnitas, el sistema es compatible determinado, esto es, de solución única. El sistema, efectivamente, o no admite solución, o admite solo una. También se verifica este otro resultado: si un sistema de ecuaciones lineales admite una única solución (es compatible determinado), entonces el rango de su matriz de coeficientes es igual al número de incógnitas. De nuevo es una consecuencia del citado § 174: si el sistema admite solución, el rango de la matriz de coeficientes y el de la matriz ampliada son iguales; pero este valor común del rango no puede ser menor que el número de incógnitas, porque en tal caso el sistema resultaría compatible indeterminado. El rango de la matriz del sistema es, pues, igual al número de incógnitas.

Cuando la matriz de coeficientes tiene rango igual al número de incógnitas: sistemas homogéneos

178

Particularizadas a sistemas de ecuaciones lineales homogéneos, las

afirmaciones del § 177 no son más que una transcripción, en términos de rangos, de lo que ya vimos sobre este tipo de sistemas en el § 96 (cf. p. 99). En concreto, como los sistemas homogéneos tienen al menos una solución (la nula), se verifica lo siguiente: si su matriz de coeficientes tiene rango igual al número de incógnitas, un sistema homogéneo admite solamente la solución nula; y también: si un sistema homogéneo admite solamente la solución nula, entonces el rango de su matriz de coeficientes coincide con el número de incógnitas. Ambos enunciados son recíprocos el uno del otro. En definitiva: Una condición necesaria y suficiente para que un sistema de ecuaciones lineales homogéneo admita solución única (la cual sería la nula) es que el rango de su matriz de coeficientes sea igual al número de incógnitas del sistema.

II.4. RANGO DE UNA MATRIZ

Ejercicios II.4 1 a) b) c)

d)

e)

f)

2

Calcular el rango de estas matrices:     1 1 1 1 y ; 1 0 1 1     0 0 1 0 0 y ; 0 0 0 0 0     1 1 2 y ; 2 ⎛ ⎞ ⎛ ⎞ 1 0 0 0 0 1 ⎜ ⎟ ⎜ ⎟ ⎝ 0 1 0 ⎠ y ⎝ 0 1 0 ⎠; 0 0 1 1 0 0 ⎛ ⎞ ⎛ ⎞ 1 2 1 1 2 1 ⎜ ⎟ ⎜ ⎟ 3⎠ y ⎝1 2 3 ⎠; ⎝1 2 1 2 −1 1 2 −2 ⎛ ⎞ ⎛ ⎞ 0 1 0 0 1 0 ⎜ ⎟ ⎜ ⎟ ⎜1 0 1⎟ ⎜1 0 1⎟ ⎜ ⎟ ⎜ ⎟ ⎜ 0 1 0 ⎟ y ⎜ 0 1 1 ⎟. ⎝ ⎠ ⎠ ⎝ 1 1 1 1 1 1 Entre las matrices del ejercicio anterior, ¿cuáles

tienen rango máximo? Para las que se encuentre que lo tienen, escribir la forma escalonada reducida; ¿es posible hacerlo sin escalonar explícitamente la matriz?

6

Escribir como un producto de matrices elemen-

tales las siguientes matrices: 

7

2 1

0 1



 y

1/2 −1/2

0 1

 .

Escribir como un producto de matrices elemen-

tales la siguiente matriz: 

8

1 1

2 1

 .

Se considera el siguiente sistema de ecuaciones

lineales, en el que a, p, q y r son parámetros: ⎧ ⎪ x + 3y + 2z = p ⎪ ⎪ ⎨ −x + z=q ⎪ ⎪ ⎪ ⎩ ax + 6y + 3z = r . Se pide: a)

determinar para qué valores de a se verifica esta

afirmación: el sistema de ecuaciones admite solución cualesquiera que sean p, q y r ;

3

Si dos matrices del mismo orden tienen el mismo

rango, ¿es posible obtener una de la otra mediante la aplicación de transformaciones elementales (por filas)

b)

discutir el sistema según los valores de los pará-

metros a, p, q y r .

sucesivas? 9 4

Calcular, según los valores del parámetro a, el

rango de estas matrices: ⎛

1 ⎜ ⎝1 1

2 2 2

⎞ 1 ⎟ 3⎠ a

⎛ y

0 ⎜ ⎜1 ⎜ ⎜0 ⎝ 1

Siendo a y b dos parámetros, nos dan este sis-

tema de ecuaciones lineales homogéneo: ⎧ ⎪ 2x + 3y + 5z = 0 ⎪ ⎪ ⎨ 5y − z = 0 ⎪ ⎪ ⎪ ⎩ 2x + ay + bz = 0.



1 0 1 1

0 ⎟ 1⎟ ⎟. a⎟ ⎠ 1 Se pide:

5

Calcular, según los valores de los parámetros a

y b, el rango de estas matrices: ⎛ ⎞ ⎛ 2 3 5 1 ⎜ ⎟ ⎜ ⎝ 0 5 −1 ⎠ y ⎝ −1 2 a b a

3 0 6

⎞ 2 ⎟ 1⎠. b

a)

calcular los valores de a y b para los que el sis-

tema admite solamente la solución nula; b)

discutir el sistema según los valores de los pará-

metros a y b.

II. MATRICES

II.5 INVERSA DE UNA MATRIZ CUADRADA Dedicamos esta sección a presentar el importante concepto de inversa de una matriz cuadrada. Además de la definición y las propiedades más importantes, veremos un método práctico para calcularla cuando existe, el cual está basado en las transformaciones elementales.

1. Definición de inversa de una matriz cuadrada La definición de inversa de una matriz trata de generalizar, en alguna forma, la definición de inverso de un número. Vemos en este apartado los detalles. Inversa de una matriz cuadrada

179

Sabemos lo que es el inverso de un número: si a es un número no

nulo, su inverso es un número b tal que ab = ba = 1; este número b se denota por 1/a, o también por a−1 . Por ejemplo, el inverso de 2 es 1/2, el de −2/3 es −3/2, y el de 1 es él mismo. Y sabemos que cualquier número distinto del número 0 admite inverso. Para matrices, al menos para matrices cuadradas de cierto tipo, se puede proceder de manera similar y también definir un inverso. Una matriz cuadrada es matriz inversa de otra matriz cuadrada (del mismo orden) si el producto de ambas, tanto en un orden como en el otro, es igual a la matriz identidad. Más en concreto, dada una matriz A, cuadrada de orden n, de una matriz B, también cuadrada de orden n, diremos es matriz inversa (o simplemente inversa) de la matriz A si se verifica: AB = BA = In . Cuando una matriz cuadrada admite matriz inversa, se dice que es inverti-

Matriz invertible

ble. Por ejemplo, consideremos estas dos matrices:     1 2 −1 2 A= y B= . 1 1 1 −1 Acontece que la segunda es matriz inversa de la primera, pues:      1 2 −1 2 1 0 AB = = = I2 , 1 1 1 −1 0 1 y también se comprueba que BA = I2 . Pero podemos decir más: la matriz A

Las matrices A y B son inversas entre sí.

es, a su vez, matriz inversa de la matriz B, pues BA = AB = I2 . Las dos matrices A y B son, pues, invertibles, y una es inversa de la otra.

II.5. INVERSA DE UNA MATRIZ CUADRADA

Otro ejemplo. Estudiemos si existe alguna matriz inversa para la matriz   1 1 C= . 1 1 De existir, sería  una  matriz D que verificaría: CD = DC = I2 . Con la notación habitual D = dij , la igualdad CD = I2 sería equivalente a: 

o bien:

¡Ni d11 + d21 , ni d12 + d22, pueden ser iguales, a la vez, a 1 y a 0!



1 1

1 1



d11 + d21 d11 + d21

d11 d21

d12 d22



d12 + d22 d12 + d22

 =

1 0



 =

0 1

1 0

 ,

0 1

 .

¡Pero esta última igualdad matricial no es posible! Debemos asumir, pues, que la matriz C no admite matriz inversa: la matriz C no es invertible. Y un ejemplo más: ¿es invertible una matriz cuadrada nula? No, y ello cualquiera que sea el orden de la matriz, porque el producto por ella tiene como resultado una matriz nula, de ninguna forma una matriz identidad. Nótese lo siguiente: entre los números, solo el número 0 no admite inverso, pero la matriz C del ejemplo anterior no admite matriz inversa y no es una matriz nula. ¿Qué matrices son invertibles y qué matrices no lo son? Lo veremos más adelante en esta misma sección.

Unicidad de la inversa. Notación para la inversa.

180

Acontece lo siguiente: si una matriz es invertible, entonces su ma-

triz inversa es única. En efecto, si una matriz A, cuadrada de orden n y que admite una inversa B, admite eventualmente otra inversa C, se tiene que BA = CA (ambos

La matriz inversa, si existe, es única.

productos son iguales a In ), de donde (multiplicando por la derecha por la matriz B): BAB = CAB,

o bien: B(AB) = C(AB);

de ello: BIn = CIn (pues AB = In ), y así: B = C; es decir, no hay una segunda inversa distinta. La notación para la inversa de la matriz A es: A−1 .

Si la matriz A es invertible, su (única) matriz inversa se denotará por A−1 . Es decir, dada una matriz A, cuadrada de orden n e invertible, la matriz A−1 es la única matriz que verifica: AA−1 = A−1 A = In . Verbigracia, con las matrices A y B vistas en el § 179, podemos escribir: B = A−1 (B es la inversa de A) y A = B −1 (A es la inversa de B).

 −1 −1 A =A

Si la matriz A es invertible, también lo es A−1 , y su inversa es justa −1 mente la propia matriz A; es decir: A−1 = A. 

Nota bene

II. MATRICES

2. Propiedades de la inversa de una matriz cuadrada Pasamos ahora a detallar algunas de las propiedades más importantes de las matrices invertibles (y de sus inversas). Es de destacar la caracterización de las matrices invertibles en términos del rango. Inversa de una matriz identidad −1 In = In

181

Como le ocurre al número 1 (que admite inverso y es igual a él mis-

mo), la matriz identidad de cualquier orden es invertible, y su inversa es ella misma. Dado cualquier orden n, se trata de una simple consecuencia de la −1 igualdad In In = In , que nos permite escribir: In = In .

Inversa de una matriz elemental

182

En el § 157 (cf. p. 156), vimos la siguiente propiedad de las matrices

elementales: si multiplicamos las matrices elementales, del mismo orden, asociadas a transformaciones elementales inversas, obtenemos la matriz identidad correspondiente. Más en concreto, dada una transformación elemental, si M es la matriz elemental de orden n asociada a ella, y M  es la matriz elemental del mismo orden asociada a su transformación elemental inversa, entonces: MM  = M  M = In . Después de haber definido (en el apartado anterior) lo que es una matriz invertible y lo que es una inversa, esta igualdad nos dice, por supuesto, que la matrices elementales M y M  son invertibles, y que una es inversa de la otra. Esto es: cualquier matriz elemental es invertible, y su inversa es otra matriz elemental; y es más: decir que dos matrices elementales del mismo orden son inversas una de la otra es tanto como decir que las transformaciones elementales a las que están asociadas son, a su vez, inversas entre sí.

Recordemos: ⎛ 1 ⎜ M = ⎝0 0 ⎛ 1 ⎜ M = ⎝ 0 0

Nos sirven como ejemplo de lo afirmado las matrices M y M  con las 0 1 0 0 1 0

⎞ 3 ⎟ 0⎠, 1 ⎞ −3 ⎟ 0⎠. 1

que trabajamos en el citado § 157: se trata de las matrices elementales de orden 3 asociadas, respectivamente, a las transformaciones elementales F1 ← F1 + 3F3 y F1 ← F1 − 3F3 , las cuales son inversas entre sí. Comprobamos allí que MM  = I3 ; lo repetimos aquí: ⎛

1 ⎜ MM  = ⎝ 0 0

0 1 0

⎞⎛ 3 1 ⎟⎜ 0⎠⎝0 1 0

0 1 0

⎞ ⎛ −3 1 ⎟ ⎜ 0⎠ = ⎝0 1 0

0 1 0

⎞ 0 ⎟ 0 ⎠ = I3 , 1

y dejamos de nuevo al lector la comprobación en el otro orden: M  M = I3 . −1

Podemos, pues, escribir: M  = M −1 , y también: M = (M  ) Inversa de un producto

183

.

Si multiplicamos dos matrices invertibles, su producto es una ma-

triz que también es invertible. Es más: si A y B son las matrices invertibles (AB)−1 = B −1 A−1

que multiplicamos (en particular, ambas son cuadradas del mismo orden), entonces la inversa de su producto es B −1 A−1 ; es decir: (AB)−1 = B −1 A−1 .

II.5. INVERSA DE UNA MATRIZ CUADRADA

¿Cómo lo comprobamos? La manera más directa de certificar que dos matrices dadas son una inversa de la otra es multiplicándolas, tanto en un orden como en el otro, para ver que se obtiene la matriz identidad. Si ponemos que las matrices A y B tienen orden n, al multiplicar la matriz AB por la matriz B −1 A−1 , obtenemos: (AB)(B −1A−1 ) = A(BB −1)A−1 = AIn A−1 = AA−1 = In , donde hacemos uso de las propiedades de la multiplicación de matrices y del hecho de que B y A son invertibles (con lo que BB −1 = AA−1 = In ); análogamente, tendríamos la otra igualdad: (B −1 A−1 )(AB) = In . Con todo ello comprobamos que efectivamente la inversa de AB es B −1 A−1 . Podemos comprobar el resultado con estas matrices:     1 2 1 −1 A= y B= , 1 1 0 1 La matriz A es la misma A escrita en el § 179, y ya conocemos su inversa. Esté tranquilo el lector: aprenderá a calcular inversas enseguida. Por ahora, acepte, por favor, la de B.

las cuales son invertibles:  A

−1

=

Se tiene:

−1 1

2 −1



 y

B

−1

=

1 0

1 1

 .



    1 2 1 −1 1 1 = , 1 1 0 1 1 0      1 1 −1 2 0 1 = = , 0 1 1 −1 1 −1

AB = B −1 A−1

y estas dos matrices obtenidas son efectivamente inversas una de la otra:         1 1 0 1 0 1 1 1 1 0 = = . 1 0 1 −1 1 −1 1 0 0 1 Nota

Es fácil extender el resultado anterior al producto de tres matrices: si A,

B y C son tres matrices, cuadradas del mismo orden e invertibles, entonces (ABC) −1 = C −1 B −1 A−1

su producto: ABC, es también invertible, y su inversa es C −1 B −1 A−1 . Y de la misma manera se extiende al producto de cualquier cantidad de matrices: dado un número natural positivo p, si A1 , A2 , . . . , Ap son p matrices, cuadradas del mismo orden e invertibles, entonces su producto también es invertible, y se tiene: (A1 A2 · · · Ap )

Caracterización de las matrices invertibles

184

−1

−1 −1 = A−1 p · · · A2 A1 .



Todavía no hemos dicho nada sobre cómo son las matrices que ad-

miten inversa (esto es, las matrices invertibles), o sobre cómo son las matrices que no la admiten. El resultado fundamental (que consideraremos un teorema) es este: las matrices cuadradas invertibles son precisamente las matrices cuadradas de rango máximo (cf. § 163, p. 161).

II. MATRICES

Consideremos una matriz A cuadrada. Para com-

forma escalonada reducida de A. Con el mismo argu-

probar la afirmación anterior, debemos comprobar dos

mento del párrafo anterior, deducimos que la matriz T

cosas. Una: si la matriz A tiene rango máximo, enton-

es invertible (es producto de matrices elementales, que

ces es invertible. Dos: si la matriz A es invertible, entonces su rango es máximo. (Nótese que ambos enun-

son invertibles). En la igualdad A = T A , multiplicamos, por la izquierda, por la inversa de T :

ciados son recíprocos uno del otro.)

T −1 A = T −1 T A ,

Veamos lo primero. Supongamos que la matriz A es de rango máximo, y deduzcamos de ello que es inverti-

de donde: T −1 A = A .

Como las matrices T −1 y A son invertibles (la segunda

ble. La matriz A, al ser cuadrada de rango máximo, es

lo es de acuerdo con lo supuesto), su producto, a su

igual a un producto de matrices elementales (cf. § 169, p. 164). Como las matrices elementales son inverti-

una matriz cuadrada, escalonada reducida e invertible.

bles (cf. § 182), y el producto de matrices invertibles

Ahora bien: una matriz invertible no puede tener filas

tiene como resultado una matriz invertible (cf. nota del

nulas: si tuviera alguna, al multiplicarla por cualquier

§ 183), deducimos que la matriz A es, efectivamente,

matriz seguiríamos obteniendo en la matriz producto

invertible. Veamos lo segundo. Supongamos ahora que la ma-

una fila nula, y tal matriz producto no podría ser igual a una matriz identidad. Como la matriz escalonada A

triz A es invertible, y obtengamos de ello que su rango

no tiene filas nulas, el número de sus pivotes coincide

es máximo. De acuerdo con la nota del citado § 169,

con el número de sus filas. El rango de la matriz A es,

vez, es una matriz invertible. Es decir, la matriz A es



la matriz A se puede escribir de esta forma: A = T A ,

pues, igual al número de filas; como es cuadrada, este

donde T es una matriz que a su vez se puede escribir

rango coincide también con el número de columnas, y

como un producto de matrices elementales y A es la

en definitiva es máximo.

Como ejemplo, recordemos las matrices A y C vistas en el § 179:  A=

1 1

2 1



 y

C=

1 1

1 1

 .

Como ambas son cuadradas de orden 2, tener rango máximo significa para ellas que su rango es igual a 2. ¿Lo es? El de la primera sí, pero el de la segunda no:  A=

1 1

2 1



F2 ←F2 −F1

→ 



1 0

2 −1



 ,

C=

1 1

1 1



F2 ←F2 −F1

→ 



1 0

1 0

 .

Confirmamos lo que ya sabíamos del mismo § 179: la matriz A es invertible (tiene rango máximo) y la matriz C no lo es (no tiene rango máximo). Si A es cuadrada de orden n: A es invertible   rango A = n.

Teorema 2 Una condición necesaria y suficiente para que una matriz cuadrada de orden n sea invertible es que su rango sea igual a n. Nota

Sobre condición necesaria y suficiente, véase nota p. 168.



II.5. INVERSA DE UNA MATRIZ CUADRADA

Un poquito de nomenclatura • Matriz regular

185

Es usual la siguiente nomenclatura. Dada una matriz cuadrada, se

dice que es regular, o no singular, si su rango es máximo (es decir, igual al número de sus filas, que coincide con el de columnas); y se dice que es

• Matriz singular

singular si su rango no es máximo (esto es, menor que el número de filas y menor que el número de columnas). Verbigracia, las matrices vistas en el ejemplo del § 184: A y C, resultan ser regular la primera y singular la segunda. De acuerdo con el resultado del citado § 184 (teorema 2), las matrices invertibles son las matrices regulares, y las matrices no invertibles son las matrices singulares. Por supuesto, una matriz cuadrada nula es singular, pero es claro que entre las matrices cuadradas de orden mayor o igual que 2 hay matrices singulares que no son nulas. En esto apreciamos una diferencia importante con el inverso de un número, pues entre los números solo el 0 no admite inverso. ¿Y las matrices cuadradas de 1? Entre ellas, solo hay  orden  una matriz singular: la nula; en concreto: 0 . Las operaciones entre matrices cuadradas de orden 1, incluida la inversión, se reducen en definitiva a operaciones entre los números que figuran como sus únicos términos.

Aplicación de la inversa a sistemas de ecuaciones lineales

186

Dado un sistema de ecuaciones lineales, si su matriz de coeficientes

es cuadrada y regular, el sistema es compatible determinado. En este caso, además, la inversa de la matriz de coeficientes (nótese que esta matriz resulta invertible al ser cuadrada y regular) juega un importante papel para calcular la única solución del sistema.

Discusión del sistema.

Veamos esto con detalle. Consideremos un sistema de n ecuaciones lineales con n incógnitas, y —como es habitual— denotemos por A su matriz de coeficientes, que resulta así ser cuadrada de orden n. Supongamos que la matriz A es regular; esto es: rango A = n. La matriz A es entonces una matriz de coeficientes cuyo rango coincide tanto con el número de ecuaciones del sistema como con el número de incógnitas. Por lo primero, el sistema admite solución (cf. § 175, p. 169); por lo segundo, esa solución es única (cf. § 177, p. 172).

Resolución del sistema.

Y ahora, ¿cómo podemos encontrar la única solución del sistema de ecuaciones lineales? Recordemos la notación matricial de los sistemas de ecuaciones lineales (cf. § 144, p. 143): si X y C son, respectivamente, las

Recuérdese que para sistemas escritos en notación matricial se “amplía” el concepto de solución, y se considera como tal también una matriz columna (cf. § 146, p. 145).

matrices de incógnitas y de términos independientes del sistema (ya sabemos: la matriz columna cuyos términos son las incógnitas y la matriz columna cuyos términos son los términos independientes), entonces la notación matricial del sistema es la igualdad matricial AX = C. Con el sistema así escrito, buscar su única solución es equivalente a buscar la única matriz

II. MATRICES

columna X1 tal que AX1 = C. Ahora bien, la matriz A es invertible, con lo que podemos multiplicar, por la izquierda, en la igualdad AX1 = C por la inversa A−1 : A−1 AX1 = A−1 C,

Ayuda: A−1 AX1 = In X1 = X1 .

de donde:

X1 = A−1 C.

La matriz columna así obtenida: A−1 C, es la única solución del sistema de ecuaciones lineales. Recuérdese el citado § 175.

Si nos fijamos en la discusión del sistema, para concluir que este es compatible determinado no han influido los términos independientes (solo intervienen en la resolución del sistema, para el cálculo efectivo de la solución). Podemos afirmar lo siguiente sobre la discusión del sistema: cuando la matriz de coeficientes es regular, el sistema es compatible determinado para cualquier elección de los términos independientes. Dado un sistema de ecuaciones lineales con el mismo número de ecuaciones que de incógnitas, si la matriz de coeficientes es regular, el sistema es compatible determinado cualesquiera que sean los términos independientes. Si el sistema en notación matricial es AX = C, entonces su única solución es la matriz columna A−1 C.

Un ejemplo

187

Queremos mostrar un primer ejemplo de aplicación de lo visto en el

§ 186. Es verdad que todavía no sabemos calcular, en la práctica, la inversa de una matriz (ello llegará en el apartado siguiente), pero el ejemplo no dejará por ello de ser ilustrativo. Consideremos el siguiente sistema de ecuaciones lineales: ⎧ ⎨ x1 + 2x2 = 1 ⎩ x1 + x2 = −1.

(8)

Tiene el mismo número de ecuaciones que de incógnitas —dos de cada—, y la matriz de coeficientes, la de incógnitas y la de términos independientes son, respectivamente, estas:   1 2 A= , 1 1

 X=

x1 x2



 y

C=

1 −1

 ,

de forma que la notación matricial del sistema es AX = C. La matriz A es cuadrada de orden 2, y es regular (calculamos su rango en el § 184). El sistema de ecuaciones lineales (8) es, pues, compatible determinado. ¿Y cuál es la solución única del sistema? De acuerdo con lo afirmado en el § 186, esta solución única, como matriz columna, es igual al producto A−1 C. Recordando la inversa de la matriz A (cf. § 179, p. 174), el cálculo

II.5. INVERSA DE UNA MATRIZ CUADRADA

de la solución nos queda:  A

−1

C=

−1 1

2 −1



1 −1



 =

−3 2

 .

Podemos decir la única solución del sistema de ecuaciones lineales (8) es tanto esta matriz columna recién obtenida como el par ordenado (−3, 2). Otro ejemplo

188

Discutamos y resolvamos, según los valores de los parámetros a

y b, este sistema de ecuaciones lineales: ⎧ ⎨ x1 + 2x2 = a ⎩ x1 + x2 = b.

(9)

Notemos, antes de nada, que el sistema (8) (que estudiamos en el § 187) es un caso particular de este nuevo sistema: basta tomar a = 1 y b = −1. De todas formas, ambos sistemas tiene la misma matriz de coeficientes, que es cuadrada y regular, por lo que el sistema (9) también es compatible determinado, y ello para cualquier valor de los parámetros a y b. Ahora, la solución única del sistema (9) se puede hallar de la misma manera que la del (8): multiplicando la inversa de la matriz de coeficientes por la matriz de los términos independientes. Solo esta última matriz cambia con respecto a los cálculos que llevamos a cabo para el sistema (8) (en el § 187): si denotamos la nueva matriz de coeficientes por D, de forma que la notación matricial del sistema es AX = D, el cálculo de su solución única queda así:

 A−1 D =

−1 1

2 −1



a b



 =

2b − a a−b

 .

Esta matriz columna obtenida, o bien el par ordenado (2b − a, a − b), es la única solución del sistema de ecuaciones lineales (9).

3. Método práctico para el cálculo de la matriz inversa Procedemos ahora a desarrollar un método, basado en las transformaciones elementales, para calcular efectivamente la inversa de una matriz de la cual sabemos que es invertible. Un método para calcular la inversa

189

Nos dan una matriz cuadrada que sabemos es invertible, y quere-

mos calcular su inversa. La matriz, por ser invertible, tiene rango máximo (cf. § 184, p. 177), y por ser cuadrada de rango máximo puede obtenerse de ella, mediante la aplicación de transformaciones elementales sucesivas, la

II. MATRICES

matriz identidad (cf. § 168, p. 163). Acontece que estas mismas transformaciones elementales, aplicadas en el mismo orden, llevan la propia matriz identidad a la matriz inversa que buscamos. Justifiquémoslo. Denotemos la matriz cuadrada invertible por A y pongamos que es de orden n. Hay entonces una lista de transformaciones elementales que aplicadas sucesivamente a la matriz A nos la llevan a la matriz identidad In . Si M1 , M2 , . . . , Mp son las matrices elementales de orden n asociadas a estas transformaciones, podemos escribir: Mp · · · M2 M1 A = In ,

(10)

en virtud de la propiedad de que aplicar una transformación elemental es equivalente a multiplicar, por la izquierda, por su matriz elemental correspondiente (cf. § 156, p. 155). Mire despacio el lector, por un momento, el producto anterior: el producto M1 A es el resultado de aplicar a A la primera transformación elemental; el producto M2 M1 A = M2 (M1 A) es el resultado de aplicar, a lo obtenido tras esa primera aplicación, la segunda transformación elemental; y así sucesivamente. Ahora, en (10) multiplicamos, por la derecha, por la matriz A−1 : Note el lector: AA−1 = In

y

In A−1 = A−1 .

Mp · · · M2 M1 AA−1 = In A−1 ,

de donde:

Mp · · · M2 M1 In = A−1 .

Fijemos nuestra atención en esta última igualdad: Mp · · · M2 M1 In = A−1 . Su segundo miembro es la matriz que buscamos: A−1. Su primer miembro es el producto, por la izquierda, de la matriz In por varias matrices elementales, producto que puede entonces interpretarse como la aplicación sucesiva, a la matriz In , de las transformaciones elementales correspondientes. ¡Pero estas matrices elementales son justamente las asociadas a las transformaciones elementales que nos llevan A a In ! Es decir: podemos obtener la matriz A−1 aplicando a la matriz In las mismas transformaciones elementales, y en el mismo orden, que nos permiten obtener la matriz In a partir de la matriz A. Debemos enfatizar un detalle importante: la matriz identidad In es precisamente la forma escalonada reducida de la matriz invertible A (porque así es la forma escalonada reducida de una matriz cuadrada de orden n y de rango igual a n; véase el ya citado § 168). De esta forma, cuando busquemos transformaciones elementales que nos lleven la matriz A a la matriz In , podemos simplemente poner en práctica el procedimiento ya conocido para obtener la forma escalonada reducida de una matriz. Por otra parte, como deberemos aplicar a la matriz In las mismas transformaciones elementales, y en el mismo orden, que nos llevaron la matriz A

II.5. INVERSA DE UNA MATRIZ CUADRADA

hasta la matriz In , en la práctica  cómodo escribir yuxtapuestas las  resulta matrices A y In , de esta forma: A In (en una suerte de matriz ampliada más grande), y aplicar las transformaciones elementales correspondientes a ambas matrices a la vez. Terminaremos cuando logremos sustituir la matriz A por la matriz In : la matriz que obtengamos junto a la matriz In será  −1 −1 A I precisamente A ; es decir, se llegará a n . Un primer ejemplo

190

Como primer ejemplo, apliquemos el método descrito para calcular

la inversa de la matriz A que introdujimos en el § 179 (cf. p. 174):  A=

1 1

2 1

 .

Para ello, aplicamos transformaciones elementales sucesivas para llevar la matriz A a la matriz identidad I2 ; simplemente, lo que haríamos para obtePor no ser necesario, no señalamos los pivotes.

ner la forma escalonada reducida de A:      1 2 F2 ←F2 −F1 1 2 F2 ←−F2 1 A= →  →  1 1 0 −1 0

2 1



F1 ←F1 −2F2



→ 

1 0

0 1

 = I2 .

Anotamos estas transformaciones, sin cambiar el orden, y las aplicamos de nuevo, pero a la matriz I2 :  I2 =

1 0

0 1



F2 ←F2 −F1

→ 



1 −1

0 1



F2 ←−F2



→ 

1 1

0 −1



F1 ←F1 −2F2

→ 



−1 1

2 −1

 .

La matriz final obtenida es la buscada inversa de la matriz A: A−1 ; lo podemos comprobar directamente (multiplicándola por A y viendo que se obtiene I2 ), o confirmarla en el citado § 179. Pero, como comentábamos  del § 189, resulta más cómodo yux al final taponer las matrices A y I2 : A I2 , y aplicar a ambas a la vez las sucesivas transformaciones elementales. Ello toma esta forma:      1 2 1 0 1 2 1 F2 ←F2 −F1 A I2 = →  1 1 0 1 0 −1 −1 F2 ←−F2



→  F1 ←F1 −2F2

→ 



0 1

1 0

2 1

1 1

0 −1

1 0

0 1

−1 1

2 −1







 = I2

 A−1 .

Como la primera de estas matrices es la matriz I2 , el proceso termina, y la matriz A−1 es la que acompaña a I2 ; desde luego, es la que ya conocíamos.

II. MATRICES

191

Otro ejemplo

Calculemos, si existe, la inversa de esta matriz: ⎛

−1 ⎜ A=⎝ 1 0

⎞ 1 ⎟ 2⎠. 1

0 1 0

Antes de nada, deberíamos cerciorarnos de que la matriz A es efectivamente invertible, lo cual puede conseguirse calculando su rango y viendo que es igual a 3. Pero este cálculo del rango puede simultanearse con el proceso de cálculo efectivo de la inversa, pues al llevar la matriz A a la matriz identidad I3 pasamos en algún momento por alguna forma escalonada de A: llegados a ese punto, simplemente contamos los pivotes. Empezamos, pues, sin Trabajando sobre el par de las  más preámbulos.  matrices yuxtapuestas: A I3 , buscamos llevar la matriz A a la matriz I3 : 

A

I3



⎛ = ...

−1 ⎜ ⎝ 1 0

0 1 0

1 2 1

1 0 0

0 1 0

⎛ ⎞ 0 1 F ←(−1)F ⎜ ⎟ 1 1 0 ⎠ →  ⎝ 1 1 0 ⎛

1 F2 ←F2 −F1 ⎜ →  ⎝ 0 0

La primera matriz del par es escalonada y tiene tres pivotes: rango A = 3. Seguimos. . . 

I3

A−1





F1 ←F1 +F3 F2 ←F2 −3F3

1 ⎜ →  ⎝ 0 0

= ...

0 1 0

−1 2 1

1 0 0

0 1 0

⎞ 0 ⎟ 0⎠ 1

0 1 0

−1 3 1

−1 1 0

0 1 0

⎞ 0 ⎟ 0⎠ 1

0 1 0

0 0 1

−1 1 0

0 1 0

⎞ 1 ⎟ −3 ⎠ . 1

Finalmente, la matriz A−1 es la que acompaña a la matriz I3 en el último par de matrices yuxtapuestas: ⎛

A−1

−1 ⎜ =⎝ 1 0

0 1 0

⎞ 1 ⎟ −3 ⎠ . 1

Enfatizamos lo que decíamos sobre el cálculo del rango: tras la segunda transformación elemental, de la matriz A se ha obtenido una matriz escalonada con tres pivotes:



1 ⎜ ⎝0 0

0 1 0

⎞ −1 ⎟ 3⎠, 1

lo que confirma, una vez iniciado el proceso, que el rango de A es igual a 3, y por tanto que esta matriz es invertible.

II.5. INVERSA DE UNA MATRIZ CUADRADA

Y otro ejemplo más



B

I3



= ...

Ya tras la primera transformación: rango B = 3, pues: ⎞ ⎛ 1 1 −1 ⎟ ⎜ 0⎠. ⎝0 1 0 0 1

192

Calculemos, si existe, la inversa de esta matriz: ⎛ ⎞ 1 1 −1 ⎜ ⎟ 1 0⎠. B=⎝ 0 −1 −1 2   Escribimos el par de matrices yuxtapuestas B I3 y buscamos llevar,

con transformaciones elementales, la matriz B hasta la matriz ⎛ ⎛ ⎞ 0 0 1 1 −1 1 1 1 −1 1 ⎜ ⎟ F3 ←F3 +F1 ⎜ 1 0 ⎠ → 0 0 1 0 0  ⎝0 1 ⎝ 0 0 1 0 0 1 1 −1 −1 2 0 ⎛

1 F1 ←F1 −F2 ⎜ →  ⎝0 0 ⎛



I3

B −1



1 ⎜ →  ⎝0 0 F1 ←F1 +F3

= ...

La matriz que figura adjuntada a la matriz ⎛ 2 −1 ⎜ −1 1 B = ⎝0 1 0 Otro ejemplo, con “trampa”

193

I3 : 0 1 0

⎞ 0 ⎟ 0⎠ 1

0 1 0

−1 0 1

1 0 1

−1 1 0

⎞ 0 ⎟ 0⎠ 1

0 1 0

0 0 1

2 0 1

−1 1 0

⎞ 1 ⎟ 0⎠. 1

I3 es la inversa de la matriz B: ⎞ 1 ⎟ 0⎠. 1

Calculemos, si existe, la inversa de la siguiente matriz:   2 1 A= . 1 1/2

Empezamos como es habitual: considerando el par de matrices yuxta  puestas A I2 . Obtenemos: 

A

I2



 =

2 1

1 1/2

1 0

0 1



F2 ←F2 −(1/2)F1

→ 



2 0

1 0

1 −1/2

0 1

 ...

Pero aquí debemos parar. ¿Qué ocurre? La primera de las matrices del par que hemos obtenido, la cual es una matriz que proviene justamente de la matriz A, es escalonada, y solo tiene un pivote:   2 1 . 0 0 Es decir: rango A = 1. La matriz A no es invertible. Huelga seguir; por supuesto, no podremos obtener de ninguna manera la matriz identidad I2 como primera matriz del par de matrices yuxtapuestas.

II. MATRICES

La matriz genérica de orden 2

194

Consideremos esta matriz cuadrada general de orden 2:   a b A= . c d

Veamos bajo qué condiciones es invertible, y en su caso calculemos su inversa. Formamos el habitual par de matrices yuxtapuestas:



A

 I2 , y empe-

zamos. En primer lugar, supongamos que a ≠ 0, para poder realizar una primera transformación elemental que deje la primera columna con los términos a y 0: Nótese:



c ad − bc d− b = . a a

A

I2



⎛ ⎜ =⎝

a

b

1

0

c

d

0

1





⎟ F2 ←F2 −(c/a)F1 ⎜  ⎝ ⎠ →

a

b

0

ad − bc a

1 c − a

0 1

⎞ ⎟ ⎠.

En este punto, debemos parar un momento: si fuera ad−bc igual a 0, entonces la primera de las matrices anteriores (la que viene de A) admitiría solo un pivote y la matriz A no sería invertible. Supongamos, pues, que ad− bc ≠ 0, y continuemos. Dividimos la primera fila por a y la segunda por (ad−bc)/a, y obtenemos:

⎛ ⎜1 ⎜ ⎜ ⎝ 0

¿Ayuda? Veamos: 1  b −c + − · a a ad − bc =

bc 1 + a a(ad − bc)

=

(ad − bc) + bc a(ad − bc)

=

d . ad − bc

b a 1

1 a −c ad − bc

⎞ 0 a ad − bc

⎟ ⎟ ⎟. ⎠

Y solo resta sumar a la primera fila la segunda multiplicada por −b/c (la transformación elemental F1 ← F1 − (b/a)F2 ); llegamos así a ⎛ ⎞ −b d 1 0 ⎜ ⎟ ⎜ ad − bc ad − bc ⎟ ⎜ ⎟. ⎝ ⎠ a −c 0 1 ad − bc ad − bc De acuerdo con lo obtenido (ya hemos llegado a tener la matriz identidad I2 en el primer lugar del par de matrices yuxtapuestas), podemos concluir: ⎛

A

−1

d ⎜ ad − bc =⎜ ⎝ −c ad − bc

⎞ −b  d 1 ad − bc ⎟ ⎟ , o bien: A−1 = ⎠ a ad − bc −c ad − bc

−b a

 , (11)

y esta es la expresión general de la inversa de una matriz cuadrada de orden 2. Para finalizar, unas observaciones. De acuerdo con el desarrollo anterior, la matriz A es invertible o no según sea la expresión ad − bc distinta

II.5. INVERSA DE UNA MATRIZ CUADRADA

de 0 o igual a 0, respectivamente. Es decir, afirmar que la matriz A es invertible es equivalente a afirmar que ad − bc ≠ 0. Además, en el caso en que efectivamente la matriz es invertible, su inversa es la matriz que hemos escrito en (11). Y un último detalle. Hemos pedido al principio que a sea no nulo. Si se cumple que ad − bc ≠ 0, entonces los números a y c no pueden ser simultáneamente nulos (por otra parte, si lo fueran, nótese que la matriz A tendría una columna nula, y no podría llegar a exhibir dos pivotes). En el caso en que a = 0 y c ≠ 0, aplicaríamos como primera transformación elemental el intercambio de las filas primera y segunda (esto es: F1 ↔ F2 ), y seguiríamos a partir de ahí de la misma manera; llegaríamos a una expresión para la inversa coherente con la escrita en (11).

Ejercicios II.5 1

Estudiar si son invertibles las siguientes matri-

ces, y en caso afirmativo calcular la inversa:     1 1 1 1 a) y ; 1 0 1 1 ⎛ ⎞ ⎛ ⎞ 1 0 0 0 0 1 ⎜ ⎟ ⎜ ⎟ b) ⎝ 0 1 0 ⎠ y ⎝ 0 1 0 ⎠; 0 0 1 1 0 0 ⎛ ⎞ ⎛ ⎞ 1 2 1 1 2 1 ⎜ ⎟ ⎜ ⎟ 3 ⎠ y ⎝ 1 2 3 ⎠. c) ⎝1 2 1 2 −1 1 1 1 2

Calcular, si existe, la inversa de esta matriz: ⎛

1 ⎜ ⎝ 2 −1 3

2 2 −2



0 ⎟ 1 ⎠. 1

cuando exista:



1 ⎜ ⎝1 1 5

2 2 1

⎞ 1 ⎟ 3⎠. a

Tenemos dos matrices A y B, cuadradas y del

mismo orden. Si la primera de ellas no es invertible, ¿puede ser invertible el producto AB? ¿Y si pedimos adicionalmente que la segunda sí sea invertible? También: ¿es invertible el producto AB si la matriz A sí es invertible? 6

Se considera el siguiente sistema de ecuaciones

lineales, en el que a, p, q y r son parámetros: ⎧ ⎪ x + 2y + z = p ⎪ ⎪ ⎨ x + 2y + 3z = q ⎪ ⎪ ⎪ ⎩ x + y + az = r .

Según los valores del parámetro a, estudiar si es

invertible la siguiente matriz: ⎛

2 ⎜ ⎝0 2

3 5 a

⎞ 5 ⎟ −1 ⎠ . 3

Se pide: a)

b) 4

Estudiar, según los valores del parámetro a, si

es invertible la siguiente matriz, y calcular la inversa

calcular los valores de a para los que el sistema

admite solución única; resolver el sistema en los casos en que haya solu-

ción única calculando la inversa de la matriz de coeficientes.

II. MATRICES

II.6 TRASPUESTA DE UNA MATRIZ En esta sección, presentamos en primer lugar el concepto de traspuesta de una matriz y sus principales propiedades, incluyendo el importante resultado de que el rango de una matriz coincide con el de su traspuesta. En un segundo apartado, definimos lo que se entiende por traza de una matriz y vemos también sus propiedades más relevantes.

1. Traspuesta de una matriz Dedicamos este apartado a la trasposición de matrices: definición, ejemplos, y algunas de sus propiedades.

Definición y ejemplos Traspuesta de una matriz

195

La traspuesta de una matriz es la matriz que resulta de considerar

las filas de la matriz original como columnas, y las columnas como filas. La traspuesta de A también se denota: A , o AT .

Más formalmente: dada una matriz A de cualquier orden (n, m), su matriz traspuesta, que se denota: At , es otra matriz de orden (m, n) tal que los términos de sus m filas son los términos de las m columnas de A, y los términos de sus n columnas son los de las n filas de A. Es decir, el término de posición (i, j) de la matriz At es igual al término de posición (j, i) de la matriz A, y ello para cada 1  i  m y cada 1  j  n. Veamos un ejemplo. Consideremos esta matriz:   1 3 −1 A= . 0 2 4 Es de orden (2, 3), así que su traspuesta: At , es una matriz de orden (3, 2). Informalmente, lo que en la matriz A son filas, en la matriz At son columnas, y viceversa; más en concreto, los términos de la primera fila de A son los términos de la primera columna de At , y los términos de la segunda fila de A son los de la segunda columna de At . La matriz At es, pues, la que tiene como términos de su primera columna los números 1, 3 y −1, y como términos de su segunda columna los números 0, 2 y 4: ⎛ ⎞ 1 0 ⎜ ⎟ At = ⎝ 3 2 ⎠ . −1 4 Nótese que el término de posición (1, 2) (por fijarnos en uno) de la matriz At es igual al término de posición (2, 1) de la matriz A.

II.6. TRASPUESTA DE UNA MATRIZ

Más ejemplos

196

Consideremos estas matrices: 

1

0

2



⎛ y

⎞ −1 ⎜ ⎟ ⎝ 0⎠. 4

La primera es una matriz fila (esto es, con una sola fila), que se transformará en una única columna al trasponer; es decir, su traspuesta es una matriz columna. Sus términos son obviamente los mismos que los de la matriz fila original. Podemos escribir: 

1

0

2

t

⎛ ⎞ 1 ⎜ ⎟ = ⎝0⎠. 2

Análogamente, la segunda matriz de las anteriores, que es una matriz columna, tendrá por traspuesta una matriz fila: ⎛

⎞t −1  ⎜ ⎟ ⎝ 0 ⎠ = −1 4 Otro ejemplo

197

0

 4 .

Examinemos esta matriz cuadrada:   1 −3 A= . 2 0

¿Cómo es su traspuesta? Como la matriz A es cuadrada de orden 2, es decir, es de orden (2, 2), su traspuesta: At , es de orden (2, 2), con lo que también es cuadrada de orden 2. Los términos de la primera fila de At son los términos de la primera columna de A, que son: 1 y 2; y los términos de la segunda fila de At son los de la segunda columna de A: −3 y 0. En definitiva:   1 2 t A = . −3 0 Nota bene Si una matriz es cuadrada, su traspuesta es otra matriz cuadrada del mismo orden. 

Propiedades Traspuesta de la traspuesta t t

(A ) = A

198

Dada una matriz A, ¿cuál es la traspuesta de la matriz At ? La propia t

matriz A; es decir: (At ) = A. En efecto. Si ponemos que A es de orden (n, m), entonces At es de ort

den (m, n), y (At ) vuelve a ser de orden (n, m). Por otra parte, de acuerdo

II. MATRICES t

con la definición, el término de posición (j, i) de la matriz (At ) es igual al Y esto para cada 1  i  m y cada 1  j  n.

término de posición (i, j) de la matriz que se traspone: At , pero el término de posición (i, j) de esta es igual al término de posición (j, i) de la matriz A. t

En definitiva, las matrices (At ) y A tienen iguales los términos de la misma posición. Esto termina de comprobar que ambas matrices son iguales. Traspuesta de una matriz identidad Int = In

199

La traspuesta de una matriz identidad es ella misma: Int = In .

¿No resulta obvio? Por si acaso, nótese que los términos de la primera fila de la matriz In son los mismos que los términos de la primera columna, y los de la segunda fila son los mismos que los de la segunda columna, y así sucesivamente.

Traspuesta de una suma y del producto por un número (A + B)t = At + B t (λA)t = λAt

200

La traspuesta de una suma de matrices es igual a la suma de las

traspuestas. Es decir: si A y B son dos matrices del mismo orden, se tiene: (A + B)t = At + B t . t

Y más: si λ es un número, entonces: (λA) = λAt . Se trata de  propiedades  fáciles  de demostrar. Pongamos (como es haaij y B = bij . El término de posición (i, j) de la ma-

bitual): A =

t

triz (A + B) es igual al término de posición (j, i) de la matriz A + B, el cual es: aji + bji , pero este último es igual al de posición (i, j) de At + B t . De forma similar podríamos comprobar la otra propiedad. A modo de ejemplo, consideremos estas dos matrices:     1 1 0 −1 −1 1 A= y B= . 2 1 0 0 −1 1 Se tiene: ⎛

1 ⎜ At = ⎝ 1 0

⎞ 2 ⎟ 1⎠, 0



−1 ⎜ B t = ⎝ −1 1

⎞ 0 ⎟ −1 ⎠ 1

 y

A+B =

0 2

0 0

1 1

 ,

de donde: ⎛

1 ⎜ At + B t = ⎝ 1 0

⎞ ⎛ 2 −1 ⎟ ⎜ 1 ⎠ + ⎝ −1 0 1

⎞ ⎛ 0 0 ⎟ ⎜ −1 ⎠ = ⎝ 0 1 1

⎞ 2 ⎟ 0 ⎠ = (A + B)t , 1

lo que confirma la primera propiedad para este caso. También: ⎛ ⎞   2 4 2 2 0 ⎜ ⎟ 2A = y 2At = ⎝ 2 2 ⎠ , 4 2 0 0 0 y es claro que la traspuesta de la primera es igual a la segunda: (2A)t = 2At .

II.6. TRASPUESTA DE UNA MATRIZ

Traspuesta de un producto t

t

201

Si A y B son dos matrices tales que el producto AB está definido, t

entonces: (AB) = B t At .

t

(AB) = B A

Para probarlo, pongamos A =



aij



yB =



 bij ,

triz B t At es igual a

y denotemos por m el número de columnas de A (que

m 

es, por supuesto, igual al de filas de B). El término de t posición (i, j) de la matriz (AB) es igual al de posición (j, i) de la matriz AB, que es esta suma: m 

bki ajk ,

k=1

pues el término de posición (i, k) de B t es bki y el de posición (k, j) de At es ajk . Es claro que el término de

ajk bki .

t

posición (i, j) es el mismo en las dos matrices (AB)

k=1

t

t

yBA.

Por otra parte, el término de posición (i, j) de la ma-

En conclusión, ambas matrices son iguales.

Comprobemos la propiedad con estas matrices: ⎛ ⎞   1 1 1 0 ⎜ ⎟ A= y B = ⎝ −1 ⎠ , 2 1 0 2 cuyo producto está definido:  AB =

1 2

1 1

0 0





⎞   1 0 ⎜ ⎟ ⎝ −1 ⎠ = . 1 2

El producto B t At es igual a 

B t At = 1

−1

y se tiene: (AB)t = Nota

⎛ ⎜1 2 ⎝1 0

 t  0 = 0 1

⎞ 2 ⎟  1⎠ = 0 0

1



 1 ,

= B t At .

Es fácil extender la propiedad anterior al producto de más de dos matrices:

si A1 , A2 , . . . , Ap son p matrices cuyo producto está definido, entonces podet

mos escribir: (A1 A2 · · · Ap ) = Atp · · · At2 At1 . Traspuesta de una inversa

202



Si nos dan una matriz cuadrada invertible, ¿es invertible su tras-

puesta? Sí, y su inversa es igual a la traspuesta de la inversa de la matriz dada. Más en concreto, si A es una matriz invertible, también lo es su trast −1

(A )

−1 t

= (A

)

t

−1

puesta At , y la inversa de esta es (A−1 ) . Es decir: (At )

t

= (A−1 ) .

II. MATRICES t

La justificación es sencilla. Multipliquemos las matrices At y (A−1 ) , y veamos que obtenemos la matriz identidad. Teniendo en cuenta el resultado de los § 201 y 199, y denotando por I la matriz identidad del mismo orden que A (y que At ), nos queda: t

t

At (A−1 ) = (A−1 A) = I t = I, y lo mismo obtendríamos con el producto en el otro orden. Vemos así que t

las matrices At y (A−1 ) son, efectivamente, inversas una de la otra. Podemos verificar la propiedad con esta matriz:   1 2 A= , 1 1 ¡Atrévase el lector a calcular la inversa de At !

con la cual trabajamos por primera vez en el § 179 (cf. p. 174). Por un lado:     1 1 −1 1 t t −1 A = y (A ) = , 2 1 2 −1 y por otro:



La inversa de A se conoce del citado § 179.

A

−1

=

−1 1

2 −1



 y

(A

−1 t

) =

−1 2

1 −1

 .

Obtenemos lo mismo de ambas formas. Traspuesta y rango: el rango de una matriz es igual al de su traspuesta

203

Vemos ahora una importante propiedad: la trasposición de matri-

ces conserva el rango; es decir, el rango de una matriz coincide con el de su traspuesta.

t

rango A = rango A

En símbolos, dada una matriz A cualquiera, se tiene: rango A = rango At . Antes de ver la justificación del resultado, y a modo de ejemplo, recordemos que en el § 160 (cf. p. 159) calculamos estos rangos (entre otros): ⎛ ⎞ ⎛ ⎞ −1 0 2 ⎜ ⎟ 1 2 −1 −1 ⎜ 0 3 −3 ⎟ ⎟ ⎟ = 3 y rango ⎜ 0 −2 2 ⎠ = 2. rango ⎜ ⎝ −1 ⎜ 0 0 7⎟ ⎝ ⎠ 0 −2 3 −1 0 0 0 Sin necesidad de cálculos adicionales escalonando matrices, podemos escribir directamente el rango de las traspuestas de las dos matrices anteriores: ⎛

−1 ⎜ rango ⎝ 0 2 ¡Le animamos a ello!

0 3 −3

0 0 7

⎞ 0 ⎟ 0⎠ = 3 y 0



1 ⎜ ⎜ 2 rango ⎜ ⎜ −1 ⎝ −1

−1 0 −2 2

⎞ 0 ⎟ −2 ⎟ ⎟ = 2. 3⎟ ⎠ −1

El lector puede proceder a corroborar lo escrito calculando los rangos de estas matrices de acuerdo con la definición (es decir, escalonando las matrices y contando los pivotes).

II.6. TRASPUESTA DE UNA MATRIZ

Antes de entrar en la demostración propiamente dicha, veamos un resultado previo.

números u1(r +1), . . . , u1m) con el término de posición (1, 1) (futuro privote de la primera columna y de

El resultado previo es este: si U es una matriz esca-

la primera fila); anulando a su vez los términos de la

lonada reducida, entonces se tiene: rango U = rango U t . Pongamos que la matriz U es de orden (n, m) y de

segunda columna (ocupados por u2(r +1), . . . , u2m) con el de posición (2, 2); y así sucesivamente, hasta anu-

rango r . En la matriz U reordenamos sus columnas

lar los términos de la r -ésima columna con el de posi-

de forma que sigamos teniendo una matriz escalonada

ción (r , r ). La matriz escalonada a la que se llega, que

reducida, pero con los r pivotes en las primeras colum-

también es escalonada reducida, tiene exactamente r  t = r . Finalmente, esta pivotes, y por tanto: rango U t  matriz U no es (en principio) la matriz U t , pero sí

nas (cf. § 76, p. 79); ello nos deja una matriz, que deno , con el mismo número de pivotes que U, taremos por U y por tanto con el mismo rango. Si m > r y n > r , la  tiene esta forma (cf. § 77, p. 80): matriz U ⎞⎫ ⎛ 1 0 . . . 0 u1(r +1) . . . u1m ⎪ ⎪ ⎟⎪ ⎜ ⎪ ⎜ 0 1 . . . 0 u2(r +1) . . . u2m ⎟ ⎪ ⎬ ⎟ ⎜ ⎟ ⎜. r . . . . . . ⎪ ⎜. .. .. .. .. .. .. ⎟ ⎪ ⎟⎪ ⎜. ⎪ ⎟⎪ ⎜ ⎭ ⎟  =⎜ , U ⎜ 0 0 . . . 1 ur (r +1) . . . ur m ⎟ ⎫ ⎟⎪ ⎜ 0 0 . . . 0 0 . . . 0 ⎟⎪ ⎜ ⎪ ⎟⎬ ⎜ ⎜. .. .. .. .. ⎟ .. .. ⎜ .. n−r . . . . . . ⎟ ⎠⎪ ⎝ ⎪ ⎪ ⎭ 0 0 ... 0 0 ... 0       m−r

r

para algunos números uij con i y j tales que 1  i  r  queda como la y r + 1  j  m. Si m = r , la matriz U

 t el interconseguimos llegar a esta si aplicamos a U cambio de filas correspondiente al intercambio de co para devolver los pivotes a lumnas que haríamos en U la posición que originalmente tenían en la matriz U. Como un intercambio de filas no altera el rango de  t , y en definiuna matriz, tenemos: rango U t = rango U tiva: rango U t = rango U. Pasamos ahora a demostrar el resultado general. Para ello, consideramos una matriz A cualquiera. Sabemos (cf. nota del final del § 169, p. 164), que la matriz A se puede escribir así: A = T U, donde T es una matriz cuadrada que es igual a un producto de matrices elementales y U es la forma escalonada reducida de A. Si en la igualdad A = T U trasponemos, obtene-

escrita pero sin sus últimas m − r columnas; si n = r ,

mos: At = (T U) = U t T t (cf. § 201), y a partir de esto

queda también como la escrita, pero sin sus n − r últi es mas filas (las nulas). La traspuesta de U

podemos escribir:



1 ⎜ ⎜ 0 ⎜ ⎜ .. ⎜ ⎜ . ⎜ ⎜ 0 ⎜ ⎜ ⎜ u1(r +1) ⎜ ⎜ .. ⎜ . ⎝ u1m 

0 1 .. . 0

... ... .. .

u2(r +1) .. . u2m  r

... ... .. . ...

0 0 .. . 1 ur (r +1) .. . ur m

0 0 .. . 0 0 .. . 0

 

...

⎞⎫ 0 ⎪ ⎪ ⎟⎪ ⎪ 0⎟ ⎪ ⎬ ⎟ r .. ⎟ ⎟⎪ ⎪ .⎟⎪ ⎪ ⎟⎪ ⎭ 0⎟ ⎟⎫ . ⎟⎪ 0⎟ ⎪ ⎟⎪ ⎬ .. ⎟ ⎟ m−r .⎠⎪ ⎪ ⎪ 0 ⎭





... ... .. . ... ... .. .

n−r

t

rango At = rango(U t T t )  rango U t = rango U, donde hacemos uso de que el rango de un producto de dos matrices es menor o igual que el rango de la primera de las matrices (cf. § 172, p. 167), y también del resultado previo antes demostrado. Finalmente, hemos obtenido: rango At  rango U = rango A. Para terminar, notemos que acabamos de probar esta afirmación: el rango de la traspuesta de una matriz es menor o igual que el de la matriz. Si lo aplicamos a t

 t puede escalonarse, anulando, medianEsta matriz U

la matriz At misma, obtenemos: rango (At )  rango At ,

te transformaciones elementales de tipo iii, los térmi-

o bien: rango A  rango At .

nos de la primera columna (ahora ocupados por los

En definitiva: rango A = rango At .

II. MATRICES

204

Una consecuencia: otra propiedad del rango de un producto de matrices

Queremos recoger aquí una primera consecuencia de que el rango

de una matriz coincide con el de su traspuesta (§ 203). Sabemos que el rango de una matriz es igual al de su producto, por la izquierda, por una matriz cuadrada de rango máximo (cf. § 170, p. 166). Lo mismo acontece si el producto es por la derecha. En concreto, dada una matriz B cualquiera, si A es una matriz cuadrada de rango máximo tal que el producto BA está definido, entonces rango(BA) = rango B. La prueba es sencilla: teniendo en cuenta la citada igualdad entre el

Recuérdese la traspuesta de un producto (cf. § 201).

rango de una matriz y el de su traspuesta, podemos escribir:   t rango(BA) = rango (BA) = rango At B t = rango B t = rango B, donde hacemos uso de la propiedad recordada en el citado § 170: la matriz B t está multiplicada, por la izquierda, por la matriz At , la cual es cuadrada de rango máximo en tanto lo es A. El rango de un producto de dos matrices es igual al rango de una de ellas si la otra es cuadrada de rango máximo.

2. Traza de una matriz La traza es un número que se define para matrices cuadradas. Vemos en este apartado su definición y algunas propiedades. 205

Traza de una matriz 

En símbolos: si A = aij cuadrada de orden n: tr(A) =

n 

akk .

k=1



es

Dada una matriz cuadrada, se define la traza de la matriz como la

suma de los términos de la diagonal principal. La traza de una matriz A se denota así: tr(A). Por ejemplo, para estas dos matrices cuadradas: ⎛ ⎞   1 −2 4 1 1 ⎜ ⎟ 0 6⎠ y B = A = ⎝0 , 0 −1 2 −3 −5 se tiene: tr(A) = 1 + 0 + (−5) = −4, y tr(B) = 1 + (−1) = 0. Otro ejemplo. La traza de la matriz identidad de orden 2 es igual a 2:   1 0 = 1 + 1 = 2, tr(I2 ) = tr 0 1 y en general la traza de la matriz identidad In es igual a n: ⎞ ⎛ 1 0 ... 0 ⎟ ⎜ ⎜0 1 . . . 0⎟ ⎟ ⎜ ⎟ = 1 + 1 +· · · + 1 = n. tr(In ) = tr ⎜ . . . ⎜ .. .. . . ... ⎟  ⎠ ⎝ n unos 0 0 ... 1

II.6. TRASPUESTA DE UNA MATRIZ

Traza de una suma y del producto por un número tr(A + B) = tr(A) + tr(B) tr(λA) = λ tr(A)

206

La traza de una suma es igual a la suma de las trazas. Más pre-

cisamente: si A y B son matrices cuadradas del mismo orden, entonces se cumple que tr(A + B) = tr(A) + tr(B). También se cumple, si λ es un número,  que tr(λA)   = λ tr(A).  Es fácil verlo. Pongamos: A = aij y B = bij , ambas cuadradas de orden n. Los términos de la diagonal principal de la matriz suma A + B son a11 + b11 , a22 + b22 , . . . , ann + bnn . Podemos escribir: tr(A + B) = (a11 + b11 ) + (a22 + b22 ) + · · · + (ann + bnn ) = (a11 + a22 + · · · + ann ) + (b11 + b22 + · · · + bnn ) = tr(A) + tr(B), lo que demuestra la primera propiedad. En cuanto a la segunda, podemos a su vez escribir: tr(λA) = λa11 + λa22 + · · · + λann = λ(a11 + a22 + · · · + ann ) = λ tr(A). A modo de ejemplo, podemos tomar estas matrices:      2 −1 −1 0 1 A= , B= , A+B = 0 3 1 1 1

−1 4

 .

Se tiene: tr(A) = 5, tr(B) = 0, y también: tr(A + B) = 5 = tr(A) + tr(B), de acuerdo entonces con la primera propiedad. Para dar muestra de la segunda, fijémonos, verbigracia, en la matriz 3A:   6 −3 tr(3A) = tr = 15 = 3 tr(A). 0 9 Traza de un producto

207

¿Es la traza de un producto igual al producto de las trazas? No, pero

sí podemos enunciar una propiedad interesante relacionada con la traza de un producto. Puede ocurrir que tr(AB) ≠ tr(A) tr(B).

En general, no se verifica que la traza de un producto AB: tr(AB), sea igual al producto de las trazas tr(A) y tr(B), ni siquiera aunque las matrices A y B sean cuadradas (y del mismo orden). Lo vemos, por ejemplo,

Cf. § 205.

tomando A = B = In . Por un lado, se tendría: tr(AB) = tr(In In ) = tr(In ) = n; por otro lado: tr(A) tr(B) = tr(In ) · tr(In ) = n · n = n2 ; en cuanto n  2, ambos números son distintos: n ≠ n2 . Si embargo, sí se verifica esta otra propiedad. Nos dan dos matrices A y B, la primera de orden (n, m) y la segunda de orden (m, n), de forma que

Si los productos AB y BA están definidos: tr(AB) = tr(BA).

los productos AB y BA están definidos y ambos son matrices cuadradas, el primero de orden n y el segundo de orden m. Acontece que las trazas de estas dos matrices cuadradas son iguales; es decir: tr(AB) = tr(BA).

II. MATRICES

De manera similar, llegaríamos a

Veamos ahora la justificación de la propiedad enunciada. Si 1  i  n, el término de posición (i, i) del producto AB (el i-ésimo término de la diagonal principal de AB) es igual a:

m 

m  n 

tr(BA) =

bki aik .

k=1i=1

aik bki .

Y ambas sumas son iguales:

k=1 n  m 

La traza de AB es la suma de todos estos términos (son n en total), es decir: tr(AB) =

aik bki =

i=1k=1 n  m 

m  n 

bki aik .

k=1i=1

Nótese que las dos sumas tienen los mismos suman-

aik bki .

dos, pero colocados de distinta manera.

i=1k=1

Como ilustración de esta propiedad, consideremos estas dos matrices:  A=

Por un lado:

 AB =

2 1

1 3

−1 0





1 ⎜ y B = ⎝3 0

⎞ 0 ⎟ −1 ⎠ . 1



5 10

−2 −3

1 0 3

⎞ −1 ⎟ −3 ⎠ , 0

,

y

tr(AB) = 5 − 3 = 2;

por otro lado: ⎛

2 ⎜ BA = ⎝ 5 1

y

tr(BA) = 2 + 0 + 0 = 2.

¿Traza e inversa?

208

Puede ocurrir que

neral, no se cumple que la traza de la inversa de una matriz invertible,

tr(A−1 ) ≠ 1/ tr(A). Un contraejemplo es un ejemplo que muestra que un enunciado no se cumple.

Por si acaso alguien se lo pregunta, queremos comentarlo: en ge-

digamos tr(A−1 ), sea igual al inverso de la traza de la matriz: 1/ tr(A). La misma matriz identidad In , con n  2, nos sirve de contraejemplo. −1 Por un lado, el cálculo de tr(In ) nos conduce a tr(In ) = n. Por otro lado,

el cálculo de 1/ tr(In ) nos lleva a 1/n. Los números n y 1/n son distintos cuando n  2.

Traza del producto de una matriz por su traspuesta

209

Hay un caso particular de la propiedad del § 207 que es interesante:

cuando nos dan una matriz A cualquiera y consideramos los productos AAt y At A. Estos dos productos son matrices cuadradas y, de acuerdo con la propiedad citada, ambos tienen la misma traza: tr(AAt ) = tr(At A). Pero es más interesante aún el valor de tal traza: es igual a la suma de los cuadrados de todos los términos de la matriz A (o de la matriz At , que

II.6. TRASPUESTA DE UNA MATRIZ

al fin y al cabo tienen los mismos  términos, solo que colocados de distinta manera). Si la matriz A = aij es de orden (n, m), podemos escribir: tr(AAt ) = tr(At A) =

n  m 

a2ik .

i=1k=1

Recordemos el cálculo de la traza de un producto AB que en el citado § 207 (para una   ma  realizamos triz A = aij de orden (n, m) y una matriz B = bij

Si tomamos B = At , entonces bki = aik , y la igualdad anterior toma la forma:

de orden (m, n)): tr(AB) =

tr(AAt ) =

n  m 

aik aik =

i=1k=1

n  m 

aik bki .

n  m 

a2ik .

i=1k=1

Así vemos justificada la fórmula dada.

i=1k=1

Para dar un ejemplo de esta propiedad, fijémonos en esta matriz:   2 1 −1 A= . 1 3 0 Tal suma es: 22 + 12 + (−1)2 + 12 + 32 + 02 = 16. ¡Anímese el lector a verlo con el producto At A!

Cuando un producto At A tiene traza nula Si tr(AAt ) = 0, o tr(At A) = 0, entonces A = O.

La suma de los cuadrados de sus términos es igual a 16, y este número se ve confirmado por otra vía: ⎛   2 2 1 −1 ⎜ AAt = ⎝ 1 1 3 0 −1 210

⎞  1 6 ⎟ 3⎠ = 5 0

5 10

 ,

y

tr(AAt ) = 16.

La propiedad vista en el § 209, sobre la traza de un producto de la

forma AAt o At A, tiene una consecuencia que queremos resaltar: dada una matriz A cualquiera, si la traza de AAt , o la de At A (al fin y al cabo ambas trazas son iguales), es igual a 0, entonces la matriz A es nula. En efecto. De acuerdo con el citado § 209, la traza del producto AAt es igual a la suma de los cuadrados de todos los términos de la matriz A. Una suma de cuadrados es una suma en la que todos los sumandos son mayores o iguales que 0: si una tal suma es igual a 0, necesariamente todos los sumandos deben ser a su vez iguales a 0. Todos los términos de la matriz A son, pues, iguales a 0; es decir, esta matriz es nula.

Una propiedad sobre el rango de un producto At A

211

Vemos ahora una propiedad del rango de las matrices que se pue-

den escribir como un producto del tipo At A, y de la que haremos uso en el futuro. Es esta: si una matriz A tiene rango igual al número de columnas (con lo que el número de filas debe ser mayor o igual que el de columnas, y la matriz resulta ser de rango máximo), entonces la matriz cuadrada At A es invertible.

II. MATRICES

Pongamos B = At A; la matriz B resulta ser enton-

(pues tr(O) = 0), pero a un producto de este tipo se le

ces cuadrada, y cuadrada de orden igual al número de

puede aplicar el resultado del § 210, lo que nos lleva a

columnas de la matriz A.

que AX1 = O. Es decir, la matriz columna X1 también

Consideremos los sistemas de ecuaciones lineales homogéneos cuyas matrices de coeficientes son B y A;

es solución del sistema AX = O.

en notación matricial: BX = O y AX = O, respectiva-

El hecho de que el rango de la matriz A sea igual

mente. Si X1 es una matriz columna que es solución del

al número de sus columnas nos permite asegurar que el sistema homogéneo AX = O solo admite una solu-

primero de estos sistemas, entonces también es solu-

ción: la nula (cf. § 178, p. 172). De acuerdo con lo

ción del segundo. En efecto. Por ser solución del pri-

probado en el párrafo anterior, con el sistema homogé-

mero, verifica: BX1 = O, o bien At AX1 = O; si en esta

neo BX = O acontece lo mismo: solo admite la solu-

igualdad multiplicamos, por la izquierda, por la matriz

ción nula; de ello se deduce que su matriz de coefi-

(fila) X1t , obtenemos:

cientes debe tener también rango igual al número de

X1t At AX1 = X1t O,

de donde:

t

(AX1 ) (AX1 ) = O

t

columnas (de nuevo, véase el citado § 178). Como la matriz B = At A es cuadrada, decir que su rango iguala

(nótese que X1t At = (AX1 ) , cf. § 201). La igualdad deducida: (AX1 )t (AX1 ) = O, nos dice en particular que

al número de columnas es decir que es cuadrada de rango máximo. Esto es (cf. teorema 2, p. 178), la ma-

la traza del producto del primer miembro es igual 0

triz At A es invertible.

Nota

Podemos enunciar un resultado análogo al anterior para matrices cuyo

rango coincide con el número de filas. A saber: si una matriz A tiene rango igual al número de filas, entonces el producto AAt (que es una matriz cuadrada de orden igual al número de filas de A) es invertible. Puede probrase aplicando el resultado anterior a la matriz At y recordando que el rango de esta matriz y el de la matriz A son iguales (§ 203). Por otra parte, también se verifica el siguiente resultado, más general que

Puede verse una demostración en el libro de BARBOLLA y SANZ, cap. 4.

los probados aquí: dada una matriz A cualquiera, el rango de las matrices A,  AAt y At A es el mismo.

Ejercicios II.6 1

Se consideran estas matrices:  A=

a)

1 2

1 1

0 0



 y

1 ⎜ B = ⎝2 0



0 ⎟ 1⎠. 1

Calcular, si está definida, la traspuesta de las ma-

trices 3A + 2B, 3A + 2B t y A − B. t

b)

Comprobar con estas matrices la propiedad de la t

traspuesta de un producto: (AB) = B t At .

c)

Calcular la traspuesta de AB y la de (AB)−1 .

d)

Calcular la traza de las matrices AB y BA, la de

las matrices AAt y At A, y también la de BB t y B t B. 2

Realizar lo mismo del ejercicio anterior con estas

matrices: 

1

2

0



⎛ y

⎞ −1 ⎜ ⎟ ⎝ 0⎠. 1

II.7. OTROS TEMAS SOBRE MATRICES

II.7 OTROS TEMAS SOBRE MATRICES En esta sección, recogemos algunos conceptos y métodos relacionados con matrices que no hemos visto hasta ahora. En primer lugar, vemos las transformaciones elementales por columnas. Después presentamos otras clases de matrices (verbigracia, simétricas y ortogonales), y también estudiamos una generalización del concepto de inversa. Finalmente, introducimos brevemente las matrices dadas por bloques.

1. Transformaciones elementales por columnas Análogas a las transformaciones elementales por filas, existen las transformaciones elementales por columnas. Les dedicamos este apartado. Tres tipos de transformaciones elementales por columnas

212

Como acontece con las transformaciones elementales por filas, tam-

bién hay tres tipos de transformaciones elementales por columnas. En concreto, llamamos transformaciones elementales por columnas a cualquiera de los tres tipos de transformaciones siguientes, que se ejecutan en matrices: • Tipo i: intercambiar dos columnas. Si las columnas que se intercambian son la i-ésima y la j-ésima, denotamos esta transformación así: Ci ↔ Cj . Debe notarse que las otras columnas —las que no se intercambian— no varían. • Tipo ii: multiplicar una columna por un número no nulo. Si la columna que se multiplica por un número no nulo es la i-ésima y el número no nulo se designa por λ, la transformación se denota: Ci ← λCi . Tras esta transformación, las restantes columnas quedan inalteradas. • Tipo iii: sumar a una columna un múltiplo de otra. Si a la columna i-ésima se le suma un múltiplo de la columna j-ésima (con j ≠ i), más en concreto, si a la columna i-ésima se le suma la columna j-ésima previamente multiplicada por un número, digamos α (nulo o no), entonces la transformación se denota: Ci ← Ci + αCj . Esta transformación solo puede alterar la columna a la que se suma el múltiplo de otra; las otras columnas, incluyendo aquella cuyo múltiplo se calcula, quedan inalteradas.

Un ejemplo

213

Consideremos esta matriz: ⎛ 1 1 ⎜ −1 0 ⎝ 1 −1

0 1 2

⎞ 1 ⎟ 2⎠. 1

II. MATRICES

La transformación elemental, de tipo i, de intercambiar entre sí las columnas segunda y tercera, ejecutada en la matriz dada, tiene este resultado: ⎛

1 ⎜ ⎝ −1 1

1 0 −1

0 1 2

⎛ ⎞ 1 1 ⎟ C2 ↔C3 ⎜ 2 ⎠ →  ⎝ −1 1 1

0 1 2

⎞ 1 ⎟ 2⎠. 1

1 0 −1

La transformación elemental, ahora de tipo ii, de multiplicar la cuarta columna por el número no nulo 2 actúa sobre la matriz considerada de esta manera:



1 ⎜ ⎝ −1 1

1 0 −1

0 1 2

⎛ ⎞ 1 1 ⎟ C ←2C4 ⎜ 2 ⎠ 4→  ⎝ −1 1 1

1 0 −1

0 1 2

⎞ 2 ⎟ 4⎠. 2

Finalmente, la transformación elemental, de tipo iii, de sumar a la primera columna la segunda multiplicada por −1 (o bien: de restar a la primera columna la segunda), aplicada en la matriz, da como resultado: ⎛

1 ⎜ ⎝ −1 1

1 0 −1

0 1 2

⎛ ⎞ 1 0 ⎟ C1 ←C1 −C2 ⎜ 2 ⎠ →  ⎝ −1 1 2

1 0 −1

0 1 2

⎞ 1 ⎟ 2⎠. 1

En esta última transformación, debe observar el lector que la única columna que cambia es la primera; las demás, incluyendo la segunda, quedan inalteradas. En este aspecto también son análogas las transformaciones elementales por columnas a sus correspondientes del mismo tipo por filas. Transformaciones elementales por columnas inversas

214

También podemos definir el concepto de transformaciones elemen-

tales por columnas inversas, de forma análoga al caso por filas. Más en concreto: dada cualquier transformación elemental por columnas, existe otra transformación elemental por columnas con la siguiente característica: al aplicar ambas sucesivamente, en un orden o en el otro, a cualquier matriz

Sobre orden adecuado, véase nota a pie de página 1, p. 150.

de orden adecuado, se obtiene como resultado la matriz original. Diremos, en este caso, que cualquiera de ellas es transformación elemental inversa de la otra (o que ambas son inversas entre sí). La inversa de una transformación elemental por columnas de tipo i es ella misma; en concreto: la inversa de la transformación Ci ↔ Cj es justamente Ci ↔ Cj . En cuanto a las transformaciones elementales por columnas de tipo ii, acontece que las transformaciones Ci ← λCi (con λ ≠ 0) y Ci ← (1/λ)Ci son inversas una de la otra. Y en lo que se refiere a las transformaciones elementales por columnas de tipo iii, se tiene que Ci ← Ci +αCj y Ci ← Ci − αCj son inversas entre sí. Nos permitirá el lector que le dejemos la tarea de comprobarlo.

II.7. OTROS TEMAS SOBRE MATRICES

Matrices elementales por columnas

215

Las matrices elementales asociadas a las transformaciones elemen-

tales por columnas se definen, mutatis mutandis, como las asociadas a las transformaciones elementales por filas. En concreto, si m es un número natural, llamaremos matriz elemental por columnas de orden m asociada a una transformación elemental por columnas a la matriz que se obtiene al aplicar la transformación elemental a la matriz identidad de orden m. Las hay, por supuesto, de los tres tipos, y vemos enseguida un ejemplo de cada uno. De la misma forma que con las matrices elementales por filas es cómodo utilizar la notación por filas, ahora es cómodo hacer uso de la notación por columnas. Para ello, denotamos por E1 , E2 , . . . , las matrices columna de la matriz identidad. Los ejemplos son los siguientes. La matriz elemental de orden 3 asociada a la transformación elemental C2 ↔ C3 se obtiene así: ⎛ ⎛ ⎞ 1 1 0 0  C ↔C    ⎜ ⎜ ⎟ 2 3 E1 E3 E2 = ⎝ 0 I3 = ⎝ 0 1 0 ⎠ = E1 E2 E3 →  0 0 0 1

0 0 1

⎞ 0 ⎟ 1⎠. 0

La de orden 2 asociada a la transformación elemental C2 ← 3C2 se obtiene de esta forma: 

I2 = E 1

E2



C2 ←3C2



E1 → 

3E2



 =

1 0

0 3

 .

Y la asociada, esta vez de orden 4, a la transformación C1 ← C1 − C2 queda finalmente así:





Efectuar una transformación elemental por columnas es como multiplicar, por la derecha, por su matriz elemental Si multiplico una matriz A, por la derecha, por una matriz B, hago el producto AB.

216

E1 − E2

E2

E3

1  ⎜ ⎜ −1 E4 = ⎜ ⎜ 0 ⎝ 0

0 1 0 0

0 0 1 0

⎞ 0 ⎟ 0⎟ ⎟. 0⎟ ⎠ 1

Hay asimismo una relación entre las transformaciones elementales

por columnas y la multiplicación de matrices, en el sentido de que efectuar una transformación por columnas es equivalente a multiplicar por la matriz elemental correspondiente. Pero hay una salvedad: ahora, la matriz elemental se multiplica por la derecha, y no por la izquierda como se hace en el caso de las transformaciones por filas (cf. § 156, p. 155). Más en concreto: ejecutar una transformación elemental por columnas en una matriz es lo mismo que multiplicarla, por la derecha, por la matriz elemental correspondiente. La comprobación de esta propiedad es por completo análoga a la vista en el § 156 para las transformaciones por filas.

II. MATRICES

A modo de ejemplo, consideremos de nuevo la matriz del § 213 y la transformación elemental C1 ← C1 −C2 ; en este mismo parágrafo obtuvimos: ⎛ ⎛ ⎞ ⎞ 1 1 0 1 0 1 0 1 ⎜ ⎟ C1 ←C1 −C2 ⎜ ⎟ 0 1 2 ⎠ → 0 1 2⎠. ⎝ −1  ⎝ −1 1 −1 2 1 2 −1 2 1 Por otra parte, en el § 215 escribimos la matriz elemental de orden 4 asociada a la transformación C1 ← C1 − C2 ; si multiplicamos la matriz anterior por esta matriz elemental, en este orden, nos queda: ⎛ ⎞ ⎛ ⎞ ⎛ 1 0 0 0 ⎟ 1 1 0 1 ⎜ 0 1 ⎜ ⎟ −1 1 0 0 ⎜ ⎟ ⎟=⎜ 0 1 2⎠ ⎜ −1 0 ⎝ −1 ⎝ ⎜ 0 0 1 0⎟ ⎠ 1 −1 2 1 ⎝ 2 −1 0 0 0 1

0 1 2

⎞ 1 ⎟ 2⎠ . 1

Apreciamos que llegamos a la misma matriz final tanto con la transformación elemental por columnas como multiplicando, por la derecha, por su matriz elemental asociada. Nota bene

Hemos multiplicado, por la derecha, por una matriz elemental de

orden 4, pues son cuatro las columnas de la matriz a la que aplicamos la transformación elemental por columnas.



Dada una matriz de m columnas, se obtiene el mismo resultado llevando a cabo una transformación elemental por columnas que multiplicando, por la derecha, por la matriz elemental de orden m asociada a la transformación elemental. ¿También son invertibles las matrices elementales por columnas? Sí

217

Como acontece con las matrices elementales por filas (cf. § 157,

p. 156), si multiplicamos dos matrices elementales por columnas del mismo orden asociadas a transformaciones elementales por columnas inversas, el producto es la matriz identidad correspondiente. Es decir, si T y T  son las matrices elementales de orden m asociadas a dos transformaciones por columnas que son inversas una de la otra, entonces T T  = T  T = Im .

Es finalmente una consecuencia de la propiedad estudiada en el § 216.

La justificación de esta propiedad es, mutatis mutandis, la misma que la vista en el citado § 157 para su análoga por filas. Una consecuencia inmediata es que las matrices elementales por columnas también son invertibles, o lo que es equivalente (cf. teorema 2, p. 178): de rango máximo. Asimismo, decir que dos matrices elementales por columnas del mismo orden son inversas una de la otra es lo mismo que decir que las transformaciones elementales por columnas a las que están asociadas son, a su vez, inversas entre sí.

II.7. OTROS TEMAS SOBRE MATRICES

El rango no varía al aplicar transformaciones elementales por columnas

218

Las transformaciones elementales por columnas (como las trans-

formaciones por filas, cf. § 164, p. 161) conservan el rango; esto es, si aplicamos una transformación elemental por columnas a una matriz, el rango de la matriz antes y después de la transformación elemental es el mismo. En efecto: aplicar una transformación elemental por columnas es equivalente a multiplicar, por la derecha, por la matriz elemental asociada a la transformación (cf. § 216), pero las matrices elementales son de rango máximo (cf. § 217), y el producto por una matriz cuadrada de rango máximo conserva el rango (cf. § 204, p. 194). De esta forma, el rango de una matriz no varía si se intercambian algunas de sus columnas, o si se multiplica una columna por un número no nulo, o si se suma a una columna un múltiplo de otra. Si aplicamos una transformación elemental por columnas a una matriz, la matriz resultante tiene el mismo rango que la original.

Una observación importante

219

Podría pensar el lector que las transformaciones elementales por

columnas son “equivalentes” a las transformaciones elementales por filas, en el sentido de que ambas tienen las mismas propiedades sin más que cambiar filas por columnas, y el producto por la izquierda (de las matrices elementales) por el producto por la derecha. Básicamente es así, al menos si no nos salimos del ámbito de las propiedades que hemos visto hasta ahora en este apartado, las cuales a su vez hacen referencia exclusiva a matrices. Sin embargo, esta “equivalencia” entre las transformaciones elementales de un tipo y de otro se rompe en cuanto buscamos las relaciones con los sistemas de ecuaciones lineales. Hay una propiedad muy importante de las transformaciones elementales por filas que no tiene análoga para transformaciones elementales por columnas: si en la matriz ampliada de un sistema de ecuaciones lineales ejecutamos una transformación elemental por filas, la matriz resultante es la matriz ampliada de un sistema equivalente al original. Bien: si tenemos dos sistemas de ecuaciones lineales cuyas matrices ampliadas se pueden obtener una de la otra mediante una transformación elemental por columnas, no acontece necesariamente que los sistemas sean equivalentes. Por ejemplo, recordemos el primer sistema de ecuaciones que hemos visto en este libro; nos referimos al sistema (1) (cf. p. 19): ⎧ ⎨ 4x − 2y = 8 ⎩ 3x + y = 1,

II. MATRICES

que tiene solución única: el par ordenado (1, −2). Su matriz ampliada es esta:

 = A

4 3

−2 1

8 1

 .

Si intercambiamos las dos primeras columnas de esta matriz, es decir, ejecutamos en ella la transformación elemental C1 ← C2 , obtenemos:     −2 4 8 4 −2 8 C1 ←C2   = B, →  A= 3 1 1 1 3 1 donde la matriz B es la matriz ampliada de este otro sistema: ⎧ ⎨ −2x + 4y = 8 ⎩ x + 3y = 1, ¡Anímese el lector a comprobarlo! Una observación importante (continuación)

el cual también tiene solución única, pero distinta de la del primer sistema: el par ordenado (−2, 1). Ambos sistemas no son, pues, equivalentes. 220

Pero los dos sistemas de ecuaciones lineales del ejemplo del § 219

sí tienen algo en común: son ambos del mismo tipo en lo que a su discusión se refiere (ambos son compatibles determinados). Ello no es casualidad. Consideremos dos sistemas de ecuaciones lineales tales que la matriz ampliada de uno es el resultado de ejecutar una transformación elemental por columnas en la matriz ampliada del otro, pero de forma que no se vea

Si se ve afectada la última columna de la matriz amplliada, el rango de la matriz de coeficientes podría cambiar.

afectada la última columna (la de los términos independientes). De acuerdo con el hecho de que el rango se conserva ante transformaciones por columnas (cf. § 218), los rangos de las matrices ampliadas de ambos sistemas son iguales, y también son iguales los rangos de las matrices de coeficientes. Como el número de columnas no cambia, se concluye (cf. § 174, p. 168) que ambos sistemas son de la misma clase en lo que a su discusión se refiere (ambos son incompatibles, o ambos son compatibles determinados, o ambos son compatibles indeterminados). De esta forma, dado un sistema de ecuaciones lineales, si solo estamos interesados en su discusión, podríamos hacer uso de transformaciones elementales por columnas en la matriz ampliada del sistema, con la precaución de que no afecten a la última columna. Pero si queremos además resolver el sistema, deberemos poner cuidado en deshacer, en la solución obtenida, las transformaciones llevadas a cabo. ¿Qué queremos decir con esto? Lo vemos en el ejemplo del § 219: si resolvemos uno de los sistemas, obtenemos la solución del otro intercambiando las componentes del par ordenado, pues un intercambio de columnas se corresponde con un intercambio de incógnitas (cf. § 88, p. 92).

II.7. OTROS TEMAS SOBRE MATRICES

No obstante, en los sistemas de ecuaciones lineales que vemos en este libro, o más bien: en sus matrices ampliadas, no haremos uso en general de transformaciones elementales por columnas; ocasionalmente, alguna de tipo i (intercambio de columnas). 221

Submatrices

Queremos mostrar una aplicación más, especialmente importante,

de las transformaciones elementales por columnas. Ello requiere que veamos lo que es una submatriz de una matriz. Dada una matriz, una submatriz de ella es una matriz que se obtiene tras eliminar, en la matriz dada, cierta cantidad de filas y cierta cantidad de columnas (estas cantidades pueden ser nulas). Más precisamente: dada Se pueden eliminar solo filas o solo columnas, pero no todas las filas o todas las columnas.

una matriz A de orden (n, m), y dados dos números naturales p y q tales que 0  p  n − 1 y 0  q  m − 1, al suprimir p filas de A y q columnas de A, queda una nueva matriz, la cual es de orden (n − p, m − q); de esta nueva matriz se dice que es una submatriz de la matriz A.



1/2 ⎜ ⎝ 3 1

2 1 −7

−2 1 −1

⎞ 5 ⎟ 4⎠ 0

Por ejemplo, consideremos estas dos matrices: ⎛ ⎞  1/2 2 −2 5 1/2 ⎜ ⎟ 1 1 4⎠ y B = A=⎝ 3 1 1 −7 −1 0

−2 −1

5 0

 .

Acontece que la matriz B es submatriz de la matriz A: de esta hemos obtenido aquella al suprimir la segunda columna y la segunda fila. Las siguientes Para la segunda: ⎛ 1/2 2 −2 ⎜ 1 1 ⎝ 3 1 −7 −1

⎞ 5 ⎟ 4⎠. 0

tres matrices también son submatrices de la matriz A: ⎛ ⎞   1/2   1 4 ⎜ ⎟ −7 . ⎝ 3 ⎠, y −7 0 1 Pero esta no es submatriz de la matriz A:   1/2 1 , 1 −1 y no lo es porque los términos de su primera fila no son términos de una misma fila de A. En una submatriz, los términos de una fila son términos de una misma fila de la matriz original, y en el mismo orden en que aparecen en esta. Y lo mismo con los términos de las columnas.

El rango de una submatriz es menor o igual que el rango de la matriz de la que proviene

222

¿Hay alguna relación entre el rango de una matriz y el rango de sus

submatrices? Sí: aquel es mayor o igual que cualquiera de estos. Más en concreto: si una matriz B es submatriz de una matriz A, entonces se tiene que rango B  rango A.

II. MATRICES

Para verlo, notemos que podemos recuperar una

el § 173, p. 167, cuando vimos el teorema de Rouché–

matriz a partir de una de sus submatrices añadiendo,

Frobenius). En definitiva, al añadir a una matriz una

en primer lugar, columnas adecuadas; y, en segundo

columna, el rango se queda igual o aumenta en 1.

lugar, filas adecuadas. Veamos qué ocurre si añadimos una columna. A

¿Y si añadimos una fila? Añadir una fila a una matriz se puede realizar así: trasponemos la matriz y

efectos de rango, esta columna podría añadirse al fi-

la fila que queremos añadir (esta se convertirá en co-

nal, pues los intercambios de columnas no cambian el

lumna), añadimos la columna a la traspuesta, y volve-

rango (§ 218). Ahora bien, si una matriz D se obtiene de

mos a trasponer. Añadir una columna deja el rango

una matriz C adjuntado a esta una columna al final de

igual o lo aumenta en 1 (según acabamos de compro-

la matriz, entonces podemos obtener una forma escalo-

bar), y la trasposición de matrices conserva el rango

nada de C eliminando la última columna de una forma

(cf. § 203, p. 192), así que esta lista de tres “operacio-

escalonada de D, lo que nos lleva a tener sendas for-

nes” nos lleva la matriz orginal a otra, con una fila más,

mas escalonadas de C y D, la segunda con los mismos pivotes que la primera más eventualmente uno nuevo a

que tiene el mismo rango o lo tiene aumentado en 1. El rango de una submatriz es, pues, menor o igual

cuenta de la última columna (hacíamos algo similar en

que el rango de la matriz de la que procede.

El rango de una matriz es mayor o igual que el rango de sus submatrices.

2. Más tipos de matrices Aquí damos cuenta de algunos tipos de matrices que antes no hemos citado. El objetivo de que el lector las conozca, aun sucintamente, porque probablemente se encuentre con ellas en algún momento en sus estudios.

Matriz triangular superior y matriz triangular inferior Matriz triangular superior

223

Una matriz cuadrada es una matriz triangular superior si todos los

términos que quedan estrictamente “por debajo” de principal  la diagonal  son nulos. Más formalmente: dada una matriz A = aij , cuadrada de orden n, se dice que A es triangular superior si aij = 0 siempre que i > j, y ello para cada número natural i y cada número natural j entre 1 y n. Por ejemplo, estas matrices cuadradas son triangulares superiores: ⎛ ⎞   1 3 5 a b ⎜ ⎟ 2⎠, y para cualesquiera números a, b y c. ⎝0 1 0 c 0 0 −1 Vemos que son nulos los términos que quedan por debajo de la diagonal principal (por ejemplo, en ambas matrices es nulo el término de posición (2, 1): nótese que 2 > 1). Los mismos términos de la diagonal principal, así como los que quedan por encima de ella, pueden ser nulos o no.

II.7. OTROS TEMAS SOBRE MATRICES

Matriz triangular inferior

224

La idea de matriz triangular inferior es, mutatis mutandis, la misma

que la de triangular superior: una matriz cuadrada es una matriz triangular inferior si todos los términos que quedan estrictamente “por encima” de la diagonal principal son nulos. Escrito de manera más formal: dada una  matriz A = aij , cuadrada de orden n, se dice que A es triangular inferior si aij = 0 siempre que i < j, para cada número natural i y cada número natural j comprendidos entre 1 y n. Verbigracia, estas matrices cuadradas son triangulares inferiores: ⎛

3 ⎜ ⎝ 2 −1 Algunas propiedades de las matrices triangulares

225

0 1 2

⎞ 0 ⎟ 0⎠, 4

 y

a b

0 c

 para cualesquiera números a, b y c.

Cualquier matriz diagonal (cf. § 113, p. 122) es triangular, tanto

superior como inferior; por ejemplo: 

1 0

0 −2



 ,

2 ⎜ ⎝0 0

0 1 0

⎞ 0 ⎟ 0⎠. 4

En particular, cualquier matriz identidad es triangular, superior e inferior. También lo es cualquier matriz cuadrada nula. Nótese que si pedimos a una matriz cuadrada que sea triangular superior e inferior a la vez, entonces la matriz debe ser diagonal. Por otra parte, si A y B son dos matrices cuadradas del mismo orden que son triangulares superiores, entonces tanto su suma: A+B, como su producto: AB, son matrices también triangulares superiores. Lo mismo acontece con el producto por un número: la matriz λA es triangular superior si lo es A, y ello para cualquier número λ. La justificación de las propiedades anteriores es sencilla, y puede el lector intentarlas por sí mismo. No es tan fácil la demostración de la última Puede verse una demostración en el libro de BARBOLLA y SANZ, cap. 4.

propiedad que vamos a enunciar: si una matriz cuadrada es triangular superior e invertible, entonces su inversa también es triangular superior. Las propiedades de los dos párrafos anteriores también se verifican si sustituimos superior por inferior.

Puede consultarse el libro de SIMON y BLUME, ch. 8.

Nota

Para que el lector tenga noticia de ello por si es de su interés, comentamos

lo que se llama factorización LU de una matriz: dada una matriz A cuadrada, bajo ciertas condiciones es posible escribirla como un producto de dos matrices: A = LU, donde la matriz L es triangular inferior con todos los términos de la diagonal principal iguales a 1, y la matriz U es triangular superior.



II. MATRICES

Matriz simétrica y matriz antisimétrica Matriz simétrica

226

La matriz A es simétrica si verifica: At = A.

t En símbolos: una matriz cuadrada A es simétrica si A = A. Dicho de otra  forma: una matriz cuadrada, de orden n, A = aij es simétrica si aij = aji

Una matriz cuadrada es simétrica si coincide con su traspuesta.

para cada número natural i y cada número natural j comprendidos ambos entre 1 y n. Por ejemplo, esta es una matriz simétrica: ⎛ ⎞ 2 −2 0 ⎜ ⎟ 1 3⎠. A = ⎝ −2 0 3 1 Para escribir su traspuesta: At , vemos que los términos de la primera fila de At son los términos de la primera columna de A, que son: 2, −2 y 0; los términos de la segunda fila de At son los de la segunda columna de A: −2, 1 y 3; y, finalmente, los términos de la tercera fila de At son los de la tercera columna de A: 0, 3 y 1. En definitiva: ⎛ 2 −2 ⎜ 1 At = ⎝ −2 0 3

⎞ 0 ⎟ 3 ⎠ = A. 1

Otros ejemplos de matriz simétrica los tenemos con cualquier matriz identidad: Int = In (de hecho, con cualquier matriz diagonal), y con cualquier matriz cuadrada nula. Matriz antisimétrica La matriz A es antisimétrica si cumple: At = −A.

227

Una matriz cuadrada es antisimétrica si es opuesta a su traspuesta.

t En símbolos: una matriz cuadrada A es antisimétrica  = −A. En otras  si A palabras: una matriz cuadrada, de orden n, A = aij es antisimétrica

si aij = −aji para cada número natural i y cada número natural j comprendidos entre 1 y n. Lo primero que debemos decir es que una matriz antisimétrica tiene nulos todos sus términos de la diagonal principal. Démonos cuenta de que la condición aij = −aji , escrita para tales términos, nos lleva a aii = −aii , de donde aii = 0 (pues solo el número 0 coincide con su opuesto), y esto para cada número natural i comprendido entre 1 y n. Por ejemplo, las siguientes matrices son antisimétricas: ⎛ ⎞   0 −3 1 0 3 ⎜ ⎟ 0 4⎠ . y ⎝ 3 −3 0 −1 −4 0 Una matriz cuadrada nula también es antisimétrica.

II.7. OTROS TEMAS SOBRE MATRICES

Algunas propiedades de las matrices simétricas y de las matrices antisimétricas

228

Consideremos dos matrices cuadradas A y B del mismo orden. Si A

es simétrica, su producto por un número: λA (donde λ es un número cualquiera), también es una matriz simétrica. Si ambas matrices A y B son simétricas, también lo es su suma: A + B; y cuando además acontece que las matrices A y B conmutan (es decir: AB = BA, cf. § 133, p. 135), también es una matriz simétrica su producto: AB. Más aún: si la matriz A es invertible y simétrica, también su inversa: A−1 , es simétrica. Y estas propiedades también se cumplen para las matrices antisimétricas. La justificación de todas las propiedades anteriores es sencilla, y se deja para el lector (animamos encarecidamente a intentarlo); solo consignaremos aquí la prueba de la última. Si la matriz cuadrada A es invertible, entonces A−1 A = I (donde I designa la matriz identidad del mismo orden que A), y tomando traspuestas: t

t

t

I = (A−1 A) = At (A−1 ) = A(A−1) , donde hemos hecho uso de la traspuesta de un producto (cf. § 201, p. 191) t

La igualdad en el otro orden, t es decir: I = (A−1 ) A, se obtendría de forma análoga.

y del hecho de que I y A son simétricas. La igualdad obtenida: I = A(A−1) , establece que las matrices A y

t (A−1 )

son inversas una de la otra; es de-

t

cir: A−1 = (A−1 ) . La matriz A−1 es, pues, simétrica. Prueba análoga tendríamos para el caso de matriz antisimétrica.

Descomposición de una matriz como suma de una matriz simétrica y de una antisimétrica

229

Es posible escribir cualquier matriz cuadrada como suma de una

matriz simétrica y de una matriz antisimétrica, y ello además de forma única. Más en concreto, dada una matriz cuadrada A cualquiera, existen dos únicas (únicas para A) matrices S y T tales que A = S + T , siendo S simétrica y T antisimétrica. Estas dos matrices S y T vienen dadas por S=

Parte simétrica y parte antisimétrica.

1 (A + At ) y 2

T =

1 (A − At ). 2

(12)

Las matrices S y T reciben el nombre, respetivamente, de parte simétrica y parte antisimétrica de la matriz A. Para justificar la anterior propiedad, nótese en primer lugar que las matrices S y T son, respectivamente, simétrica y antismétrica:

Hacemos uso de las propiedades de los § 198 (p. 189) y 200 (p. 190).

St =

1

t 1 t 1 t (A + At ) = A + (At ) = (At + A) = S, 2 2 2

y análogamente con T . Por otra parte, si en la igualdad A = S + T trasponemos, haciendo uso de que S es simétrica y T es antisimétrica, nos queda: At = S t + T t = S − T , con lo que tenemos un sistema de dos ecuaciones

II. MATRICES

en las “incógnitas” S y T :

⎧ ⎨S + T = A ⎩ S − T = At .

Al resolverlo (tiene solución única), obtenemos para S y T las expresiones escritas en (12). Por ejemplo, para la matriz cuadrada   1 2 , 1 −3 su parte simétrica y su parte antisimétrica son, respectivamente:     1 3/2 0 1/2 y . 3/2 −3 −1/2 0 Animamos al lector a llevar a cabo la comprobación.

Matriz ortogonal 230

Matriz ortogonal

Una matriz cuadrada es ortogonal si el producto con su traspuesta,

tanto en un orden como en el otro, es igual a la matriz identidad corresLa matriz A es ortogonal si verifica: AAt = At A = In . Se tiene: A es ortogonal   A−1

=

At .

pondiente. En símbolos: una matriz A, cuadrada de orden n, es ortogonal si AAt = At A = In . Dicho de forma equivalente: una matriz cuadrada A es ortogonal si es invertible y su inversa coincide con su traspuesta: A−1 = At . La propia matriz identidad In es el ejemplo más sencillo de matriz or−1 togonal, pues In Int = Int In = In , o de forma equivalente: In = Int . Por otra

parte, es obvio que una matriz cuadrada nula no es ortogonal. Por poner otros ejemplos menos inmediatos que una matriz identidad, las siguientes matrices también son ortogonales: √ ⎞ ⎛√ ⎛ 2  ⎜ 2 √  2/3 ⎟ 1 2 1 2 ⎟ ⎜ 2 ⎜ =⎜√ , y ⎝ 1/3 √ ⎟ ⎝ 2 1 −1 2 2⎠ 2/3 − 2 2

−2/3 2/3 1/3

⎞ 1/3 ⎟ 2/3 ⎠ . −2/3

Dejamos al lector la tarea de comprobar que el producto de cada una de ellas por su traspuesta, tanto en un orden como en el otro, tiene como resultado la matriz identidad correspondiente. Algunas propiedades de las matrices ortogonales

231

Las matrices ortogonales se “comportan bien” con la multiplicación

de matrices, pero no con la adición ni con la multiplicación por un número. Queremos decir: dadas dos matrices A y B, cuadradas del mismo orden, si ambas son ortogonales, entonces también es ortogonal el producto AB

II.7. OTROS TEMAS SOBRE MATRICES

(y el BA), pero no lo es necesariamente la suma A + B, ni tampoco el producto λA (por un número λ). Para justificar la propiedad del producto, nótese que si A y B son matrices cuadradas del mismo orden y ortogonales, denotando por I la matriz Se usa la traspuesta de un producto (cf. § 201, p. 191), y el hecho de que A y B son ortogonales.

identidad del mismo orden que ellas, podemos escribir: t

(AB)(AB) = (AB)(B t At ) = A(BB t )At = A IAt = AAt = I, y análogamente para el producto en el otro orden. Como el producto de la matriz AB por su traspuesta es igual a la matriz identidad (y ello tanto en un orden como en el otro), se concluye que la matriz AB es ortogonal. Las matrices ortogonales también se comportan bien con la inversión de matrices, en el sentido siguiente. Toda matriz ortogonal —ya lo hemos dicho— es invertible; bien, acontece que la inversa de una matriz ortogonal es, a su vez, ortogonal. En efecto: si A es una matriz cuadrada invertible

Recordemos: traspuesta de la inversa (cf. § 202, p. 191), y también inversa de un producto (cf. § 183, p. 176). Asimismo se hace uso del hecho de que A es ortogonal.

que es ortogonal, entonces: −1

t

A−1 (A−1 ) = A−1 (At )

−1

= (At A)

= I −1 = I,

donde I designa la matriz identidad correspondiente; y análogamente para t

el producto en el otro orden: (A−1 ) A−1.

Matriz idempotente y matriz nilpotente Matriz idempotente La matriz A es idempotente si verifica: A2 = A.

232

Una matriz cuadrada es idempotente si el producto por sí misma

es igual a ella misma. En símbolos: una matriz cuadrada A es idempotente si AA = A (o bien: A2 = A). Una matriz identidad o una matriz cuadrada nula claramente son idem2 = I y O2 = O. Otros ejemplos de matrices idempotentes son potentes: In n

estos:



5 −5

4 −4



 ,

y

0 0

b 1

 para cualquier número b.

Para cada una de estas matrices, el lector puede comprobar que el cuadrado de la matriz devuelve la matriz misma. Algunas proopiedades de las matrices idempotentes

233

Dadas dos matrices A y B, cuadradas del mismo orden, si ambas

matrices son idempotentes y conmutan (esto es: AB = BA), entonces el producto AB es también idempotente. La comprobación es simple: (AB)2 = (AB)(AB) = A(BA)B = A(AB)B = (AA)(BB) = AB.

II. MATRICES

Otra propiedad interesante es esta: la única matriz idempotente que es regular (o lo que es equivalente: invertible) es la matriz identidad. En efecto, si A es una matriz cuadrada regular que es idempotente, podemos escribir: Aquí, la letra I designa la matriz identidad del mismo orden que A.

A = AI = A(AA−1) = (AA)A−1 = AA−1 = I, donde hemos hecho uso de que A es invertible: AA−1 = I, y por supuesto del hecho de que es idempotente. Finalmente, añadir que la traspuesta de una matriz idempotente es también idempotente. Dejamos al lector la comprobación.

Puede consultarse el libro de BARBOLLA y SANZ, cap. 8.

Matriz nilpotente La matriz A es nilpotente si verifica: A2 = O.

Nota

Hay una propiedad curiosa de las matrices idempotentes: su rango coin-

cide con su traza. Es decir, si A es idempotente, entonces rango(A) = tr(A). Desgraciadamente, no estamos en disposición de demostrarla aquí.

234



Una matriz cuadrada es nilpotente si el producto por sí misma es

igual a la matriz nula correspondiente. En símbolos: una matriz cuadrada A es nilpotente si AA = O (o bien: A2 = O). Obviamente, una matriz cuadrada nula es nilpotente: O2 = O, pero hay otras matrices, no nulas, que también lo son; por ejemplo: 

¡Compruébelo el lector!

1 1

−1 −1



 ,

y

0 0

b 0

 para cualquier número b.

Comentamos una sola propiedad de las matrices nilpotentes: una matriz Y otra propiedad más: también acontece que si A es nilpotente, entonces At es nilpotente.

nilpotente es singular (equivalentemente: no es invertible). Para verlo, solo fijarse en esto: si una matriz nilpotente A fuera regular (es decir, de rango máximo), entonces el rango del producto AA sería el mismo que el de A (cf. § 170, p. 166), pero rango(AA) = rango(O) = 0, en contradicción con que A tiene rango máximo; debe aceptarse, pues, que A no es regular.

3. Inversa por la izquierda e inversa por la derecha En este apartado, estudiamos una generalización del concepto de inversa de una matriz que es aplicable a matrices no necesariamente cuadradas.

Inversa por la izquierda Inversa por la izquierda

235

Sabemos que una matriz cuadrada A es invertible precisamente si

existe una matriz B, del mismo orden, tal que AB = I y BA = I (donde I es la matriz identidad del mismo orden que A y B). Vamos a estudiar ahora qué

II.7. OTROS TEMAS SOBRE MATRICES

ocurre si a la matriz A no le exigimos que sea necesariamente cuadrada y a la matriz B solamente le exigimos la igualdad BA = I. Dada una matriz A de orden (n, m), una inversa por la izquierda de la matriz A es una matriz B de orden (m, n) tal que el producto BA es igual a la matriz identidad Im : BA = Im . Por ejemplo, consideremos estas matrices: ⎛

1 ⎜ A = ⎝2 1

⎞ 1 ⎟ −1 ⎠ 0

 y

B=

0 0

0 −1

1 2

 .

La matriz B es una inversa por la izquierda de la matriz A: esta es de orden (3, 2), aquella de orden (2, 3), y se tiene:  BA =

¿Cómo son las matrices que admiten inversa por la izquierda?

236

0 0

0 −1

1 2





1 ⎜ ⎝2 1

⎞  1 1 ⎟ −1 ⎠ = 0 0

0 1

 = I2 .

Sabemos cómo son las matrices invertibles (vimos que son las re-

gulares, es decir, las de rango máximo: cf. teorema 2, p. 178); nos gustaría también saber cómo son las matrices que admiten inversa por la izquierda. La respuesta es esta: las matrices que admiten inversa por la izquierda son precisamente las que tienen rango igual al número de columnas.

Para demostrar el resultado, debemos demostrar a su vez dos enunciados. Primero: si una matriz admite

pues BA = Im . Es decir: el sistema AX = O solo tiene una solución: la nula. Cuando un sistema homogéneo

inversa por la izquierda, entonces su rango coincide

solo admite la solución nula, el rango de su matriz de

con el número de columnas. Segundo: si el rango de

coeficientes es igual al número de columnas (cf. § 178,

una matriz coincide con el número de columnas, en-

p. 172). Es decir: rango A = m.

tonces la matriz admite inversa por la izquierda. Empecemos con el primero. Consideremos una matriz A de orden (n, m), y supongamos que admite una inversa por la izquierda B. Es decir, B es una matriz de orden (m, n) tal que BA = Im . Probemos que el rango de la matriz A es igual a m. Consideremos para ello el sistema de ecuaciones lineales homogéneo cuya matriz de coeficientes es A; en notación matricial: AX = O. Si una matriz columna X1 es solución de este sistema, es decir, si AX1 = O, entonces (multiplicando, por la izquierda, por la matriz B): BAX1 = O, de donde: X1 = O,

Y ahora el segundo. Supongamos que la matriz A de orden (n, m) tiene rango igual al número de columnas, y probemos que admite inversa por la izquierda. Como el rango de A es igual al número de columnas, la matriz cuadrada At A es invertible (cf. § 211, p. 197), y −1

está bien definida la matriz B = (At A)

At . Acontece

que esta matriz B es una inversa por la izquierda de A. En efecto, es de orden (m, n), y el producto BA es:    −1 −1  (At A) = Im . BA = (AtA) At A = (At A) Y esto termina la demostración.

II. MATRICES

La matriz A del § 235 tiene rango igual al número de columnas: ⎛ ⎛ ⎛ ⎞ ⎞ ⎞ F2 ←F2 −2F1 1 1 1 1 1 1 ⎜ ⎟ ⎟ F3 ←F3 −(1/3)F2 ⎜ ⎟ F3 ←F3 −F1 ⎜  ⎝ 0 −3 ⎠ →  ⎝ 0 −3 ⎠ . A = ⎝ 2 −1 ⎠ → 0 0 0 −1 1 0 lo que confirma el resultado anterior, pues ya le conocemos una inversa por la izquierda a la matriz A (la matriz B del citado § 235). Una condición necesaria y suficiente para que una matriz admita inversa por la izquierda es que su rango sea igual al número de columnas. ¿Unicidad de la inversa por la izquierda de una matriz? Cuando la matriz es cuadrada, sí

237

En la demostración del resultado del § 236, se sugiere una expre-

sión para una inversa por la izquierda de una matriz A que cumple que su −1

rango es igual al número de columnas; esta: (At A)

At . Si, acordes con ella,

calculamos una inversa por la izquierda de la matriz A del § 235, nos queda: t

−1

(A A)

¡Por favor, compruebe el lector estas operaciones!

1 A = 11 t



3 7

3 −4

2 1

 ,

pero esta matriz es distinta de la inversa B que ya conocemos (del citado § 235). Es decir, la inversa por la izquierda de esta matriz A no es única. Hay un caso particular en el que sí tenemos unicidad de la inversa por la izquierda de una matriz: cuando esta es cuadrada. Lo vemos. Dada ¡Ojo! Siendo la matriz A invertible, si BA = I, entonces: B = BI = B(AA−1 )

una matriz A que admite una inversa por la izquierda B, si A es cuadrada, entonces la condición de que su rango es igual al número de columnas se traduce en que A es cuadrada de rango máximo, y por tanto invertible. Pero

= (BA)A−1

si A es invertible, la igualdad BA = I (donde I es la matriz identidad, del

= IA−1 = A−1 .

mismo orden que A —y que B—) implica que B = A−1 , en virtud de que la inversa (nos referimos a la inversa que conocemos desde páginas atrás) sí es

También, si A es invertible: −1

(At A)

At = A−1 (At )

−1

At

= A−1 I = A−1 . Forma de obtener más inversas por la izquierda

única. Es decir: si una matriz cuadrada A admite inversa por la izquierda, entonces A es invertible, su inversa por la izquierda es única, y esta coincide justamente con la inversa que ya conocemos: A−1 . 238

Dada una matriz de la cual sabemos que admite inversa por la iz-

quierda (por coincidir su rango con el número de columnas, § 236), ¿hay alguna forma de obtener todas sus inversas por la izquierda? Viene en nues-

¿Y cómo concemos una inversa por la izquierda? Si no nos la dan, la calculamos con la −1 fórmula (At A) At (§ 237). La matriz D resulta, en general, distinta para cada inversa.

tro auxilio un resultado que nos da todas las inversas por la izquierda de una matriz cuando ya conocemos una. Si una matriz A admite una inversa por la izquierda B, entonces todas las inversas por la izquierda de A se pueden escribir de esta forma: B + D − DAB

para alguna matriz D (del mismo orden que B).

II.7. OTROS TEMAS SOBRE MATRICES

En toda esta demostración, denotamos por I la ma-

de matrices y del hecho de que B es una inversa por la izquierda de A: BA = I).

triz identidad del mismo orden que el número de columnas de A (y que el número de filas de B).

Y, en segundo lugar, debemos comprobar esto otro:

Para demostrar el resultado, en primer lugar, debemos comprobar que la expresión B + D − DAB nos pro-

si B  es otra inversa por la izquierda de A, entonces B  coincide con la matriz B + D − DAB para alguna ma-

porciona una inversa por la izquierda de la matriz A

triz D. Esto lo conseguimos justamente para D = B  −B.

cualquiera que sea la matriz D (del mismo orden que B).

En efecto, si sustituimos D por B  − B en la expre-

Para ello basta multiplicar las matrices B + D − DAB

sión B + D − DAB, obtenemos como resultado B  :

y A (en este orden) y ver que se obtiene la matriz iden-

B + D − DAB = B + (B  − B) − (B  − B)AB

tidad I:

= B  − B  AB + BAB

(B + D − DAB)A = BA + DA − (DAB)A

= B  − IB + IB = B 

= BA + DA − (DA)(BA)

(de nuevo hacemos uso de las propiedades de la mul-

= I + DA − (DA)I = I

tiplicación de matrices, y también de que B y B  son inversas por la izquierda de A: BA = B  A = I).

(hacemos uso de las propiedades de la multiplicación

Nota bene

Si la matriz A es cuadrada, la expresión B + D − DAB se reduce a A−1

cualquiera que sea la matriz D. En efecto: en este caso, la matriz A es invertible, y B = A−1 (§ 237), de donde: B + D − DAB = A−1 + D − DAA−1 = A−1 + D − DI = A−1 .



Ello confirma lo afirmado en el § 237.

Como ejemplo, calculemos todas las inversas por la izquierda de la matriz A del § 235, a partir de la que ya le conocemos de este mismo parágrafo: B. Recordemos:



1 ⎜ A = ⎝2 1

⎞ 1 ⎟ −1 ⎠ 0

 y

B=

0 0

0 −1

1 2

 .

Todas las inversas por la izquierda de A son de la forma B + D − DAB para alguna matriz D de orden (2, 3) (el mismo que el de B). Consideramos una matriz genérica D, digamos:

 D=

a b

x y

u v

 ,

(13)

y sustituimos cada matriz de la expresión B + D − DAB por su valor: ⎛ ⎞       1  1  0 0 1 a x u a x u ⎜ 0 1 ⎟ 0 2 −1 + − . ⎝ ⎠ 0 −1 2 b y v b y v 0 −1 2 1 0

II. MATRICES

¡Por favor, que el lector no deje de hacerlo por su cuenta!

Tras las operaciones oportunas, llegamos a esta matriz: 

a b

a b−1

1 − 3a 2 − 3b

 ,

(14)

lo que nos permite concluir: todas las inversas por la izquierda de la matriz A son todas las matrices de la forma (14) con a y b números cualesquiera. Nótese que la misma inversa por la izquierda B se obtiene de la matriz escrita en (14) con a = b = 0. Y la inversa por la izquierda que calculamos en el § 237 resulta con a = 3/11 y b = 7/11. Nota bene

La expresión B + D − DAB nos da la propia matriz B cuando D = O,

por eso obtenemos B como un caso particular de la matriz escrita en (14) justamente para el valor nulo de los parámetros a y b.



Inversa por la derecha Inversa por la derecha

239

Estudiamos ahora qué ocurre cuando, dada una matriz A (no nece-

sariamente cuadrada), buscamos una matriz C tal que AC = I. Dada una matriz A de orden (n, m), una inversa por la derecha de la matriz A es una matriz C de orden (m, n) tal que el producto AC es igual a la matriz identidad In : AC = In . Por ejemplo, dadas estas dos matrices:  A=

1 −1

0 1

1 0



 y

0 ⎜ C = ⎝0 1

⎞ 0 ⎟ 1⎠ 0

acontece que la matriz C es una inversa por la derecha de la matriz A, pues  AC =

Nota bene

1 −1

0 1

1 0





0 ⎜ ⎝0 1

240

0 1

 = I2 .

Observe el lector que también podemos decir que la matriz A es una

inversa por la izquierda de la matriz C. Una primera propiedad

⎞  0 1 ⎟ 1⎠ = 0 0



Un primer resultado importante es este: afirmar que una matriz es

inversa por la derecha de otra es equivalente a afirmar que la traspuesta de la primera matriz es inversa por la izquierda de la traspuesta de la segunda matriz. En símbolos: afirmar que una matriz C es una inversa por la derecha

II.7. OTROS TEMAS SOBRE MATRICES

de una matriz A es lo mismo que afirmar que la matriz C t es una inversa por la izquierda de la matriz At . Es una consecuencia de trasponer en la igualdad AC = I (donde I es la matriz identidad de orden el número de filas de A); al hacerlo, obtenemos: (AC)t = I t , o bien: C t At = I. De esta forma, si C es una inversa por la derecha de A, es decir: AC = I, entonces C t At = I, esto es: C t es una inversa por la izquierda de At . Y también el recíproco: si C t es una inversa por la izquierda de At , o lo que es lo mismo: C t At = I, entonces AC = I, que significa afirmar que C es una inversa por la derecha de A. Tenemos entonces un ejemplo de inversa por la derecha con las traspuestas de las matrices vistas en el § 235: 

1 1

2 −1

1 0



 y

0 ⎜ ⎝0 1

⎞ 0 ⎟ −1 ⎠ . 2

La segunda es inversa por la derecha de la primera. El lector puede comprobar que su producto, en el mismo orden en que acabamos de escribirlas, es igual a la matriz identidad I2 . ¿Cómo son las matrices que admiten inversa por la derecha?

241

Nos preguntamos ahora: ¿cómo son las matrices que admiten inver-

sa por la derecha? De acuerdo con el resultado del § 240, una inversa por la derecha de una matriz es inversa por la izquierda de su traspuesta, y viceversa. También vimos, en el § 236, que las matrices que admiten inversa por la izquierda son precisamente las que tienen rango igual al número de columnas. Como el rango de una matriz es igual al rango de su traspuesta (cf. § 203, p. 192), y lo que en una matriz son filas en su traspuesta son columnas, podemos concluir: las matrices que admiten inversa por la derecha son precisamente aquellas cuyo rango coincide con el número de filas. Podemos ver confirmado este resultado en la matriz A del ejemplo del § 239, pues su rango coincide efectivamente con el número de filas:     1 0 1 F2 ←F2 +F1 1 0 1 A= →  . −1 1 0 0 1 1 Una condición necesaria y suficiente para que una matriz admita inversa por la derecha es que su rango sea igual al número de filas.

¿Cómo obtener todas las inversas por la derecha?

242

Podríamos enunciar resultados para las inversas por la derecha de

una matriz similares a los vistos para la inversa por la izquierda en los § 237 y 238 (los cuales nos permiten, dada una matriz, buscarle una inversa por

II. MATRICES

Recuérdese que la inversa por la izquierda de una matriz es única si la matriz es cuadrada (§ 237).

la izquierda —que puede ser única— y, a partir de ella, encontrar todas las demás). Pero no lo vamos a hacer, con el fin de no recargar la exposición; en cambio, sí vamos a aprovechar la relación, vía la trasposición de matrices, que entre las inversas de un tipo y las del otro hemos visto en el § 240. Nota bene

Acontece lo siguiente: si una matriz cuadrada admite inversa por

la derecha, entonces es invertible, su inversa por la derecha es única, y esta



coincide con la inversa de la matriz.

Si le dan al lector una matriz que admite inversas por la derecha (porque su rango es igual al número de filas), proponemos entonces que la trasponga, y que a esta traspuesta le busque todas las inversas por la izquierda; las traspuestas de estas serán las inversas por la derecha de la matriz. Por ejemplo, busquemos todas las inversas por la derecha de la matriz A del ejemplo del § 239, de la cual ya conocemos una: la matriz C, también vista en este mismo lugar:  A=

1 −1

0 1

1 0



 y

0 ⎜ C = ⎝0 1

⎞ 0 ⎟ 1⎠. 0

Para ello, buscamos las inversas por la izquierda de la matriz At , sabiendo que ya tenemos una, precisamente C t . De acuerdo con el citado § 238, todas Si en B + D − DAB (§ 238) escribimos At y C t en el lugar de A y B, respectivamente, nos queda: C t + D − DAt C t . ⎛

⎞ 1 −1 ⎜ ⎟ t 1⎠ A = ⎝0 1 0   0 0 1 Ct = 0 1 0

las inversas por la izquierda de At son las matrices que se pueden escribir de la forma C t + D − DAt C t para alguna matriz D (del mismo orden que C t ). Si escribimos la matriz genérica D como en (13), la expresión C t + D − DAt C t se concreta así: 

0 0

0 1

1 0



 +

a b

x y

u v

lo cual tiene como resultado: 

¿Le coincide al lector con sus propios cálculos?



a b

 −

a b

a 1+b

x y

u v

1−a −b





1 ⎜ ⎝0 1

⎞ −1  ⎟ 0 1⎠ 0 0

0 1

1 0

 ,

 .

Esta es la expresión genérica de todas las inversas por la izquierda de la matriz At (es decir, toda inversa por la izquierda de At es de esta forma para algunos números a y b). Para terminar, solo nos resta trasponer. Todas las inversas por la derecha de la matriz A son, pues, las matrices de esta forma: ¡Por favor, compruébese que el producto de A por esta matriz (en este orden) es igual a la identidad I2 !



a ⎜ ⎝ a 1−a

⎞ b ⎟ 1 + b⎠, −b

donde a y b son números cualesquiera.

II.7. OTROS TEMAS SOBRE MATRICES

4. Matrices dadas por bloques Vemos ahora las matrices dadas por bloques, o matrices particionadas, que son útiles en variados contextos. No vamos a ver una suerte de teoría general, sino solo alguno de los casos particulares más relevantes. Matriz dada por bloques (o matriz particionada)

243

A veces, para agilizar ciertas operaciones, o simplemente para fa-

cilitar la presentación, es útil escribir una matriz partida en bloques, cada uno de los cuales es una submatriz de la matriz. Más precisamente, una matriz dada por bloques, o una matriz particionada, es una matriz en la que se han distinguido ciertas submatrices trazando alguna o algunas rayas horizontales o verticales (o de ambos tipos simultáneamente), las cuales se extienden a lo largo de filas o columnas enteras. Por ejemplo, consideremos esta matriz: ⎛ 1 2 −1 0 ⎜ ⎜0 0 3 0 A=⎜ ⎜0 0 1 0 ⎝ 0 0 3 2 Admite, entre ⎛ 1 2 −1 ⎜ ⎜0 0 3 ⎜ ⎜ ⎜0 0 1 ⎝ 0 0 3

⎞ 0 ⎟ 0⎟ ⎟. 0⎟ ⎠ 7

otras muchas, estas particiones o escrituras por bloques: ⎛ ⎞ ⎞ ⎞ ⎛ 1 2 −1 0 0 0 0 −1 0 0 1 2 ⎜ ⎟ ⎟ ⎟ ⎜ ⎜0 0 3 0 0⎟ 0 0⎟ ⎜0 0 3 0 0⎟ ⎜ ⎟ ⎟ ⎟ ⎜ ⎟. ⎟, ⎜ ⎟, o ⎜ ⎜ 0 0 1 0 0 ⎟ ⎟ 1 0 0 0 0 0 0⎠ ⎠ ⎝ ⎝ ⎠ 3 2 7 0 0 0 0 3 2 7 2 7

Vemos en los tres casos que las rayas separadoras se extienden a lo largo de toda su fila o columna. Para la primera de estas particiones (por fijarnos en una), si consideramos las siguientes matrices (que son submatrices de la matriz A):

 A11 =

1 0 

A21 =

2 0 0 0

podríamos a su vez escribir: ⎞ ⎛ A A 11 12 ⎟ ⎜ A=⎝ ⎠, A21 A22

−1 3 0 0



1 3

 A12 =

, 

0 0

 ,

A22 =

0 0

0 2



0 7

= O, 

⎛ ⎜ A11 o también: A = ⎝ A21

,

⎞ O ⎟ ⎠, A22

que es otra forma de presentar las matrices particionadas. Es decir, se escribe indistintamente la submatriz que forma cada bloque (con todos sus

II. MATRICES

términos) o la letra que la designa. A veces, en este último caso —cuando se escriben las letras que denotan las submatrices en vez de las submatrices mismas—, se puede juzgar oportuno eliminar las rayas horizontales y verticales separadoras para no recargar la notación, y siempre que no dé lugar a confusión. En el ejemplo de la matriz A que venimos considerando: ⎛ ⎞ ⎛ ⎞ A11 A12 A11 O ⎠ , o también: A = ⎝ ⎠. A=⎝ A21 A22 A21 A22 También se considera esta notación una forma de presentar la matriz por bloques, pues sus “elementos” también son, en definitiva, matrices. 244

Más ejemplos

Observe el lector que la notación por filas (cf. § 118, p. 125) o la

notación por columnas (cf. § 117, p. 124) de una matriz son ejemplos de Algo como



A

 In .

matrices dadas por bloques. También lo es el par de matrices yuxtapuestas que escribíamos para calcular en la práctica la inversa de una matriz (véase, por ejemplo, el § 190, p. 183). E incluso la matriz ampliada de un sistema de ecuaciones lineales.

Cf. § 77, p. 80. Si n = r y m > r :   Ir B .

Nótese también que una matriz escalonada reducida de orden (n, m), con rango igual a r y con sus r pivotes en las primeras columnas, puede escribirse por bloques así:



Ir O

B O

 ,

Si m = r y n > r : ⎛ ⎞ Ir ⎝ ⎠. O

para alguna matriz B de orden (r , m − r ) (cuyos términos pueden ser nulos

Si m = n = r , la matriz escalonada reducida es Ir .

ción” (2, 1)— es de orden (n − r , r ); la segunda, de orden (n − r , m − r ).

Matriz diagonal por bloques

o no). Debe fijarse el lector en que las dos matrices nulas escritas no son necesariamente del mismo orden: la primera —digamos que la de “posi-

245

El lector se puede encontrar en algún momento de sus estudios con

lo que se llama una matriz diagonal por bloques; es una matriz cuadrada que se puede particionar de esta manera: ⎛ O ... A11 ⎜ ⎜ O A22 . . . ⎜ ⎜ . .. .. ⎜ .. . . ⎝ O O ...

⎞ O ⎟ O ⎟ ⎟ , .. ⎟ . ⎟ ⎠ Ann

donde los bloques A11 , A22, . . . , Ann son a su vez matrices cuadradas (no necesariamente del mismo orden), y cada bloque fuera de la diagonal principal es una matriz nula (es decir, Aij = O si i ≠ j, y ello para cada número natural i y cada número natural j entre 1 y n). Esta matriz tiene n · n = n2 bloques, pero no es cuadrada de orden n a no ser que todos los bloques sean

II.7. OTROS TEMAS SOBRE MATRICES

matrices de un solo término. El orden de esta matriz cuadrada es la suma de los órdenes de las matrices cuadradas A11 , A22, . . . , Ann . Por ejemplo, si definimos:  A11 =

1 2

−1 4



 ,

A22

−1 ⎜ =⎝ 1 0

0 1 0

⎞ 1 ⎟ 2⎠ 1

la siguiente matriz es diagonal por bloques: ⎛ 0 1 −1 ⎜ ⎜2 4 0 ⎛ ⎞ ⎜ ⎜ O O A11 ⎜0 0 −1 ⎜ ⎟ ⎜ ⎜ ⎜ O ⎟ A O 1 0 0 ⎜ = 22 ⎝ ⎠ ⎜ ⎜0 0 0 O O A33 ⎜ ⎜ ⎜0 0 0 ⎝ 0 0 0 2+3+2

 y

A33 =

0

0

0

0

0

0

0 1

1 2

0 0

0

1

0

0 0

0 0

0 1

0 1

0

1 0

 ,



⎟ 0⎟ ⎟ ⎟ 0⎟ ⎟ ⎟ 0⎟. ⎟ 0⎟ ⎟ ⎟ 1⎟ ⎠ 0

Tiene nueve bloques, es cuadrada de orden 7, y 7 es la suma de los órdenes de las matrices cuadradas A11, A22 y A33 . Nota bene

Los bloques nulos de una matriz diagonal por bloques no son nece-

sariamente matrices cuadradas. Lo son si los bloques de la diagonal principal (que sabemos son matrices cuadradas) son todos del mismo orden. Adición, y multiplicación por un número, de matrices dadas por bloques

246



Podemos sumar fácilmente dos matrices dadas por bloques en tanto

tengan la misma estructura de bloques. Por ejemplo, las matrices ⎞ ⎛ ⎞ ⎛ B11 B12 A11 A12 ⎠ y B=⎝ ⎠, A=⎝ A21 A22 B21 B22 ambas con la misma distribución de bloques, se pueden sumar si los bloques correspondientes son matrices del mismo orden (es decir, si A11 y B11 son del mismo orden, si A12 y B12 también son del mismo orden, etc.). En este caso, la suma se efectúa, formalmente, como si los bloques fueran términos individuales de cada matriz: ⎛ ⎞ ⎛ A11 A12 B ⎠ + ⎝ 11 A+B =⎝ A21 A22 B21

B12 B22





⎠=⎝

A11 + B11

A12 + B12

A21 + B21

A22 + B22

⎞ ⎠.

El producto de una matriz dada por bloques por un número es más fácil todavía. Por ejemplo, si λ es un número: ⎛ ⎞  A11 A12 ⎠ = λA11 λA = ⎝ λA21 A21 A22

λA12 λA22

 .

II. MATRICES

Multiplicación de matrices dadas por bloques

247

De manera similar a como ocurre con la adición, el producto de dos

matrices dadas por bloques se puede efectuar, formalmente, como si los bloques fueran términos individuales, pero ello si los bloques son del orden adecuado. Por ejemplo, con estas matrices dadas por bloques: ⎛ ⎞ ⎛ ⎞ A11 A12 B11 B12 ⎠ y B=⎝ ⎠, A=⎝ A21 A22 B21 B22 se tiene: ⎛ AB = ⎝

A11

A12

A21

A22

⎞⎛ ⎠⎝

B11

B12

B21

B22





⎠=⎝

A11 B11 + A12 B21

A11B12 + A12 B22

A21 B11 + A22 B21

A21B12 + A22 B22

⎞ ⎠,

siempre y cuando el número de columnas de A11 sea igual al número de filas de B11 , el número de columnas de A12 igual al número de filas de B21 , y así sucesivamente. La justificación de esta fórmula es más tediosa que difícil; no la consignamos aquí. Si alguno de los bloques de las matrices que se multiplican es una matriz con la que es especialmente sencillo operar (una matriz identidad o una matriz nula, verbigracia), el producto toma una expresión más sencilla. A modo de muestra, si en el ejemplo anterior ponemos: A21 = B21 = O, queda: ⎛ ⎞⎛ ⎞ ⎛ ⎞ A11 A12 B11 B12 A11B11 A11 B12 + A12 B22 ⎝ ⎠⎝ ⎠=⎝ ⎠. O A22 O B22 O A22 B22 Si exigimos, además, que A12 = B12 = O, entonces: ⎞⎛ ⎞ ⎛ ⎛ B A B O O A ⎠ ⎝ 11 ⎠ = ⎝ 11 11 ⎝ 11 O A22 O B22 O

⎞ O A22 B22

⎠.

Nótese que si estas dos matrices que se multiplican son diagonales por bloques (es decir, son cuadradas y los bloques A11 , A22 , B11 y B22 también son matrices cuadradas, § 245), la igualdad obtenida nos dice que el producto de matrices diagonales por bloques es una matriz diagonal por bloques. Cf. § 244.

Y otro caso particular más: ¿qué se obtiene si multiplicamos dos matrices escalonadas reducidas que son cuadradas del mismo orden, con el mismo rango —digamos r —, y ambas con sus pivotes en las primeras columnas? Veamos; se tiene:   Ir B Ir O O O

B O



 =

I r Ir O

Ir B  O



 =

Ir O

B O

 ,

con lo que el producto coincide con la segunda de las matrices.

II.7. OTROS TEMAS SOBRE MATRICES

Inversa de una matriz cuadrada dada por bloques

248

Cuando tenemos una matriz dada por bloques que es invertible (y

en particular cuadrada), es posible, bajo ciertas condiciones, expresar su inversa también por bloques, y calcular estos a partir de los bloques que definen la matriz original. Podemos enunciar un resultado al respecto para una matriz dada por bloques de este tipo:

⎛ A=⎝

A11

A12

A21

A22

⎞ ⎠,

que suponemos cuadrada, y con los bloques A11 y A22 a su vez matrices cuadradas. El resultado es este: si la matriz A es invertible y también lo son los bloques A11 y A22 , y si a su vez son invertibles estas matrices: D1 = A11 − A12 A−1 22 A21

D2 = A22 − A21 A−1 11 A12 ,

y

(15)

entonces la matriz A−1 se puede escribir así: ⎞ ⎛ −1 D1−1 −A−1 11 A12 D2 ⎠. A−1 = ⎝ −1 −A−1 D2−1 22 A21 D1 La justificación requiere simplemente multiplicar la matriz A por la maVéase la nota al margen con el “¡ojo!” en p. 214. Ello nos ahorra el producto A−1 A.

triz A−1 anterior y comprobar que se obtiene la matriz identidad correspondiente. Es de observar que nos saldrá una matriz identidad escrita por bloques, de este tipo:



I O

O I

 ,

donde I es la matriz identidad del mismo orden que A11 e I  es la matriz identidad del mismo orden que A22 . Un ejemplo concreto

249

La fórmula que acabamos de ver en el § 248, para el cálculo de la

inversa de una matriz (cuadrada) dada por bloques, es un poco aparatosa, pero puede quedar razonablemente simplificada en ciertos casos particulares interesantes, como acontecía con la del producto (§ 247). Por ejemplo, consideremos la matriz:

⎛ A=⎝

A11

A12

O

A22

⎞ ⎠,

que suponemos cuadrada, y con los bloques A11 y A22 también matrices Nótese que A21 = O.

cuadradas. Si estos bloques son matrices invertibles, entonces las matrices D1 y D2 definidas en (15) toman la forma: D1 = A11 y D2 = A22. Si la matriz A es invertible, entonces su inversa tiene este aspecto: ⎞ ⎛ −1 −1 A11 −A−1 11 A12 A22 −1 ⎠. A =⎝ O A−1 22

II. MATRICES

Veamos un ejemplo concreto de aplicación de esta fórmula. Queremos

Es invertible; el lector puede calcular que rango A = 3.

calcular la inversa de esta matriz: ⎛ 1 ⎜ ⎜0 A=⎜ ⎜0 ⎝ 0

1 1 0 0

⎞ 2 ⎟ 1⎟ ⎟. 1⎟ ⎠ 0

3 −2 1 −1

Podemos escribirla, por bloques, así: ⎛

1

⎜ ⎜0 ⎜ A=⎜ ⎜0 ⎝ 0

1

3

1

−2

0 0

1 −1



2

⎟ ⎛ 1⎟ ⎟ ⎝ A11 ⎟= O 1⎟ ⎠ 0

A12 A22

⎞ ⎠,

donde:  A11 =

1 0

1 1



 A12 =

,

3 −2

2 1



 y

A22 =

1 −1

1 0

 .

Los bloques A11 y A22 son matrices cuadradas invertibles: 

¿El lector se animará a comprobarlo?

A−1 11

=

1 0

−1 1



 y

A−1 22

3 −2

2 1

=

−1 1

0 1

 ,

y se tiene:  ¿Y este producto también?

−1 −A−1 11 A12 A22

=−

1 0

−1 1





0 1

−1 1



 =

−1 −1

4 −3

 .

Y tras estos cálculos ya podemos escribir la inversa de la matriz A: ⎛ ⎛ A

−1

=⎝

A−1 11

−1 −A−1 11 A12 A22

O

A−1 22

En definitiva:



A−1

1 ⎜ ⎜0 =⎜ ⎜0 ⎝ 0



1

⎜ ⎜0 ⎠=⎜ ⎜ ⎜0 ⎝ 0

−1 1 0 0

−1 −1 0 1

−1

−1

1

−1

0 0

0 1

4



⎟ −3 ⎟ ⎟ ⎟. −1 ⎟ ⎠ 1

⎞ 4 ⎟ −3 ⎟ ⎟. −1 ⎟ ⎠ 1

El cálculo de esta inversa ha quedado razonablemente sencillo; en todo caso, se ha reducido al cálculo de la inversa de dos matrices cuadradas de orden 2 y al cálculo de un producto de tres matrices, también de orden 2.

II.7. OTROS TEMAS SOBRE MATRICES

Inversa de una matriz diagonal por bloques

250

A partir de la fórmula vista en el § 249 (o de la vista en el § 248),

podemos calcular la inversa de una matriz diagonal por bloques. Consideremos, pues, la siguiente matriz diagonal por bloques (en particular —ya lo sabemos— la matriz es cuadrada, y los bloques de la diagonal son también matrices cuadradas): ⎛ A=⎝



A11

O

O

A22

⎠.

Si esta matriz A es invertible y también lo son las matrices A11 y A22 , de la fórmula del citado § 249 se deduce que la inversa A−1 queda simplemente de esta forma:

⎛ A

Nota

−1

=⎝

A−1 11

O

O

A−1 22

⎞ ⎠.

Este resultado se extiende fácilmente a cualquier matriz diagonal por blo-

ques. En concreto, acontece lo siguiente: dada la matriz ⎞ ⎛ O ... O A11 ⎟ ⎜ O ⎟ A22 . . . ⎜ O ⎟ ⎜ , A=⎜ . .. .. ⎟ .. ⎟ ⎜ . . . . ⎠ ⎝ . O O . . . Ann si A es diagonal por bloques y las matrices cuadradas A11 , A22 , . . . , Ann son invertibles, entonces A es invertible, y su inversa toma esta forma: ⎞ ⎛ −1 O ... O A11 ⎟ ⎜ ⎜ O A−1 ... O ⎟ ⎟ ⎜ 22 ⎟ ⎜ A−1 = ⎜ . . .. .. ⎟ .. ⎟ ⎜ . ⎜ . . . . ⎟ ⎠ ⎝ O O . . . A−1 nn Nótese que, en particular, la inversa de una matriz diagonal por bloques sigue  siendo una matriz diagonal por bloques.

A modo de ejemplo, calculemos la inversa, si existe, de la matriz diagonal por bloques que vimos en el § ⎛ 1 −1 0 0 0 ⎜ ⎜2 4 0 0 0 ⎜ ⎜ ⎜0 0 −1 0 1 ⎜ ⎜ ⎜0 1 1 2 0 ⎜ ⎜0 0 0 0 1 ⎜ ⎜ ⎜0 0 0 0 0 ⎝ 0 0 0 0 0

245: 0 0 0 0 0 0 1

0



⎟ 0⎟ ⎟ ⎛ ⎟ A 0⎟ ⎟ ⎜ 11 ⎟ ⎜ 0⎟ = ⎝ O ⎟ 0⎟ ⎟ O ⎟ 1⎟ ⎠ 0

O A22 O

O



⎟ O ⎟ ⎠. A33

II. MATRICES

Los tres bloques son matrices cuadradas que resultan ser invertibles; los dos de orden 2:  A−1 11

=

1 2

−1 4

−1

 =

2/3 −1/3

1/6 1/6



 A−1 33

,

=

0 1

1 0

−1

 =

0 1

1 0

 ;

y el de orden 3: ⎛

La inversa de esta matriz se calculó en el § 191 (cf. p. 184).

A−1 22

−1 ⎜ =⎝ 1 0

0 1 0

⎞−1 ⎛ 1 −1 ⎜ ⎟ 2⎠ = ⎝ 1 1 0

⎞ 1 ⎟ −3 ⎠ . 1

0 1 0

Finalmente, la inversa de la matriz es esta: ⎛



A−1 11 ⎜ ⎜ O ⎝ O

Traspuesta de una matriz dada por bloques

251

O A−1 22 O

2/3 ⎜ ⎜ −1/3 ⎞ ⎜ ⎜ O ⎜ 0 ⎟ ⎜ ⎜ O ⎟ 0 ⎜ = ⎠ ⎜ ⎜ 0 A−1 ⎜ 33 ⎜ ⎜ 0 ⎝ 0

1/6

0

0

0

0

1/6

0

0

0

0

0

−1

0

1

0

0

1

1

−3

0

0

0

0

1

0

0 0

0 0

0 0

0 0

0 1

0



⎟ 0⎟ ⎟ ⎟ 0⎟ ⎟ ⎟ 0⎟. ⎟ 0⎟ ⎟ ⎟ 1⎟ ⎠ 0

¿Cómo se puede calcular la traspuesta de una matriz que viene dada

por bloques? Para ello, se aplica a los bloques la misma regla que, en la trasposición de matrices que ya conocemos, se aplica a los términos (es decir, las filas pasan a ser columnas y viceversa), y también se traspone cada bloque. Por ejemplo: ⎛

A11

⎜ si A = ⎜ ⎝ A21 A31

A12



⎟ A22 ⎟ ⎠ A32

⎛ entonces: A = ⎝ t

At11

At21

At31

At12

At22

At32

⎞ ⎠.

Ejercicios II.7 1

Considérese esta matriz: ⎛ 1 2 ⎜ 2 A=⎝ 2 −1 −2

columnas obtenidas en el apartado anterior, y en el ⎞

0 ⎟ 1⎠. 1

mismo orden, en la matriz identidad I3 . Multiplicar la matriz resultante por A. c)

a)

Escribir la matriz A como un producto de ma-

Obtener, a partir de la matriz A, la matriz identi-

trices elementales por columnas. (Indicación: Puede

dad I3 mediante la aplicación de transformaciones ele-

ser útil fijarse en las matrices elementales por colum-

mentales por columnas sucesivas.

nas asociadas a las inversas de las transformaciones obtenidas en el primer apartado.)

b)

Ejecutar las transformaciones elementales por

II.7. OTROS TEMAS SOBRE MATRICES

2

Una matriz elemental por columnas, ¿puede ver-

se como una matriz elemental por filas? Distinguir los tres tipos de matrices elementales. 3

Se considera el sistema de ecuaciones linea-

les AX = C (en notación matricial), donde     2 4 4 6 1 A= y C= , 1 2 −1 0 2

7

Descomponer como suma de su parte simétrica

y su parte antisimétrica estas matrices ⎛   2 5 2 −1 ⎜ y ⎝ −1 0 −1 1 1 1 8

cuadradas: ⎞ 1 ⎟ 0⎠. 2

Si A es una matriz cualquiera (no necesariamente

cuadrada), justificar que el producto AAt es una matriz simétrica.

y X es la matriz de incógnitas correspondiente. 9

a)

Resolver el sistema.

b)

Ejecutar algún intercambio de columnas ade-

Hallar algún valor de a de forma que sea ortogo-

nal esta matriz:

cuado en la matriz ampliada del sistema de forma que queden los pivotes de sus formas escalonadas en las

⎛√ ⎝

3/2

1/2



a 3/2

⎞ ⎠.

primeras columnas. Escribir y resolver el sistema cuya matriz ampliada es la matriz resultante, y comparar

10

con lo obtenido en el apartado anterior.

ces que se pueden escribir de esta forma:   a b para algunos a y b tales que a2 + b2 = 1. −b a

4

Dada la matriz: 

2 0

4 −2

6 2

 ,

escribir todas sus submatrices, y calcular el rango tanto de la matriz como de las submatrices. 5

Para esta matriz triangular superior:   2 −1 , 0 1

calcular su inversa, y comprobar que la inversa también es triangular superior. Demostrar esta propiedad: si una matriz cuadrada de orden 2 es triangular superior e invertible, entonces

11

Se considera la matriz   2 −1 A= . 1 1

Encontrar dos matrices L y U tales que A = LU, siendo la matriz L triangular inferior con todos los términos de la diagonal principal iguales a 1, y siendo la matriz U triangular superior.

Estudiar para qué valores del parámetro a es

idempotente esta matriz: ⎛ 2 −2 ⎜ 3 ⎝ −1 1 −2 12

⎞ −4 ⎟ 4⎠. a

Determinar para qué valores de los parámetros a

y b es idempotente la siguiente matriz:   a 0 . b 1−a 13

su inversa también es una matriz triangular superior. 6

Demostrar que son ortogonales todas las matri-

Siendo c un parámetro, nos dan esta matriz:   0 0 . c 0

¿Hay algún valor de c para el cual esta matriz es nilpotente? 14 Determinar para qué valores del parámetro t es nilpotente la siguiente matriz:   2 4 . −1 t

II. MATRICES

15

Encontrar, si existen, todas las inversas por la iz-

quierda de la matriz

16

  1 . 2

Dada la matriz:



1 ⎜ A = ⎝2 0

18



⎞ 0 ⎟ 1⎠, 0

19

−1

At . A partir de esta, encontrar todas las in-

Estudiar, según los valores del parámetro a, si la

siguiente matriz admite inversa por la izquierda: ⎛ ⎞ 0 1 0 ⎜ ⎟ ⎜1 0 1⎟ ⎜ ⎟ ⎜0 1 a⎟. ⎝ ⎠ 1 1 1

a)

2 1

0



1 ⎜ ⎜0 ⎜ ⎜ ⎜0 ⎝

1

0

1

0

0

1

⎟ 0⎟ ⎟ ⎟ −1 ⎟ ⎠

0

0

2

4

versas por la izquierda de la matriz A. 17

1 0

0 0

 .

Considérense estas dos matrices: ⎛

encontrarle una inversa por la izquierda con la fórmula (At A)

Encontrar todas las inversas por la derecha, si

existen, de esta matriz:



y

0 ⎜ ⎜0 ⎜ ⎜ ⎜1 ⎝

0

1

0

0

0

0

0

1

0

0



⎟ 1⎟ ⎟ ⎟. 0⎟ ⎠ 0

Multiplicarlas (en el mismo orden en que están

escritas). ¿Se aprecia alguna relación entre la primera matriz y la matriz obtenida? b)

Calcular la inversa de la primera matriz.

c)

¿Se anima el lector a calcular la inversa de la se-

gunda?

RECAPITULACIÓN II

RECAPITULACIÓN II Definición de matriz (incluye repaso)  Una matriz de orden (n, m) (o de orden n × m) es una disposición de n · m números (reales) en forma rectangular en n filas y m columnas, que son las filas y las columnas de la matriz. Los números que se escriben en una matriz se denominan términos de la matriz.  Las matrices se suelen denotar con letras mayúsculas, y sus términos con la misma letra que la matriz pero en minúscula, con dos subíndices que indican el número de fila y el número de columna (en este orden, y sin comas entre ellos) que ocupa el término en la matriz. En una matriz A, el término de posición (i, j) es el que figura en la i-ésima fila y en la j-ésima columna, y se denota: aij . Una matriz general A de orden (n, m) se escribe así:

cuadrada, los términos de la diagonal principal son los que ocupan las posiciones (1, 1), (2, 2), . . . .  Una matriz diagonal es una matriz cuadrada que tiene nulos los términos fuera de la diagonal principal. Una matriz identidad (o unitaria) es una matriz diagonal con los términos de la diagonal principal iguales a 1. La de orden n se denota ⎛ 1 0 ⎜ ⎜0 1 ⎜ In = ⎜ . .. ⎜. . ⎝. 0 0 También se escribe: In =



por In : ... ... .. . ...

⎞ 0 ⎟ 0⎟ ⎟ . .. ⎟ ⎟ .⎠ 1

 δij , donde δij es igual a 1

si i = j e igual a 0 si i ≠ j (delta de KRONECKER). Una matriz nula (o cero) es una matriz (cuadrada o no) con todos sus términos nulos. Cualquier matriz



a11 ⎜a ⎜ 21 ⎜ ⎜ . ⎜ .. ⎜ A=⎜ ⎜ ai1 ⎜ ⎜ . ⎜ . ⎝ . an1

a12 a22 .. . ai2 .. . an2

... ... .. . ... .. . ...

a1j a2j .. . aij .. . anj

... ... .. . ... .. . ...

⎞ a1m a2m ⎟ ⎟ ⎟ .. ⎟ . ⎟ ⎟ ⎟. aim ⎟ ⎟ .. ⎟ ⎟ . ⎠ anm

Los términos de la i-ésima fila son ai 1 , ai2 , . . . , aim (todos con el primer subíndice igual a i). Los términos de la j-ésima columna son a1j , a2j , . . . , anj (todos con el segundo subíndice igual a j). A veces se  emplea la  notación: A = aij ; 1  i  n, 1  j  m , o simple  mente: A = aij .  Dos matrices A y B son iguales, y se escribe: A = B, si son del mismo orden y verifican: aij = bij para cada i y para cada j (en la misma posición, el mismo número).  Una matriz fila es una matriz con una sola fila: de orden (1, m) para algún m. Una matriz columna es una matriz con una sola columna: de orden (n, 1) para algún n. Una matriz cuadrada de orden n es una matriz de orden (n, n) (n filas y n columnas). En una matriz

nula se denota por O.  Dada una matriz A, su j-ésima matriz columna es la matriz columna cuyos términos son los de la j-ésima columna de A; se denota por Cj (A). Y su i-ésima matriz fila es la matriz fila cuyos términos son los de la i-ésima fila de A; se denota por Fi (A). Siendo A de orden (n, m), si A1 , A2 , . . . , Am son las m matrices columna de A, la notación por columnas de A es:  A = A1

A2

...

 Am .

Si F1 , F2 , . . . , Fn son las n matrices fila de A, la notación por filas de A es:

⎞ F1 ⎜ ⎟ ⎜ ⎟ ⎜ F2 ⎟ ⎜ ⎟ ⎜ ⎟ A = ⎜ . ⎟. ⎜ . ⎟ ⎜ . ⎟ ⎜ ⎟ ⎝ ⎠ Fn ⎛

Operaciones  Dadas dos matricon matrices    b a yB= del mismo orden, su suma ces A = ij ij   es la matriz A+B = aij + bij (se suman los términos de la misma posición en ambas matrices).

II. MATRICES

  Dada una matriz A = aij , se define su opuesta   como la matriz −A = −aij . El conjunto de las matrices de orden (n, m) (con términos números reales) se denota por M nm (R). La

• distributiva respecto de la adición de matrices, esto es: A(B1 + B2 ) = AB1 + AB2 y también esta otra: (A1 + A2 )B = A1 B + A2 B; • In A = AIn = A ;

adición de matrices de este conjunto tiene estas pro-

• OA = AO = O ;

piedades: • conmutativa: A + B = B + A;

• si AB = O, es posible que ni A ni B sean nulas.

• asociativa: A + (B + C) = (A + B) + C; • la matriz nula es el elemento neutro de la adi-

 Dado un sistema de n ecuaciones lineales en las m incógnitas x1 , x2 , . . . , xm :

Estas propiedades se resumen afirmando que la adi-

⎧ a11 x1 + a12 x2 + · · · + a1m xm = c1 ⎪ ⎪ ⎪ ⎪ ⎨ a21 x1 + a22 x2 + · · · + a2m xm = c2 ⎪ ⎪........................................ ⎪ ⎪ ⎩ an1 x1 + an2 x2 + · · · + anm xm = cn ,

ción de matrices articula el conjunto M nm (R) como un

la notación matricial del sistema es la igualdad matri-

grupo abeliano.

cial AX = C, donde A es la matriz de coeficientes (o

ción: A + O = O + A = A; • cada matriz es simetrizable: para cada matriz A su opuesta es tal que A + (−A) = (−A) + A = O.

   Dados una matriz A = aij y un número λ, el pro  ducto por λ de A es la matriz λA = λaij . Esta ope-

matriz asociada): ⎛

a11 ⎜ ⎜ a21 ⎜ A=⎜ . ⎜ . ⎝ . an1

ración también se denomina multiplicación escalar.      Dadas dos matrices A = aij y B = bij , de orden, respectivamente, (n, m) y (m, p) (en particular, el número de columnas de A es igual al número de filas de  el producto AB se define como la ma B), c triz C = ij , de orden (n, p), con términos: cij =

m 

aik bkj ,

1  i  n, 1  j  p.

k=1

Es decir, cij es la suma de los productos de los términos correspondientes de la i-ésima fila de A y de la j-ésima columna de B. Si se puede escribir el producto AB, también se dice que B se multiplica, por la izquierda, por A; o que A se multiplica, por la derecha, por B. Dadas dos matrices A y B, si están definidos los

a12 a22 .. . an2

... ... .. . ...

⎞ a1m ⎟ a2m ⎟ ⎟ , .. ⎟ ⎟ . ⎠ anm

y X y C son, respectivamente, la matriz de incógnitas y la matriz de términos independientes: ⎞ ⎛ ⎞ ⎛ c1 x1 ⎟ ⎜ ⎟ ⎜ ⎜ c2 ⎟ ⎜ x2 ⎟ ⎟ ⎜ ⎟ ⎜ X = ⎜ . ⎟ y C = ⎜ . ⎟. ⎜ . ⎟ ⎜ . ⎟ ⎝ . ⎠ ⎝ . ⎠ xm cn Si la m-upla (s1 , s2 , . . . , sm ) es una solución del sistema de ecuaciones lineales, también llamamos solución del sistema AX = C a la matriz columna de términos s1 , s2 , . . . , sm . Transformaciones elementales por filas

 Se de-

productos AB y BA y estos son dos matrices iguales,

nominan transformaciones elementales por filas de

decimos que las matrices A y B conmutan. Si los pro-

una matriz, de tipo i, ii y iii, respectivamente, a es-

ductos AB y BA están definidos y son del mismo orden,

tos tres tipos de transformaciones que se ejecutan en

pero no son iguales, decimos que las matrices A y B no

matrices:

conmutan. La multiplicación de matrices cuadradas de

• intercambiar dos filas: Fi ↔ Fj ;

orden n  2 no es una operación conmutativa.

• multiplicar una fila por un número no nulo:

Propiedades de la multiplicación de matrices: • Cj (AB) = A Cj (B) y Fi (AB) = Fi (A) B; • asociativa: A(BC) = (AB)C;

Fi ← λFi (con λ ≠ 0); • sumar a una fila un múltiplo de otra: Fi ← Fi + αFj .

RECAPITULACIÓN II

Decimos que dos transformaciones elementales por filas son inversas una de la otra si al aplicar ambas sucesivamente, en un orden o en el otro, a cualquier matriz (de un orden adecuado) se obtiene como resultado la matriz original. Se tiene: • la inversa de Fi ↔ Fj es ella misma; • la inversa de Fi ← λFi es Fi ← (1/λ)Fi; • la inversa de Fi ← Fi + αFj es Fi ← Fi − αFj .  Llamamos matriz elemental de orden n asociada a una transformación elemental (por filas) a la matriz que resulta tras aplicar la transformación elemental a la matriz identidad de orden n.

Propiedades: • las matrices cuadradas de rango máximo se pueden escribir como un producto de matrices elementales; • dada una matriz B de cualquier orden, si A es una matriz cuadrada de rango máximo tal que el producto AB está definido: rango(AB) = rango B; • el producto de matrices cuadradas (del mismo orden) de rango máximo es una matriz cuadrada de rango máximo, y en particular cualquier producto de matrices elementales del mismo orden es una matriz cuadrada de rango máximo.

Dada una matriz de n filas, se obtiene el mismo re-

 Otra propiedad del rango: si A y B son dos ma-

sultado llevando a cabo una transformación elemental

trices tales que el producto AB está definido, entonces: rango(AB)  rango(A).

por filas que multiplicando, por la izquierda, por la matriz elemental de orden n asociada a la transformación elemental. Si multiplicamos dos matrices elementales del mismo orden asociadas a transformaciones elementales inversas, el producto es la matriz identidad correspon-

 Teorema de ROUCHÉ–FROBENIUS: Una condición necesaria y suficiente para que un sistema de ecuaciones lineales admita solución es que su matriz de coeficientes y su matriz ampliada tengan el mismo rango.

 El rango de una matriz es

Dado un sistema de ecuaciones lineales de matriz  se verifica: de coeficientes A y matriz ampliada A,  y este valor común del ran• si rango A = rango A

el número de pivotes de cualquiera de sus formas es-

go es igual al número de incógnitas del sistema,

calonadas (es el mismo en todas ellas). El rango de una

entonces el sistema es compatible determinado;  y este valor común del ran• si rango A = rango A

diente. Rango de una matriz

matriz A se denota por rango A. Propiedades del rango:

go es menor que el número de incógnitas del sis-

• el rango de una matriz es menor o igual que el

tema, entonces el sistema es compatible indeter-

número de sus filas y menor o igual que el núme-

minado;  entonces el sistema es in• si rango A < rango A,

ro de sus columnas; • si aplicamos una transformación elemental (por filas) a una matriz, la matriz resultante tiene el mismo rango que la original; • el rango de la matriz identidad In es igual a n; • el rango de cualquier matriz elemental de orden n es igual a n; • dada una matriz cuadrada de orden n, afirmar que su rango es igual a n es equivalente a afirmar que su forma escalonada reducida es la matriz identidad In .  Una matriz de rango máximo es una matriz cuyo rango coincide con el número de sus filas o con el número de sus columnas (el menor de los dos).

compatible. Dos propiedades de los sistemas de ecuaciones lineales: • una condición necesaria y suficiente para que un sistema de ecuaciones lineales admita solución para cualquier elección de los términos independientes es que el rango de la matriz de coeficientes sea igual al número de ecuaciones; • una condición necesaria y suficiente para que un sistema de ecuaciones lineales homogéneo admita solución única (la cual sería la nula) es que el rango de su matriz de coeficientes sea igual al número de incógnitas del sistema.

II. MATRICES

Inversa de una matriz cuadrada

 Dada una ma-

igual al término de posición (j, i) de la matriz A (para

triz A, cuadrada de orden n, una matriz B, también

cada 1  i  m y cada 1  j  n). Es decir: los tér-

cuadrada de orden n, es matriz inversa (o simplemente inversa) de la matriz A si AB = BA = In .

minos de las m filas de At son los términos de las m columnas de A, y los términos de las n columnas de At

Cuando una matriz cuadrada admite inversa, se

son los de las n filas de A.

dice que es invertible. La inversa de una matriz A, si

Propiedades:

existe, es única, y se denota por A−1 .

• (At ) = A;

 Propiedades de la inversa: −1  • A−1 = A; • In−1 = In ; • cualquier matriz elemental es invertible, y su inversa es otra matriz elemental; además, las matrices elementales del mismo orden asociadas a transformaciones elementales inversas son matrices inversas una de la otra; −1

• (AB)

= B −1 A−1 .

t



Int

= In ; t

• (A + B) = At + B t ; t

• (λA) = λAt ; t

• (AB) = B t At ; t −1

t

• (A ) = (A−1 ) ; • rango A = rango At .  El rango de un producto de dos matrices es igual al rango de una de ellas si la otra es cuadrada de rango máximo.

 Dada una matriz cuadrada, decimos que es regular

 Dada una matriz cuadrada A, la traza de A se de-

(o no singular), si su rango es máximo; y se dice que es

fine como la suma de los términos de la diagonal prin-

singular si su rango no es máximo.

cipal de A. Se denota por tr(A).

Propiedad fundamental: una condición necesaria y suficiente para que una matriz cuadrada de orden n sea invertible es que su rango sea igual a n. Así, las matrices invertibles son, justamente, las matrices regulares. Dado un sistema de ecuaciones lineales con el mis-

Propiedades: • tr(In ) = n; • tr(A + B) = tr(A) + tr(B); • tr(λA) = λ tr(A); • si los productos AB y BA están definidos, enton-

mo número de ecuaciones que de incógnitas, si la ma-

ces tr(AB) = tr(BA);

triz de coeficientes es regular, el sistema es compatible

• tr(AAt ) = tr(At A) =

determinado cualesquiera que sean los términos inde-

n  m 

a2ik .

i=1 k=1

pendientes. Si el sistema escrito en notación matricial

 Si una matriz A tiene rango igual al número de co-

es AX = C, entonces su única solución es la matriz co-

lumnas, entonces la matriz cuadrada At A es invertible.

lumna A−1 C.  Método práctico: dada una matriz A invertible, podemos obtener la matriz A−1 aplicando a la matriz In las mismas transformaciones elementales, y en el mismo orden, que nos permiten obtener la matriz In a partir de la matriz A. Se escriben yuxtapuestas ambas matrices, de esta   In , y se aplican transformaciones eleforma: A   A−1 . mentales a ambas a la vez, hasta llegar a In Traspuesta de una matriz y traza de una ma-

Transformaciones elementales por columnas

 Se

denominan transformaciones elementales por columnas de una matriz, de tipo i, ii y iii, respectivamente, a estos tipos de transformaciones: • intercambiar dos columnas: Ci ↔ Cj ; • multiplicar una columna por un número no nulo: Ci ← λCi (con λ ≠ 0); • sumar a una columna un múltiplo de otra: Ci ← Ci + αCj .  Transformaciones elementales por columnas inver-

 Dada una matriz A de orden (n, m), su

sas y matrices elementales por columnas se definen,

matriz traspuesta, que se denota por At , es otra matriz de orden (m, n) cuyo término de posición (i, j) es

mutatis mutandis, como en el caso de las transformaciones elementales por filas.

triz

RECAPITULACIÓN II

Dada una matriz de m columnas, se obtiene el mis-

Estas propiedades también son válidas para matrices

mo resultado llevando a cabo una transformación ele-

triangulares inferiores.

mental por columnas que multiplicando, por la derecha, por la matriz elemental de orden m asociada a la

es antisimétrica si At = −A. (Una matriz antisimétrica

transformación elemental. Si aplicamos una transformación elemental por columnas a una matriz, la matriz resultante tiene el mismo rango que la original.

 Una matriz cuadrada A es simétrica si At = A, y tiene nulos, pues, los términos de la diagonal principal.) Propiedades: • si dos matrices cuadradas del mismo orden son

 Si dos sistemas de ecuaciones lineales son tales que

simétricas, también lo son su suma y el producto de cualquiera de ellas por un número, y también

la matriz ampliada de uno es el resultado de ejecutar

lo es el producto de las dos si las matrices con-

una transformación elemental por columnas en la ma-

mutan;

triz ampliada del otro, pero de forma que no se vea afectada la última columna (la de los términos inde-

• si una matriz simétrica es invertible, su inversa

pendientes), entonces ambos sistemas son de la misma

Estas propiedades también son válidas para matrices

clase en lo que a su discusión se refiere (ambos son in-

antisimétricas.

compatibles, o ambos son compatibles determinados, o ambos son compatibles indeterminados).  Dada una matriz A de orden (n, m), y dados dos números naturales p y q tales que 0  p  n − 1 y 0  q  m − 1, al suprimir p filas de A y q columnas de A, queda una nueva matriz, la cual es de orden (n − p, m − q); de esta nueva matriz decimos que es una submatriz de la matriz A. El rango de una matriz es mayor o igual que el rango de sus submatrices. Más tipos matrices  Dada una matriz cuadra de  da A = aij , de orden n, decimos que A es triangular superior si aij = 0 siempre que i > j (para cada 1  i  n y cada 1  j  n); es decir: todos los términos que quedan estrictamente “por debajo” de la diagonal principal son nulos. Y decimos que A es triangular inferior si aij = 0 siempre que i < j (para cada 1  i  n y cada 1  j  n); esto es: todos los términos que quedan estrictamente “por encima” de la diagonal principal son nulos. Propiedades: • si dos matrices cuadradas del mismo orden son

también es simétrica.

Dada una matriz cuadrada A, existen dos únicas matrices S y T tales que A = S + T , siendo S simétrica y T antisimétrica. Las matrices S y T vienen dadas por: S=

1 (A + At ) y 2

T=

1 (A − At ), 2

y se denominan parte simétrica y parte antisimétrica de la matriz A, respectivamente.  Una matriz A, cuadrada de orden n, es ortogonal si verifica: AAt = At A = In , es decir: A−1 = At . Propiedades: • si dos matrices cuadradas del mismo orden son ortogonales, también lo es su producto (pero no necesariamente su suma o su producto por un número); • la inversa de una matriz ortogonal es invertible.  Una matriz cuadrada A es idempotente si AA = A (o bien: A2 = A), y es nilpotente si AA = O (o A2 = O). Propiedades: • si dos matrices cuadradas del mismo orden son idempotentes y conmutan, también es idempotente su producto; • la única matriz idempotente que es regular (o lo

triangulares superiores, también lo son su suma

que es equivalente: invertible) es la identidad;

y su producto, así como el producto de cual-

• la traspuesta de una matriz idempotente es tam-

quiera de ellas por un número; • si una matriz invertible es triangular superior, su inversa también es triangular superior.

bién idempotente; • cualquier matriz nilpotente es singular (o lo que es lo mismo: no invertible).

II. MATRICES

 Dada una matriz A de orden (n, m), una inversa por la izquierda de la matriz A es una matriz B de or-

manera si los bloques son matrices del orden adecuado. Dada la matriz por bloques:

den (m, n) tal que BA = Im . Propiedades:

⎛ A=⎝

• una condición necesaria y suficiente para que una matriz admita inversa por la izquierda es que su rango sea igual al número de columnas; • si una matriz A tiene su rango igual al número de t

−1

columnas, entonces la matriz (A A)

t

A es una

inversa por la izquierda de A; • si una matriz A admite inversa por la izquierda y es cuadrada, entonces su inversa por la izquierda es única y es precisamente la inversa A−1 ;

da de A se pueden obtener “dando valores” a la matriz D (del mismo orden que B) en la expresión B + D − DAB.

A12

A21

A22

den (m, n) tal que AC = In .

y si a su vez son invertibles D1 = A11 − A12 A−1 22 A21 y D2 = A22 − A21 A−1 11 A12 , entonces: ⎛ A−1 = ⎝

D1−1

−1 −A−1 11 A12 D2

−1 −A−1 22 A21 D1

D2−1

⎛ ⎝

A11

A12

O

A22

⎞−1 ⎠

⎛ =⎝

A−1 11

−1 −A−1 11 A12 A22

O

A−1 22

⎜ ⎜ ⎜ ⎜ ⎜ ⎝

derecha de una matriz A es lo mismo que afirmar que la matriz C t es una inversa por la izquierda

 Una matriz dada por bloques, o una matriz particionada, es una matriz en la que se han distinguido ciertas submatrices trazando alguna o algunas rayas horizontales o verticales (o de ambos tipos simultáneamente), las cuales se extienden a lo largo de filas o columnas enteras. Podemos sumar dos matrices dadas por bloques en tanto tengan la misma estructura de bloques, y la suma se efectúa como si los bloques fueran términos individuales. El producto también se puede efectuar de esta

⎞ ⎠.

Una matriz diagonal por bloques es una matriz ⎛

rango sea igual al número de filas.

⎠.

cuadrada que se puede particionar así:

• afirmar que una matriz C es una inversa por la

matriz admita inversa por la derecha es que su



Caso particular:

Propiedades:

de la matriz At ; • una condición necesaria y suficiente para que una

⎠,

a su vez matrices cuadradas, se verifica: si la matriz A es invertible y también lo son los bloques A11 y A22 ,

 Dada una matriz A de orden (n, m), una inversa por la derecha de la matriz A es una matriz C de or-



que suponemos cuadrada y con los bloques A11 y A22

• si una matriz A admite una inversa por la izquierda B, entonces todas las inversas por la izquier-

A11

A11 O .. . O

O A22 .. . O

... ... .. . ...

⎞ O ⎟ O ⎟ ⎟ , .. ⎟ ⎟ . ⎠ Ann

donde los bloques A11 , A22 , . . . , Ann son a su vez matrices cuadradas (no necesariamente del mismo orden), y cada bloque fuera de la diagonal principal es una matriz nula. Si en la matriz diagonal por bloques anterior son invertibles las matrices cuadradas A11 , A22 , . . . , Ann , entonces la matriz es invertible, y su inversa toma esta forma: ⎞ ⎛ −1 O ... O A11 ⎟ ⎜ ⎜ O A−1 ... O ⎟ ⎟ ⎜ 22 ⎟ ⎜ ⎜ . . .. .. ⎟ .. ⎟ ⎜ . ⎟ ⎜ . . . . ⎠ ⎝ O O . . . A−1 nn

Capítulo III

VECTORES

23

III. VECTORES

ESQUEMA Presentación del capítulo

3. Independencia lineal 1. Vectores linealmente dependientes y vec-

1. Vectores 1. El conjunto Rn como un espacio vectorial . El

tores linealmente independientes Definiciones y propiedades • Sistemas de vectores

conjunto R2 • El conjunto Rn

2. Vectores columna y vectores fila de una matriz 3. Combinaciones lineales Ejercicios III.1

2. Bases y dimensión de un subespacio vectorial . . . . . . . . . . . . . . . . . . 295 Bases • Dimensión

3. Rango de unos vectores Definición • Relación con el rango de una matriz

2. Subespacios vectoriales 1. Conjuntos de vectores . . . . . . . . . . 265 2. Subespacios vectoriales Definición . Ejemplos

3. Subespacio vectorial generado por unos vectores

4. Ecuaciones de un subespacio vectorial Ecuaciones paramétricas • Ecuaciones implícitas • Codimensión

Ejercicios III.3

Definición: generadores . Rectas y planos • Generadores de Rn

Ejercicios III.2

Recapitulación III

PRESENTACIÓN DEL CAPÍTULO

PRESENTACIÓN DEL CAPÍTULO En muchas aplicaciones a modelos de Economía y Empresa, se manejan sistemas de ecuaciones lineales. Esto ya lo hemos comentado, pero no hemos apuntado que el interés no está restringido exclusivamente a saber si un sistema de ecuaciones lineales dado tiene solución o no, o cuáles son concretamente estas soluciones cuando existen. Si un sistema no tiene solución o tiene solución única, no hay mucho más que añadir, pero cuando hay infinitas soluciones la situación es distinta. Si el lector recuerda algunos de los ejemplos de sistemas compatibles indeterminados —que (bien lo sabe) son los que tienen infinitas soluciones—, quizá perciba que las infinitas soluciones de un sistema que se expresan con ayuda de dos parámetros tienen en algún sentido una “entidad” distinta de las soluciones de un sistema que se expresan con un solo parámetro. Es así: como veremos en este capítulo, es posible dar cuenta de una suerte de “tamaño” del conjunto formado por todas las soluciones de un sistema de ecuaciones lineales. En la primera sección, se estudian los objetos con los que trabajaremos en todo el capítulo: los vectores. En el nivel de este libro, un vector no es más que una n-upla (un par ordenado, una terna, etc.) de números. Hasta ahora, las n-uplas nos han servido solo para presentar las soluciones de los sistemas de ecuaciones lineales; a partir de ahora trabajaremos con ellas como un objeto de estudio que tiene interés por sí mismo. En particular, aprenderemos a operar con vectores (sumarlos y multiplicarlos por un número, y combinar ambas cosas en las llamadas combinaciones lineales), y veremos las propiedades de estas operaciones. Tales propiedades son las responsables de la estructura de espacio vectorial, que se estudia con todo detalle en esta sección. La segunda sección se centra en el estudio de los llamados subespacios vectoriales: son conjuntos de vectores en general con “menos” vectores que los conjuntos estudiados en la primera sección, pero a pesar de ello replicadores de la estructura que estos tienen. La sección muestra cómo se pueden presentar estos conjuntos de vectores y cómo se puede pasar de una presentación a otra. Una de estas presentaciones posibles —con unos generadores— pasa por la selección de ciertos vectores del conjunto de forma que los demás del mismo conjunto se pueden escribir a partir de ellos. Una vez tenemos distinguidos unos vectores de forma que con ellos se puede implementar por entero un subespacio vectorial dado, surge de forma natural la cuestión de optimizar de alguna forma tal colección de vectores.

III. VECTORES

Esta optimización se entiende en el sentido de tener de ellos la menor cantidad posible. Esto da lugar al concepto de independencia lineal de vectores, que se estudia ampliamente en la tercera sección del capítulo, y en particular al concepto de dimensión, que da cuenta, en cierta manera, del número mínimo de vectores que hacen falta para determinar un subespacio vectorial. El de dimensión es el concepto que buscamos desde el principio para describir de qué manera el conjunto de soluciones de un sistema de ecuaciones lineales puede ser esencialmente distinto del conjunto de soluciones de otro (descrito uno con dos parámetros y el otro con uno solo, por ejemplo). Esta sección termina con la presentación de subespacios vectoriales con la ayuda de cierto tipo de ecuaciones lineales (paramétricas o implícitas), que permiten describir el subespacio vectorial de una forma cómoda y operativa.

III.1. VECTORES

III.1 VECTORES Dedicamos esta sección a presentar los vectores: qué son y qué podemos hacer con ellos. Empezamos asimismo a explorar su relación con los sistemas de ecuaciones lineales.

1. El conjunto Rn como un espacio vectorial En este apartado, trabajamos con n-uplas de números (reales): definimos para ellas una adición y una mutiplicación por un número, y vemos sus propiedades. Explicamos asimismo lo que significa la estructura de espacio vectorial, y lo que entendemos por vector y por escalar.

El conjunto R2 El conjunto R2

252

Las soluciones de un sistema de ecuaciones lineales (en un primer

momento, homogéneo) tienen una estructura rica que queremos analizar y desentrañar. Si la solución de un sistema es única (sistema compatible determinado), no hay mucho más que decir; pero si hay infinitas soluciones (sistema compatible indeterminado), estaríamos interesados en dilucidar si hay alguna manera de describirlas todas más allá de decir que son las soluciones de un sistema de ecuaciones lineales. Como veremos, será el caso. Una de las cosas que podremos hacer, por ejemplo, y ello gracias al concepto de dimensión —que veremos—, será dar una idea del “tamaño” de la colección de tales soluciones. Antes de nada, ¿qué objetos son las soluciones de un sistema de ecuaciones lineales? Si hablamos de un sistema de dos incógnitas (por empezar por alguno), sabemos que las soluciones son pares ordenados. Recordemos que un par ordenado es un objeto de esta forma: (a, b), donde a y b son √ números reales. Por ejemplo, estos son pares ordenados: (1, 2), (−1, 3 ), (−π , 3/5), (0, 1/3) y (−1, −1). En un par ordenado, el primer número que figura escrito es la primera componente del par ordenado, y el segundo número es la segunda componente. Verbigracia, la primera componente del par ordenado (a, b) es el número a; la segunda, el número b. Lo primero que debemos estudiar es, pues, la colección de todos los La notación R × R es la de un producto cartesiano de conjuntos: el producto cartesiano del conjunto de los números reales: R, por sí mismo.

pares ordenados, o más propiamente: el conjunto de todos los pares ordenados de números reales. Este conjunto se designa así: R × R, o más sintéticamente: R2 (que será la notación habitual en este libro). El conjunto R2 es, podríamos decir, el “ambiente” en el que se consideran los conjuntos de

III. VECTORES

soluciones de los sistemas de ecuaciones lineales de dos incógnitas. Dicho más formalmente: dado un sistema de ecuaciones lineales de dos incógnitas, el conjunto de sus soluciones es un subconjunto del conjunto R2 : cada elemento del primer conjunto también es elemento del segundo. Dediquemos, entonces, nuestros primeros esfuerzos a estudiar el conjunto R2 . Adición de pares ordenados

253

La estructura del conjunto R2 , la cual queremos estudiar, se articula

en tanto es posible definir en este conjunto unas operaciones. La primera operación que vamos a considerar en R2 es la adición, la cual se denota —como la de números (y como la de matrices)— con el signo +. Recuérdese: no confundir adición (nombre de la operación) con suma (nombre del resultado de la operación). ¿Dos pares ordenados iguales? Lo son precisamente si tienen iguales las componentes de la misma posición.

La suma de dos pares ordenados se define como su suma componente a componente; es decir, se suman las primeras componentes por un lado, y las segundas por otro. Por ejemplo:   (1, 2) + (−2, 0) = 1 + (−2), 2 + 0 = (−1, 2), y

    5  1 , −2 = (−3) + , 7 + (−2) = − , 5 . 2 2 2 En general, si (x1 , x2 ) y (y1 , y2 ) son dos pares ordenados cualesquiera, (−3, 7) +

1

su suma se define así: (x1 , x2 ) + (y1 , y2 ) = (x1 + y1 , x2 + y2 ). El par ordenado nulo

254

Sabemos que si sumamos a un número el número 0, obtenemos

como resultado el número original; es decir, cualquiera que sea el número x, se tiene: x + 0 = 0 + x = x. Acontece algo análogo con el par ordenado nulo, que es el par ordenado (0, 0): la suma de cualquier par ordenado (x1 , x2 ) y el par ordenado nulo tiene como resultado el par ordenado (x1 , x2 ): (x1 , x2 ) + (0, 0) = (0, 0) + (x1 , x2 ) = (x1 , x2 ). La comprobación es inmediata: (x1 , x2 ) + (0, 0) = (x1 + 0, x2 + 0) = (x1 , x2 ), y de la misma manera en el otro orden.   Por ejemplo: (2, −1) + (0, 0) = 2 + 0, (−1) + 0 = (2, −1), e igual en el   otro orden: (0, 0) + (2, −1) = 0 + 2, 0 + (−1) = (2, −1). Opuesto de un par ordenado

255

Ya sabemos que el opuesto de un número es otro número tal que

la suma de ambos es igual al número 0; más en concreto, el opuesto de un número x es −x, y se verifica que x + (−x) = (−x) + x = 0. También se define un opuesto para pares ordenados.

III.1. VECTORES

Dado un par ordenado (x1 , x2 ), se define su opuesto, que se denota así: −(x1 , x2 ), como el par ordenado cuyas componentes son opuestas de las componentes correspondientes del par ordenado (x1 , x2 ); esto es: −(x1 , x2 ) = (−x1 , −x2 ).

  Por ejemplo, el opuesto de (2, −1) es −(2, −1) = −2, −(−1) = (−2, 1);

el opuesto de (1, −1) es −(1, −1) = (−1, 1); y el opuesto del par ordenado nulo es él mismo: −(0, 0) = (0, 0).     Es claro que (x1 , x2 ) + −(x1 , x2 ) = −(x1 , x2 ) + (x1 , x2 ) = (0, 0), y ello para cualquier par ordenado (x1 , x2 ). Substracción de pares ordenados Con números sería así: x − y = x + (−y).

Otras propiedades de la adición de pares ordenados: conmutativa y asociativa

256

En tanto está definido un opuesto, podemos definir también una

substracción de pares ordenados. Si (x1 , x2 ) y (y1 , y2 ) son dos pares orde  nados, su diferencia se define así: (x1 , x2 )−(y1 , y2 ) = (x1 , x2 )+ −(y1 , y2 ) . Es decir: (x1 , x2 ) − (y1 , y2 ) = (x1 − y1 , x2 − y2 ).   Por ejemplo: (3, −2) − (5, −1) = 3 − 5, −2 − (−1) = (−2, −1). 257

Igual que la adición de números, la de pares ordenados es conmu-

tativa: es indiferente el orden en que sumemos dos pares ordenados. Esto es: (x1 , x2 ) + (y1 , y2 ) = (y1 , y2 ) + (x1 , x2 ), cualesquiera que sean los pares ordenados (x1 , x2 ) y (y1 , y2 ). La justificación es sencilla, pues esta propiedad se reduce a la misma propiedad de la adición de números: (x1 , x2 ) + (y1 , y2 ) = (x1 + y1 , x2 + y2 ) = (y1 + x1 , y2 + x2 ) = (y1 , y2 ) + (x1 , x2 ). También como la adición de números, la de pares ordenados es asociativa. Ello significa lo siguiente: puestos a sumar tres pares ordenados, es indiferente que sumemos el primero y el segundo, y al resultado le sumemos el tercero, que sumar el primero al resultado de haber sumado el segundo y el tercero. En símbolos: [(x1 , x2 ) + (y1 , y2 )] + (z1 , z2 ) = (x1 , x2 ) + [(y1 , y2 ) + (z1 , z2 )], y ello para cualesquiera pares ordenados (x1 , x2 ), (y1 , y2 ) y (z1 , z2 ). Esta propiedad también se “reduce” a la misma cumplida por la adición de números: (x + y) + z = x + (y + z). El hecho de que se cumpla la propiedad asociativa nos permite obviar los paréntesis (y los corchetes) cuando escribamos la suma de tres pares ordenados; escribiremos simplemente: (x1 , x2 ) + (y1 , y2 ) + (z1 , z2 ), en vez de [(x1 , x2 ) + (y1 , y2 )] + (z1 , z2 ) o (x1 , x2 ) + [(y1 , y2 ) + (z1 , z2 )].

III. VECTORES

La adición de pares ordenados articula el conjunto R2 como un grupo abeliano

258

Recopilemos lo visto en los parágrafos anteriores. La adición de

pares ordenados verifica estas cuatro propiedades: • La adición es asociativa: para cualesquiera pares ordenados (x1 , x2 ), (y1 , y2 ) y (z1 , z2 ), se cumple: [(x1 , x2 ) + (y1 , y2 )] + (z1 , z2 ) = (x1 , x2 ) + [(y1 , y2 ) + (z1 , z2 )]. • La adición tiene elemento neutro: existe un par ordenado, justamente el nulo: (0, 0), tal que, cualquiera que sea el par ordenado (x1 , x2 ), la suma de ambos es igual al mismo par ordenado (x1 , x2 ): (x1 , x2 ) + (0, 0) = (0, 0) + (x1 , x2 ) = (x1 , x2 ). • Todo elemento de R2 es simetrizable: cualquiera que sea el par ordenado (x1 , x2 ), existe otro par, precisamente su opuesto: −(x1 , x2 ), de tal suerte que la suma de ambos es el elemento neutro:     (x1 , x2 ) + −(x1 , x2 ) = −(x1 , x2 ) + (x1 , x2 ) = (0, 0). • La adición es conmutativa: cualesquiera que sean los pares ordenados (x1 , x2 ) y (y1 , y2 ), se cumple: (x1 , x2 ) + (y1 , y2 ) = (y1 , y2 ) + (x1 , x2 ). El hecho de que la adición de pares ordenados verifique estas cuatro propiedades se resume en esta afirmación: la adición de pares ordenados articula el conjunto R2 como un grupo abeliano. El lector recordará que ya nos encontramos con un grupo abeliano antes, al estudiar el conjunto Mnm (R) (de las matrices de orden (n, m) con términos números reales) y la adición de matrices (cf. § 124, p. 129).

Multiplicación por un número de un par ordenado

259

Recordará también el lector que hemos multiplicado matrices por

números. Una operación análoga podemos definir para pares ordenados. Dados un número λ y un par ordenado (x1 , x2 ), el producto por el número λ del par ordenado (x1 , x2 ), que se denota así: λ(x1 , x2 ), es el par ordenado siguiente: λ(x1 , x2 ) = (λx1 , λx2 ) (es decir, se multiplica por el número cada una de las componentes). Por ejemplo:   2(3, −1) = 2 · 3, 2 · (−1) = (6, −2) y

 5 − (0, 6) = (0, −15). 2

Otro ejemplo: 1(2, 3) = (2, 3), y también: (−1)(2, 3) = (−2, −3) = −(2, 3). En general, si multiplicamos un par ordenado por el número 1, obtenemos

III.1. VECTORES

1(x1 , x2 ) = (x1 , x2 ) (−1)(x1 , x2 ) = −(x1 , x2 ) 0(x1 , x2 ) = (0, 0) λ(0, 0) = (0, 0) Propiedades de la multiplicación por un número de un par ordenado   λ μ(x1 , x2 ) = (λμ)(x1 , x2 )

el mismo par ordenado; si lo multiplicamos por el número −1, obtenemos el par ordenado opuesto: 1(x1 , x2 ) = (x1 , x2 ) y (−1)(x1 , x2 ) = −(x1 , x2 ). Y más aún: se cumple que 0(x1 , x2 ) = (0, 0) y λ(0, 0) = (0, 0); es decir: el producto de un par ordenado por un número es nulo en cuanto uno de los dos —bien el par, bien el número, o ambos— es nulo. 260

La operación de multiplicar un par ordenado por un número cumple

una suerte de propiedad asociativa que se enuncia así: si λ y μ son dos nú  meros y (x1 , x2 ) es un par ordenado, entonces λ μ(x1 , x2 ) = (λμ)(x1 , x2 ). Dejamos la justificación al lector, que estamos seguros podrá llevar a cabo. Nótese que, en virtud de esta propiedad, no presenta ambigüedad escribir el   producto λμ(x1 , x2 ): tanto da que se refiera a λ μ(x1 , x2 ) o a (λμ)(x1 , x2 ). En cuanto combinamos la multiplicación de un par ordenado por un número con la adición de pares ordenados, vemos que se satisfacen dos propiedades distributivas: la primera, respecto de la adición de números: (λ + μ)(x1 , x2 ) = λ(x1 , x2 ) + μ(x1 , x2 ); la segunda, respecto de la adición de pares ordenados:   λ (x1 , x2 ) + (y1 , y2 ) = λ(x1 , x2 ) + λ(y1 , y2 ); y todo ello para cualesquiera números λ y μ y cualesquiera pares ordenados (x1 , x2 ) y (y1 , y2 ). Estas dos propiedades se deducen sin dificultad de la definición de las dos operaciones con pares ordenados y de la propiedad distributiva para números.

Espacio vectorial

261

De la multiplicación por un número de un par ordenado, nos gus-

taría resaltar las siguientes cuatro propiedades, señaladas todas en los parágrafos anteriores: • Es asociativa (en los números); con ello nos referimos a esta igual  dad: λ μ(x1 , x2 ) = (λμ)(x1 , x2 ), que se cumple para cualesquiera números λ y μ y cualquier par ordenado (x1 , x2 ). • Es distributiva respecto de la adición de números; nos referimos a que (λ + μ)(x1 , x2 ) = λ(x1 , x2 ) + μ(x1 , x2 ), para cualesquiera números λ y μ y cualquier par ordenado (x1 , x2 ). • Es distributiva respecto de la adición de pares ordenados; queremos de  cir: λ (x1 , x2 ) + (y1 , y2 ) = λ(x1 , x2 ) + λ(y1 , y2 ), para todo número λ y cualesquiera pares ordenados (x1 , x2 ) y (y1 , y2 ). • Es neutra para el número 1; con esta denominación nos referimos a la igualdad 1(x1 , x2 ) = (x1 , x2 ), que se tiene para cualquier par ordenado (x1 , x2 ).

III. VECTORES

Para el conjunto R2 , tenemos entonces dos operaciones: la adición y la mutiplicación por un número,1 las cuales satisfacen ciertas propiedades: la primera, las necesarias para articular el conjunto R2 como un grupo abeliano (§ 258); la segunda, las cuatro propiedades enunciadas en el párrafo anterior. Todo ello se puede resumir afirmando lo siguiente: el conjunto R2 , dotado de las dos operaciones, es un espacio vectorial sobre R. En tanto se considera el conjunto R2 como un espacio vectorial, sus elementos (es decir, los pares ordenados) se denominan vectores; los elemen-

Vector

tos de R (esto es, los números reales, que son los elementos por los que se multiplican los vectores) se denominan —en contraposición a los vectores— Escalar

escalares.

El conjunto Rn El conjunto R3

262

Ya hemos visto de sobra que las soluciones de los sistemas de ecua-

ciones lineales de tres incógnitas (cuando las hay) son ternas, que son el análogo, para tres números, de los pares ordenados. En concreto, sabemos que una terna es un objeto de la forma (a, b, c) con a, b y c números √ reales; por ejemplo: (1, 0, −1), (2, −1/2, 0) y (π 2 , −3, 2 ). Las ternas también tienen componentes, pero ahora son tres: primera, segunda y tercera, que en la terna (a, b, c) son, respectivamente, los números a, b y c. El conjunto de las ternas de números reales se denota así: R×R×R, que se escribe más habitualmente como R3 . Para las ternas es posible definir una adición y una multiplicación por un número: tales definiciones son completamente análogas a las que ya conocemos para los pares ordenados, y sus propiedades también. Por ejemplo, la suma de dos ternas (x1 , x2 , x3 ) y (y1 , y2 , y3 ) también se define como una

Por ejemplo:

suma componente a componente:

(1, 0, −1) + (2, −1/2, 0) = (3, −1/2, −1), 4(2, −1/2, 0) = (8, −2, 0).

(x1 , x2 , x3 ) + (y1 , y2 , y3 ) = (x1 + y1 , x2 + y2 , x3 + y3 ); y el producto por un número λ: λ(x1 , x2 , x3 ) = (λx1 , λx2 , λx3 ). Y por citar explícitamente una propiedad, podemos detallar la del elemento neutro: la terna nula, es decir: (0, 0, 0), es tal que la suma de cualquier terna y ella nos permite obtener la terna de partida. 1 Estrictamente

hablando, la primera es una operación interna (o simplemente una opera-

ción), y la segunda es una operación externa (hace falta el concurso de otro conjunto —en este caso, el de los números por los que se multiplican los pares ordenados— para definirla), pero no vamos a entrar aquí en estos detalles; no cambian la esencia de lo que se transmite.

III.1. VECTORES

También acontece, entonces, que la adición de ternas articula el conjunto R3 como un grupo abeliano. Asimismo, la multiplicación por números de ternas verifica las análogas de las cuatro propiedades enunciadas en el § 261 para pares ordenados. En definitiva, el conjunto R3 , dotado de estas dos operaciones, también es un espacio vectorial sobre R. En este sentido, también podemos llamar vectores —y así lo haremos— a las ternas de números reales. El conjunto Rn

263

De manera general, podemos considerar n-uplas (donde n es un nú-

mero natural mayor o igual que 1). Una n-upla es un objeto de esta forma: (x1 , x2 , . . . , xn ), Si n = 4, hablamos de cuaternas; si n = 5, de quíntuplas; si n = 6, de séxtuplas. . .

Nota bene

donde x1 , x2 , . . . , xn son números reales.

Si n = 2, una n-upla se reduce a un par ordenado; y si n = 3, se

reduce a una terna.



Las n-uplas también tienen componentes: primera, segunda, . . . , n-ésima; para la n-upla (x1 , x2 , . . . , xn ), tales son, respectivamente, los números x1 , x2 , . . . , xn . En muchas ocasiones, designaremos una n-upla con una letra itálica en negrita, como x, y o z; cuando procedamos así, denotaremos las componentes con la misma letra que la n-upla pero sin la negrita, y con un subíndice indicativo del orden de la componente. Por ejemplo, si x designa una n-upla, sus componentes serán denotadas x1 , x2 , . . . , xn . Las n-uplas también se suman y se multiplican por números, como hemos hecho con los pares ordenados y las ternas. La definición de ambas operaciones es completamente análoga a lo que hemos hecho hasta ahora: Ambas n-uplas se suman componente a componente.

(x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn ), y también: λ(x1 , x2 , . . . , xn ) = (λx1 , λx2 , . . . , λxn ), donde (x1 , x2 , . . . , xn ) y (y1 , y2 , . . . , yn ) son n-uplas de números y λ es un número. Las propiedades de estas operaciones también son completamente análogas a las que hemos visto para pares ordenados (y para ternas). Las enunciamos todas aquí de nuevo, haciendo uso de la notación —introducida más

Escribir: “x es un elemento de E”, será tanto como escribir: “x es una n-upla”.

arriba— con las letras en negrita, y designando momentáneamente por E el conjunto Rn : E = Rn . Las propiedades de la adición toman este aspecto: • La adición es asociativa: para cualesquiera elementos x, y y z de E, se tiene: (x + y) + z = x + (y + z).

III. VECTORES No debe asustarse el lector por el aspecto más abstracto de estas propiedades. Cámbiese x por (x1 , x2 , . . . , xn ), y por (y1 , y2 , . . . , yn ), etc., y quedarán exactamente análogas a las propiedades para los pares ordenados.

• La adición tiene elemento neutro: existe un elemento en E, denotado por 0 e igual a la n-upla nula: (0, 0, . . . , 0) (con n ceros), tal que, cualquiera que sea el elemento x de E, se tiene: x + 0 = 0 + x = x. • Todo elemento de E es simetrizable: cualquiera que sea el elemento x de E, existe otro: su opuesto —el cual se denota por −x y se define de la forma: −x = −(x1 , x2 , . . . , xn ) = (−x1 , −x2 , . . . , −xn )—, tal que la suma de ambos es el elemento neutro: x + (−x) = (−x) + x = 0. • La adición es conmutativa: cualesquiera que sean los elementos x y y de E, se cumple: x + y = y + x. Y las de la multiplicación por números toman esta forma: • Es asociativa (en los números): λ(μx) = (λμ)x para cualesquiera números λ y μ y cualquier elemento x de E. • Es distributiva respecto de la adición de números: (λ + μ)x = λx + μx para cualesquiera números λ y μ y cualquier elemento x de E. • Es distributiva respecto de la adición de elementos de E: se tiene la igualdad λ(x + y) = λx + λy para todo número λ y cualesquiera elementos x y y de E. • Es neutra para el número 1: 1x = x, que se tiene para cualquier elemento x de E. Como acontece con los pares ordenados y las ternas, podemos entonces afirmar que la adición articula el conjunto E = Rn como un grupo abeliano. Asimismo, el hecho de que se verifiquen las ocho propiedades anteriores también puede sintetizarse afirmando que el conjunto E = Rn , dotado de la adición y de la multiplicación por números, es un espacio vectorial sobre R. A partir de ahora, cuando trabajemos con Rn (para cualquier n  1), o con sus elementos, implícitamente consideraremos su estructura de espacio vectorial (es decir, las dos operaciones definidas y sus propiedades), y llamaremos vectores a sus elementos, y escalares a los elementos de R. En particular, el vector 0 (esto es, la n-upla nula) se denomina vector nulo: 0 = (0, 0, . . . , 0) (con n ceros).

El caso n = 1

264

Acabamos de ver el conjunto Rn en general: cómo son sus elemen-

tos, cómo se opera con ellos y las distintas propiedades de estas operaciones. Al hablar así de Rn , dando valores a n obtenemos distintos casos particulares: para n = 2 hablamos de pares ordenados, para n = 3 de ternas, para n = 4 de cuaternas, etc., y en todos estos casos sabríamos cómo efectuar las operaciones correspondientes y cómo formular explícitamente sus propiedades. Pero hemos apuntado que n es mayor o igual que 1 (§ 263); ¿qué ocurre

III.1. VECTORES

en el caso n = 1? Los elementos de Rn cuando n = 1, esto es, los elementos Nótese que R1 = R.

de R1 , son sencillamente los mismos números reales: la adición de vectores de R1 es la adición ordinaria de números reales, y la multiplicación de vectores por números es la multiplicación ordinaria de números reales. En algunas ocasiones, interesa ser consciente de que el conjunto R, con su adición y multiplicación ordinarias, es un espacio vectorial sobre R.

Igualdad de vectores

265

Antes de seguir, hay algo que debemos enfatizar: ¿qué significa

exactamente que dos vectores sean iguales? Dados dos vectores de Rn , es decir, dadas dos n-uplas, acontece que son (x1 , x2 , . . . , xn ) = (y1 , y2 , . . . , yn )   x1 = y1 , x2 = y2 , . . . , xn = yn

iguales precisamente si sus componentes correspondientes son iguales. En símbolos: dos vectores (x1 , x2 , . . . , xn ) y (y1 , y2 , . . . , yn ) son iguales precisamente si: x1 = y1 , x2 = y2 , . . . , xn = yn . Vemos, pues, que la igualdad vectorial (x1 , x2 , . . . , xn ) = (y1 , y2 , . . . , yn ) es equivalente a las n igualdades escalares x1 = y1 , x2 = y2 , . . . , xn = yn (tantas como componentes tienen los vectores de la igualdad vectorial). Nota bene

Hablamos de igualdad de vectores de un mismo conjunto; si uno de

los vectores fuera de R2 y el otro de R3 , verbigracia, no habría igualdad que plantearse: serían, obviamente, objetos distintos.



2. Vectores columna y vectores fila de una matriz A partir de una matriz, se pueden definir ciertos vectores (los denominados vectores columna y vectores fila de la matriz), que servirán más adelante para marcar un punto importante de relación entre los sistemas de ecuaciones lineales y los vectores. Dedicamos este apartado a presentarlos. Vectores columna de una matriz

266

Dada una matriz, definimos los llamados vectores columna de la

matriz de esta forma: hay un vector columna por cada columna de la matriz, y las componentes de aquel son los términos de esta. En particular, cada vector columna tiene tantas componentes como filas tiene la matriz. Por ejemplo, consideremos esta matriz:   1 −1 3 A= . 3 0 2

A pesar del apelativo columna, los vectores columna son en definitiva vectores. Nótese que la matriz A tiene dos filas; por eso sus vectores columna son de R2 .

Tiene tres columnas, luego tendrá tres vectores columna. Los términos de la primera columna son 1 y 3: estos números son las componentes del primer vector columna; es decir, el primer vector columna de la matriz A es (1, 3), que es un vector de R2 . Análogamente, el segundo vector columna de la matriz A es (−1, 0), y el tercero es (3, 2), ambos también de R2 .

III. VECTORES

Veamos la definición de vector columna en general. Consideremos una matriz A de orden (n, m), y escribámosla distinguiendo una columna genérica:



a11 ⎜a ⎜ 21 ⎜ ⎜ . ⎜ . ⎝ . an1

. . . a1j . . . a2j . .. . . . . . . anj

... ... ..

.

...

⎞ a1m a2m ⎟ ⎟ ⎟ . ⎟ . ⎟ . ⎠ anm

Otros ejemplos



a11 ⎜ ⎜ a21 ⎜ A=⎜ . ⎜ .. ⎝ an1

a12 a22 .. . an2

... ... .. . ...

a1j a2j .. . anj

... ... .. . ...

⎞ a1m ⎟ a2m ⎟ ⎟ . .. ⎟ . ⎟ ⎠ anm

Fijemos un número natural j tal que 1  j  m. Se define el j-ésimo vector columna de la matriz A como el vector de Rn cuyas componentes son los términos de la j-ésima columna de A; es decir: (a1j , a2j , . . . , anj ). 267

¿Cuál es la matriz cuyos vectores columna son (2, 3, −1), (1, 0, 5),

(0, 1, 1/2) y (1, 1, 0) (en este orden)? Son cuatro vectores, luego la matriz tiene cuatro columnas; y son vectores de R3 , luego la matriz tiene tres filas. La matriz es esta:



2 ⎜ ⎝ 3 −1

1 0 5

0 1 1/2

⎞ 1 ⎟ 1⎠. 0

¿Y cuál es la matriz cuyo único vector columna es (2, −1, 0)? Un solo vector columna implica una matriz con una sola columna, es decir, una matriz columna; en este caso, esta: ⎛

⎞ 2 ⎜ ⎟ ⎝ −1 ⎠ . 0 Una matriz fila, verbigracia:



2

 0 , ¿qué vectores columna tiene? Des-

de luego, como acontece con cualquier matriz, tantos como columnas —dos en este caso—, y con tantas componentes como filas —una en este caso—. Es decir, los vectores columna de esta matriz son dos vectores de R1 = R (§ 264); en concreto, los números 2 y 0 . Vectores fila de una matriz

268

A partir de una matriz, también se consideran los denominados

vectores fila de la matriz: un vector fila por cada fila de la matriz, y de forma que las componentes del primero son los términos de la segunda. Asimismo, cada vector fila presenta tantas componentes como columnas tiene la matriz. Por ejemplo, para esta matriz: Esta matriz es la misma que la del § 266.

 A=

1 3

−1 0

3 2

 ,

III.1. VECTORES

Los vectores fila no dejan de ser vectores.

hay dos vectores fila (son dos las filas) y cada uno es de R3 (son tres las columnas). El primer vector fila es (1, −1, 3); el segundo, (3, 0, 2). Para verlo en general, consideramos una matriz A de orden (n, m), que escribimos de forma que queda distinguida una fila genérica: ⎛



a11 ⎜ ⎜ . ⎜ . ⎜ . ⎜ ⎜ ai1 ⎜ ⎜ . ⎜ . ⎜ . ⎝ an1

a12 . . . ai2 . . . an2

... ..

.

... ..

.

...

⎞ a1m ⎟ . ⎟ . ⎟ . ⎟ ⎟ aim ⎟ ⎟ . ⎟ . ⎟ . ⎟ ⎠ anm

Más ejemplos

a11 ⎜ ⎜ a21 ⎜ ⎜ . ⎜ .. ⎜ A=⎜ ⎜ ai1 ⎜ ⎜ . ⎜ .. ⎝ an1

a12 a22 .. . ai2 .. . an2

... ... .. . ... .. . ...

⎞ a1m ⎟ a2m ⎟ ⎟ .. ⎟ . ⎟ ⎟ ⎟. aim ⎟ ⎟ .. ⎟ . ⎟ ⎠ anm

Fijemos un número natural i tal que 1  i  n. Se define el i-ésimo vector fila de la matriz A como el vector de Rm cuyas componentes son los términos de la i-ésima fila de A; esto es: (ai 1 , ai 2 , . . . , aim ). 269

¿Cuál es la matriz cuyos vectores fila son estos: (2, 3, −1), (1, 0, 5),

(0, 1, 1/2) y (1, 1, 0) (en este orden)? Será una matriz de cuatro filas (tantas como vectores fila nos dan) y de tres columnas (tantas como componentes tiene cada vector fila); esta matriz: ⎛ 2 ⎜ ⎜1 ⎜ ⎜0 ⎝ 1

3 0 1 1

⎞ −1 ⎟ 5⎟ ⎟. 1/2 ⎟ ⎠ 0

Nótese que la matriz que acabamos de escribir es la traspuesta de la matriz de orden (3, 4) del § 267, y tiene como vectores fila los mismos vectores que esta matriz citada tiene como vectores columna. V.gr., esta matriz es simétrica:   1 −2 ; −2 1 sus vectores, tanto vectores fila como vectores columna, son (1, −2) y (−2, 1).

En general, los vectores fila de una matriz son los vectores columna de su traspuesta, y viceversa. Como un caso particular, si una matriz es simétrica (es decir, coincide con su traspuesta, cf. § 226, p. 208), entonces sus vectores fila y sus vectores columna correspondientes son iguales.

3. Combinaciones lineales Dedicamos este apartado a tratar el concepto de combinación lineal de unos vectores, y a explorar sus relaciones con los sistemas de ecuaciones lineales. Combinaciones lineales de dos vectores

270

Los vectores pueden, pues, sumarse, y multiplicarse por números.

Cuando combinamos estas dos operaciones, obtenemos lo que se llama una combinación lineal de vectores.

III. VECTORES

Dados un vector u y dos vectores v 1 y v 2 , los tres de Rn , decimos que el vector u es igual a una combinación lineal de los vectores v 1 y v 2 si existen dos números α1 y α2 (a los que nos referiremos como los coeficientes de la combinación lineal) tales que: u = α1 v 1 + α2 v 2 (dicho informalmente: u es igual a algún número por v 1 más algún número por v 2 ). Por ejemplo, el vector (0, 3) es igual a una combinación lineal de los vectores (1, 0) y (2, 3), pues hay dos números α1 y α2 , en concreto: α1 = −2 y α2 = 1, para los cuales podemos escribir: (0, 3) = α1 (1, 0) + α2 (2, 3). En efecto: α1 (1, 0) + α2 (2, 3) = −2(1, 0) + 1(2, 3) = (−2 · 1, −2 · 0) + (2, 3) = (−2 + 2, 0 + 3) = (0, 3). Los coeficientes de esta combinación lineal son α1 = −2 y α2 = 1. Otro ejemplo. El vector (1, 2, −1) no puede ser igual a una combinación lineal de los vectores (−1, 1, 0) y (2, 1, 0). ¿Por qué? Porque cualquier operación que hagamos con estos dos últimos vectores nos llevará a un vector cuya tercera componente es nula; de ninguna forma podremos obtener el vector (1, 2, −1), que tiene su tercera componente no nula. Combinaciones lineales generales (de k vectores)

271

La idea de combinación lineal se puede generalizar para hablar de

combinación lineal de una cantidad cualquiera de vectores. Si k es un número natural mayor o igual que 1, dado un vector u de Rn y dados k vectores v 1 , v 2 , . . . , v k , todos también de Rn , decimos que el vector u es igual a una combinación lineal de los vectores v 1 , v 2 , . . . , v k si existen k escalares (esto es, números) α1 , α2 , . . . , αk tales que: u = α1 v 1 + α2 v 2 + · · · + αk v k . Nos referiremos a los números α1 , α2 , . . . , αk como los coeficientes de la combinación lineal. Por ejemplo, en virtud de que se cumple esta igualdad: (−1)(1, 1, 1) + 3(2, 0, 0) + 0(1, 3, 1) + 2(−1, 2, 1) = (3, 3, 1), podemos afirmar que el vector (3, 3, 1) es igual a una combinación lineal de los vectores (1, 1, 1), (2, 0, 0), (1, 3, 1) y (−1, 2, 1), con los coeficientes −1, 3, 0 y 2 (en este orden). También se cumple esta otra igualdad: 0(1, 1, 1) + 1(2, 0, 0) + 1(1, 3, 1) + 0(−1, 2, 1) = (3, 3, 1),

III.1. VECTORES

la cual es otra manera de expresar el vector (3, 3, 1) como una combinación lineal de los vectores (1, 1, 1), (2, 0, 0), (1, 3, 1) y (−1, 2, 1); los coeficientes son ahora: 0, 1, 1 y 0. A la vista de este ejemplo, y también del segundo ejemplo del § 270, surgen dos preguntas naturales: ¿cuándo un vector es igual a una combinación lineal de unos vectores dados?; y, en caso afirmativo, ¿habrá solo una forma de expresar esa combinación lineal o habrá más de una? Atenderemos estas cuestiones enseguida. Combinaciones lineales de un solo vector

272

Pero antes de seguir, una pregunta: ¿qué significa que un vector

es combinación lineal de otro (de uno solo)? Es decir, nos estamos preguntando por el caso k = 1 en la definición general de combinación lineal (§ 271). Particularizando tal definición de combinación lineal para k = 1, vemos que un vector u de Rn es igual a una combinación lineal de un vector v 1 de Rn precisamente si existe algún número α1 tal que: u = α1 v 1 ; esto es: u es combinación lineal de v 1 precisamente si u es múltiplo de v 1 . Por ejemplo, el vector (2, 1, −4) es múltiplo del vector (1, 1/2, −2) (aquel

(2, 1, −4) = 2(1, 1/2, −2)

puede obtenerse de este multiplicando por 2), así que podríamos decir que el vector (2, 1, −4) es igual a una combinación lineal del vector (1, 1/2, −2). Pero el vector (2, −1) (estamos poniendo otro ejemplo) no es igual a una combinación lineal del vector (1, 3), pues no hay forma de obtener el primero como múltiplo del segundo. Nótese que el producto de cualquier

En efecto: a(1, 3) = (a, 3a), y 3a es el triple de a; y ello para cualquier número a. Un ejemplo

número por el vector (1, 3) será un vector que tendrá su segunda componente igual al triple de la primera, y el vector (2, −1) no satisface este requisito. 273

¿Es el vector (0, 3) igual a alguna combinación lineal de los vecto-

res (1, 0) y (2, 3) (§ 270)? Sabemos que sí, pero querríamos llegar a averiguarlo por nosotros mismos, sin esperar a que nos den unos coeficientes que expliciten la combinación lineal. Afirmar que el vector (0, 3) es igual a una combinación lineal de los vectores (1, 0) y (2, 3) significa afirmar que existen dos números α1 y α2 tales que α1 (1, 0) + α2 (2, 3) = (0, 3), es decir: α1 (1, 0) = (α1 , 0) α2 (2, 3) = (2α2 , 3α2 )

(α1 , 0) + (2α2 , 3α2 ) = (0, 3),

o bien: (α1 + 2α2 , 3α2 ) = (0, 3).

Ahora bien, esta última igualdad vectorial es equivalente a las dos igualdades escalares siguientes (tantas como componentes tienen los vectores

III. VECTORES

de la igualdad vectorial, § 265, p. 247): α1 + 2α2 = 0

y

3α2 = 3,

las cuales podemos escribir de una manera muy familiar para nosotros: ⎧ ⎨ α1 + 2α2 = 0 ⎩ 3α2 = 3,

¡Ojo! En este sistema, las incógnitas son α1 y α2 !

(1)

esto es, como un sistema de dos ecuaciones en las dos incógnitas α1 y α2 . En definitiva: afirmar que el vector (0, 3) es igual a una combinación lineal de los vectores (1, 0) y (2, 3) es tanto como afirmar que el sistema de ecuaciones lineales (1) admite solución; además, en caso de admitirla, cada una de sus soluciones proporciona unos coeficientes para expresar la combinación lineal. La matriz ampliada del sistema (1) ya es escalonada: Fíjese el lector en los vectores columna (cf. § 266, p. 247) de esta matriz. . .



1 0

2 3

0 3

 .

Como esta matriz ampliada escalonada no presenta un pivote en la última columna, el sistema admite solución; como el número de pivotes es igual al de incógnitas, tal solución es única: el sistema es, pues, compatible determinado. En términos de la combinación lineal que buscamos, esto significa que el vector (0, 3) sí se puede expresar como una combinación lineal de los vectores (1, 0) y (2, 3), y además de forma única. El lector puede resolver enseguida el sistema (1) (por sustitución hacia atrás, o llegando hasta la forma escalonada reducida de la matriz ampliada), y obtener que su única solución es el par ordenado (−2, 1). La única forma de expresar el vector (0, 3) como una combinación lineal de los vectores (1, 0) y (2, 3) es, pues, esta: (0, 3) = −2(1, 0) + 1(2, 3), es decir, con los coeficientes −2 y 1. Antes de seguir (con más ejemplos), fijémonos un momento en cómo es el sistema de ecuaciones lineales (1): los vectores columna de su matriz ampliada son (1, 0), (2, 3) y (0, 3), que son justamente los vectores originales de este ejemplo: el último de ellos (que tiene por componentes los términos independientes del sistema) es el que buscamos expresar como combinación lineal de los demás. Otro ejemplo

274

¿Es el vector (0, 3, 1) igual a alguna combinación lineal de los vecto-

res (1, 1, 2) y (−1, 2 − 3)?

III.1. VECTORES

Procedamos como en el ejemplo del § 273. El vector (0, 3, 1) es igual a una combinación lineal de los vectores (1, 1, 2) y (−1, 2 − 3) precisamente si existen dos números α1 y α2 tales que α1 (1, 1, 2) + α2(−1, 2, −3) = (0, 3, 1), o lo que es lo mismo: (α1 − α2 , α1 + 2α2 , 2α1 − 3α2 ) = (0, 3, 1), igualdad vectorial que es su vez equivalente a estas tres igualdades escalares (que ya escribimos como un sistema de ecuaciones lineales, en las incógnitas α1 y α2 ):

⎧ ⎪ α1 − α2 = 0 ⎪ ⎪ ⎨ α1 + 2α2 = 3 ⎪ ⎪ ⎪ ⎩ 2α − 3α = 1. 1 2

(2)

Escalonamos la matriz ampliada de este sistema: ⎛

1 ⎜ ⎝1 2

−1 2 −3

⎛ ⎞ F2 ←F2 −F1 0 1 ⎟ F3 ←F3 −2F1 ⎜ 3 ⎠ →  ⎝ 0 1 0

−1 3 −1

⎛ ⎞ 0 1 ⎟ F3 ←F3 +(1/3)F2 ⎜ 3 ⎠ →  ⎝0 1 0

−1 3 0

⎞ 0 ⎟ 3⎠, 2

y vemos que la última columna presenta un pivote, con lo que el sistema es incompatible. ¿Qué significa esto en lo que concierne a la combinación lineal que buscamos? Que no hay tal. Fijémonos: afirmar que el sistema es incompatible es lo mismo que afirmar que no existen dos números α1 y α2 de forma que el vector (0, 3, 1) sea igual a α1 (1, 1, 2) + α2(−1, 2, −3), lo cual es a su vez lo mismo que afirmar que el vector (0, 3, 1) no es igual a una combinación lineal de los vectores (1, 1, 2) y (−1, 2 − 3). Nota bene

Los vectores columna de la matriz ampliada del sistema (2) son es-

tos: (1, 1, 2) y (−1, 2 − 3), y (0, 3, 1) (este último es el que se corresponde con la columna de términos independientes). Los dos primeros son los dos vectores cuyas combinaciones lineales calculamos para ver si el tercero —y último— es  igual a alguna de ellas. Y otro ejemplo más

275

En el § 271, expresamos de dos formas el vector (3, 3, 1) como una

combinación lineal de los vectores (1, 1, 1), (2, 0, 0), (1, 3, 1) y (−1, 2, 1). Procedamos con estos vectores como en los § 273 y 274. El vector (3, 3, 1) es igual a una combinación lineal de los cuatro vectores escritos precisamente si existen cuatro números α1 , α2 , α3 y α4 tales que α1 (1, 1, 1) + α2 (2, 0, 0) + α3 (1, 3, 1) + α4 (−1, 2, 1) = (3, 3, 1), lo que es equivalente a la igualdad vectorial: (α1 + 2α2 + α3 − α4 , α1 + 3α3 + 2α4 , α1 + α3 + α4 ) = (3, 3, 1),

III. VECTORES

equivalente a su vez a este sistema de ecuaciones lineales: ⎧ ⎪ α + 2α2 + α3 − α4 = 3 ⎪ ⎪ ⎨ 1 + 3α3 + 2α4 = 3 α1 ⎪ ⎪ ⎪ ⎩α + α3 + α4 = 1. 1

(3)

Las siguientes matrices son, respectivamente, la matriz ampliada del sistema y una forma escalonada de esta matriz ampliada: ⎛

De nuevo ocurre que los vectores columna de esta matriz ampliada son los vectores dados al principio.

1 ⎜ ⎝1 1

2 0 0

1 3 1

⎞ 3 ⎟ 3⎠ 1

−1 2 1

⎛ y

1 ⎜ ⎝0 0

2 −2 0

1 2 −2

−1 3 −1

⎞ 3 ⎟ 0⎠ −2

(se puede llegar de la primera a la segunda con las transformaciones elementales F2 ← F2 − F1 , F3 ← F3 − F1 y F3 ← F3 − F2 , en este orden). Como la forma escalonada no presenta un pivote en la última columna, el sistema admite solución; como el número de pivotes es menor que el de incógnitas, hay infinitas soluciones: el sistema (3) es compatible indeterminado. En lo que se refiere a la combinación lineal cuya existencia estamos indagando, podemos afirmar entonces que el vector (3, 3, 1) sí se puede escribir como una combinación lineal de los vectores (1, 1, 1), (2, 0, 0), (1, 3, 1) y (−1, 2, 1), y ello de infinitas maneras, es decir, con infinitas posibilidades para los coeficientes de la combinación lineal. Exploramos todos los posibles valores de los coeficientes de la combinación lineal en el parágrafo siguiente. Y otro ejemplo más (continuación)

276

Si resolvemos el sistema de ecuaciones lineales (3), visto en el § 275,

podremos averiguar todas las formas de expresar el vector (3, 3, 1) como combinación lineal de los vectores (1, 1, 1), (2, 0, 0), (1, 3, 1) y (−1, 2, 1); hagámoslo. La forma escalonada reducida de la matriz ampliada del sistema (3) es esta:



1 ⎜ ⎝0 0

0 1 0

0 0 1

1/2 −1 1/2

⎞ 0 ⎟ 1⎠ 1

(podemos llegar a ella aplicando, a la forma escalonada que le hemos escrito a la matriz ampliada del sistema en el citado § 275, las transformaciones elementales F1 ← F1 + F2 , F2 ← (−1/2)F2, F3 ← (−1/2)F3, F2 ← F2 + F3 y F1 ← F1 − 3F3 ), y el sistema de ecuaciones lineales que tiene esta matriz

III.1. VECTORES

escalonada reducida como matriz ampliada es el siguiente: ⎧ ⎪ ⎪ α1 ⎪ ⎪ ⎪ ⎪ ⎨

Recuérdese que las incógnitas son α1 , α2 , α3 y α4 .

⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎩

+

1 α4 = 0 2



α4 = 1

α3 +

1 α4 = 1. 2

α2

La incógnita α4 es libre y las demás incógnitas son básicas; despejando estas en función de aquella, y sustituyendo la incógnita libre por λ, podemos afirmar que todas las soluciones del sistema de ecuaciones lineales (3) son las cuaternas (α1 , α2 , α3 , α4 ) tales que: ⎧ 1 ⎪ ⎪ ⎪ α1 = − λ, ⎪ ⎪ 2 ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ α2 = 1 + λ, ⎪ 1 ⎪ ⎪ ⎪ α3 = 1 − λ, ⎪ ⎪ 2 ⎪ ⎪ ⎪ ⎪ ⎩ α4 = λ,

donde λ es un número cualquiera.

Volviendo a la combinación lineal, podemos entonces concluir que se satisface esta igualdad:  1 1  (3, 3, 1) = − λ (1, 1, 1) + (1 + λ) (2, 0, 0) + 1 − λ (1, 3, 1) + λ (−1, 2, 1), 2 2 y ello cualquiera que sea el número λ. Esta igualdad nos establece todas las formas de escribir el vector (3, 3, 1) como combinación lineal de los vectores (1, 1, 1), (2, 0, 0), (1, 3, 1) y (−1, 2, 1); para cada valor de λ, hay una. El caso general

277

Examinemos despacio lo que hemos hecho en los parágrafos ante-

riores: tenemos un vector y queremos determinar si es o no combinación lineal de unos vectores dados; para ello escribimos, a partir de todos los vectores, un sistema de ecuaciones lineales de modo que la existencia de solución en el sistema es equivalente a que tal combinación lineal sea posible. ¿Qué relación hay entre el sistema de ecuaciones lineales y los vectores? En los distintos ejemplos de los parágrafos anteriores lo hemos podido apreciar; la describimos ahora en un caso general. Nos dan un vector u, y también k vectores v 1 , v 2 , . . . , v k , y todos de Rn . Formamos el sistema de n ecuaciones lineales y k incógnitas cuya matriz ampliada —que será de orden (n, k + 1)— tiene por vectores columna los vectores v 1 , v 2 , . . . , v k y u, o lo que es lo mismo: el sistema cuya matriz de coeficientes tiene por vectores columna los vectores v 1 , v 2 , . . . , v k , y

III. VECTORES

cuya matriz de términos independientes tiene por único vector columna el vector u. Entonces acontece lo siguiente: una condición necesaria y suficiente para que el vector u sea igual a una combinación lineal de los vectores v 1 , v 2 , . . . , v k es que el sistema de ecuaciones lineales que acabamos de describir admita solución; además, cada solución del sistema proporciona unos coeficientes para la combinación lineal. El lector puede confirmar que los sistemas de ecuaciones lineales que hemos obtenido en los ejemplos anteriores se ajustan a esta descripción.

Justifiquemos lo afirmado. Deseamos averiguar si el vector u se puede escribir como una combinación li-

Esta última igualdad vectorial se puede desglosar en n igualdades escalares (que ya escribimos con las sumas

neal de los vectores v 1 , v 2 , . . . , v k . Buscamos, pues, k

desarrolladas):

escalares α1 , α2 , . . . , αk para los que se verifique la igualdad α1 v 1 + α2 v 2 + · · · + αk v k = u, o escrito más sintéticamente:

k 

αi v i = u.

(4)

i=1

Queremos desarrollar esta igualdad vectorial, para lo

⎧ ⎪ α1 v11 + α2 v21 + · · · + αk vk1 = u1 , ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ α1 v12 + α2 v22 + · · · + αk vk2 = u2 , ⎪ ⎪ ......................................... ⎪ ⎪ ⎪ ⎪ ⎩ α v + α v + ··· + α v 1 1n 2 2n k kn = un ,

cual debemos escribir las componentes de sus vectores; por un lado, ponemos: u = (u1 , u2 , . . . , un ), y por otro:

v 1 = (v11 , v1 2 , . . . , v1 n ),

ciones lineales en las k incógnitas α1 , α2 , . . . , αk . Cada solución de este sistema proporciona entonces unos

v 2 = (v21 , v2 2 , . . . , v2 n ),

coeficientes que permiten expresar el vector u como combinación lineal de los vectores v 1 , v 2 , . . . , v k .

..........................

Por otra parte, la matriz ampliada del sistema ante-

v k = (vk1 , vk2 , . . . , vk n ), donde la notación vij designa la j-ésima componente del i-ésimo vector v i (ello para cada 1  i  k y cada 1  j  n). De esta forma, la igualdad (4) toma la forma: k 

αi (vi1 , vi 2 , . . . , vin ) = (u1 , u2 , . . . , un ),

i=1

de donde: k k k     αi vi1 , αi vi2 , . . . , αi vin = (u1, u2 , . . . , un ). i=1

i=1

las cuales pueden leerse como un sistema de n ecua-

rior es la siguiente: ⎛

v11 ⎜ ⎜ v12 ⎜ ⎜ . ⎜ . ⎝ . v1n

v21 v22 .. . v2n

... ... .. . ...

vk1 vk2 .. . vkn

⎞ u1 ⎟ u2 ⎟ ⎟ , .. ⎟ ⎟ . ⎠ un

la cual tiene k + 1 vectores columna: los k primeros son los vectores v 1 , v 2 , . . . , v k , y el último es el vector u.

i=1

Cálculo de todos los vectores que son combinación lineal de unos dados

278

Hagamos uso de lo visto en el § 277 para responder a la siguiente

pregunta (que trata un ejemplo concreto): dados los vectores (1, −1, 2) y (2, 0, 4), ambos de R3 , ¿qué condiciones debe cumplir un vector de R3 , digamos (x1 , x2 , x3 ), para ser combinación lineal de ellos?

III.1. VECTORES

De acuerdo con lo afirmado en el citado § 277 (en consonancia con los ejemplos desarrollados en los parágrafos anteriores), debemos considerar el sistema de ecuaciones lineales cuya matriz ampliada es la matriz que tiene por vectores columna los vectores (1, −1, 2), (2, 0, 4) y (x1 , x2 , x3 ), en este orden; tal matriz es



1 =⎜ A ⎝ −1 2

⎞ x1 ⎟ x2 ⎠ . x3

2 0 4

Acontece entonces que este sistema de ecuaciones lineales del que hablamos admite solución precisamente si el vector (x1 , x2 , x3 ) es igual a una combiTrabajamos con un sistema similar, con tres parámetros, en el § 105 (cf. p. 109).

nación lineal de los vectores (1, −1, 2) y (2, 0, 4). Debemos, pues, discutir el  y ello según los valores de x1 , sistema cuya matriz ampliada es la matriz A, x2 y x3 . Sabemos que, para discutir (y aun para resolver) un sistema de ecuaciones lineales, no hace falta escribirlo explícitamente si tenemos su matriz  ampliada. Escalonemos, pues, la matriz ampliada A: ⎛

1 ⎜  A = ⎝ −1 2

2 0 4

⎛ ⎞ x1 1 ⎟ F2 ←F2 +F1 ⎜ x2 ⎠ →  ⎝0 x3 2 ⎛

1 ⎜ →  ⎝0 0 F3 ←F3 −2F1

2 2 4 2 2 0

⎞ x1 ⎟ x1 + x2 ⎠ x3 ⎞ x1 ⎟  . x1 + x2 ⎠ = A x3 − 2x1

 admite Ahora, el sistema de ecuaciones lineales cuya matriz ampliada es A solución precisamente si no hay un pivote en la última columna de la matriz  , pero esto es a su vez equivalente a que x3 − 2x1 = 0. ¡Esta escalonada A es la condición que buscamos! Afirmar que admite solución el sistema de  es equivalente a afirmar que x3 − 2x1 = 0, luego afirmar matriz ampliada A que el vector (x1 , x2 , x3 ) es igual a una combinación lineal de los vectores (1, −1, 2) y (2, 0, 4) también es equivalente a afirmar que x3 − 2x1 = 0. Podemos concluir lo siguiente: todos los vectores (x1 , x2 , x3 ) de R3 que La condición x3 − 2x1 = 0, o bien: x3 = 2x1 , expresada con palabras reza así: los que cumplen que su tercera componente es igual al doble de la primera. Para (1, 2, −3), la tercera componente no es igual al doble de la primera; para (1, a, 2), sí.

se pueden expresar como una combinación lineal de los vectores (1, −1, 2) y (2, 0, 4) son exactamente los que satisfacen la condición x3 − 2x1 = 0, o dicho de otra forma: son exactamente las soluciones de la ecuación lineal homogénea (esto es, con término independiente nulo) x3 − 2x1 = 0. Por ejemplo, es inmediato comprobar que el vector (1, 2, −3) no es igual a una combinación lineal de los vectores (1, −1, 2) y (2, 0, 4), pero que sí lo es todo vector de la forma (1, a, 2) cualquiera que sea el número a.

III. VECTORES

Otro ejemplo

279

Dados los vectores (1, −1, 1, 0), (2, 1, 0, 2) y (1, 2, −1, 2), esta vez

de R , estudiemos qué condiciones debe cumplir un vector (x1 , x2 , x3 , x4 ) 4

de R4 para ser combinación lineal de ellos. Escribimos, distinguiendo la última columna, la matriz cuyos vectores columna son (1, −1, 1, 0), (2, 1, 0, 2), (1, 2, −1, 2) y (x1 , x2 , x3 , x4 ): ⎞ ⎛ 1 2 1 x1 ⎟ ⎜ ⎜ −1 1 2 x2 ⎟ ⎟ =⎜ A ⎜ 1 0 −1 x ⎟ . 3⎠ ⎝ 0 2 2 x4 La escalonamos: ⎛ 1 2 1 ⎜ ⎜ −1 1 2 ⎜ ⎜ 1 0 −1 ⎝ 0 2 2 Ayuda con el tercer término de la última columna: 2 (x1 + x2 ) 3 2 1 = − x1 + x2 + x3 . 3 3

x3 − x1 +

⎞ ⎛ x1 1 F2 ←F2 +F1 ⎟ ⎜ ⎜ x2 ⎟ 0 F ←F −F ⎟ 331→  ⎜ ⎜0 x3 ⎟ ⎠ ⎝ x4 0 ⎛ 1 ⎜ ⎜ F3 ←F3 +(2/3)F2 ⎜ ⎜0 F4 ←F4 −(2/3)F2 ⎜ →  ⎜ ⎜0 ⎜ ⎜ ⎜ ⎝ 0

2 3 −2 2

1 3 −2 2

⎞ x1 ⎟ x1 + x2 ⎟ ⎟ x3 − x1 ⎟ ⎠ x4

2

1

x1

3

3

0

0

0

0



⎟ ⎟ ⎟ ⎟ ⎟ ⎟. 1 2 − x1 + x2 + x3 ⎟ ⎟ ⎟ 3 3 ⎟ ⎠ 2 2 − x1 − x2 + x4 3 3 x1 + x2

 tiene solución precisamente El sistema cuya matriz ampliada es la matriz A si la matriz escalonada recién obtenida no tiene un pivote en su última columna, lo que a su vez es equivalente a que se cumplan simultáneamente estas dos igualdades: 1 2 2 2 − x1 + x2 + x3 = 0 y − x1 − x2 + x4 = 0, 3 3 3 3 o bien (multiplicando los dos miembros de ambas igualdades por −3): x1 − 2x2 − 3x3 = 0

y

2x1 + 2x2 − 3x4 = 0.

Y las dos igualdades pueden interpretarse como las ecuaciones de un sistema de ecuaciones lineales homogéneo (de dos ecuaciones y cuatro incógnitas). Finalmente concluimos: todos los vectores (x1 , x2 , x3 , x4 ) de R4 que son combinación lineal de los vectores (1, −1, 1, 0), (2, 1, 0, 2) y (1, 2, −1, 2) son precisamente las soluciones del siguiente sistema de ecuaciones lineales homogéneo:

⎧ ⎨ x1 − 2x2 − 3x3 =0 ⎩ 2x1 + 2x2 − 3x4 = 0.

III.1. VECTORES

Otro ejemplo más

280

¿Cuáles son los vectores que son combinación lineal de estos tres

de R : (1, 1, 0), (2, 0, 1) y (3, 1, 0)? 3

Escribamos la matriz cuyos vectores columna son los cuatro siguientes: los tres vectores dados (en el mismo orden en que están escritos) y un vector genérico de R3 : (x1 , x2 , x3 ); distinguiendo la última columna, tal matriz es esta:



1 ⎜  1 A=⎝ 0

2 0 1

3 1 0

Escalonemos la matriz: ⎛ ⎞ ⎛ 1 1 2 3 x1 F2 ←F2 −F1 ⎜ ⎟ ⎜  1 0 1 x  ⎝0 A=⎝ 2 ⎠ → 0 1 0 x3 0 ⎛

1 ⎜ →  ⎝0 0 F3 ←F3 +(1/2)F2

⎞ x1 ⎟ x2 ⎠ . x3

2 −2 1

3 −2 0

⎞ x1 ⎟ x2 − x1 ⎠ x3

2 −2 0

3 −2 1

⎞ x1 ⎟ x2 − x1 ⎠. x3 + (x2 − x1 )/2

La matriz escalonada obtenida no presenta ningún pivote en la última columna, y ello cualesquiera que sean x1 , x2 y x3 . El sistema de ecuaciones  admite, pues, solución cuallineales cuya matriz ampliada es la matriz A quiera que sea el valor de x1 , x2 y x3 . En términos de las combinaciones lineales de los tres vectores (1, 1, 0), (2, 0, 1) y (3, 1, 0), podemos entonces afirmar: cualquier vector (x1 , x2 , x3 ) de R3 es igual a alguna combinación lineal de estos tres vectores. Adicionalmente, nótese que, fijado un valor de x1 , x2 y x3 , el sistema de  tiene solución única (el número ecuaciones lineales con matriz ampliada A de pivotes es igual al número de incógnitas). En otras palabras, cada vecExploraremos esta propiedad en la SECCIÓN III.3.

Las soluciones de un sistema homogéneo como combinaciones lineales de vectores

tor (x1 , x2 , x3 ) de R3 se puede escribir de una única manera como combinación lineal de los vectores (1, 1, 0), (2, 0, 1) y (3, 1, 0). 281

En los § 278 y 279, hemos visto sendos ejemplos en los que acon-

tece lo siguiente: dados unos vectores, encontramos un sistema de ecuaciones lineales homogéneo (en el § 278, tal sistema se reducía a una única ecuación lineal homogénea) de modo que todos los vectores que son combinación lineal de los vectores dados son precisamente las soluciones de tal sistema. Nos surge la pregunta de si acontecerá a su vez el recíproco: dado un sistema de ecuaciones lineales homogéneo, ¿existen algunos vectores tales que las soluciones del sistema son precisamente todas las posibles combinaciones lineales de esos vectores?

III. VECTORES

Veamos un ejemplo. Consideremos este sistema de ecuaciones lineales homogéneo:

⎧ ⎪ x1 ⎪ ⎪ ⎨

+ x3 + 2x4 = 0 2x2 + 3x3 − x4 = 0

(5)

⎪ ⎪ ⎪ ⎩ 2x + 2x + 5x + 3x = 0. 1 2 3 4

Para resolverlo, buscamos la forma escalonada reducida de su matriz de coeficientes (al ser homogéneo, recordemos que es más cómodo operar solo con la matriz de coeficientes, en vez de con la matriz ampliada, cf. § 97, p. 99): ⎛

1 ⎜ ⎝0 2

0 2 2

1 3 5

⎞ ⎛ 2 1 ⎟ F3 ←F3 −2F1 ⎜ −1 ⎠ →  ⎝0 3 0 ⎛

1 F2 ←(1/2)F2 ⎜ →  ⎝0 0 ⎛

1 F3 ←F3 −2F2 ⎜ →  ⎝0 0

⎞ 2 ⎟ −1 ⎠ −1

0 2 2

1 3 3

0 1 2

1 3/2 3

⎞ 2 ⎟ −1/2 ⎠ −1

0 1 0

1 3/2 0

⎞ 2 ⎟ −1/2 ⎠ . 0

Quitando la ecuación nula —que sería la tercera—, el sistema homogéneo cuya matriz de coeficientes es la matriz escalonada reducida recién obtenida se nos queda en el siguiente: ⎧ ⎪ ⎨ x1 ⎪ ⎩

+

x3 + 2x4 = 0

x2 +

3 1 x3 − x4 = 0. 2 2

Las incógnitas básicas son x1 y x2 , y las otras dos son libres; si despejamos aquellas en función de estas, y sustituimos x3 y x4 por λ y μ, respectivamente, podemos afirmar que todas las soluciones del sistema de ecuaciones lineales (5) son todas las cuaternas (x1 , x2 , x3 , x4 ) tales que: ⎧ ⎪ x1 = − λ − 2μ, ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ 1 3 ⎪ ⎪ ⎨ x2 = − λ + μ, 2 2 donde λ y μ son números cualesquiera; ⎪ ⎪ ⎪ ⎪ x3 = λ , ⎪ ⎪ ⎪ ⎪ ⎪ ⎩x = μ, 4 o bien, todas las cuaternas de la forma:   3 1 −λ − 2μ, − λ + μ, λ, μ , donde λ y μ son números cualesquiera. 2 2

III.1. VECTORES

Hasta aquí, nos hemos limitado a resolver el sistema de ecuaciones lineales homogéneo (5) —como sabemos que se resuelven los sistemas de este tipo—, pero examinemos la cuaterna genérica que expresa todas sus soluciones: (−λ − 2μ, −(3/2)λ + (1/2)μ, λ, μ). Podemos escribir:       3 1 3 1 −λ − 2μ, − λ + μ, λ, μ = −λ, − λ, λ, 0 + −2μ, μ, 0, μ 2 2 2 2     1 3 = λ −1, − , 1, 0 + μ −2, , 0, 1 , 2 2 lo que expresa a su vez tal cuaterna como una combinación lineal de dos vectores: (−1, −3/2, 1, 0) y (−2, 1/2, 0, 1), con coeficientes λ y μ. De esta manera, podemos afirmar que todas las soluciones del sistema (5) son exactamente todas las combinaciones lineales de tales vectores. En definitiva: las soluciones del sistema de ecuaciones lineales homogéneo (5) son precisamente todas las combinaciones lineales de los vectores (−1, −3/2, 1, 0) y (−2, 1/2, 0, 1). Otro ejemplo

282

Consideremos esta ecuación lineal homogénea (o si queremos, este

sistema de una ecuación lineal y tres incógnitas, que es homogéneo): x − 2y − z = 0.

(6)

¿Sería posible encontrar algunos vectores tales que las soluciones de esta ecuación lineal sean justamente todas las combinaciones lineales de tales vectores? Resolvamos la ecuación. De ella obtenemos: x = 2y + z. Sustituyendo y Si lo vemos como un sistema de una ecuación, la matriz de coeficientes ya es escalonada reducida:   1 −2 −1 . La incógnita x es básica (es la primera que figura en la ecuación), y las incógnitas y y z son libres.

y z por λ y μ, respectivamente, podemos decir que las soluciones de la ecuación son las ternas (x, y, z) tales que: ⎧ ⎪ x = 2λ + μ, ⎪ ⎪ ⎨ y= λ , donde λ y μ son números cualesquiera; ⎪ ⎪ ⎪ ⎩z = μ, o bien, todas las ternas de la forma: (2λ + μ, λ, μ),

donde λ y μ son números cualesquiera.

Ahora, podemos escribir: (2λ + μ, λ, μ) = (2λ, λ, 0) + (μ, 0, μ) = λ(2, 1, 0) + μ(1, 0, 1), lo cual nos permite concluir que las soluciones de la ecuación lineal (6) son precisamente todas las combinaciones lineales de los vectores (2, 1, 0) y (1, 0, 1).

III. VECTORES

Y otro ejemplo más

283

Consideremos ahora este sistema de ecuaciones lineales homogé⎧ ⎨x − y + z = 0 ⎩x + z = 0.

neo:

(7)

Al resolver el sistema, buscamos la forma escalonada reducida de su matriz de coeficientes:    1 −1 1 F2 ←F2 −F1 1 →  1 0 1 0

−1 1

1 0



F1 ←F1 +F2

→ 



1 0

0 1

1 0

 .

El sistema de ecuaciones lineales homogéneo con matriz de coeficientes la matriz que acabamos de obtener es este:  x +z = 0 y = 0. Las incógnitas x y y son básicas y la incógnita z es libre. Depejando x en función de z (la incógnita y toma un valor fijo y no hace falta despejarla), y escribiendo λ en lugar de z, podemos afirmar que las soluciones del sistema (7) son todas las ternas (x, y, z) tales que: ⎧ ⎪ ⎪ ⎪ x = −λ, ⎨ y = 0, donde λ es un número cualquiera; ⎪ ⎪ ⎪ ⎩ z = λ, o bien, todas las ternas de la forma: (−λ, 0, λ),

donde λ es un número cualquiera.

Como (−λ, 0, λ) = λ(−1, 0, 1), concluimos que las soluciones del sistema de ecuaciones lineales homogéneo (7) son justamente todas las combinaciones lineales del vector (−1, 0, 1), es decir, todos los múltiplos del vector (−1, 0, 1) (cf. § 272, p. 251). Una propiedad

284

Las combinaciones lineales de vectores tienen esta propiedad (de la

que haremos uso en contextos sobre todo teóricos): si un vector es combinación lineal de unos vectores, y cada uno de estos lo es a su vez de otros vectores dados, entonces el primer vector también es combinación lineal de estos últimos. Vamos a ver. Para fijar ideas, supongamos que las combinaciones lineaSuponemos todos los vectores de Rn .

les de las que hablamos son de dos vectores. Tenemos, pues, un vector u que es combinación lineal de dos vectores v y v  , pongamos: u = αv + α v  (para algunos escalares α y α ), y suponemos que estos vectores v y v  son

III.1. VECTORES

a su vez expresables como combinación lineal de otros vectores w 1 y w 2 , digamos: v = β1 w 1 + β2 w 2

y

v  = β1 w 1 + β2 w 2

(para algunos escalares β1 , β2 , β1 y β2 ). Acontece entonces que el primer vector: u, es combinación lineal, directamente, de los vectores w 1 y w 2 . En efecto, podemos escribir: Hacemos uso de las propiedades de las dos operaciones entre vectores (cf. § 263, p. 245); en particular, de la distributiva respecto de la adición de números.

u = αv + α v  = α(β1 w 1 + β2 w 2 ) + α (β1 w 1 + β2 w 2 ) = αβ1 w 1 + αβ2 w 2 + α β1 w 1 + α β2 w 2 = (αβ1 + α β1 )w 1 + (αβ2 + αβ2 )w 2 , y la igualdad obtenida: u = (αβ1 + αβ1 )w 1 + (αβ2 + α β2 )w 2 , nos expresa el vector u como combinación lineal de los vectores w 1 y w 2 . En el caso general, si el vector u es igual a una combinación lineal de unos vectores v 1 , v 2 , . . . , v k , y cada uno de estos es a su vez combinación lineal de unos terceros vectores w 1 , w 2 , . . . , w s , entonces el vector u puede escribirse directamente como combinación lineal de los vectores w 1 , w 2 , . . . , w s . La justificación en este caso general es completamente análoga a la vista en el párrafo anterior.

Otra propiedad

285

Dados unos vectores, un vector que sea combinación lineal de ellos

seguirá siendo combinación lineal de los vectores dados aunque la lista de estos se amplíe con más vectores. Veamos lo que queremos decir con un vector que es igual a una combinación lineal de dos vectores. Pongamos que u = α1 v 1 + α2 v 2 , donde u, v 1 y v 2 son vectores, todos de Rn , y α1 y α2 son escalares (números). Cualquiera que sea el vector w de Rn , podemos escribir: u = α1 v 1 + α2 v 2 + 0w, lo que expresa el vector u también como una combinación lineal de los vectores v 1 , v 2 y w. Y de la misma manera podríamos seguir añadiendo vectores a la combinación lineal. En general, si un vector u es igual a una combinación lineal de unos vectores v 1 , v 2 , . . . , v k , también este vector u es igual a una combinación lineal de los vectores v 1 , v 2 , . . . , v k , w 1 , w 2 , . . . , w s cualesquiera que sean los vectores w 1 , w 2 , . . . , w s (del mismo espacio vectorial que u, por supuesto). La demostración en este caso general es análoga a la que hemos escrito en las líneas anteriores para combinaciones lineales de dos vectores.

III. VECTORES

Ejercicios III.1 1

Nos dan dos vectores u y v y nos dicen que u

5

En los siguientes casos, encontrar un sistema de

es múltiplo de v. ¿Podemos deducir de ello que v es

ecuaciones lineales homogéneo de modo que sus solu-

múltiplo de u?

ciones sean precisamente las combinaciones lineales de los vectores escritos:

2

Escribir todos los vectores columna y todos los

vectores fila de estas matrices: ⎛ ⎞ −2 5 0 ⎜ ⎟   ⎜ 1 0 −1 ⎟ ⎜ ⎟, 2 −3 ⎜ 2 1 ⎟ 3⎠ ⎝ 2 1 3 3 a)

y

⎛ ⎞ 0 ⎜ ⎟ ⎝0⎠. 0

Considérense los vectores (−1, 0, 1) y (1, 2, 3).

a)

(−1, 0, 1) y (1, 2, 3);

b)

(−1, 0, 1);

c)

(−1, 0, 1) y (−2, 0, 2);

d)

(−1, 0, 1), (1, 2, 3) y (4, 4, 0);

e)

(−1, 0), (1, 0) y (2, 2).

6

Para cada uno de los siguientes sistemas de ecua-

¿Es el vector (4, 4, 4) igual a alguna combinación

lineal de estos vectores? En caso afirmativo, ¿con qué coeficientes?

ciones lineales homogéneos, encontrar algunos vecto-

Si a designa un número real, ¿para qué valores

res de modo que las soluciones del sistema sean pre-

de a es el vector (4, 4, a) igual a alguna combinación lineal de los vectores dados? En cada caso, ¿con qué

cisamente las combinaciones lineales de tales vectores:  2x1 − x2 = 0; a)

b)

coeficientes? c)

¿Es el vector (4, 4, 4) igual a alguna combinación

lineal de los vectores (−1, 0, 1), (1, 2, 3) y (0, 2, 4)? En

b)

caso afirmativo, escribir todas las formas de expresar tal combinación lineal. 4 a)

Detallar todas las formas de escribir el vector

nulo (0, 0) como una combinación lineal de los vectores (1, 2) y (2, 4). b)

c)

d)

Si a designa un número real, detallar, según los

valores de a, todas las formas de escribir el vector nulo (0, 0) como una combinación lineal de los vectores (1, 2) y (2, a).

e)

⎧ ⎨ 2x1 − x2 = 0 ⎩ 4x1 − 2x2 = 0; ⎧ ⎨ 2x1 − x2 = 0 ⎩ 4x1 + 2x2 = 0; ⎧ ⎨ 2x1 − x2 + x3 = 0 ⎩ 4x − 2x − x = 0; 1 2 3 ⎧ ⎪ 2x1 − x2 + x3 = 0 ⎪ ⎪ ⎨ 4x1 − 2x2 − x3 = 0 ⎪ ⎪ ⎪ ⎩ x3 = 0.

III.2. SUBESPACIOS VECTORIALES

III.2 SUBESPACIOS VECTORIALES En esta sección trabajamos con ciertos subconjuntos de Rn ; es decir, con ciertos conjuntos formados por vectores de Rn . Los conjuntos que estudiamos son los llamados subespacios vectoriales de Rn , que son espacios vectoriales dentro del espacio vectorial Rn . Además de su definición y algunos ejemplos relevantes, vemos distintas formas de presentarlos y cómo podemos pasar de una a otra. También introducimos el concepto de generadores de un subespacio vectorial.

1. Conjuntos de vectores En este apartado, empezamos a tratar conjuntos formados por vectores (subconjuntos de Rn ) no necesariamente iguales al mismo conjunto Rn . Conjuntos de vectores: un primer ejemplo

286

Hasta ahora, el único conjunto de vectores que hemos tratado ex-

plícitamente como tal conjunto es el conjunto Rn (en los ejemplos, R2 , R3 , etc., y el mismo Rn en las consideraciones más teóricas), pero —como comentamos al principio de este capítulo— queremos manejar otros conjuntos también formados por vectores; es decir, queremos manejar subconjuntos de Rn . Tras haber estudiado con detalle las operaciones entre vectores, aquí empezamos a estudiar tales conjuntos. A modo de primer ejemplo, consideramos el siguiente tipo de conjunto: el conjunto formado por todos los vectores que son combinación lineal de unos vectores dados. Verbigracia (cf. § 278, p. 256), podemos considerar el conjunto formado por todos los vectores que son combinación lineal de los dos vectores (1, −1, 2) y (2, 0, 4). Si denotamos este conjunto con una letra mayúscula —como es habitual con los conjuntos—, pongamos F , podemos

Escribir ‘α1 ∈ R’ —que se lee α1 pertenece a R— es lo mismo que afirmar que α1 es un número real. Al ver —en la notación de un conjunto—: ‘|’, léase ‘tal que’.

escribir: ! " F = α1 (1, −1, 2) + α2 (2, 0, 4) ! α1 ∈ R y α2 ∈ R . Lo que figura entre llaves (entre ‘{’ y ‘}’) describe cómo son los elementos del conjunto F : justamente son los de la forma α1 (1, −1, 2) + α2 (2, 0, 4) con α1 y α2 números reales cualesquiera. Si damos un valor numérico concreto a estos coeficientes, obtenemos un elemento de F , y cuando estos coeficientes recorren el conjunto R, obtenemos todos los elementos de F . Por otra parte, nótese lo siguiente: como los dos vectores (1, −1, 2) y (2, 0, 4) son de R3 , cada combinación lineal de ellos también lo es; es decir, cada elemento del conjunto F es a su vez un elemento de R3 , o lo

III. VECTORES

que es lo mismo: el conjunto F es un subconjunto de R3 . Esto se denota así: F ⊆ R3 . A tenor de lo visto en el citado § 278, podemos escribir: (1, 2, −3) ∉ F , y

∉ : no pertenece.

también: (1, a, 2) ∈ F cualquiera que sea el número a. Un ejemplo más general de conjunto de vectores

287

En general, dados dos vectores v 1 y v 2 , ambos de Rn , el conjunto

formado por todas las combinaciones lineales de los dos vectores se escribe así:

! " α1 v 1 + α2 v 2 ! α1 ∈ R y α2 ∈ R .

Este conjunto es un subconjunto de Rn : todos sus elementos también son ! " elementos de Rn ; esto es: α1 v 1 + α2 v 2 ! α1 ∈ R y α2 ∈ R ⊆ Rn cuando v 1 y v 2 son vectores de Rn . Y más en general aún: el conjunto formado por todas las combinaciones lineales de k vectores dados, v 1 , v 2 , . . . , v k , todos de Rn , toma este aspecto: ! " α1 v 1 + α2 v 2 + · · · + αk v k ! α1 ∈ R, α2 ∈ R, . . . , αk ∈ R . Este conjunto también es un subconjunto de Rn . Nota

Debemos hacer una puntualización sobre la notación. Puede ocurrir que

alguna combinación lineal de la forma α1 v 1 + α2 v 2 sea igual a otra de esta misma forma para valores distintos de los coeficientes α1 y α2 . (Por ejemplo, si los vectores v 1 y v 2 son iguales, ello acontece sin más que intercambiar los coeficientes: α1 v 1 + α2 v 2 = α2 v 1 + α1 v 2 .) Estrictamente hablando, pues, la no" tación α1 v 1 + α2 v 2 | α1 ∈ R y α2 ∈ R no sería adecuada para un conjunto (los elementos de un conjunto no deben repetirse); en este sentido, sería mejor referirse al conjunto de las combinaciones lineales de v 1 y v 2 de esta otra forma: ! " u ∈ Rn ! u = α1 v 1 + α2 v 2 para algún α1 ∈ R y algún α2 ∈ R . No obstante, adoptaremos la primera notación por resultar más cómoda e instructiva, y porque en definitiva no lleva a confusión a poca atención que se ponga. Similar comentario podríamos formular para el conjunto de las combinaciones lineales de k vectores. Más conjuntos de vectores

288



También consideraremos el siguiente tipo de conjunto: dado un

sistema de ecuaciones lineales homogéneo, el conjunto formado por todos los vectores que son solución del sistema. Si el sistema es de n incógnitas, tal conjunto resultará ser un subconjunto de Rn . Por ejemplo (cf. § 279, p. 258), podemos considerar el conjunto formado por todas las soluciones de este sistema de ecuaciones lineales homogéneo: ⎧ ⎨ x1 − 2x2 − 3x3 =0 ⎩ 2x1 + 2x2 − 3x4 = 0.

III.2. SUBESPACIOS VECTORIALES

Tal conjunto se puede denotar, verbigracia, por la letra G, y escribir así: Recuérdese: ‘|’ se lee ‘tal que’.

! " G = (x1 , x2 , x3 , x4 ) ∈ R4 ! x1 − 2x2 − 3x3 = 0 y 2x1 + 2x2 − 3x4 = 0 . Como acontecía con el conjunto F del § 286, lo que figura escrito entre llaves da cuenta exacta de cómo son los elementos del conjunto G: de entre los vectores (x1 , x2 , x3 , x4 ) de R4 , son precisamente aquellos cuyas componentes satisfacen las ecuaciones x1 − 2x2 − 3x3 = 0 y 2x1 + 2x2 − 3x4 = 0. Por otra parte, el conjunto G está formado por cuaternas, luego G ⊆ R4 . Por cierto, en el mismo § 279, comprobamos que todas las combinaciones lineales de los vectores (1, −1, 1, 0), (2, 1, 0, 2) y (1, 2, −1, 2) son precisamente las soluciones del sistema de ecuaciones lineales homogéneo anterior. Si denotamos este conjunto de combinaciones lineales por H:

Esta es una notación como la vista en el § 286.

H = α1 (1, −1, 1, 0) + α2 (2, 1, 0, 2) + α3 (1, 2, −1, 2) ! " ! α1 ∈ R, α2 ∈ R y α3 ∈ R , podemos, pues, escribir: H = G. Estamos ante un caso de igualdad de conjuntos. Nota bene

Escribir una igualdad entre dos conjuntos (como H = G) significa

afirmar simultáneamente dos enunciados: por un lado, que todo elemento del primer conjunto es a su vez elemento del segundo (en el ejemplo, toda combinación lineal es solución del sistema: H ⊆ G); por otro lado, que todo elemento del segundo conjunto también lo es del primero (toda solución del sistema es  combinación lineal: G ⊆ H). Más ejemplos

289

En el § 278 (cf. p. 256), pudimos comprobar que todos los vecto-

res (x1 , x2 , x3 ) de R3 que se pueden expresar como una combinación lineal de los vectores (1, −1, 2) y (2, 0, 4) son exactamente los que satisfacen la condición x3 − 2x1 = 0; en el contexto (y notación) de conjuntos de vectores en el que estamos trabajando, esta afirmación se concreta en una igualdad de conjuntos. En el § 286, denotamos por F el conjunto de las combinaciones lineales de (1, −1, 2) y (2, 0, 4): ! " F = α1 (1, −1, 2) + α2 (2, 0, 4) ! α1 ∈ R y α2 ∈ R , y denotamos ahora por F  las soluciones de la ecuación lineal x3 − 2x1 = 0: ! " F  = (x1 , x2 , x3 ) ∈ R3 ! x3 − 2x1 = 0 ; acontece entonces que F = F  .

III. VECTORES

Y otro ejemplo: de acuerdo con lo que obtuvimos en el § 283 (cf. p. 262), podemos escribir esta otra igualdad de conjuntos: ! ! " " (x, y, z) ∈ R3 ! x − y + z = 0 y x + z = 0 = α(−1, 0, 1) ! α ∈ R . Y un ejemplo final: según lo que calculamos en el § 280 (cf. p. 259), se cumple esta igualdad de conjuntos de vectores: ! " α1 (1, 1, 0) + α2 (2, 0, 1) + α3 (3, 1, 0) ! α1 ∈ R, α2 ∈ R y α3 ∈ R = R3 . Conjuntos de vectores (a modo de epílogo)

290

Los conjuntos de vectores que manejaremos, aparte del mismo Rn ,

serán básicamente de las dos clases que hemos visto en los parágrafos anteriores: bien el conjunto de las combinaciones lineales de unos vectores dados, bien el conjunto de las soluciones de un sistema de ecuaciones li-

Estos conjuntos serán subespacios vectoriales.

neales homogéneo. Con estos conjuntos acontece que, dado un conjunto de una clase, es posible encontrar un conjunto de la otra que sea igual al dado; aunque esta afirmación se probará con detalle más adelante, los ejemplos vistos al final del apartado dedicado a las combinaciones lineales dan cuenta de cómo proceder. Queremos destacar un caso particular sencillo, pero no por ello menos importante: el del conjunto {0}, formado exclusivamente por el vector nulo (en R2 , este conjunto es {(0, 0)}; en R3 , es {(0, 0, 0)}, etc.). El conjunto {0} se puede ver como el de todas las combinaciones lineales de un vector: el nulo, y se puede ver también como el conjunto de las soluciones de un sistema de ecuaciones lineales homogéneo: cualquiera que tenga solución única (bueno, no cualquiera exactamente: si estamos considerando el vector 0 de Rn , tal sistema debe ser de n incógnitas). Por otra parte, a veces nos podemos encontrar con conjuntos como este: ! " (a, b, b) ! a ∈ R y b ∈ R . Es fácil ver que es en el fondo el conjunto de las combinaciones lineales de ciertos vectores: como (a, b, b) = (a, 0, 0) + (0, b, b) = a(1, 0, 0) + b(0, 1, 1), podemos escribir: ! ! " " (a, b, b) ! a ∈ R y b ∈ R = a(1, 0, 0) + b(0, 1, 1) ! a ∈ R y b ∈ R . El lector se estará preguntando quizá por el conjunto de soluciones de un sistema de ecuaciones lineales no necesariamente homogéneo. Por supuesto, se puede hablar de este tipo de conjuntos. La estructura de un

Estos conjuntos serán subespacios afines.

conjunto como este es similar, pero no igual, a la estructura que vamos enseguida a desentrañarle a los conjuntos de vectores de las clases citadas anteriormente.

III.2. SUBESPACIOS VECTORIALES

2. Subespacios vectoriales Introducimos en este apartado el importante concepto de subespacio vectorial, que refleja la idea de un espacio vectorial dentro de otro.

Definición Definición de subespacio vectorial

291

El conjunto Rn tiene estructura de espacio vectorial, como hemos

detallado en el § 263 (cf. p. 245) —y venimos en el fondo estudiando desde que empezó este capítulo—; los conjuntos de vectores que hemos estado manejando en los parágrafos anteriores también tienen esta estructura, como veremos a continuación. Es decir, tales conjuntos son espacios vectoriales por sí mismos, dentro a su vez del espacio vectorial Rn . Si nos dan un conjunto F de vectores, es decir, un subconjunto F de Rn (en símbolos: F ⊆ Rn ), las ocho propiedades enunciadas en el citado § 263 —gracias a las cuales catalogamos el conjunto E = Rn como un espacio vectorial— se cumplen, pues operar con elementos del conjunto F es en última instancia operar con elementos de Rn , que sí cumplen tales propiedades. Por ejemplo, será indiferente el orden en que sumemos dos elementos de F (propiedad conmutativa), pues es indiferente el orden en que se sumen dos elementos de Rn cualesquiera. Entonces: ¿cuál es el punto crucial para que pudiéramos considerar que el conjunto F dado es, en sí mismo, un espacio vectorial? Este: que la adición de vectores y la multiplicación de vectores por un número sean efectivamente operaciones sobre el conjunto F .2 ¿Qué queremos decir? Queremos decir que, al sumar dos vectores del conjunto F , o al multiplicar por un número un vector del conjunto F , debe obtenerse como resultado un vector de F . Si el conjunto F satisface esta condición, sí podemos decir de él que, dotado de la adición de vectores y de la multiplicación de vectores por números reales, es un espacio vectorial sobre R. Todo lo anterior motiva la siguiente definición. Dado un conjunto de vectores F , no vacío, subconjunto de Rn : F ⊆ Rn , diremos que es un subespacio vectorial de Rn (o simplemente un subespacio de Rn ) si se satisfacen estas dos condiciones: • Cualesquiera que sean los vectores x y y de F , la suma x + y es un vector de F ; esto es, si x ∈ F y y ∈ F , entonces x + y ∈ F . • Cualesquiera que sean el número λ y el vector x de F , el producto λx es un vector de F ; es decir, si λ ∈ R y x ∈ F , entonces λx ∈ F . 2 Técnicamente, esto debería formularse así: que la restricción al conjunto F de las operaciones adición y multiplicación por un número sean operaciones sobre F .

III. VECTORES

De acuerdo con lo afirmado en los párrafos anteriores, cualquier subespacio vectorial de Rn presenta, por sí mismo, estructura de espacio vectorial. Nota bene

Pedimos que el conjunto F sea no vacío, con el fin de que haya vecto-

res en él con los que poder operar. En todo caso, no queremos que el conjunto vacío pueda ser considerado un subespacio vectorial. Una primera propiedad: el vector nulo pertenece a cualquier subespacio vectorial

292



Antes de empezar a ver ejemplos de subespacios vectoriales, haga-

mos notar esta propiedad: a cualquier subespacio vectorial debe pertenecer al menos el vector nulo. Es decir, si F es un subespacio vectorial (de Rn ), entonces el vector 0 es un elemento de F .

Otra justificación de lo mismo: si x es un vector de F , también lo es λx para cualquier número λ; si λ = 0, entonces: λx = 0x = 0.

¿Cómo lo comprobamos? El conjunto F es no vacío, así que al menos pertenece a él un vector, pongamos x. En virtud de las condiciones de la definición de subespacio vectorial (§ 291), como x es un elemento de F , también lo es su producto por el número −1 (segunda condición): (−1)x, de lo que se deduce que también es un elemento de F la suma x + (−1)x (primera condición). Pero: x + (−1)x = x + (−x) = 0 (hacemos uso de las propiedades de espacio vectorial). El vector nulo es, pues, un elemento del susbespacio vectorial F .

Una segunda propiedad: las combinaciones lineales de vectores de un subespacio vectorial pertenecen al subespacio vectorial

293

Otra propiedad más antes de pasar a los ejemplos: si calculamos

una combinación lineal de vectores de un subespacio vectorial, el resultado es un vector que sigue perteneciendo al subespacio vectorial. Dado un subespacio vectorial F , si v 1 y v 2 son dos vectores de F , entonces cualquier combinación lineal suya, digamos α1 v 1 + α2 v 2 , sigue siendo un vector de F . ¿Por qué? En virtud de la segunda condición de la definición de subespacio vectorial (§ 291), los vectores α1 v 1 y α2 v 2 son vectores de F ; en virtud ahora de la primera condición, se concluye que la suma de estos: α1 v 1 + α2 v 2 , pertenece también a F . De manera similar se probaría el resultado para una combinación lineal de k vectores: si v 1 , v 2 , . . . , v k son k vectores de un subespacio vectorial F , entonces cualquier combinación lineal de ellos: α1 v 1 + α2 v 2 + · · · + αk v k , es un vector que también pertenece a F . A veces se enuncia esta propiedad aseverando que los subespacios vectoriales son cerrados para las combinaciones lineales de sus elementos.

Ejemplos Primer ejemplo de subespacio vectorial: Rn

294

El conjunto Rn mismo es un subespacio vectorial de Rn (es, diga-

mos, subespacio vectorial de sí mismo). Cumple obviamente las dos con-

III.2. SUBESPACIOS VECTORIALES

diciones de la definición de subespacio vectorial (§ 291): el resultado de sumar dos vectores de Rn , o de multiplicar por un número un vector de Rn , es —por definición de estas operaciones— un vector de Rn . Otro ejemplo sencillo: {0}

295

Otro ejemplo inmediato de subespacio vectorial es el conjunto {0}.

Claramente, la suma de vectores de este conjunto es igual a un vector del Nótese esto: según la propiedad vista en el § 292, el conjunto {0} es el único subespacio vectorial de un solo elemento. Todas las combinaciones lineales de unos vectores dados forman un subespacio vectorial Denotamos este conjunto con la letra F por abreviarlo con alguna letra.

conjunto (pues 0 + 0 = 0), y lo mismo acontece con el producto por un número (pues λ0 = 0). Verbigracia, el conjunto {(0, 0)} es un subespacio vectorial de R2 , y el conjunto {(0, 0, 0)} lo es de R3 . 296

Dados unos vectores, el conjunto formado por todos los vectores

que son combinación lineal de ellos es un subespacio vectorial. Veámoslo para el conjunto de las combinaciones lineales de dos vectores. Nos dan, pues, dos vectores v 1 y v 2 de Rn , y queremos comprobar que ! " el conjunto F = α1 v 1 + α2 v 2 ! α1 ∈ R y α2 ∈ R es un subespacio vectorial de Rn . Para ello debemos comprobar dos cosas. Lo primero es que la suma de dos elementos cualesquiera de F sigue siendo un elemento de F . Dos elementos arbitarios de F tienen este aspecto: α1 v 1 + α2 v 2

y

α1 v 1 + α2 v 2 ,

para algunos números α1 , α2 , α1 y α2 ; si los sumamos, obtenemos: (α1 v 1 + α2 v 2 ) + (α1 v 1 + α2 v 2 ) = (α1 + α1 )v 1 + (α2 + α2 )v 2 , y el vector al que llegamos es una combinación lineal de v 1 y v 2 , es decir, un elemento de F . Lo segundo que debemos comprobar es que el producto de un elemento de F por un número es a su vez un elemento de F . Pero se tiene: λ(α1 v 1 +α2 v 2 ) = (λα1 )v 1 +(λα2 )v 2 (aquí λ es un número cualquiera), lo cual nos sasegura lo que buscamos. Enunciamos (y demostramos) esta propiedad para una cantidad finita de vectores.

Para una cantidad cualquiera de vectores, el resultado reza de esta manera: si v 1 , v 2 , . . . , v k son k vectores de Rn , entonces el conjunto de sus combinaciones lineales: ! " α1 v 1 + α2 v 2 + · · · + αk v k ! α1 ∈ R, α2 ∈ R, . . . , αk ∈ R , es un subespacio vectorial de Rn . La justificación es análoga a la que hemos desarrollado en el párrafo anterior para dos vectores. Por ejemplo, en el § 286, denotamos por F el conjunto de las combinaciones lineales de los vectores (1, −1, 2) y (2, 0, 4): ! " F = α1 (1, −1, 2) + α2 (2, 0, 4) ! α1 ∈ R y α2 ∈ R . Este conjunto F es entonces un subespacio vectorial de R3 .

III. VECTORES

Otro ejemplo: en el § 288 recordamos, y denotamos por H, el conjunto de todas las combinaciones lineales de los vectores (1, −1, 1, 0), (2, 1, 0, 2) y (1, 2, −1, 2): H = α1 (1, −1, 1, 0) + α2 (2, 1, 0, 2) + α3 (1, 2, −1, 2) ! " ! α1 ∈ R, α2 ∈ R y α3 ∈ R . El conjunto H es otro subespacio vectorial, esta vez de R4 . Todas las soluciones de un sistema de ecuaciones lineales homogéneo forman un subespacio vectorial

297

Dado un sistema de ecuaciones lineales homogéneo, el conjunto de

sus soluciones también es un subespacio vectorial. Si el sistema homogéneo es de n incógnitas, tal conjunto es un subespacio vectorial de Rn . Justifiquemos la anterior afirmación para un sistema de dos incógnitas. Fijémonos en esto: si tenemos dos soluciones, pongamos (p, q) y (p  , q  ), de una ecuación lineal homogénea con dos incognitas, como ax + by = 0, entonces la suma de estas soluciones: (p, q) + (p  , q  ) = (p + p  , q + q  ), también es solución de la ecuación. En efecto: al ser los vectores (p, q) y (p  , q  ) soluciones de la ecuación, se cumple: ap + bq = 0 y

ap  + bq  = 0,

y para el vector suma (p + p  , q + q  ) se verifica: a(p+p  )+b(q+q  ) = ap+ap  +bq+bq  = (ap+bq)+(ap  +bq  ) = 0+0 = 0, lo que establece que también este vector suma es solución de la ecuación. Por otra parte, si λ es un número, el producto λ(p, q) = (λp, λq) es solución de la ecuación si (p, q) lo es, porque a(λp) + b(λq) = λ(ab+ bq) = λ · 0 = 0. De esta forma, acabamos de probar lo siguiente: dada una ecuación lineal homogénea, tanto la suma de dos soluciones suyas como el producto por un número de una solución tienen como resultado otra solución. Si en vez de una sola ecuación homogénea tenemos varias (es decir, tenemos un sistema de ecuaciones lineales homogéneo), entonces la suma de dos soluciones de todas las ecuaciones tendrá como resultado una solución también de todas las ecuaciones; en otras palabras, la suma de dos soluciones de un sistema homogéneo es otra solución del mismo sistema. Lo mismo acontece con el producto de una solución del sistema por un número. Con estas observaciones, se justifica que el conjunto de soluciones de un sistema de ecuaciones lineales homogéneo que tiene dos incógnitas es un subespacio vectorial de R2 . La justificación para sistemas de n incógnitas es del todo análoga.

III.2. SUBESPACIOS VECTORIALES

Conjunto de soluciones de este sistema homogéneo: ⎧ ⎨ x1 − 2x2 − 3x3 =0 ⎩ 2x + 2x − 3x = 0. 1

2

4

Por ejemplo, en el § 288 trabajamos con este conjunto: ! " G = (x1 , x2 , x3 , x4 ) ∈ R4 ! x1 − 2x2 − 3x3 = 0 y 2x1 + 2x2 − 3x4 = 0 , que es, por tanto, un subespacio vectorial de R4 . Y en el § 289 tratamos otro conjunto de este tipo: el de soluciones de la ecuación lineal x3 − 2x1 = 0, que denotamos allí por F  : ! " F  = (x1 , x2 , x3 ) ∈ R3 ! x3 − 2x1 = 0 . Este conjunto F  es un subespacio vectorial de R3 .

3. Subespacio vectorial generado por unos vectores En este apartado, estudiamos específicamente los subespacios vectoriales Cf. § 296.

formados por todas las combinaciones lineales de unos vectores dados.

Definición: generadores Subespacio generado por unos vectores

298

Es especialmente importante poder escribir un subespacio vectorial

como el conjunto formado por todas las combinaciones lineales de ciertos vectores. Un subespacio vectorial así presentado recibe el nombre de subespacio vectorial generado por los vectores dados. Más en concreto, dados k vectores v 1 , v 2 , . . . , v k de Rn , se denomina subespacio vectorial (o simplemente subespacio) generado por los vecto-

También se denota de esta   forma: L v1 , v2 , . . . , vk , o in$ # cluso así: v 1 , v 2 , . . . , vk .

res v 1 , v 2 , . . . , v k al subespacio vectorial de Rn formado por todas las com  binaciones lineales de estos vectores. Se denota: L v 1 , v 2 , . . . , v k ; es decir:   L v1 , v2 , . . . , vk

! " = α1 v 1 + α2 v 2 + · · · + αk v k ! α1 ∈ R, α2 ∈ R, . . . , αk ∈ R .

El lector observará que, en los ejemplos de los parágrafos anteriores, hemos visto varios subespacios generados por vectores. Por ejemplo, en el § 286 (cf. p. 265) trabajamos con el conjunto de las combinaciones lineales de los vectores (1, −1, 2) y (2, 0, 4), que denotamos allí por F ; se tiene: ! "   F = α1 (1, −1, 2) + α2 (2, 0, 4) ! α1 ∈ R y α2 ∈ R = L (1, −1, 2), (2, 0, 4) . También, verbigracia, en el § 288 (cf. p. 266) hablamos del conjunto, denotado por H, de todas las combinaciones lineales de los vectores (1, −1, 1, 0),   (2, 1, 0, 2) y (1, 2, −1, 2); es decir: H = L (1, −1, 1, 0), (2, 1, 0, 2), (1, 2, −1, 2) .

III. VECTORES

Generadores

299

Dado un subespacio vectorial, si es posible encontrar unos vectores

de tal suerte que el subespacio generado por ellos coincida con el subespacio vectorial dado, de tales vectores se dice que son unos generadores del subespacio vectorial. En símbolos: si F es un subespacio vectorial de Rn y v 1 , v 2 , . . . , v k son vectores de Rn tales que F coincide con el subespacio vectorial generado por ellos, diremos que los vectores v 1 , v 2 , . . . , v k son unos generadores del subespacio vectorial F (o que generan el subespacio vectorial F ); en otras palabras: los vectores v 1 , v 2 , . . . , v k son unos generadores del subespacio   vectorial F precisamente si L v 1 , v 2 , . . . , v k = F . Por ejemplo, hemos comprobado (cf. § 279, p. 258, y § 288, p. 266) que este conjunto: ! " G = (x1 , x2 , x3 , x4 ) ∈ R4 ! x1 − 2x2 − 3x3 = 0 y 2x1 + 2x2 − 3x4 = 0 , coincide con el de las combinaciones lineales de los vectores (1, −1, 1, 0),   (2, 1, 0, 2) y (1, 2, −1, 2); es decir: G = L (1, −1, 1, 0), (2, 1, 0, 2), (1, 2, −1, 2) . Los vectores (1, −1, 1, 0), (2, 1, 0, 2) y (1, 2, −1, 2) son, pues, unos generadores del subespacio vectorial G. Otro ejemplo: en el § 278 (cf. p. 256), calculamos que todos los vectores (x1 , x2 , x3 ) de R3 que se pueden expresar como una combinación lineal de los vectores (1, −1, 2) y (2, 0, 4) son precisamente los que satisfacen la condición x3 − 2x1 = 0; escrito en símbolos (con la notación que hemos introducido en el § 298): !   " L (1, −1, 2), (2, 0, 4) = (x1 , x2 , x3 ) ∈ R3 ! x3 − 2x1 = 0 . Esta igualdad nos dice que los vectores (1, −1, 2) y (2, 0, 4) son unos gene! " radores del subesapcio vectorial (x1 , x2 , x3 ) ∈ R3 ! x3 − 2x1 = 0 . Otro ejemplo

300

De acuerdo con los cálculos del § 283 (cf. p. 262) —que fueron recor-

dados hacia el final del § 289 (cf. p. 267)—, podemos escribir: ! "   (x, y, z) ∈ R3 ! x − y + z = 0 y x + z = 0 = L (−1, 0, 1) , lo que nos dice que un solo vector —justamente el vector (−1, 0, 1)— ge! " nera el subespacio vectorial (x, y, z) ∈ R3 ! x − y + z = 0 y x + z = 0 . Este subespacio vectorial está formado, pues, por todos los múltiplos del vector (−1, 0, 1) (cf. § 272, p. 251). Una propiedad de los subespacios generados por un solo vector

301

Interrumpamos la lista de ejemplos para examinar una propiedad

de los subespacios generados por un solo vector: el subespacio generado

III.2. SUBESPACIOS VECTORIALES

por un único vector es el mismo que el subespacio generado por cualquier múltiplo no nulo de este único vector. En símbolos: si v es un vector (nulo     o no) y λ es un número no nulo, entonces L v = L λv .   ¿Cómo es un elemento de L v , es decir, una combinación lineal de v? Es un vector que es múltiplo de v (cf. § 272, p. 251), digamos αv para algún   número α. ¿Y cómo es un elemento de L λv ? Así: β(λv) para algún número β. Ahora acontece que todo vector del primer tipo se puede escribir como uno del segundo: αv = β(λv) para β = α/λ; y todo vector del segundo tipo se puede escribir como uno del primero: β(λv) = αv para α = βλ. Esto     prueba que los conjuntos L v y L λv son iguales. Por ejemplo, el conjunto formado por los múltiplos del vector (2, 1) es (4, 2) = 2(2, 1) y 2 ≠ 0

el mismo que el conjunto formado por los múltiplos del vector (4, 2), pues     este vector es múltiplo no nulo de aquel. En símbolos: L (2, 1) = L (4, 2) .

Rectas y planos Rectas de un espacio vectorial

302

Una recta es un subespacio vectorial generado por un solo vector no

nulo. Más en concreto, dado un subespacio vectorial F de Rn , decimos que F   es una recta de Rn si existe algún vector no nulo v (de Rn ) tal que F = L v . En este caso, decimos asimismo que el vector v es un vector director de la recta F .

  Por ejemplo, el subespacio L (2, 1) es la recta de R2 de vector direc-

tor (2, 1). También, de acuerdo con el ejemplo visto en § 300, el subespacio ! " vectorial (x, y, z) ∈ R3 ! x − y + z = 0 y x + z = 0 resulta ser la recta de vector director (−1, 0, 1). Según la propiedad vista en el § 301, cualquier múltiplo no nulo del vector director de una recta es vector director de la misma recta. Las rec    tas L (2, 1) y L (4, 2) —subespacios vistos en este § 301— son la misma. Una propiedad

303

Si nos dan dos vectores no nulos tales que uno es múltiplo del otro,

entonces el subespacio generado por ambos es una recta, precisamente la que tiene por vector director cualquiera de los vectores dados. Más en concreto, si v 1 y v 2 son dos vectores no nulos tales que uno es múltiplo del       otro, entonces L v 1 , v 2 = L v 1 = L v 2 . Para verlo, pongamos que v 1 = λv 2 para algún número λ. Si un vector es combinación lineal de v 1 y v 2 , digamos α1 v 1 + α2 v 2 para algunos números α1 y α2 , entonces tal vector se puede escribir como combinación lineal solamente de v 2 : α1 v 1 + α2 v 2 = α1 (λv 2 ) + α2 v 2 = (α1 λ + α2 )v 2 ;

III. VECTORES

recíprocamente, si un vector es igual a una combinación lineal de v 2 , pongamos βv 2 para algún número β, entonces también es combinación lineal de los vectores v 1 y v 2 , pues podemos escribir: βv 2 = 0v 1 +βv 2 . De esta forma, probamos que el subespacio generado por los dos vectores v 1 y v 2 juntos     es igual al generado por el vector v 2 en solitario; es decir: L v 1 , v 2 = L v 2 . Finalmente, tenemos la justificación completa de la propiedad al darnos     cuenta de que las rectas L v 1 y L v 2 son la misma por ser sus vectores directores múltiplos uno del otro (§ 302).   Por ejemplo, el subespacio L (2, 1), (4, 2) es justamente la recta de vector director (2, 1), o la de vector director (4, 2) (ambas son la misma); esto       es: L (2, 1), (4, 2) = L (2, 1) = L (4, 2) . Planos de un espacio vectorial

304

Pero si nos dan dos vectores no nulos tales que ninguno de ellos es

múltiplo del otro, entonces ocurre que el subespacio generado por ambos no es una recta. En efecto. Dados dos vectores no nulos v 1 y v 2 , si existe otro vector no     nulo w tal que L v 1 , v 2 = L w , en particular los vectores v 1 y v 2 pertene  cen a la recta L w , con lo que cada uno de ellos verifica ser igual a algún múltiplo no nulo del vector w, es decir: v 1 = λ1 w y v 2 = λ2 w para algunos números no nulos λ1 y λ2 ; de ello se deduce que el vector v 1 es múltiplo de v 2 :

λ  λ1 λ1 1 λ2 w = (λ2 w) = v2. λ2 λ2 λ2 y v 2 son tales que ninguno es múltiplo del otro,

v 1 = λ1 w = Así, si los vectores v 1

entonces no existe ningún vector w de forma que el subespacio generado por v 1 y v 2 coincida con la recta de vector director w. Un subespacio vectorial generado por dos vectores no nulos tales que ninguno de ellos es múltiplo del otro se denomina plano del espacio vectorial. Más en concreto, dado un subespacio vectorial G de Rn , decimos que G es un plano de Rn si existen dos vectores no nulos v 1 y v 2 (de Rn ), ninguno   de los dos múltiplo del otro, tales que G = L v 1 , v 2 . En tal caso, además decimos —como con las rectas— que los vectores v 1 y v 2 son unos vectores directores del plano G. Por ejemplo, en virtud del último ejemplo señalado en el § 299, podemos ! " (x1 , x2 , x3 ) ∈ R3 ! x3 − 2x1 = 0 es el

afirmar que el subespacio vectorial

plano de R3 de vectores directores (1, −1, 2) y (2, 0, 4), pues: ! "   L (1, −1, 2), (2, 0, 4) = (x1 , x2 , x3 ) ∈ R3 ! x3 − 2x1 = 0 . Nótese que los dos vectores (1, −1, 2) y (2, 0, 4) cumplen el requisito de que ninguno es múltiplo del otro.

III.2. SUBESPACIOS VECTORIALES

Generadores de Rn Vectores que generan Rn

305

Siguiendo con los ejemplos de subespacios generados por vectores,

si recordamos lo visto en el § 280 (cf. p. 259) —que también fue citado en el § 289 (cf. p. 267)—, podemos escribir:   L (1, 1, 0), (2, 0, 1), (3, 1, 0) = R3 . Es decir, los vectores (1, 1, 0), (2, 0, 1) y (3, 1, 0) generan todo el espacio vectorial R3 . Condiciones para ser generadores de Rn

306

Dado un subespacio vectorial, ¿cómo deben ser unos vectores para

ser generadores del subespacio vectorial? Para subespacios vectoriales generales, analizaremos esta cuestión en la Sección III.3, pero podemos ahora dar una respuesta cuando el subespacio vectorial es el mismo Rn . Nos dan, pues, unos vectores v 1 , v 2 , . . . , v k de Rn .

¿Qué condición

deben cumplir estos k vectores para generar todo el espacio vectorial Rn ? Acontece lo siguiente: si formamos la matriz cuyos vectores columna son los k vectores v 1 , v 2 , . . . , v k , el que estos vectores generen Rn es equivalente a que la matriz así formada tenga rango igual a n.

Veamos. Afirmar que los k vectores v 1 , v 2 , . . . , v k

mita solución para cualquier elección de los términos

generan Rn es afirmar que cualquier vector u de Rn se

independientes. Pero esto es a su vez equivalente a que

puede escribir como combinación lineal de ellos. Dado  un vector u cualquiera de Rn , formemos la matriz A

el rango de la matriz de coeficientes del sistema sea igual al número de ecuaciones (cf. § 175, p. 169).

cuyos vectores columna son v 1 , v 2 , . . . , v k y u; sabe-

Ahora bien: ¿cuál es la matriz de coeficientes de

mos que el vector u es combinación lineal de los vec-

tal sistema? La que tiene por vectores columna los k

tores v 1 , v 2 , . . . , v k precisamente si admite solución el

vectores v 1 , v 2 , . . . , v k . ¿Cuántas ecuaciones tiene el

sistema de ecuaciones lineales cuya matriz ampliada  (cf. § 277, p. 255). Como consecuencia de ello, que es A

sistema?, o bien: ¿cuántas filas tiene la matriz de coefi-

los vectores v 1 , v 2 , . . . , v k generen Rn es equivalente  adentonces a que este sistema de matriz ampliada A

columna —que son vectores de Rn —, esto es, exacta-

cientes? Tantas como componentes tienen sus vectores mente n.

Una consecuencia es esta: para generar el espacio vectorial Rn , hacen falta al menos n vectores. Si no se ve a primera vista, dése uno cuenta de lo siguiente: si la matriz cuyos vectores columna son los vectores generadores de Rn ha de tener rango igual a n, entonces debe tener un número de columnas —y por ende de vectores columna— mayor o igual que n. Por ejemplo, los tres vectores de R4 escritos (entre otros lugares) al final del § 298 no pueden generar R4 , ni el vector (−1, 0, 1) por sí solo puede

III. VECTORES

generar R3 (§ 300): necesitaríamos al menos un vector más en el primer caso y dos vectores más en el segundo. Sin embargo, para los tres vectores (1, 1, 0), (2, 0, 1) y (3, 1, 0), que sí Para el cálculo de este rango, véase el § 280 (cf. p. 259).

generan R3 (§ 305), podemos comprobar que es igual a 3 el rango de la

También es válido si escribimos “. . . la matriz que los tiene como vectores fila. . . ” (el rango de ambas matrices es el mismo).

Una condición necesaria y suficiente para que unos vectores de Rn gene-

Un ejemplo

307

matriz que los tiene como vectores columna.

ren Rn es que la matriz que los tiene como vectores columna tenga rango igual a n. Para generar R2 hacen falta, al menos, dos vectores (§ 306). Los

dos vectores (1, 0) y (0, 1) son suficientes, pues la matriz que los tiene por vectores columna, precisamente la matriz identidad de orden 2:   1 0 I2 = , 0 1   tiene rango igual a 2. Podemos, pues, escribir: L (1, 0), (0, 1) = R2 . En general, los vectores columna de la matriz identidad In son generadores del espacio vectorial Rn , pues el rango de la matriz In es igual a n. Es decir:

Otro ejemplo

308

  L (1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, 0, . . . , 1) = Rn . Consideremos los tres vectores (2, 1), (4, 2) y (−2, 5), todos de R2 .

¿Generan estos vectores R2 ? Formamos la matriz cuyos vectores columna son (2, 1), (4, 2) y (−2, 5), y la escalonamos para calcular el rango:    2 4 −2 F2 ←F2 −(1/2)F1 2 →  1 2 5 0

4 0

−2 6

 .

Vemos que son dos los pivotes de la matriz escalonada obtenida, luego el rango de la matriz es igual a 2. Como consecuencia (§ 306), los tres vectores (2, 1), (4, 2) y (−2, 5) sí generan R2 . Otro ejemplo (continuación)

309

En el ejemplo del § 308, hemos escrito tres generadores de R2 . ¿Po-

dríamos generar este espacio vectorial con solo dos de esos tres vectores? Veamos. Con los vectores (4, 2) y (−2, 5) (estamos descartando el primero de los tres) sí lo conseguimos, pues la matriz que los tiene como vectores columna tiene tango igual a 2:    4 −2 F2 ←F2 −(1/2)F1 4 →  2 5 0

−2 6

 .

III.2. SUBESPACIOS VECTORIALES

¡Compruébelo el lector, por favor!

Por otro lado, si el vector que descartamos es el segundo, también resultan ser generadores de R2 los dos vectores restantes. Pero si el vector descartado es el tercero, sucede algo diferente; la matriz cuyos vectores columna son (2, 1) y (4, 2) tiene rango igual a 1:    2 4 F2 ←F2 −(1/2)F1 2 →  1 2 0

4 0

 ,

luego los vectores (2, 1) y (4, 2) no generan R2 . A la hora de calcular el subespacio que generan los tres vectores (2, 1), (4, 2) y (−2, 5) —en este caso, el propio R2 —, vemos entonces que cualquiera de los dos primeros es superfluo, en el sentido de que sin él los otros dos generan el mismo subespacio que generan todos juntos. En este mismo sentido, el tercer vector es, sin embargo, imprescindible: sin él no conseguimos generar el mismo subespacio que con los tres vectores juntos. Si nos dan unos vectores, ¿hay una forma sencilla de saber cuántos —y cuáles— entre ellos son superfluos en el sentido dado a esta palabra en el párrafo anterior? ¿Y cuántos —y cuáles— son imprescindibles? Responderemos a estas cuestiones en la Sección III.3.

Ejercicios III.2 1

Determinar cuáles de los siguientes conjuntos de

vectores de R3 son subespacios vectoriales de R3 : a)

{(a, b, c)} (para algún vector (a, b, c) de R3 );

b)

{(0, 0, 0), (1, 1, 1)}; ! " (a + b, 2b, a) ! a ∈ R y b ∈ R ; ! " (a + b + 1, 2b, a) ! a ∈ R y b ∈ R ; ! " λ(2, 2, 0) ! λ ∈ R ; ! " (2, 2λ, 0) ! λ ∈ R ; ! " λ(2, 2, 0) + μ(0, 0, 1) ! λ ∈ R y μ ∈ R ; ! " λ(2, 2, 0) + (0, 0, 1) ! λ ∈ R ; ! " λ(2, 2, 0) + (1, 1, 0) ! λ ∈ R ;   L (0, 0, 1), (2, 2, 0) ;   L (0, 0, 0) ; ! " (x, y, z) ∈ R3 ! x + y = z ; ! " (x, y, z) ∈ R3 ! x + y = z y 2y = −2z ; ! " (x, y, z) ∈ R3 ! x + y = 0 y z = 0 ;

c) d) e) f) g) h) i) j) k) l) m) n)

o) p) q) r) s) 2

! " (x, y, z) ∈ R3 ! x + y = 0 y z = 2 ; ! " (x, y, z) ∈ R3 ! x 2 + y = 0 ; ! " (x, y, z) ∈ R3 ! xy + z = 0 ; ! " (x1 , x2 , x3 ) ∈ R3 ! x12 + x22 + x32 = 0 ; ! " (x1 , x2 , x3 ) ∈ R3 ! x12 + 1 = 0 . Encontrar unos generadores de los subespacios

vectoriales de R3 que se hayan señalado en el ejercicio anterior. ¿Cuáles son rectas y cuáles son planos? 3 a)

Los vectores (2, 0, 2), (3, 5, 3) y (5, −1, 5), ¿ge-

neran R3 ? ¿Y los vectores (2, 0, 2) y (3, 5, 3)? b)

Los cuatro vectores (2, 0, 2), (3, 5, 3), (5, −1, 5)

y (0, 0, 1), ¿generan R3 ? En caso afirmativo, si eliminamos alguno de ellos, ¿los que quedan siguen generando R3 ? c) Estudiar, según los valores de a y b, si los vectores (2, 0, 2), (3, 5, a) y (5, −1, b) generan R3 .

III. VECTORES

4

Dados dos conjuntos A y B (cualesquiera, no ne-

5

Dados dos conjuntos A y B de vectores de Rn , se

cesariamente de vectores), los elementos que pertene-

define su suma como el conjunto formado por los vec-

cen a la vez a A y a B constituyen un conjunto que se denomina intersección de los conjuntos A y B, y que

tores que se pueden escribir como suma de un vector de A y un vector de B. Se denota por A + B. Podemos ! " escribir: A + B = a + b ! a ∈ A y b ∈ B .

se denota por A ∩ B. a)

Si A = {1, 2, 3, 4} y B = {2, 4, 6, 8, 10}, escribir el

conjunto A ∩ B. b)

Demostrar que la intersección de dos o más sub-

espacios vectoriales de Rn es un conjunto no vacío que también es un subespacio vectorial de Rn . c)

Dados estos subespacios vectoriales de R3 : ! " G1 = (x, y, z) ∈ R3 ! x + y = 0 , ! " G2 = (x, y, z) ∈ R3 ! x = z ,

escribir un sistema de ecuaciones lineales homogéneo cuyo conjunto de soluciones coincida con G1 ∩ G2 . Encontrar unos generadores de G1 ∩ G2 . d)

Dados estos subespacios vectoriales de R3 :

  F = L (2, 2, 0), (0, 0, 1) y

a)

Si A = {(0, 1), (0, 0)} y B = {(2, 1), (2, 2), (1, 1)},

escribir el conjunto A + B.

  G = L (2, 2, 1), (0, 1, 0) ,

b)

Demostrar que la suma de dos o más subespacios

vectoriales de Rn es un subespacio vectorial de Rn . c)

Dados estos subespacios vectoriales de R3 :

    F = L (2, 2, 0), (0, 0, 1) y G = L (2, 2, 1), (0, 1, 0) , encontrar unos generadores de F + G. d)

Dados estos subespacios vectoriales de R3 : ! " F1 = (x, y, z) ∈ R3 ! x + y = 0 y z = 0 , ! " F2 = (x, y, z) ∈ R3 ! x = z y y = 0 ,

encontrar un sistema de ecuaciones lineales homogé-

encontrar unos generadores de F ∩ G. (Indicación: Es-

neo cuyo conjunto de soluciones coincida con F1 + F2 .

cribir F y G como las soluciones de sendos sistemas de

(Indicación: Calcular unos generadores de cada uno de

ecuaciones lineales homogéneos.)

los subespacios F1 y F2 .)

III.3. INDEPENDENCIA LINEAL

III.3 INDEPENDENCIA LINEAL En esta sección estudiamos la dependencia y la independencia lineal de vectores. Estudiamos también qué es una base y qué es la dimensión de un espacio vectorial, y definimos el rango de unos vectores (que tiene una estrecha relación con el rango de una matriz). Los conceptos de esta sección tratan de formalizar la idea de cuántos vectores, entre unos dados, son “imprescindibles” para determinar el subespacio generado por todos juntos. Terminamos viendo las ecuaciones de un subespacio vectorial.

1. Vectores linealmente dependientes y vectores linealmente independientes Vemos en este apartado los importantes conceptos —uno opuesto del otro— de dependencia lineal e independencia lineal de vectores. Presentamos también los sistemas de vectores.

Definiciones y propiedades Vectores linealmente dependientes (caso de dos vectores)

310

En el § 303 (cf. p. 275), vimos la siguiente propiedad: si tenemos

dos vectores no nulos v 1 y v 2 tales que uno es múltiplo del otro, entonces el subespacio que ambos generan coincide con el que genera cualquiera de       ellos por sí solo: L v 1 , v 2 = L v 1 = L v 2 . Dos vectores en estas condiciones: uno múltiplo del otro, son un caso particular de lo que se denomina vectores linealmente dependientes. Más precisamente: dados dos vectores v 1 y v 2 (nulos o no, ambos de Rn ), decimos que son linealmente dependientes si uno de ellos al menos es combinación lineal del otro (o lo que es lo mismo —por tratarse de combinaciones lineales de un solo vector—: si uno de ellos al menos es múltiplo del otro). Es decir: v 1 y v 2 son linealmente dependientes si v 1 = λv 2 para algún número λ, o si v 2 = μv 1 para algún número μ.

(2, 1, −3) =

1 (4, 2, −6) 2

(4, 2, −6) = 2(2, 1, −3)

Por ejemplo, los vectores (2, 1, −3) y (4, 2, −6) son linealmente dependientes, pues al menos uno de ellos es múltiplo —y por ende combinación lineal— del otro (de hecho, ambos vectores cumplen este requisito). Otro ejemplo: los vectores (2, −3) y (3, 1) no son linealmente dependientes: el primero no es igual a una combinación lineal del segundo (cualquier múltiplo de este último es tal que su primera componente es triple de la segunda, y el primer vector no lo cumple), y el segundo no es igual a una combinación lineal del primero (la justificación sería similar).

III. VECTORES

Un ejemplo y una propiedad: cuando el vector nulo es uno de los vectores

311

Los dos vectores (2, −1) y (0, 0) son linealmente dependientes. ¿Por

qué? Porque el segundo es múltiplo del primero: (0, 0) = 0(2, −1). Si nos dan dos vectores y al menos uno de ellos es nulo, entonces los dos vectores son linealmente dependientes; ello es debido a que el vector nulo es expresable como combinación lineal de cualquier vector: 0 = 0v. Nota bene

Los vectores (2, −1) y (0, 0) son tales que el segundo es múltiplo del

primero, pero no al revés. Para que dos vectores sean linealmente dependientes, se pide que al menos uno sea múltiplo del otro; no se exige que ambos vectores cumplan este requisito. Una propiedad importante

312



Vemos ahora una forma más operativa de expresar el hecho de que

dos vectores sean linealmente dependientes; a saber: afirmar que dos vectores v 1 y v 2 son linealmente dependientes es equivalente a afirmar que la igualdad α1 v 1 + α2 v 2 = 0 se satisface para algunos números α1 y α2 no simultáneamente nulos. Dicho de otra forma: los vectores v 1 y v 2 son linealmente dependientes precisamente si el vector 0 se puede escribir como una combinación lineal de ellos con los coeficientes no todos nulos. Nota bene 0v1 + 0v2 = 0

Dados dos vectores cualesquiera, el vector nulo se puede escribir

como combinación lineal de ellos: basta tomar todos los coeficientes iguales a 0. Para comprobar que los vectores son linealmente dependientes, debemos buscar alguna combinación lineal de ellos igualada al vector nulo que sea distinta de esta descrita, es decir, con algún coeficiente distinto de 0.



Supongamos en primer lugar que los vectores v 1

En segundo lugar, para probar el recíproco, supon-

y v 2 son linealmente dependientes, y comprobemos que existen dos números α1 y α2 , no nulos a la vez,

gamos que α1 v 1 + α2 v 2 = 0 para algunos coeficientes α1 y α2 no simultáneamente nulos, y probemos que

tales que α1 v 1 + α2 v 2 = 0. Por ser linealmente depen-

los vectores v 1 y v 2 son linealmente dependientes. Si

dientes los vectores v 1 y v 2 , se tiene que v 1 = λv 2 para

el coeficiente α1 es no nulo, podemos escribir:

algún número λ, o que v 2 = μv 1 para algún número μ. En el primer caso, podríamos escribir: v 1 − λv 2 = 0, con lo que nos valdrían α1 = 1 y α2 = λ; en el se-

α1 v 1 = −α2 v 2 ,

de donde:

v1 = −

α2 v2 , α1

gundo: μv 1 − v 2 = 0, y podríamos tomar α1 = μ

lo que expresa el vector v 1 como combinación lineal del

y α2 = −1. En ambos casos, conseguimos expresar el

vector v 2 ; si el coeficiente α1 es nulo, entonces α2 no

vector nulo como una combinación lineal de los vectores v 1 y v 2 con al menos un coeficiente distinto de 0.

lo es, y v 2 = 0. En cualquiera de los dos casos, los dos vectores v 1 y v 2 resultan ser linealmente dependientes.

Un ejemplo

313

Veamos un ejemplo de aplicación del resultado estudiado en el

§ 312: ¿son linealmente dependientes los vectores (1, −1, 2) y (−2, 2, −4)?

III.3. INDEPENDENCIA LINEAL

Con un examen detallado, se aprecia que uno es múltiplo del otro —con lo que sí son linealmente dependientes—, pero no dejemos de aplicar el resultado anterior, lo cual, por cierto, nos dará la pauta para responder, un poquito más adelante, preguntas similares con más vectores.  cuyos vectoSi escribimos, distinguiendo la última columna, la matriz A res columna son (1, −1, 2), (−2, 2, −4) y (0, 0, 0), sabemos que cada forma de expresar el vector (0, 0, 0) como una combinación lineal de los vectores (1, −1, 2) y (−2, 2, −4) se corresponde con una solución del sistema de  y viceversa (cf. § 277, p. 255). ecuaciones lineales cuya matriz ampliada es A,  es esta: La matriz A



1 =⎜ A ⎝ −1 2

−2 2 −4

⎞ 0 ⎟ 0⎠, 0

la cual corresponde a un sistema homogéneo (sus términos independientes son todos nulos). Escalonamos la matriz de coeficientes de este sistema homogéneo (como sabemos que se hace con cualquier sistema homogéneo): ⎛ ⎛ ⎛ ⎞ ⎞ ⎞ 1 −2 1 −2 1 −2 ⎜ ⎟ F2 ←F2 +F1 ⎜ ⎟ ⎟ F3 ←F3 −2F1 ⎜ 2 ⎠ → 0⎠. 0 ⎠ →  ⎝0  ⎝0 ⎝ −1 2 −4 0 0 2 −4 La matriz escalonada obtenida solo tiene un pivote, luego el sistema homogéneo —que es de dos incógnitas— tiene infinitas soluciones: es compatible indeterminado. Excepto la nula, cualquiera de estas soluciones nos sirve para escribir el vector (0, 0, 0) como una combinación lineal, con los coeficientes no simultáneamente nulos, de los vectores (1, −1, 2) y (−2, 2, −4). Confirmamos, pues, que estos vectores son linealmente dependientes. Tal sistema es equivalente a una única ecuación lineal homogénea: x1 −2x2 = 0 (escrita en las incógnitas x1 y x2 ), cuyas soluciones son (2λ, λ) para todo número λ.

De hecho, el lector puede comprobar que las soluciones del sistema ho son los pares ordenados de la forma (2λ, λ) mogéneo de matriz ampliada A para algún número λ; tomando como valor de λ cualquier número no nulo, escribimos una combinación lineal como la que buscamos: (0, 0, 0) = 2λ(1, −1, 2) + λ(−2, 2, −4); es decir, una combinación lineal de los vectores (1, −1, 2) y (−2, 2, −4) igualada al vector nulo, y en la que algún coeficiente es no nulo (en este caso, todos).

Vectores linealmente dependientes (caso general)

314

Extendamos la definición de vectores linealmente dependientes a

más vectores. Dados unos vectores (dos o más), decimos que son linealmente dependientes si alguno de ellos se puede escribir como combinación lineal de los demás.

III. VECTORES

Por ejemplo, los tres vectores (2, 1), (4, 2) y (−2, 5) (cf. § 309, p. 278) son linealmente dependientes, pues uno de ellos —nos sirven el primero o el segundo— es igual a una combinación lineal de los demás: (2, 1) = Cuando el vector nulo es uno de los vectores

315

1 (4, 2) + 0(−2, 5) o 2

(4, 2) = 2(2, 1) + 0(−2, 5).

Una propiedad: si entre unos vectores dados está el vector nulo,

entonces tales vectores son linealmente dependientes. Esto es así porque el vector nulo se puede escribir como combinación lineal de cualesquiera

Generalizamos así lo afirmado en el § 311.

vectores: basta tomar los coeficientes correspondientes iguales a 0. Los vectores (4, 2, −3), (0, 0, 0) y (−2, 0, 5) (por poner un ejemplo) son linealmente dependientes: el vector nulo (0, 0, 0) es uno de ellos.

Una propiedad importante que da una definición equivalente

316

La caracterización de la dependencia lineal que vimos en el § 312

para dos vectores se cumple también para una cantidad cualquiera de vectores. Es decir: dados k vectores v 1 , v 2 , . . . , v k (con k  2, y todos de Rn ), estos vectores son linealmente dependientes precisamente si existen k esca-

Recuérdese: escalar ≡ número real.

lares α1 , α2 , . . . , αk , no todos nulos, tales que α1 v 1 + α2 v 2 + · · · + αk v k = 0. La justificación de esta propiedad es análoga a la vista en el citado § 312 para la dependencia lineal de dos vectores. Como veremos enseguida, este resultado permite averiguar de una forma sencilla si unos vectores dados son linealmente dependientes o no; en muchos libros, de hecho, esta propiedad se da como definición de vectores linealmente dependientes.

Un ejemplo

317

Apliquemos el resultado del § 316 para estudiar si son linealmente

dependientes los vectores (1, 2, 3), (3, 2, 1) y (4, 4, 4). Podemos proceder como en el § 313: escribimos la matriz cuyos vectores columna son estos vectores y el vector nulo (0, 0, 0), y examinamos si admite infinitas soluciones (o solo una) el sistema de ecuaciones lineales cuya matriz ampliada es la recién escrita. Pero como ya sabemos que los términos independientes de tal sistema resultan todos nulos, es decir, el sistema es homogéneo, trabajamos solo con su matriz de coeficientes, que en este caso es, simplemente, la que tiene por vectores columna los tres vectores dados: (1, 2, 3), (3, 2, 1) y (4, 4, 4). Escribimos y escalonamos esta matriz: ⎛

1 ⎜ ⎝2 3

3 2 1

⎞ ⎛ F2 ←F2 −2F1 4 1 ⎟ F3 ←F3 −3F1 ⎜ 4 ⎠ →  ⎝ 0 4 0

3 −4 −8

⎛ ⎞ 4 1 ⎟ F3 ←F3 −2F2 ⎜ −4 ⎠ →  ⎝0 0 −8

3 −4 0

⎞ 4 ⎟ −4 ⎠ . 0

Obtenemos dos pivotes, menos que el número de incógnitas del sistema —el cual sería tres, pues son tres las columnas de la matriz de coeficientes que

III.3. INDEPENDENCIA LINEAL

hemos obtenido—, luego se trata de un sistema compatible indeterminado. Enfaticemos lo siguiente: decir que un vector (en particular, una terna) es no nulo es tanto como decir que alguna de sus componentes es distinta de 0. Otro ejemplo

Hay, pues, infinitas soluciones; cualquiera de ellas distinta de la nula nos proporciona una terna de coeficientes, no todos nulos, para escribir el vector (0, 0, 0) como una combinación lineal de los vectores (1, 2, 3), (3, 2, 1) y (4, 4, 4). Estos vectores son, entonces, linealmente dependientes. 318

Consideremos estos tres vectores de R4 : (1, −2, 0, 1), (2, −3, 1, 0)

y (2, 0, 0, −2). ¿Son linealmente dependientes? Trabajando como en el § 317, escribimos la matriz cuyos vectores columna son los vectores dados, la cual denotamos por A, y la escalonamos: ⎛ ⎛ ⎞ ⎞ 1 2 2 1 2 2 F ←F +2F 1 ⎜ ⎜ ⎟ 2 2 ⎟ ⎜ −2 −3 ⎜0 0⎟ 1 4⎟ 4 −F1 ⎜ ⎟ F4←F ⎟ A=⎜                          →   ⎜ 0 ⎜0 1 0⎟ 1 0⎟ ⎝ ⎝ ⎠ ⎠ 1 0 −2 0 −2 −4 ⎛ ⎞ 1 2 2 F3 ←F3 −F1 ⎜ ⎟ 4⎟ 0 1 F4 ←F4 +2F2 ⎜ ⎟ →  ⎜ ⎜ 0 0 −4 ⎟ ⎝ ⎠ 0 0 4 ⎛ ⎞ 1 2 2 ⎜ ⎟ 4⎟ 0 1 F4 ←F4 +F3 ⎜ ⎜ ⎟. →  ⎜ ⎟ ⎝ 0 0 −4 ⎠ 0 0 0 La matriz escalonada obtenida tiene tres pivotes, tantos como columnas, luego el sistema de ecuaciones lineales homogéneo cuya matriz de coeficientes es la matriz A es compatible determinado: solo admite una solución, que es la nula. No hay forma, entonces, de escribir el vector (0, 0, 0) como una combinación lineal de los tres vectores dados de forma que alguno de los coeficientes sea distinto de 0. Los tres vectores (1, −2, 0, 1), (2, −3, 1, 0) y (2, 0, 0, −2) no son, pues, linealmente dependientes. Una propiedad relacionada con los generadores de un subespacio

319

Si tenemos unos vectores que son linealmente dependientes, enton-

ces entre ellos hay alguno superfluo (quizá más de uno) a la hora de calcular el subespacio generado por todos. Más concretamente: dados unos vectores linealmente dependientes, sabemos que —por definición— hay al menos uno entre ellos que es igual a una combinación lineal de los demás; precisamente este vector es tal que, si lo “eliminamos”, los que quedan generan el mismo subespacio que generan todos juntos.

En el § 310, se recordó lo visto en el § 303 (cf. p. 275).

Esta propiedad generaliza, para una cantidad cualquiera de vectores (nulos o no), el resultado recordado en el § 310 para dos vectores no nulos.

III. VECTORES

Para justificar la propiedad anterior, vale la pena

y por ende de sí mismo y cualesquiera vectores que

traer a colación el § 284 (cf. p. 262) y el § 285

le adjuntemos (§ 285).

(cf. p. 263), con sendos resultados sobre combinaciones

sultado del § 284, cualquier vector que sea igual a

lineales. Dados k vectores v 1 , v 2 , . . . , v k (todos de Rn ), supongamos que uno de ellos, verbigracia el último, es

una combinación lineal de v 1 , v 2 , . . . , v k se podrá escribir como una combinación lineal de v 1 , v 2 , . . . , v k−1 .     Esto prueba que L v 1 , v 2 , . . . , v k ⊆ L v 1 , v 2 , . . . , v k−1 .

igual a una combinación lineal de los restantes.

Recíprocamente, se tiene que cualquier combinación li-

De

Como consecuencia del re-

cada uno de los vectores v 1 , v 2 , . . . , v k podemos de-

neal de los vectores v 1 , v 2 , . . . , v k−1 se puede escribir

cir que es igual a una combinación lineal solo de los

a su vez como una combinación lineal de los vec-

vectores v 1 , v 2 , . . . , v k−1 : en el caso del último: v k ,

tores v 1 , v 2 , . . . , v k (§ 285). Ello demuestra el otro     contenido: L v 1 , v 2 , . . . , v k−1 ⊆ L v 1 , v 2 , . . . , v k .     En definitiva: L v 1 , v 2 , . . . , v k = L v 1 , v 2 , . . . , v k−1 .

de acuerdo con lo supuesto; en el caso de los demás, porque un vector es combinación lineal de sí mismo,

A modo de ejemplo, recordemos los tres vectores con los que trabajamos en el § 309 (cf. p. 278): (2, 1), (4, 2) y (−2, 5). Vimos allí que los tres vectores juntos generan R2 , y que si descartamos el primero o el segundo, los dos que quedan también generan R2 . Gracias al resultado anterior, vemos aquí una confirmación de todo ello, porque tanto el primer vector de los tres como el segundo cumplen el ser iguales a alguna combinación lineal de los demás (escribimos una para cada uno en el § 314, al apuntar que eran linealmente dependientes). Esto es, como el vector (2, 1) resulta ser igual a una combinación lineal de los vectores (4, 2) y (−2, 5), podemos escri    bir: L (2, 1), (4, 2), (−2, 5) = L (4, 2), (−2, 5) , y lo mismo podemos escribir, mutatis mutandis, sobre el vector (4, 2). Es de observar que entre los vectores (4, 2) y (−2, 5), o entre los vectores (2, 1) y (−2, 5), ya no sobra ninguno, en el sentido de que si falta cualquiera, el que queda no puede generar lo mismo que los dos juntos, que Cf. § 306, p. 277. Vectores linealmente independientes

es R2 : para generar el espacio vectorial Rn hacen falta al menos n vectores. 320

Decimos que unos vectores (dos o más) son linealmente indepen-

dientes si no son linealmente dependientes. Es decir, dados unos vectores, todos de Rn , decimos que son linealmente independientes si ninguno de ellos se puede escribir como combinación lineal de los demás. Por ejemplo, los vectores (2, −3) y (3, 1) son linealmente independien-

Vemos cuándo dos vectores son linealmente independientes. . .

tes: en el § 310 comprobamos que ninguno de ellos es combinación lineal —o bien, múltiplo— del otro. En general, dos vectores son linealmente independientes precisamente si ninguno de ellos es múltiplo del otro. Los tres vectores (1, −2, 0, 1), (2, −3, 1, 0) y (2, 0, 0, −2) son linealmente independientes: en el § 318 vimos que no son linealmente dependientes.

III.3. INDEPENDENCIA LINEAL

Cuando el vector nulo es uno de los vectores

321

De acuerdo con la propiedad vista en el § 315, si nos dan unos vecto-

res y alguno de ellos es nulo, entonces los vectores dados no son linealmente independientes.

Tres vectores que escribimos en el citado § 315. Definición equivalente y método práctico

El simple hecho de que uno de los vectores (4, 2, −3), (0, 0, 0) y (−2, 0, 5) sea nulo hace que los tres no sean linealmente independientes. 322

El resultado del § 316 tiene un correspondiente inmediato para vec-

tores linealmente independientes; a saber: dados k vectores v 1 , v 2 , . . . , v k (con k  2, y todos de Rn ), estos vectores son linealmente independientes precisamente si la igualdad vectorial α1 v 1 + α2 v 2 + · · · + αk v k = 0 es verificada solamente para los escalares nulos: α1 = α2 = . . . = αk = 0. Es decir, los vectores v 1 , v 2 , . . . , v k (en cantidad k  2) son linealmente independientes precisamente si de la igualdad α1 v 1 + α2 v 2 + · · ·+ αk v k = 0 se deduce necesariamente que α1 = α2 = . . . = αk = 0. Como acontecía con el resultado correspondiente para dependencia lineal, esta caracterización de los vectores linealmente independientes es la definición de independencia lineal en muchos libros, y también establece una manera sencilla de determinar si unos vectores dados son linealmente independientes o no. A la vista de los ejemplos de los § 313, 317 y 318, el procedimento para ello sería el siguiente. Se escribe la matriz cuyos vectores columna son los vectores dados, y se escalona, con el fin de discutir el sistema de ecuaciones lineales homogéneo cuya matriz de coeficientes es la matriz escrita. Si tal sistema resulta compatible indeterminado, los vectores son linealmente dependientes (por ejemplo, los del § 313, y también los del § 317), pues cada solución no nula del sistema señala una manera de expresar el vector nulo como una combinación lineal de los vectores dados de modo que no todos los coeficientes sean iguales a 0. Por el contrario, si el sistema homogéneo es compatible determinado, los vectores son linealmente independientes (verbigracia, los del § 318 —que fueron recordados en el § 320—): el hecho de que la única solución del sistema sea la nula indicaría que solamente con todos los coeficientes iguales a 0 conseguimos expresar el vector nulo como una combinación lineal de los vectores dados. Ahora bien, un sistema de ecuaciones lineales homogéneo es compatible indeterminado si su matriz de coeficientes tiene rango menor que el número de columnas, y es compatible determinado si tal rango es igual al número de columnas (cf. § 178, p. 172). En el caso del sistema que venimos considerando, con matriz de coeficientes la matriz cuyos vectores columna son los vectores dados, el número de columnas es justamente el número de vectores.

III. VECTORES

En definitiva, podemos afirmar: Dados unos vectores, se forma la matriz que los tiene como vectores columna. Si la matriz tiene rango menor que el número de vectores, entonces los vectores son linealmente dependientes; si tiene rango igual al número de vectores, entonces los vectores son linealmente independientes. Un ejemplo

323

Estudiemos, según los valores del parámetro a, si son linealmente

dependientes o independientes los vectores (1, 1, −1), (1, 0, 0) y (1, −1, a). De acuerdo con el resultado establecido en el § 322, escribamos la matriz cuyos vectores columna son los tres vectores dados, y calculemos su rango. Al escribirla y escalonarla, nos queda: ⎛ ⎛ ⎛ ⎞ ⎞ F2 ←F2 −F1 1 1 1 1 1 1 1 ⎜ ⎟ F3 ←F3 +F1 ⎜ ⎟ F3 ←F3 +F2 ⎜  ⎝ 0 −1 −2 ⎠ →  ⎝0 ⎝ 1 0 −1 ⎠ → −1 0 a 0 0 1 a+1

1 −1 0

⎞ 1 ⎟ −2 ⎠ . a−1

La matriz escalonada obtenida tiene al menos dos pivotes. Presenta un tercero o no según sea a− 1 distinto de 0 o igual a 0, respectivamente, es decir, según sea a ≠ 1 o a = 1, respectivamente. Si hay tres pivotes, el rango de la matriz coincide con el número de vectores, y los tres vectores dados son linealmente independientes; si hay dos pivotes, el rango es menor que el número de vectores, y los vectores son linealmente dependientes. Es decir: • si a ≠ 1, los vectores (1, 1, −1), (1, 0, 0) y (1, −1, a) son linealmente independientes; • si a = 1, los vectores (1, 1, −1), (1, 0, 0) y (1, −1, a) son linealmente dependientes. Cuando tenemos un solo vector

324

En principio, no hemos definido la dependencia o la independencia

lineal para un solo vector. Lo hacemos ahora: un solo vector es linealmente dependiente si es nulo, y es linealmente independiente si es no nulo. Por ejemplo, el vector (0, 0, 0) es linealmente dependiente, pero el vector (1, −3) es linealmente independiente. La propiedad de la dependencia lineal que vimos en el § 316, y también la de la independencia lineal que vimos en el § 322, sigue siendo válida para un solo vector, de forma que podemos afirmar: dados k vectores v 1 , v 2 , . . . , v k (con la cantidad k ahora mayor o igual que 1), estos vectores son linealmente dependientes precisamente si existen k escalares α1 , α2 , . . . , αk , no simultáneamente nulos, tales que α1 v 1 + α2 v 2 + · · · + αk v k = 0; y son linealmente independientes precisamente si esta igualdad es verificada solamente con los k escalares α1 , α2 , . . . , αk iguales a 0: α1 = α2 = . . . = αk = 0.

III.3. INDEPENDENCIA LINEAL

Una propiedad importante de los vectores que son linealmente independientes

325

Dados unos vectores linealmente independientes, cualquier vector

que sea combinación lineal de ellos lo es de forma única. Queremos decir lo siguiente: dados unos vectores v 1 , v 2 , . . . , v k que son linealmente independientes, si un vector w es combinación lineal de ellos, entonces los coeficientes α1 , α2 , . . . , αk tales que w = α1 v 1 + α2 v 2 + · · · + αk v k son únicos. Escrito de otra forma: si w es un vector del subespacio generado por unos vectores linealmente independientes v 1 , v 2 , . . . , v k , entonces existen unos únicos escalares α1 , α2 , . . . , αk tales que w = α1 v 1 +α2 v 2 +· · ·+αk v k .

Para justificar la propiedad, consideramos k vecto-

de tal sistema tiene rango igual al número de sus co-

res v 1 , v 2 , . . . , v k linealmente independientes y un vec-

lumnas (§ 322), que es k, igual al número de incógnitas

tor w que es combinación lineal de ellos. Si escribimos

del sistema. Si un sistema que admite solución es tal

la matriz cuyos vectores columna son v 1 , v 2 , . . . , v k

que el rango de su matriz de coeficientes es igual al

y w, esta matriz es la ampliada de un sistema de ecuaciones linales, con k incógnitas, que admite solución

número de incógnitas, tal sistema es compatible determinado (cf. § 174, p. 168): la solucion es única. Solo hay

(cf. § 277, p. 255). Como los vectores v 1 , v 2 , . . . , v k son

una forma, pues, de expresar el vector w como combi-

linealmente independientes, la matriz de coeficientes

nación lineal de los vectores v 1 , v 2 , . . . , v k .

Por ejemplo, los vectores (2, −3) y (3, 1) son linealmente independientes (§ 320), y el vector (1, −7) se puede escribir como una combinación lineal de ellos: (1, −7) = 2(2, −3) − 1(3, 1). Se tiene que estos coeficientes son únicos: si (1, −7) = α(2, −3) + β(3, 1), entonces necesariamente α = 2   y β = −1. Dado cualquier vector del subespacio L (2, −3), (3, 1) , son únicos los coeficientes que permiten escribirlo como combinación lineal de los vectores (2, −3) y (3, 1). Enunciamos la propiedad anterior de esta forma: Dados unos vectores v 1 , v 2 , . . . , v k linealmente independientes, cualquier   vector del subespacio L v 1 , v 2 , . . . , v k se puede escribir de una única manera como combinación lineal de los vectores v 1 , v 2 , . . . , v k . Una propiedad relacionada con los generadores de un subespacio (continuación del § 319)

326

Como contrapartida de la propiedad que enunciamos en el § 319,

podemos afirmar que, a la hora de calcular el subespacio generado por unos vectores linealmente independientes, ninguno de ellos es superfluo. Es decir: si nos dan unos vectores que son linealmente independientes, entonces cada uno de ellos es imprescindible en el sentido de que, si lo “eliminamos”, los restantes no generan el mismo subespacio que generan todos juntos.

III. VECTORES

Para verlo, nos dan k vectores v 1 , v 2 , . . . , v k linealmente independientes. Si aconteciera que “sobra” uno

y en particular el mismo vector v k sería un elemento   de L v 1 , v 2 , . . . , v k−1 . Pero esto último sería tanto

(en el sentido explicitado en el párrafo anterior), ponga-

como decir que el vector v k es igual a una combinación

mos el último: v k , podríamos escribir la igualdad (en    tre subespacios) L v 1 , v 2 , . . . , v k = L v 1 , v 2 , . . . , v k−1 ,

lineal de los vectores v 1 , v 2 , . . . , v k−1 , en contradicción con que todos son linealmente independientes.

Por ejemplo, en el § 304 (cf. p. 276) comprobamos la siguiente afirmación: dados dos vectores no nulos tales que ninguno de ellos es múltiplo ¿Recta? Recordemos: subespacio vectorial generado por un vector no nulo; es decir,   de la forma L v para algún vector no nulo v (cf. § 302, p. 275).

del otro, el subespacio generado por ambos —lo que se llama un plano— no es una recta. Otra forma de decir lo mismo es esta: dados dos vectores linealmente independientes, el subespacio generado por ambos no es igual a un subespacio generado por un único vector no nulo. En particular, si v 1   y v 2 son dos vectores linealmente independientes, el subespacio L v 1 , v 2     es distinto de cualquiera de los subespacios L v 1 y L v 2 . Ello confirma la propiedad anterior: los dos vectores linealmente independientes v 1 y v 2 son imprescindibles cuando queremos calcular el subespacio que ambos generan.

Sistemas de vectores Sistemas de vectores

327

En algunas ocasiones, resulta cómodo referirse a varios vectores

juntos como un todo; ello motiva la definición de sistema de vectores. Un sistema de vectores es una lista, o colección, finita ordenada de vectores de un mismo espacio vectorial. Más en concreto, dados unos vecAquí: k  1.

tores v 1 , v 2 , . . . , v k de Rn , estos vectores, en este mismo orden, forman   un sistema de vectores de Rn , el cual se escribe así: v 1 , v 2 , . . . , v k . A veces denotaremos los sistemas de vectores con letras mayúsculas en negrita,   como S o B; podríamos escribir, por ejemplo: S = v 1 , v 2 , . . . , v k . Verbigracia, los vectores (2, −3) y (3, 1) (cf. § 310, p. 281), en este mismo   orden, forman el sistema de vectores (2, −3), (3, 1) , de R2 . Y los vectores (1, −2, 0, 1), (2, −3, 1, 0) y (2, 0, 0, −2) (§ 318), en este orden, forman el   sistema de vectores (1, −2, 0, 1), (2, −3, 1, 0), (2, 0, 0, −2) , esta vez de R4 . En principio, el orden en que figuran escritos los vectores de un sistema   de vectores es relevante. Por ejemplo, el sistema (2, −3), (3, 1) del párrafo   anterior no se considera el mismo que el sistema (3, 1), (2, −3) . También debe notarse que la definición de sistema de vectores no impide que figuren en un sistema algunos vectores repetidos. Por ejemplo, po    dríamos considerar los sistemas (2, −3), (3, 1), (3, 1) o (3, 1), (3, 1) .

III.3. INDEPENDENCIA LINEAL

Sistemas ligados y sistemas libres

328

Dado un sistema de vectores, decimos que es un sistema ligado si

los vectores que lo forman son linealmente dependientes; y decimos que es un sistema libre si tales vectores son linealmente independientes.   Por ejemplo, podemos afirmar que los sistemas (2, 1), (4, 2), (−2, 5)   y (1, 2, 3), (3, 2, 1), (4, 4, 4) —el primero de vectores de R2 y el segundo de vectores de R3 — son sistemas ligados (§ 314 y 317). Por el contrario, los sis    temas (2, −3), (3, 1) y (1, −2, 0, 1), (2, −3, 1, 0), (2, 0, 0, −2) son sistemas libres (§ 320).

Cuando en un sistema figura el vector nulo, y otras propiedades

329

Si en un sistema de vectores figura el vector nulo, entonces el sis-

tema es ligado, pues unos vectores entre los que se encuentre el vector nulo son linealmente dependientes (§ 314). Por otra parte, si en un sistema de vectores figuran vectores repetidos, entonces el sistema también es ligado (de cualquiera de los vectores repeti-

¿Ve el lector por qué?

dos podemos afirmar que es igual a una combinación lineal de los demás). También, de acuerdo con el § 322, podemos afirmar: Si nos dan un sistema de vectores y escribimos la matriz que tiene como vectores columna los vectores que forman el sistema, entonces el sistema es libre si la matriz tiene rango igual al número de vectores, y es ligado si tal rango es menor que el número de vectores.

Un ejemplo

330

Para practicar, estudiemos según los valores de los parámetros a   y b si es libre o ligado el sistema S = (1, 1, 0, 1), (−1, 0, 1, −2), (0, a, b, 1) . Formamos la matriz cuyos vectores columna son los vectores del sistema, y la escalonamos para calcular su rango: ⎛ ⎞ ⎛ ⎛ ⎞ 1 −1 0 1 −1 0 1 F ←F −F F ←F −F 2 2 1 3 3 2 ⎜ ⎟ ⎜ ⎜ ⎟ ⎜1 ⎟ F4 ←F4 −F1 ⎜ 0 ⎟ F4 ←F4 +F2 ⎜ 0 0 a 1 a ⎜ ⎟ → ⎟ →  ⎜  ⎜ ⎜0 ⎜0 ⎜0 1 b⎟ 1 b⎟ ⎝ ⎠ ⎝ ⎝ ⎠ 1 −2 1 0 0 −1 1

−1 1 0 0

⎞ 0 ⎟ a ⎟ ⎟. b−a⎟ ⎠ a+1

Si a + 1 = 0, la última fila de la matriz recién obtenida es nula, y vemos que esta matriz presenta un tercer pivote precisamente si b−a ≠ 0; es decir: si a = b = −1, hay dos pivotes; si a = −1 y b ≠ −1, hay tres. ¿Y si a ≠ −1? Seguimos escalonando (lo primero, intercambiando las filas tercera y cuarta): ⎛ ⎛ ⎞ 1 −1 0 1 ⎜ ⎜ ⎟ ⎜0 ⎟ F3 ↔F4 ⎜ 0 1 a ⎜ ⎟ →  ⎜ ⎜0 ⎜0 0 b − a⎟ ⎝ ⎝ ⎠ 0 0 a+1 0

−1 1 0 0

⎛ ⎞ 0 1 ⎜ ⎟ b−a F4 ←F4 − a+1 F3 ⎜ 0 a ⎟ ⎟ →  ⎜ ⎜0 a+1⎟ ⎝ ⎠ 0 b−a

−1 1 0 0

⎞ 0 ⎟ a ⎟ ⎟, a + 1⎟ ⎠ 0

III. VECTORES

lo que nos lleva a una matriz escalonada con tres pivotes, y ello independientemente del valor de b. Esto es: si a ≠ −1, hay tres pivotes cualquiera que sea b. Cuando el número de pivotes coincide con el de vectores, el sistema que estos forman es libre; cuando es menor, el sistema es ligado. En resumen: • si a = b = −1, el sistema S es ligado; • si a = −1 y b ≠ −1, o si a ≠ −1 (y b es cualquier número), el sistema S es libre. Otro ejemplo: el sistema formado por los vectores columna de una matriz identidad es libre

331

En el § 307 (cf. p. 278) hablamos de los vectores columna de la

matriz identidad In . El sistema que estos vectores forman es el siguiente: 

 (1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, 0, . . . , 1) .

Como la propia matriz In tiene rango igual a n, este sistema es libre (§ 329). Lo enfatizamos: los vectores columna de la matriz identidad son linealmente independientes. Por ejemplo, para n = 2 el sistema formado por los vectores columna   de la matriz identidad I2 toma la forma: (1, 0), (0, 1) ; para n = 3, el de   los vectores columna de la matriz I3 es (1, 0, 0), (0, 1, 0), (0, 0, 1) . Se trata, entonces, de sistemas libres. Sistemas de un solo vector

332

¿Se puede hablar de sistemas formados por un solo vector? Desde     luego; por ejemplo: (0, 0) , o (1, 9, −3, 0) . Se verifica que un sistema formado por un solo vector es ligado o libre según sea tal vector nulo o no, respectivamente (§ 324). Más en concreto:   un sistema formado por un solo vector: v , es ligado si v = 0, y es libre     si v ≠ 0. El sistema (0, 0) es ligado, y el sistema (1, 9, −3, 0) es libre. Nótese que el resultado del § 329 —el cual relaciona el que un sistema de vectores sea libre o ligado con el rango de la matriz cuyos vectores columna son los vectores del sistema— es válido también para sistemas con un solo vector.

Una propiedad: ¿qué ocurre cuando adjuntamos un vector a un sistema libre? Nótese que si a un sistema de vectores (libre o ligado) se le adjunta un vector que sí es combinación lineal de los vectores del sistema, entonces el nuevo sistema es ligado.

333

Si a un sistema de vectores que es libre le adjuntamos un vector que

no es igual a una combinación lineal de los vectores del sistema, entonces el   sistema nuevo también es un sistema libre. En símbolos: si v 1 , v 2 , . . . , v k es un sistema libre de vectores (de Rn ) y w es un vector (también de Rn ) que no es igual a una combinación lineal de los vectores v 1 , v 2 , . . . , v k , entonces   el sistema w, v 1 , v 2 , . . . , v k es a su vez libre. Para comprobarlo, escribamos una combinación lineal de los vectores w, v 1 , v 2 , . . . , v k igualada al vector nulo, y veamos que los coeficientes de la

III.3. INDEPENDENCIA LINEAL

combinación lineal son necesariamente iguales a 0 (§ 322). Escribimos entonces: βw + α1 v 1 + α2 v 2 + · · · + αk v k = 0.

(8)

Observemos que si β fuera distinto de 0, podríamos escribir que w es igual a −(1/β)(α1 v 1 + α2 v 2 + · · · + αk v k ), lo que sería afirmar que w es igual a alguna combinación lineal de v 1 , v 2 , . . . , v k , en contra de lo supuesto. La igualdad (8) toma entonces la forma: α1 v 1 + α2 v 2 + · · · + αk v k = 0, pero de aquí se deduce que α1 = α2 = . . . = αk = 0, pues los vectores α1 , α2 , . . . , αk mismos ya son linealmente independientes.   Por ejemplo, el sistema (1, 0, 1), (2, 0, −1) es libre (ninguno de sus vectores es múltiplo del otro), y el vector (0, 1, 0) no es igual a una combinación

Animamos al lector a comprobarlo directamente. Manipulaciones en un sistema de vectores

lineal de sus vectores (cualquier combinación lineal de ellos no dejará de   tener nula su segunda componente): el sistema (1, 0, 1), (2, 0, −1), (0, 1, 0) también es libre. 334

Dado un sistema de vectores, estamos interesados (al menos para

fines teóricos) en llevar a cabo ciertas “manipulaciones” entre los vectores que lo forman. En concreto: intercambiar dos vectores, multiplicar un vector por un número no nulo, y sumar a un vector un múltiplo de otro.   Por ejemplo, partiendo de un sistema de vectores como v 1 , v 2 , v 3 ,   hablamos de obtener sistemas de vectores como v 3 , v 2 , v 1 (intercambio   de vectores), o v 1 , 4v 2 , v 3 (producto de un vector por un número no nulo),   o v 1 , v 2 , v 3 + 2v 1 (suma a un vector de un múltiplo de otro). Aplicar cualquiera de estas manipulaciones a un sistema de vectores nos lleva a otro sistema del mismo tipo que el de partida: si el primero es ligado, el segundo también; si el primero es libre, el segundo también.

Dado un sistema de vectores, si nos fijamos con cuidado en la matriz cuyos vectores columna son los

mente, la suma a un vector de un múltiplo de otro toma la forma de la suma a una columna de la matriz de un

vectores del sistema, vemos que las manipulaciones

múltiplo de otra. En resumen: las tres manipulaciones

que hagamos con los vectores tienen un correlato in-

de los vectores de un sistema en las que nos estamos

mediato como transformaciones entre las columnas de

fijando se corresponden con transformaciones elemen-

la matriz. En concreto: un intercambio de dos vecto-

tales por columnas (cf. § 212, p. 199) en la matriz que

res del sistema se traduce en un intercambio de dos

tiene como vectores columna los vectores del sistema.

columnas de la matriz; el producto de un vector por un

Como las transformaciones elementales por columnas

número no nulo se corresponde con el producto de una

conservan el rango (cf. § 218, p. 203), se sigue el resul-

columna de la matriz por el número no nulo; y, final-

tado aplicando la propiedad vista en el § 329.

III. VECTORES

Sistema de generadores

335

También resulta cómodo hablar de los generadores de un subes-

pacio vectorial (cf. § 299, p. 274) como vectores de un sistema. Dados un subespacio vectorial y un sistema de vectores, diremos que el sistema es un sistema de generadores del subespacio vectorial si los vectores que lo forman generan el subespacio vectorial.   Si S = v 1 , v 2 , . . . , v k , tam  bién pondremos L S para de  signar L v 1 , v 2 , . . . , v k .

En símbolos: si F es un subespacio vectorial de Rn , diremos que un sis  tema de vectores v 1 , v 2 , . . . , v k es un sistema de generadores del subespacio vectorial F si los vectores v 1 , v 2 , . . . , v k son unos generadores de F ,   es decir, si L v 1 , v 2 , . . . , v k = F . Si recordamos los ejemplos de generadores que hemos visto hasta ahora, tenemos inmediatamente ejemplos de sistemas de generadores. Así, pode  mos decir que el sistema (1, −1, 2), (2, 0, 4) es un sistema de generadores ! " del subespacio vectorial (x1 , x2 , x3 ) ∈ R3 ! x3 − 2x1 = 0 (véase el citado   § 299). Asimismo (cf. § 305, p. 277), el sistema (1, 1, 0), (2, 0, 1), (3, 1, 0) es   un sistema de generadores de R3 . A su vez, el sistema (2, 1), (4, 2), (−2, 5) es de generadores de R2 (cf. § 308, p. 278), y también lo son los siste    mas (4, 2), (−2, 5) y (2, 1)(−2, 5) (cf. § 309, p. 278). Un último ejemplo: de acuerdo con lo que vimos en el § 307 (cf. p. 278), el sistema formado por los vectores columna de la matriz identidad In : 

 (1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, 0, . . . , 1) ,

es un sistema de generadores de Rn . Una propiedad de los sistemas de generadores

336

Dado un sistema de generadores de un subespacio vectorial, pode-

mos ejecutar en él alguna de las manipulaciones que llevábamos a cabo en el § 334: intercambiar dos vectores, multiplicar un vector por un número no nulo, y sumar a un vector un múltiplo de otro. Al hacerlo, el nuevo sistema obtenido es también un sistema de generadores del mismo subespacio vectorial.

Consideremos un sistema de vectores S, y denotemos por T el sistema que se obtiene al ejecutar en el sistema S alguna de las manipulaciones citadas. Que    remos comprobar que L S = L T .   Un vector v pertenece al subespacio L S precisa-

vector columna el vector v (cf. § 277, p. 255).

De

la misma manera, el vector v pertenece al subespa  cio L T precisamente si admite solución el sistema de ecuaciones lineales cuya matriz de coeficientes es la que tiene por vectores columna los vectores de T , y

mente si admite solución el sistema de ecuaciones li-

cuya matriz de términos independientes es la que tiene

neales cuya matriz de coeficientes es la que tiene por

como vector columna el vector v. Si nos fijamos bien en

vectores columna los vectores del sistema S, y cuya matriz de términos independientes es la que tiene como

ambas matrices de coeficientes, una se puede obtener de la otra mediante la aplicación de alguna transfor-

III.3. INDEPENDENCIA LINEAL

talles sobre este punto en la demostración vista en el

  valente a afirmar que v es un elemento de L T . En     definitiva: L S = L T .

§ 334). Las matrices de coeficientes de los dos sistemas de ecuaciones lineales descritos tienen, pues, el mismo

Nota bene

mación elemental por columnas (recuérdense los de-

rango, y lo mismo acontece con sus matrices ampliadas. Que uno de los sistemas de ecuaciones lineales tenga solución es tanto como afirmar que la tiene el   otro. Así, afirmar que v es un elemento de L S es equi-

Los dos sistemas de ecuaciones lineales

descritos no son necesariamente equivalentes (una solución de uno no tiene por qué serlo del otro), pero sí son del mismo tipo en lo que a su discusión se refiere.



2. Bases y dimensión de un subespacio vectorial Este apartado presenta las bases de un espacio vectorial y define el concepto de dimensión. Con este último se formaliza en cierta manera la idea de cuán grande es un subespacio vectorial.

Bases Base

337

En las páginas anteriores, hemos hablado de dos tipos de sistemas

de vectores que tienen propiedades muy interesantes: los sistemas de generadores y los sistemas libres. Ahora estudiamos los sistemas de vectores que cumplen a la vez ambos requisitos. Una base de un subespacio vectorial es un sistema de vectores tal que los vectores que lo forman generan el subespacio vectorial y además son linealmente independientes. En símbolos: si F es un subespacio vectorial   de Rn , y B = v 1 , v 2 , . . . , v k es un sistema de vectores de F , diremos que el   O bien: L B = F .

sistema B es una base del subespacio vectorial F si B cumple estos dos re  quisitos: es un sistema de generadores de F (es decir: L v 1 , v 2 , . . . , v k = F), y es libre (o lo que es lo mismo: los vectores v 1 , v 2 , . . . , v k son linealmente independientes).

  Por ejemplo, el sistema (4, 2), (−2, 5) es una base de R2 : es un sistema

de generadores de R2 (§ 335), y es un sistema libre (tiene dos vectores y ninguno es múltiplo del otro). Unos ejemplos

338

En el § 299 (cf. p. 274), vimos que los vectores (1, −1, 2) y (2, 0, 4) ! " generan el subespacio vectorial (x1 , x2 , x3 ) ∈ R3 ! x3 − 2x1 = 0 , que vamos a denotar por F . Como tales vectores son linealmente independientes (son dos, y ninguno es múltiplo del otro), podemos decir que el sis  tema (1, −1, 2), (2, 0, 4) es una base del subespacio vectorial F . También, esta vez en el § 300 (cf. p. 274), comprobamos que el subes! " (x, y, z) ∈ R3 ! x − y + z = 0 y x + z = 0 está generado

pacio vectorial

III. VECTORES

  por el vector (−1, 0, 1). Como este vector es no nulo, el sistema (−1, 0, 1) es libre (§ 332), y resulta ser entonces una base del subespacio vectorial. Bases de Rn

339

Nos dan un subespacio vectorial de Rn y un sistema de vectores del

subespacio vectorial. ¿Cómo podemos determinar, de una forma razonablemente sencilla, si el sistema de vectores dado es una base del subespacio vectorial? Damos aquí una respuesta cuando el subespacio vectorial es el mismo Rn . En primer lugar, el sistema de vectores que nos han dado debe ser un sistema de generadores de Rn . Sabemos que una condición necesaria y suficiente para que unos vectores de Rn generen Rn es que la matriz que los tiene como vectores columna tenga rango igual a n (cf. § 306, p. 277). En segundo lugar, el sistema de vectores debe ser libre, y un sistema de vectores es libre si la matriz cuyos vectores columna son los vectores del sistema tiene rango igual al número de vectores (§ 329). Aunando ambas condiciones, podemos afirmar: Una condición necesaria y suficiente para un sistema de vectores de Rn sea una base de Rn es que esté formado por n vectores tales que el rango de la matriz que los tiene como vectores columna sea igual a n. Un ejemplo

340

  ¿Es el sistema de vectores S = (0, 1, 1), (2, 0, 0), (0, −1, 0) una base

de R3 ? De acuerdo con lo afirmado en el § 339, formemos la matriz cuyos vectores columna son los vectores del sistema S y calculemos su rango. Nos queda: ⎛

0 ⎜ ⎝1 1

2 0 0

⎞ ⎛ 0 1 ⎟ F1 ↔F2 ⎜ −1 ⎠ →  ⎝0 0 1

0 2 0

⎛ ⎞ 1 −1 ⎟ F3 ←F3 −F1 ⎜ 0 ⎠ →  ⎝0 0 0

0 2 0

⎞ −1 ⎟ 0⎠. 1

Como la matriz escalonada obtenida tiene tres pivotes, el rango de la matriz original es igual a 3, y el sistema de vectores S es una base de R3 . Otro ejemplo

341

¿Para qué valores del parámetro a es una base de R2 el sistema de   vectores (1, a), (a, 1) ? De nuevo, formamos la matriz que tiene como vectores columna los del sistema, y la escalonamos: 

1 a

a 1



F2 ←F2 −aF1

→ 



1 0

a 1 − a2

 .

III.3. INDEPENDENCIA LINEAL

La matriz escalonada obtenida tiene al menos un pivote, y tiene un segundo 1 − a2 = (1 + a)(1 − a)

precisamente si 1 − a2 ≠ 0. Como la ecuación 1 − a2 = 0 tiene dos soluciones: a = 1 y a = −1, deducimos que la matriz original tiene rango igual a 2 —lo que hace que el sistema de vectores dado sea una base (§ 339)— si a ≠ 1 y a ≠ −1, y tiene rango igual a 1 —lo que hace a su vez que el sistema no sea una base— si a = 1 o a = −1. En resumen:

  • si a ≠ 1 y a ≠ −1, el sistema (1, a), (a, 1) es una base de R2 ;   • si a = 1 o a = −1, el sistema (1, a), (a, 1) no es una base de R2 . Coordenadas de un vector en una base

342

¿Qué tiene de peculiar una base de un subespacio vectorial? Como

los vectores que forman la base generan el subespacio vectorial, cada vector de este se puede escribir como una combinación lineal de tales vectores; pero hay más: como estos vectores de la base son linealmente independientes, la combinación lineal es única (§ 325). Los coeficientes de esta única combinación lineal son las llamadas coordenadas del vector en la base.   En símbolos es así. Nos dan una base B = v 1 , v 2 , . . . , v k de un subespacio vectorial F de Rn . Si v es un vector de F , entonces existen unos únicos números α1 , α2 , . . . , αk tales que v = α1 v 1 + α2 v 2 + · · · + αk v k . Diremos que estos números α1 , α2 , . . . , αk (en este orden) son las coordenadas del vector v en la base B.

  Por ejemplo, dada la base (4, 2), (−2, 5) de R2 , las coordenadas del

vector (6, 9) en esta base son los números 2 y 1 (en este orden), pues podemos escribir: (6, 9) = 2(4, 2) + 1(−2, 5). Al ser los vectores (4, 2) y (−2, 5) linealmente independientes, no hay otros coeficientes para expresar el vector (6, 9) como combinación lineal de ellos. Nota bene Es importante el orden en que se escriben las coordenadas de un   vector en una base. Por ejemplo, en la base (4, 2), (−2, 5) , el vector de coordenadas 1 y 2 sería (0, 12) —pues (0, 12) = 1(4, 2) + 2(−2, 5)—, distinto del de coordenadas 2 y 1, que es (6, 9).



  Y ¿cuál es el vector de coordenadas −1 y 1 en la base (4, 2), (−2, 5) ? El que se obtiene como una combinación lineal de los vectores (4, 2) y (−2, 5) con los coeficientes −1 y 1, respectivamente; esto es: (−1)(4, 2) + 1(−2, 5) = (−6, 3). Nota bene

No debe el lector confundir componentes con coordenadas. Las com-

ponentes de un vector están definidas ajenas a cualquier base, y las coorde nadas requieren haber fijado una previamente.

III. VECTORES

Un ejemplo

  Sabemos que el sistema (1, −1, 2), (2, 0, 4) es una base del subes! " pacio vectorial F = (x1 , x2 , x3 ) ∈ R3 ! x3 − 2x1 = 0 (§ 338). Si nos fija343

mos, el vector (−1, −1, −2) es un vector de F , pues sus componentes cumPara el vector (−1, −1, −2), la ecuación x3 − 2x1 = 0 toma la forma: (−2) − 2(−1) = 0.

plen la ecuación que determina este subespacio. ¿Cuáles son las coorde  nadas de este vector en la base (1, −1, 2), (2, 0, 4) ? Las coordenadas que buscamos son dos números (reales) α1 y α2 tales que (−1, −1, −2) = α1 (1, −1, 2) + α2 (2, 0, 4). Podemos encontrarlos planteando el sistema de ecuaciones lineales cuya matriz ampliada tiene por vectores columna los vectores (1, −1, 2), (2, 0, 4) y (−1, −1, −2) (cf. § 277, p. 255): este sistema tendrá solución única, y esta solución única nos dará las coordenadas buscadas α1 y α2 . Escribimos y escalonamos la matriz ampliada descrita: ⎛

1 ⎜ ⎝ −1 2 y seguimos ⎛ 1 ⎜ ⎝0 0

2 0 4

⎛ ⎞ F2 ←F2 +F1 −1 1 F ←F −2F ⎟ 3 3 1 ⎜ −1 ⎠ →  ⎝ 0 −2 0

2 2 0

⎞ −1 ⎟ −2 ⎠ , 0

hasta la forma escalonada reducida: ⎛ ⎛ ⎞ ⎞ 2 −1 1 2 −1 1 1 F F ← 2 2 F ←F −2F ⎜ ⎟ ⎟ 1 1 2 2 ⎜ 2 −2 ⎠ →  ⎝ 0 1 −1 ⎠ →  ⎝0 0 0 0 0 0 0

0 1 0

⎞ 1 ⎟ −1 ⎠ . 0

La solución del sistema de ecuaciones lineales correspondiente se puede leer Confirmamos: (−1, −1, −2) = 1(1, −1, 2) − 1(2, 0, 4). Otro ejemplo

¿Lo ve el lector?

en la última columna: el par ordenado (1, −1) (recuérdese que el sistema es de dos incógnitas), con lo que α1 = 1 y α2 = −1. Las coordenadas del   vector (−1, −1, −2) en la base (1, −1, 2), (2, 0, 4) son, pues, 1 y −1. ! " 344 Para (x, y, z) ∈ R3 ! x − y + z = 0 y x + z = 0 , subespacio vec  torial de R3 , una base es el sistema (−1, 0, 1) (§ 338). El vector (2, 0, −2) pertenece a este subespacio, pues satisface las dos ecuaciones que lo deter  minan. ¿Cuáles son las coordenadas de este vector en la base (−1, 0, 1) ? Como la base solo tiene un vector, se trata de una única coordenada: el número α tal que (2, 0, −2) = α(−1, 0, 1); claramente: α = −2. Nótese que cualquier vector del subespacio vectorial anterior es igual a λ(−1, 0, 1) para algún número λ, de forma que este factor λ es justamente   la coordenada del vector en la base (−1, 0, 1) .

Base canónica de R2

345

  El sistema (1, 0), (0, 1) , formado por los vectores columna de la

matriz identidad I2 , es una base de R2 , pues es un sistema de generadores de R2 (§ 335) y es un sistema libre (§ 331). Esta base es especialmente importante: se denomina base canónica de R2 . La denotaremos por BC ; es   decir: BC = (1, 0), (0, 1) .

III.3. INDEPENDENCIA LINEAL

Si nos dan un vector (a, b) de R2 , ¿cuáles son las coordenadas de este vector en la base BC ? Veamos; podemos escribir: (a, b) = (a, 0) + (0, b) = a(1, 0) + b(0, 1), lo que expresa el vector (a, b) como una combinación lineal de los vectores (1, 0) y (0, 1). Los coeficientes de esta combinación lineal son a y b, en este orden, luego estos dos números son las coordenadas buscadas. Las coordenadas del vector (a, b) en la base canónica de R2 son, pues, a y b. Por ejemplo, las coordenadas del vector (6, 9) en la base canónica BC   son 6 y 9. Como vimos en el § 342, en la base (4, 2), (−2, 5) (también de R2 ), este vector tiene otras coordenadas —en concreto: 2 y 1—. En general, las coordenadas de un mismo vector no nulo en dos bases distintas son números distintos. El vector nulo, sin embargo, tiene las mismas coordenadas en cualquier base: todas iguales a 0. Si nos fijamos, las coordenadas del vector (a, b) en la base canónica BC coinciden justamente con sus componentes. La base canónica es tal que las coordenadas en ella de cualquier vector son precisamente las componentes del vector. Base canónica de Rn

346

Más en general, se define la base canónica de Rn , que también se

denota por BC , como el sistema de vectores formado por los vectores columna de la matriz identidad In :   BC = (1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, 0, . . . , 1) . Se trata efectivamente de una base de Rn porque es un sistema de generadores de Rn (§ 335) y es un sistema libre (§ 331). Como acontecía con la base canónica de R2 (§ 345), las coordenadas de un vector de Rn en la base canónica coinciden con sus componentes. Si a1 , a2 , . . . , an es un vector de Rn , entonces podemos escribir: (a1 , a2 , . . . , an ) = a1 (1, 0, . . . , 0) + a2 (0, 1, . . . , 0) + · · · + an (0, 0, . . . , 1), lo que confirma lo afirmado. Nota bene

Se hace uso de la misma notación: BC , para cualquier base canónica

(para la de R2 , y en general para la de Rn ). La experiencia muestra que ello no da lugar a confusión con solo un poquito de atención.



Las coordenadas de un vector en la base canónica son precisamente sus componentes.

III. VECTORES

347

Una propiedad

Las bases tienen una propiedad importante: el número de vectores

que figura en una base de un subespacio vectorial es el máximo múmero de vectores linealmente independientes que hay en el subespacio vectorial. Más en concreto: dado un subespacio vectorial F de Rn , si hay una base de F formada por k vectores, entonces cualquier sistema de vectores de F que tenga más de k vectores es ligado. Ello establece, entonces, que en un subespacio vectorial no puede haber una cantidad de vectores linealmente independientes mayor que el número de vectores de una base.   Pongamos que B = v 1 , v 2 , . . . , v k es una base del

con lo que podemos decir que (9) toma la forma:

subespacio vectorial F . Consideremos un sistema de   vectores S = u1 , u2 , . . . , u s , todos vectores de F y en cantidad mayor que la cantidad de vectores de B: s > k.

s 

Veamos que el sistema S es ligado. Para ello, estudie-

Ahora bien, los vectores v 1 , v 2 , . . . , v k son linealmente independientes (pues forman base), luego de la última

mos la igualdad vectorial (9)

si podemos encontrar algunos números α1 , α2 , . . . , αs , no todos nulos, que la verifiquen, entonces habremos probado que el sistema S es ligado. Si fijamos un número natural i tal que 1  i  s, cada vector ui es un elemento de F , y B es una base de F ; denotemos por βi 1 , βi2 , . . . , βik las coordenadas del vector ui en la base B: k 

i=1

i=1

i=1

igualdad vectorial obtenida se deduce:

α1 u1 + α2 u2 + · · · + αs us = 0;

ui = βi 1 v 1 + βi2 v 2 + · · · + βik v k =

s s      αi βi1 v 1 + αi βi2 v 2 + · · · + αi βik v k = 0.

βij v j .

j=1

s  i=1

αi βi1 = 0,

s 

αi βi2 = 0,

i=1

...,

s 

αi βik = 0.

i=1

Estas k igualdades, escritas desarrolladas, toman la forma de un sistema de k ecuaciones lineales en las s incógnitas α1 , α2 , . . . , αs , el cual es homogéneo: ⎧ α1 β11 + α2 β21 + · · · + αs βs1 = 0 ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ α1 β12 + α2 β22 + · · · + αs βs2 = 0 ⎪ .................................... ⎪ ⎪ ⎪ ⎪ ⎪ ⎩ α1 β1k + α2 β2k + · · · + αs βsk = 0.

Sustituyendo en (9), obtenemos: α1

k 

k k      β1j v j + α2 β2j v j + · · · + αs βsj v j = 0,

j=1

j=1

o bien:

s  k 

j=1

k 

i=1 j=1

αi βij v j =

k 

s 

j=1 i=1

nitas que ecuaciones, así que es compatible indeterminado (cf. § 96, p. 99); ello implica que admite soluciones distintas de la nula. Cualquiera de estas (insisti-

αi βij v j = 0; pero:

mos: distinta de la nula) nos proporciona una colec-

i=1 j=1 s 

Como s > k, este sistema homogéneo tiene más incóg-

αi βij v j =

k  s 

 αi βij v j ,

ción de números α1 , α2 , . . . , αs , no todos nulos, que verifica (9). El sistema de vectores S es, pues, ligado.

j=1 i=1

En el caso particular de Rn , conocemos al menos una base: la canónica, la cual tiene n vectores (§ 346). El resultado anterior nos dice que el número máximo de vectores linealmente independientes en Rn es n. Es decir, si en Rn tenemos un sistema con más de n vectores, tal sistema es ligado.

III.3. INDEPENDENCIA LINEAL

Todas las bases de un mismo subespacio vectorial (si las hay) tienen idéntico número de vectores

348

Vemos ahora una consecuencia importantísima del resultado pro-

bado en el § 347: dado un subespacio vectorial (de Rn ), todas las bases que tenga presentan el mismo número de vectores. ¿Cómo se deduce lo afirmado? Bueno, si tenemos dos bases de un mismo subespacio vectorial de Rn , una de k vectores y la otra de k vectores, aplicando a la primera base el resultado citado deducimos que no puede haber sistemas libres de más de k vectores: como la segunda base es un sistema libre, esto nos dice que k  k; pero aplicando el resultado a la segunda base, de la misma manera deducimos que k  k . En definitiva: k = k , y ambas bases tienen el mismo número de vectores.

El subespacio vectorial {0} no admite base; cualquier otro, sí

349

Antes de seguir, nos planteamos esta pregunta: ¿todos los subes-

pacios vectoriales de Rn admiten alguna base? La respuesta es que admiten base todos menos uno: el subespacio vectorial cuyo único elemento es el vector nulo, es decir: {0}. El subespacio vectorial {0} no admite base porque no hay manera de formar un sistema libre con su único vector: todo sistema de vectores de {0} estará formado por el vector 0, acaso repetido. ¿Y un subespacio vectorial de Rn distinto del subespacio vectorial {0}? Un subespacio vectorial así sí admite alguna base.

Denotemos por F un subespacio vectorial de Rn

  están en L v 1 , v 2 (lo que es decir que no son combi-

distinto de {0}.

nación lineal de los vectores v 1 y v 2 ), empezamos de

El subespacio vectorial F admite algún vector no   nulo, pongamos v 1 . Si ocurre que L v 1 = F , enton  ces el sistema v 1 es una base de F y hemos termi  nado. Por el contrario, si L v 1 es distinto de F , enton-

nuevo: cogemos uno de tales vectores, pongamos v 3 , y   formamos el sistema v 1 , v 2 , v 3 , que resultará ser un

ces hay algún vector en F , pongamos v 2 , que no está   en L v 1 , es decir, que no es igual a una combinación   lineal de v 1 ; esto último hace que el sistema v 1 , v 2   sea libre (§ 333). Ahora, si L v 1 , v 2 = F , ya tenemos   con el sistema v 1 , v 2 una base de F y hemos termi-

tema libre de vectores de F , y en definitiva de vectores linealmente independientes (§ 347), en algún momento terminaremos: llegaremos a un sistema de vec  tores v 1 , v 2 , . . . , v k , formado por k vectores de F ,

nado. Pero si no, es decir, si hay vectores de F que no

con k  n, que será una base de F .

sistema libre (de nuevo, § 333). A cada paso del proceso descrito, formamos un sisres de Rn . Como en Rn hay un máximo de n vecto-

Dimensión Dimensión

350

Si un subespacio vectorial admite base —lo que es tanto como decir

que es distinto de {0} (§ 349)—, sabemos que todas sus bases tienen el mismo número de vectores (§ 348). A este número se le llama dimensión del

III. VECTORES

subespacio vectorial. En símbolos: dado un subespacio vectorial F de Rn , distinto de {0}: F ≠ {0}, se denomina dimensión del subespacio vectorial al número de vectores que tiene cualquiera de sus bases. Se denota: dim F . Por ejemplo, el mismo Rn tiene dimensión igual a n, pues tenemos noticia de una base suya con n vectores —la canónica (§ 346)—. Escribimos: dim Rn = n.

  Otro ejemplo: sabemos que el sistema (1, −1, 2), (2, 0, 4) es una base ! " del subespacio vectorial F = (x1 , x2 , x3 ) ∈ R3 ! x3 − 2x1 = 0 (§ 338); ello

nos dice que este subespacio vectorial tiene dimensión igual a 2: dim F = 2. Y otro ejemplo más: también conocemos una base del subespacio vec! "   torial (x, y, z) ∈ R3 ! x − y + z = 0 y x + z = 0 : el sistema (−1, 0, 1) (de nuevo, § 338). La dimensión de este subespacio vectorial es, pues, igual ! " a 1; esto es: dim (x, y, z) ∈ R3 ! x − y + z = 0 y x + z = 0 = 1. Por otra parte, el subespacio vectorial {0} —como hemos recordado— no admite base, pero también se define para él una dimensión. En concreto, diremos que el subespacio vectorial {0} es de dimensión nula, o de dimensión igual a 0, y escribiremos: dim{0} = 0. Por ejemplo: dim{(0, 0, 0)} = 0. Dimensión de una recta y dimensión de un plano Cf. § 332, p. 292.

351

Recordemos que una recta es un subespacio vectorial generado por

un vector no nulo (cf. § 302, p. 275). Como un vector no nulo forma un sistema de vectores que es libre, una recta admite una base formada por un solo vector. La dimensión de una recta es, pues, igual a 1. De la misma manera, un plano es un subespacio vectorial generado por dos vectores no nulos tales que ninguno de ellos es múltiplo del otro. Dos

Cf. § 320, p. 286.

vectores así son linealmente independientes, luego un plano admite una base formada por dos vectores, y por ende su dimensión es igual a 2. Vemos así que las rectas son los subespacios vectoriales de dimensión igual 1, y los planos son los subespacios vectoriales de dimensión igual a 2.

Una primera observación

352

Afirmar que un subespacio vectorial F de Rn tiene dimensión igual

a p: dim F = p, implica afirmar que el número máximo de vectores linealmente independientes de F es justamente p, de forma que un sistema de vectores de F que tenga más de p vectores es ligado. Si p = 0, la afirmación es obvia: el máximo número de vectores linealmente independientes del subespacio {0} es justamente 0. Si p  1, entonces el subespacio vectorial F admite base (§ 349) y todas sus bases tienen p vectores; pero el número de vectores de una base es el máximo número de vectores linealmente independientes (§ 347), luego también se cumple lo afirmado en este caso.

III.3. INDEPENDENCIA LINEAL

Una propiedad

353

Aparte de lo ya observado en el § 352, tener noticia de la dimensión

de un subespacio vectorial aporta mucha información sobre el subespacio. Para empezar, si tenemos un sistema de vectores del subespacio vectorial con tantos vectores como marca la dimensión (siendo esta positiva), aseguramos que el sistema es una base solo con pedirle que sea libre. Lo vemos en símbolos. Consideremos un subespacio vectorial F de Rn con dim F = p  1 (obviamos que F pueda ser igual a {0}, § 349). Si tenemos p vectores v 1 , v 2 , . . . , v p de F (esto es, tantos como marca la dimensión de F ) que son linealmente independientes, entonces el sistema que estos p   vectores forman: v 1 , v 2 , . . . , v p , es una base de F .   Comprobémoslo. Pongamos S = v 1 , v 2 , . . . , v p . Para que el sistema S sea una base de F , falta asegurar que es un sistema de generadores de F . Pero lo es. ¿Por qué? Si no lo fuera, habría algún vector de F , pongamos w, que no sería igual a una combinación lineal de los vectores v 1 , v 2 , . . . , v p ,   pero en tal caso el sistema w, v 1 , v 2 , . . . , v p , que tiene más de p vectores, sería libre (§ 333). Esto último entraría en contradicción con el hecho de que la dimensión de F es p, pues no puede haber en F un sistema libre de más de p vectores (§ 352). Otra propiedad

354

Más aún: si tenemos un sistema de vectores de un subespacio vecto-

rial, distinto de {0}, con tantos vectores como marca la dimensión, también podemos concluir que este sistema es una base solo con pedirle que sea un sistema de generadores. Escrito más precisamente: si v 1 , v 2 , . . . , v p son p vectores que generan un subespacio vectorial F de Rn tal que dim F = p  1 (con lo que F ≠ {0}),   entonces el sistema v 1 , v 2 , . . . , v p es una base de F .

Solo resta asegurarse de un detalle: el sistema de   vectores v 1 , v 2 , . . . , v p es libre.

en este proceso de descartar vectores no dejamos de tener sistemas de generadores de F . En algún momento,

Supongamos que no lo es. Entonces alguno de sus

alguno de ellos debe ser libre, pues al ser F distinto

vectores es igual a una combinación lineal de los de-

de {0}, alguno de sus generadores es no nulo. En defini-

más, y puede descartarse de forma que los que quedan

tiva, obtenemos un sistema de generadores de F que

siguen siendo generadores de F (cf. § 319, p. 285). Si

también es un sistema libre, pero con menos de p vec-

el sistema nuevo así formado, con un vector menos

tores; es decir, obtenemos una base de F con menos

—exactamente, con p − 1 vectores—, no es libre, de la

de p vectores. Esto último contradice el hecho de que

misma manera reducimos a un sistema con otro vector

la dimensión de F es igual a p.

menos —exactamente, con p − 2 vectores— que sigue siendo un sistema de generadores de F . Si nos fijamos,

Debemos admitir, por tanto, que el sistema de vec  tores v 1 , v 2 , . . . , v p es libre.

III. VECTORES

Comparamos la dimensión de un subespacio con la de Rn

355

La dimensión de un subespacio vectorial de Rn es menor o igual

que la de Rn , es decir, menor o igual que n. Y ambas dimensiones coinciden solo si el subespacio vectorial es el mismo Rn ; en otras palabras: el único subespacio vectorial de Rn con dimensión igual a n es el mismo Rn . Lo escribimos en símbolos: si F es un subespacio vectorial de Rn , enton-

La negación de un enunciado del tipo “si P , entonces Q” es el enunciado “si no se verifica Q, entonces no se verifica P ”, donde P y Q son afirmaciones.

ces dim F  dim Rn , o bien: dim F  n. Y si dim F = n, entonces F = Rn ; dicho de otra forma: si F ≠ Rn , entonces dim F < n. Si F = {0}, es claro que lo afirmado se cumple: dim F = dim{0} = 0 < n. Por el contrario, si F es un subespacio vectorial de Rn distinto de {0}, la afirmación que queremos probar está realmente justificada en la demostración desarrollada en el § 349: en tal demostración, vimos que un subespacio vectorial F de este tipo admite una base con una cantidad de vectores menor o igual que n; esto es lo mismo que afirmar que dim F  n. Finalmente, solo nos queda comprobar este punto: si dim F = n, entonces F = Rn . Es fácil: si F admite una base formada por n vectores (lo que es tanto como decir que dim F = n), entonces estos n vectores son en definitiva n vectores de Rn linealmente independientes; como n vectores de Rn linealmente independientes forman una base de Rn (§ 353), concluimos que F coincide con Rn .

A modo de epílogo del apartado

356

¿Cómo podemos calcular efectivamente la dimensión de un subes-

pacio vectorial dado? En principio, solo tenemos una forma: calculamos una base del subespacio (si la tiene —si no, se trata del subespacio {0}, que tiene dimensión nula—), y contamos los vectores de la base. A continuación, veremos una manera de calcular la dimensión de un subespacio vectorial cuando conocemos de este un sistema de generadores (no necesariamente una base). Y más adelante podremos efectuar el cálculo de la dimensión para un subespacio vectorial que sea igual al conjunto de soluciones de un sistema de ecuaciones lineales homogéneo.

3. Rango de unos vectores Vemos ahora el concepto de rango de unos vectores, que da cuenta de cuántos vectores, entre unos dados, son linealmente independientes.

Definición Rango de unos vectores

357

Dados unos vectores, o dado un sistema de vectores, su rango es

el número máximo de vectores linealmente independientes que hay entre ellos. Más en concreto, dados unos vectores v 1 , v 2 , . . . , v k (todos de Rn ),

III.3. INDEPENDENCIA LINEAL

  o dado un sistema de vectores v 1 , v 2 , . . . , v k , afirmar que su rango es igual a p (donde p es un número natural) significa afirmar que entre los En particular, dados unos vectores cuyo rango es igual a p, si entre ellos escogemos más de p, los escogidos son linealmente dependientes. Los vectores (2, 1) y (−2, 5) no son uno múltiplo del otro, y lo mismo ocurre con (4, 2) y (−2, 5).

vectores v 1 , v 2 , . . . , v k hay p vectores linealmente independientes, pero no más de p. Si el rango de los vectores v 1 , v 2 , . . . , v k es igual a p, escribire  mos: rango v 1 , v 2 , . . . , v k = p. Por ejemplo, el rango de los tres vectores (2, 1), (4, 2) y (−2, 5) es igual   a 2, lo que consignamos así: rango (2, 1), (4, 2), (−2, 5) = 2. ¿Por qué? Porque es posible encontrar entre los tres vectores dos linealmente independientes —nos valen (2, 1) y (−2, 5), o (4, 2) y (−2, 5)—, pero no más de dos —los tres juntos son linealmente dependientes (§ 314)—. Notemos también que el rango de unos vectores no varía si alguno de ellos es nulo y lo descartamos (el número máximo de vectores linealmente independientes entre ellos no cambia incluyamos o no el vector nulo). Por ejemplo:     rango (2, 1), (4, 2), (−2, 5), (0, 0) = rango (2, 1), (4, 2), (−2, 5) = 2.

Rango y dimensión

358

Veremos enseguida una forma sencilla de calcular el rango de unos

vectores. Antes debemos estudiar alguna propiedad. Lo primero de todo es observar lo siguiente: el rango de unos vectores es igual a la dimensión del subespacio vectorial que los vectores generan. En símbolos, dados unos vectores v 1 , v 2 , . . . , v k (todos de Rn ), se verifi    ca: rango v 1 , v 2 , . . . , v k = dim L v 1 , v 2 , . . . , v k .   Pongamos que rango v 1 , v 2 , . . . , v k = p. Entonces,

vectores, en contradicción con que más de p vecto-

entre los vectores v 1 , v 2 , . . . , v k hay p linealmente in-

res entre los k originales son linealmente dependien-

dependientes y cualesquiera en cantidad mayor que p son linealmente dependientes. Supongamos que los p

tes. De esta forma, el subespacio vectorial generado por los p vectores linealmente independientes es el

primeros vectores son linealmente independientes (es adecuado): v 1 , v 2 , . . . , v p . Ahora, notemos que cual-

mismo que el generado por todos los k vectores ori    ginales: L v 1 , v 2 , . . . , v p = L v 1 , v 2 , . . . , v k . El sistema   libre v 1 , v 2 , . . . , v p es una base del subespacio vecto-

quiera de los vectores restantes, pongamos v j (con j

rial que genera, luego:

cuestión de colocar los k vectores originales en el orden

tal que p + 1  j  k), es combinación lineal de estos p   vectores: de no ser así, el sistema v 1 , v 2 , . . . , v p , v j sería un sistema libre (cf. § 333, p. 292) de p + 1

Una propiedad

359

    rango v 1 , v 2 , . . . , v k = p = dim L v 1 , v 2 , . . . , v p   = dim L v 1 , v 2 , . . . , v k .

El rango de un sistema de vectores no varía si ejecutamos en el

sistema alguna de las manipulaciones que llevábamos a cabo en el § 334 (cf. p. 293): intercambiar dos vectores, multiplicar un vector por un número no nulo, y sumar a un vector un múltiplo de otro.

III. VECTORES

Esta propiedad es una consecuencia del resultado recién visto en el § 358. Si en un sistema de vectores ejecutamos alguna de las manipulaciones comentadas, el nuevo sistema de vectores obtenido genera el mismo subespacio vectorial que el original (cf. § 336, p. 294); el rango del sistema, al coincidir con la dimensión de este subespacio vectorial, es entonces el mismo antes y después de la manipulación.

Relación con el rango de una matriz 360

Cálculo práctico del rango de unos vectores

¿Cómo podemos calcular, de manera razonablemente sencilla, el

rango de unos vectores? De esta manera: formamos la matriz cuyos vectores columna son los vectores dados; el rango de esta matriz es precisamente el rango de los vectores. En símbolos: dados unos vectores v 1 , v 2 , . . . , v k (todos de Rn ), formamos la matriz A que tiene por vectores columna los   vectores v 1 , v 2 , . . . , v k . Entonces: rango v 1 , v 2 , . . . , v k = rango A.

Denotemos por B la matriz, de k filas, cuyos vectores fila son los vectores v 1 , v 2 , . . . , v k , de forma

Ahora bien, ¿cómo son los vectores v 1 , v 2 , . . . , v k ? Si denotamos por r el rango de la matriz B, la matriz

que B = At (cf. § 269, p. 249).

escalonada B  tiene sus últimas k − r filas nulas, luego



Designemos por B una forma escalonada de la mav 1 , 

v 2 ,

v k

los vectores v r +1 , . . . , v k son k − r vectores nulos, y así

para dar cuenta de

el rango de los k vectores originales v 1 , v 2 , . . . , v k coin-

los k vectores fila de B . Fijémonos en este punto: cada

cide realmente con el de los r vectores v 1 , v 2 , . . . , v r

una de las transformaciones elementales por filas que

(§ 357).

triz B, y escribamos

...,



¿Y el rango de estos últimos vectores?

La

se ejecuta para llegar a la matriz B tiene un correlato

matriz que los tiene como vectores columna —la cual

en los vectores fila correspondientes en términos de

es la traspuesta de la matriz resultante de eliminar en

alguna de las manipulaciones recordadas en el § 359 (por ejemplo, a una permutación de filas le corresponde

la matriz B  sus k − r últimas filas (las nulas)— tiene rango igual a r , así que se trata de r vectores lineal-

una permutación de los vectores fila). Esto significa, de

mente independientes (cf. § 322, p. 287). Si r vecto-

acuerdo con el resultado probado en este citado § 359,

res son linealmente independientes, su rango (vecto  rial) es igual a r : rango v 1 , v 2 , . . . , v r = r . En defini  tiva: rango v 1 , v 2 , . . . , v k = r = rango B = rango A.

que el rango de los vectores v 1 , v 2 , . . . , v k es el mismo que el de los vectores v 1 , v 2 , . . . , v k .

Como el rango de una matriz coincide con el de su traspuesta, y los vectores columna de una son los vectores fila de la otra, podemos afirmar:

El rango de unos vectores es igual al rango de la matriz que los tiene como vectores columna, y también es igual al rango de la matriz que los tiene como vectores fila.

III.3. INDEPENDENCIA LINEAL

Un ejemplo

361

En el § 317 (cf. p. 284), vimos que los vectores (1, 2, 3), (3, 2, 1)

y (4, 4, 4) son linealmente dependientes. ¿Cuál es la dimensión del subespacio vectorial de R3 que generan? Otra forma de preguntar lo mismo (§ 358): ¿cuál es el rango de estos vectores? De acuerdo con el resultado recién probado en el § 360, el rango de los tres vectores es igual al de la matriz que los tiene por vectores columna. En el citado § 317, escribimos tal matriz, y calculamos para ella una forma escalonada. Ambas matrices, respectivamente, son estas: ⎛ ⎞ ⎛ ⎞ 1 3 4 1 3 4 ⎜ ⎟ ⎜ ⎟ ⎝ 2 2 4 ⎠ y ⎝ 0 −4 −4 ⎠ . 3 1 4 0 0 0 El rango es igual a 2, luego este número es el valor del rango de los vectores (1, 2, 3), (3, 2, 1) y (4, 4, 4), y este número es a su vez la dimensión del subespacio vectorial que los tres vectores generan:     rango (1, 2, 3), (3, 2, 1), (4, 4, 4) = dim L (1, 2, 3), (3, 2, 1), (4, 4, 4) = 2. Nota bene

El hecho de que el rango de los vectores sea menor que su cantidad

nos confirma que los vectores son linealmente dependientes. Otro ejemplo

362



Calculemos, según los valores de los parámetros a y b, la dimensión

del subespacio vectorial de R3 generado por los vectores (0, 1, 2), (1, −1, 3), (0, 2, a) y (2, b, 1). Formamos la matriz cuyos vectores columna son los vectores dados, y la escalonamos. Obtenemos: ⎛ ⎞ ⎛ 0 1 2 1 −1 ⎜ ⎟ ⎜ ⎜ 1 −1 1 ⎟ F1 ↔F2 ⎜ 0 1 ⎜ ⎟ →  ⎜ ⎜0 ⎟ ⎜0 2 a 2 ⎝ ⎠ ⎝ 2 b 1 2 b

¿Ayuda para el último término? Veamos: −1 − (b + 2) · 2 = −2b − 5. Nótese que la matriz B no es necesariamente escalonada.

⎛ ⎞ ⎞ 1 −1 1 1 ⎜ ⎟ ⎟ ⎜0 1 2⎟ 2⎟ 4 −2F1 ⎜ ⎟ ⎟ F4←F →  ⎜ 2 a⎟ a⎟ ⎝0 ⎠ ⎠ 0 b + 2 −1 1 ⎛ ⎞ 1 −1 1 F3 ←F3 −2F2 ⎜ ⎟ 2 ⎟ 0 1 F4 ←F4 −(b+2)F2 ⎜ ⎟. →  ⎜ ⎜0 0 a− 4⎟ ⎝ ⎠ 0 0 −2b − 5

Con la matriz que hemos obtenido, que denotaremos por B, distingamos dos casos: a = 4 y a ≠ 4. En el primero: a = 4, la tercera fila de la matriz B nos queda nula; la permutamos con la cuarta: ⎛ ⎛ ⎞ 1 −1 1 1 −1 ⎜ ⎜ ⎟ ⎜0 1 ⎟ F3 ↔F4 ⎜ 0 1 2 ⎟ → B=⎜  ⎜ ⎜0 0 ⎜0 0 ⎟ 0 ⎝ ⎝ ⎠ 0 0 −2b − 5 0 0

⎞ 1 ⎟ ⎟ 2 ⎟. −2b − 5 ⎟ ⎠ 0

III. VECTORES

Ahora, si −2b − 5 = 0, o bien, si b = −5/2, entonces solo hay dos pivotes (los de las dos primeras filas), y el rango es igual a 2; y si −2b − 5 ≠ 0, esto es, si b ≠ −5/2, entonces hay tres pivotes, y el rango es igual a 3. En el segundo caso que teníamos para la matriz B: a ≠ 4, podemos seguir escalonando la matriz de esta manera: ⎛ ⎛ ⎞ 1 −1 1 1 −1 ⎜ ⎜ ⎟ −2b−5 ⎜0 1 ⎟ F4 ←F4 − a−4 F3 ⎜ 0 1 2 ⎟ → B=⎜  ⎜ ⎜0 0 ⎜0 0 a − 4⎟ ⎝ ⎝ ⎠ 0 0 0 0 −2b − 5

⎞ 1 ⎟ 2 ⎟ ⎟, a − 4⎟ ⎠ 0

y entonces son tres los pivotes (y ello cualquiera que sea b). En resumen, la dimensión del subespacio vectorial de R3 generado por los vectores (0, 1, 2), (1, −1, 3), (0, 2, a) y (2, b, 1) verifica: • es igual a 2 si a = 4 y b = −5/2; • es igual a 3 en cualquier otro caso, es decir, si a ≠ 4 o si b ≠ −5/2. Cuadro-resumen

363

De acuerdo con los distintos resultados que hemos ido viendo en

las páginas anteriores, podemos escribir el siguiente cuadro: Dados unos vectores de Rn , escribimos la matriz que los tiene como vectores columna (o la que los tiene como vectores fila), y calculamos su rango. Se cumple: • si el rango es menor que la cantidad de vectores, entonces los vectores son linealmente dependientes; • si el rango es igual que la cantidad de vectores, entonces los vectores son linealmente independientes; • si el rango es menor que el número de componentes de los vectores (es decir, menor que n), entonces los vectores no son generadores de Rn ; • si el rango es igual al número de componentes de los vectores (es decir, igual a n), entonces los vectores son generadores de Rn ; • si el rango es igual, simultáneamemte, a la cantidad de vectores y al número de componentes de estos, entonces los vectores forman una base de Rn . Elegir una base entre unos generadores

364

Si nos dan unos vectores, con su rango sabemos cuántos de ellos

debemos considerar para escribir una base del subespacio vectorial que todos generan. Ahora bien, ¿podemos saber con cuáles de los vectores quedarnos para tener tal base? Sí.

III.3. INDEPENDENCIA LINEAL

¡OJO! Esto no se puede llevar a cabo en la matriz cuyos vectores fila son los vectores dados. Solo con los vectores columna.

Para ello, escribimos la matriz cuyos vectores columna son los vectores dados. En esta matriz, llamamos columna básica a cualquier columna tal que la columna correspondiente de alguna de sus formas escalonadas presenta un pivote; como todas las formas escalonadas de una misma matriz tienen sus pivotes en las mismas columnas (cf. § 99, p. 101), esta definición no depende de la forma escalonada elegida. Se verifica lo siguiente: entre los vectores dados, aquellos que se corresponden con columnas básicas forman una base del subespacio vectorial generado por todos.

Nos dan k vectores de Rn ; denotemos su rango

cambios de columnas. La matriz B también tiene rango

por p, y denotemos el subespacio vectorial de R que generan por F ; así: dim F = p. Escribamos la matriz A

igual a p, y es tal que sus columnas básicas son exactamente las p primeras. De esta forma, la matriz formada

cuyos vectores columna son los k vectores dados, y

solo por las p primeras columnas de B (descartando

n

consideremos su forma escalonada reducida, la cual

las k − p últimas) sigue teniendo rango igual a p, con

tendrá p pivotes (pues rango A = dim F , § 360). En esta

lo que sus p vectores columna son linealmente inde-

matriz escalonada reducida, podemos llevar a cabo in-

pendientes. Como dim F = p, estos p vectores lineal-

tercambios de columnas de forma que obtengamos una

mente independientes forman una base del subespacio

matriz escalonada reducida con los pivotes en las pri-

vectorial F (§ 353). Por otra parte, nótese que tales p

meras columnas (cf. § 76, p. 79); denotemos por B el

vectores son, entre los k originales, justamente los co-

resultado de aplicar a la matriz A estos mismos inter-

rrespondientes a las columnas básicas de la matriz A.

En el § 317 (cf. p. 284), trabajamos con los vectores (1, 2, 3), (3, 2, 1) y (4, 4, 4), y en el § 361 comprobamos que la dimensión del subespacio vectorial de R3 generado por ellos es igual a 2. ¿Cómo descartamos uno de los vectores para asegurarnos que los dos restantes forman una base del subespacio vectorial? Hay que reconocer que es fácil a simple vista porque solo se trata de tres vectores, pero hagámoslo con el método sugerido en el párrafo anterior. Escribimos entonces la matriz, que denotamos por A, que tiene los tres vectores como vectores columna; en el citado § 317, le calculamos una forma escalonada, que denotamos aquí por A . Ambas matrices son estas: ⎛

1 ⎜ A = ⎝2 3

3 2 1

⎞ 4 ⎟ 4⎠ 4



y

1 ⎜ A = ⎝ 0 0

3 −4 0

⎞ 4 ⎟ −4 ⎠ . 0

En la matriz escalonada A , los pivotes están en las columnas primera y segunda, luego estas son las columnas básicas de la matriz A. Los vectores correspondientes son los vectores primero y segundo: (1, 2, 3), (3, 2, 1). El   sistema (1, 2, 3), (3, 2, 1) es, pues, una base del subespacio vectorial de R3 generado por los tres vectores.

III. VECTORES

Un ejemplo

365

Consideremos el subespacio vectorial de R4 , que denotamos por H,

generado por los vectores (1, −2, 0, 1), (−2, 4, 0, −2) y (0, 1, 3, 0). Con el resultado del § 364, busquemos una base de H entre estos tres vectores. Formamos, pues, la matriz cuyos vectores columna son los tres vectores anteriores, y la escalonamos: ⎛ ⎞ ⎛ 1 −2 0 1 F ←F +2F 1 ⎜ ⎜ ⎟ 2 2 ⎜ −2 ⎟ F4 ←F4 −F1 ⎜ 0 4 1 ⎜ ⎟ →  ⎜ ⎜ 0 ⎜0 0 3⎟ ⎝ ⎠ ⎝ 1 −2 0 0

⎛ ⎞ 0 1 ⎜ ⎟ ⎜ 1⎟ 3 −3F2 ⎜ 0 ⎟ F3←F →  ⎜ ⎟ 3⎠ ⎝0 0 0

−2 0 0 0

−2 0 0 0

⎞ 0 ⎟ 1⎟ ⎟. 0⎟ ⎠ 0

Vemos que hay dos pivotes, luego dim H = 2. También, las columnas básicas son la primera y la tercera (en la segunda no hay pivote), así que los vectores primero y tercero de los tres considerados forman una base del subespacio   vectorial H. Tal base es (1, −2, 0, 1), (0, 1, 3, 0) . Una observación sobre un ejemplo anterior

366

En el ejemplo del § 364, entre los tres vectores (1, 2, 3), (3, 2, 1)

y (4, 4, 4) encontramos dos —los dos primeros— que forman una base del subespacio vectorial de R3 generado por los tres juntos. Al formar la matriz cuyos vectores columna son los vectores dados, ¿qué ocurre si consideramos los vectores en otro orden? Veamos. Consideremos los tres vectores dados en este orden: (4, 4, 4), (3, 2, 1) y (1, 2, 3). Formamos la matriz que los tiene (en este nuevo orden) como vectores columna y la escalonamos: ⎛

4 ⎜ ⎝4 4

3 2 1

⎞ ⎛ F2 ←F2 −4F1 1 4 ⎟ F3 ←F3 −4F1 ⎜ 2 ⎠ →  ⎝ 0 3 0

3 −1 −2

⎛ ⎞ 1 4 ⎟ F3 ←F3 −2F2 ⎜ 1 ⎠ →  ⎝0 0 2

3 −1 0

⎞ 1 ⎟ 1⎠. 0

Vemos confirmado el valor del rango que ya conocíamos, y también en este caso los vectores correspondientes a columnas básicas son los dos primeros (la tercera columna es la única en la cual la matriz escalonada obtenida no Los dos primeros vectores son ahora distintos a los dos primeros del citado § 364.

presenta un pivote), es decir: (4, 4, 4) y (3, 2, 1). Obtenemos así una nueva base para el subespacio vectorial de R3 generado por los vectores (1, 2, 3),   (3, 2, 1) y (4, 4, 4): tal base es el sistema (4, 4, 4), (3, 2, 1) .

4. Ecuaciones de un subespacio vectorial Dedicamos este apartado a estudiar dos maneras de presentar un subespacio vectorial, ambas con la ayuda de ecuaciones lineales. Estamos hablando de las ecuaciones paramétricas y de las ecuaciones implícitas. En particular, aprenderemos a pasar de unas a otras.

III.3. INDEPENDENCIA LINEAL

Ecuaciones paramétricas Ecuaciones paramétricas (un primer ejemplo)

367

Vamos a intentar describir un subespacio vectorial de Rn como el

conjunto formado por los vectores de Rn cuyas componentes satisfacen ciertas condiciones que toman el aspecto de ecuaciones lineales. Lo conseguiremos de dos maneras distintas; la primera de ellas mediante las llamadas ecuaciones paramétricas. Empezamos a verlo con un ejemplo. Consideremos el subespacio vec-

Cf. § 277, p. 255.

torial de R3 , que denotaremos por F , generado por los vectores (1, 2, −1)   y (0, 2, 1); es decir: F = L (1, 2, −1), (0, 2, 1) . Ya sabemos que un vector (x1 , x2 , x3 ) de R3 es un vector de F precisamente si admite solución el sistema de ecuaciones lineales cuya matriz de coeficientes tiene por vectores columna los vectores (1, 2, −1) y (0, 2, 1), y cuya matriz de términos independientes tiene por vector columna el mismo vector (x1 , x2 , x3 ). Escribamos este sistema de ecuaciones lineales del que hablamos, designando

¿En el primer miembro? Véase la "nota bene" más adelante.

las incógnitas con las letras λ1 y λ2 , y de forma que sus términos independientes figuren en el primer miembro. Nos queda: ⎧ ⎪ x = λ1 ⎪ ⎪ ⎨ 1 x2 = 2λ1 + 2λ2 ⎪ ⎪ ⎪ ⎩ x =−λ + λ . 3

1

(10)

2

Podemos afirmar que un vector (x1 , x2 , x3 ) de R3 pertenece a F precisamente si admite solución este sistema de ecuaciones lineales en las incógnitas λ1 y λ2 , o lo que es lo mismo: precisamente si se verifican las tres igualdades del sistema para algún valor de λ1 y algún valor de λ2 . Y nótese que también se verifica lo siguiente: todos los vectores del subPor ejemplo, tomando los valores λ1 = 1 y λ2 = −1, nos queda el vector (1, 0, −2).

espacio vectorial F son aquellos cuyas componentes x1 , x2 y x3 se obtienen, a partir de las igualdades de (10), dando valores a λ1 y λ2 . Decimos que el sistema de ecuaciones lineales (10) es un sistema de ecuaciones paramétricas del subespacio vectorial F (o simplemente que las ecuaciones de (10) son unas ecuaciones paramétricas del subespacio vectorial F ). Las incógnitas de un sistema de ecuaciones paramétricas también

Nos encontramos otra vez con el término parámetro. . .

reciben el nombre de parámetros. Nota bene

Al presentar el sistema de ecuaciones paramétricas (10), hemos uti-

lizado la letra λ con subíndices para designar sus incógnitas (o parámetros). En ecuaciones paramétricas, es habitual designar los parámetros con letras como λ (o μ), eventualmente con subíndices. También es usual escribir los terminos independientes —las componentes x1 , x2 , . . . — en el primer miembro, para enfatizar el que se puedan obtener dando valores a los parámetros. 

III. VECTORES

Ecuaciones paramétricas (caso general)

368

Dado un subespacio vectorial, debemos enfatizar que unas ecua-

ciones paramétricas para el subespacio se escriben a partir de unos generadores del subespacio. ¿Cómo se procede en general? Análogamente a como hemos hecho en el § 367. En concreto, dados unos generadores de un subespacio vectorial, a partir de ellos se construye un sistema de ecuaciones paramétricas del subespacio vectorial de esta manera: la matriz de coeficientes del sistema tiene por vectores columna los generadores dados, y la matriz de términos independien-

Nótese bien que un sistema de ecuaciones paramétricas tiene tantas ecuaciones como componentes tienen los vectores, y tantos parámetros como generadores del subespacio nos han dado.

tes tiene por términos las componentes de un vector genérico del espacio vectorial. Además, las incógnitas del sistema —esto es, los parámetros— se designan con la letra λ (o la letra μ), quizá acompañada de subíndices, y los términos independientes se escriben en el primer miembro.

Veamoslo con detalle. Consideremos unos vecto-

por λ1 , λ2 , . . . , λk , y escribimos los términos indepen-

res v 1 , v 2 , . . . , v k de Rn , y el subespacio vectorial F   de Rn generado por ellos: F = L v 1 , v 2 , . . . , v k .

dientes en el primer miembro, podemos afirmar que

Procedamos como hicimos en el § 277 (cf. p. 255). Si consideramos el sistema de ecuaciones lineales cuya

el vector (x1 , x2 , . . . , xn ) pertenece a F precisamente si sus componentes: x1 , x2 , . . . , xn , satisfacen las igualdades

matriz de coeficientes tiene por vectores columna los

⎧ ⎪ x1 = v11 λ1 + v21 λ2 + · · · + vk1 λk , ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ x2 = v12 λ1 + v22 λ2 + · · · + vk2 λk , ⎪ ....................................... ⎪ ⎪ ⎪ ⎪ ⎪ ⎩ xn = v1n λ1 + v2n λ2 + · · · + vkn λk ,

vectores v 1 , v 2 , . . . , v k , y cuya matriz de términos independientes tiene por vector columna un vector genérico (x1 , x2 , . . . , xn ), podemos afirmar que el vector (x1 , x2 , . . . , xn ) pertenece a F precisamente si tal sistema admite solución. Escribamos: v 1 = (v11 , v1 2 , . . . , v1 n ),

para algunos λ1 , λ2 , . . . , λk . Decimos que estas igual-

v 2 = (v21 , v2 2 , . . . , v2 n ),

dades son unas ecuaciones paramétricas del subespacio vectorial F , o que el sistema de ecuaciones que for-

..........................

man, en las incógnitas λ1 , λ2 , . . . , λk , es un sistema de ecuaciones paramétricas del subespacio vectorial F .

v k = (vk1 , vk2 , . . . , vk n ), de manera que vij designa la j-ésima componente del

Nótese que el sistema de ecuaciones paramétricas

i-ésimo vector v i (y ello para cada 1  i  k y pa-

que acabamos de escribir para F es tal que su matriz

ra cada 1  j  n). Si en el sistema de ecuaciones

de coeficientes tiene por vectores columna los genera-

lineales del que hablamos denotamos las incógnitas

dores de F dados al principio.

Un ejemplo

369

Consideremos el subespacio vectorial H de R4 generado por los

vectores (1, −2, 0, 1), (−2, 4, 0, −2) y (0, 1, 3, 0) (§ 365). Escribamos unas ecuaciones paramétricas de H. De acuerdo con lo visto en el § 368, a partir de los generadores dados, construimos un sistema de ecuaciones paramétricas para el subespa-

III.3. INDEPENDENCIA LINEAL

cio vectorial H de esta forma: la matriz de términos independientes tiene por términos las componentes de (x1 , x2 , x3 , x4 ) —estamos trabajando con vectores de R4 —, y la matriz de coeficientes tiene por vectores columna los generadores dados. Tales matrices ⎛ ⎞ x1 ⎜ ⎟ ⎜ x2 ⎟ ⎜ ⎟ ⎜x ⎟ y ⎝ 3⎠ x4

son estas: ⎛ 1 −2 ⎜ ⎜ −2 4 ⎜ ⎜ 0 0 ⎝ 1 −2

⎞ 0 ⎟ 1⎟ ⎟. 3⎟ ⎠ 0

Designando los parámetros por λ1 , λ2 y λ3 (tantos como vectores), se obHay tantos parámetros como generadores de H nos han dado, y tantas ecuaciones como componentes tienen los vectores —cuatro, pues estamos con vectores de R4 —.

tiene este sistema de ecuaciones paramétricas para el subespacio H: ⎧ ⎪ λ1 − 2λ2 ⎪ ⎪ x1 = ⎪ ⎪ ⎪ ⎨ x2 = −2λ1 + 4λ2 + λ3 ⎪ ⎪ x3 = 3λ3 ⎪ ⎪ ⎪ ⎪ ⎩ x4 = λ1 − 2λ2 . El hecho de que este sistema sea un sistema de ecuaciones paramétricas del subespacio vectorial H significa que un vector (x1 , x2 , x3 , x4 ) de R4 es un vector de H precisamente si sus componentes: x1 , x2 , x3 y x4 , satisfacen las cuatro ecuaciones del sistema para algún valor de λ1 , λ2 y λ3 Y también significa: todos los vectores de H son aquellos cuyas componentes x1 , x2 , x3 y x4 se obtienen, a partir de las ecuaciones del sistema, dando valores a λ1 , λ2 y λ3 .

Un ejemplo con una recta

370

Escribamos unas ecuaciones paramétricas del subespacio vectorial ! " de R siguiente: G = (x, y, z) ∈ R3 ! x − y + z = 0 y x + z = 0 . 2

Según lo detallado en el § 368, lo primero que necesitamos es un sistema de generadores del subespacio vectorial G. En el § 302 (cf. p. 275), vimos que este subespacio vectorial es la recta de vector director (2, 1), de   forma que G = L (2, 1) . De acuerdo con ello, un sistema de ecuaciones paramétricas del subespacio G tiene por matriz de términos independientes la matriz columna de términos x1 y x2 , y por matriz de coeficientes Ambas matrices son, respectivamente, estas:     x1 2 . y 1 x2

la que tiene por vector columna el generador (2, 1) (solo nos dan un generador de G). El sistema de ecuaciones paramétricas resulta con un único parámetro; designándolo por λ, el sistema toma la forma: ⎧ ⎨ x1 = 2λ ⎩ x2 = λ.

(11)

En general, cualquier recta admite algún sistema de ecuaciones paramétricas con un solo parámetro.

III. VECTORES

Un ejemplo con un plano

371

De la misma forma, un plano (cf. § 304, p. 276) admite un sistema

de ecuaciones paramétricas con dos parámetros. Recordamos: ⎧ ⎪ x1 = λ1 ⎪ ⎪ ⎨ x2 = 2λ1 + 2λ2 ⎪ ⎪ ⎪ ⎩ x =−λ + λ . 3

1

2

Dimensión de un subespacio vectorial dado por ecuaciones paramétricas

El subespacio vectorial F de R3 que vimos en el ejemplo del § 367, esto   es: F = L (1, 2, −1), (0, 2, 1) , es un ejemplo de plano de R2 , pues los vectores (1, 2, −1) y (0, 2, 1) no son uno múltiplo del otro. En el mismo § 367, escribimos un sistema de ecuaciones paramétricas de F con dos parámetros. 372

Vemos que si tenemos un sistema de ecuaciones paramétricas es-

crito para un subespacio vectorial dado, entonces podemos leer unos generadores del subespacio vectorial justamente en los vectores columna de la matriz de coeficientes del sistema de ecuaciones. Como el rango de una matriz coincide con el rango de sus vectores columna (cf. § 360, p. 306), y el rango de unos vectores que sean generadores de un subespacio vectorial nos da la dimensión del subespacio (cf. § 358, p. 305), podemos concluir lo siguiente: dado un sistema de ecuaciones paramétricas de un subespacio vectorial, la dimensión del subespacio vectorial coincide con el rango de la matriz de coeficientes del sistema de ecuaciones. Por ejemplo, la dimensión del subespacio vectorial de R2 de ecuaciones paramétricas

⎧ ⎪ ⎪ ⎪ x1 = λ1 ⎨ x2 = 2λ1 + 2λ2 ⎪ ⎪ ⎪ ⎩ x =−λ + λ 3 1 2

es igual a 2, pues es este el valor del rango de su matriz de coeficientes: ⎛

1 ⎜ ⎝ 2 −1

⎛ ⎞ F2 ←F2 −2F1 1 0 ⎟ F3 ←F3 +F1 ⎜ 2 ⎠ →  ⎝ 0 0 1

⎛ ⎞ 0 1 1 ⎟ F3 ←F3 − 2 F2 ⎜ 2 ⎠ →  ⎝ 0 0 1

⎞ 0 ⎟ 2⎠. 0

El subespacio vectorial determinado por este sistema de ecuaciones paramétricas es justamente el subespacio vectorial F de R2 que hemos visto en   el ejemplo del § 367: F = L (1, 2, −1), (0, 2, 1) . Otro ejemplo: la matriz de coeficientes del sistema de ecuaciones paramétricas (11) —que escribimos en el § 370 para la recta G de vector direcYa sabemos que la dimensión de cualquier recta es igual a 1 (cf. § 351, p. 302). Un ejemplo con una recta (continuación)

tor (2, 1)— tiene una sola columna no nula, luego su rango es igual a 1; ello nos confirma que el subespacio vectorial G tiene dimensión igual a 1. 373

Sabemos que el subespacio vectorial de R2 generado por los vecto-

res (2, 1) y (4, 2) es el mismo que el generado solamente por el vector (2, 1)     (por ejemplo, cf. § 303, p. 275): L (2, 1), (4, 2) = L (2, 1) . El subespacio vectorial G que hemos visto en el § 370 también está generado, pues, por

III.3. INDEPENDENCIA LINEAL

los vectores (2, 1) y (4, 2). Calculemos unas ecuaciones paramétricas del subespacio vectorial G a partir de estos generadores. El sistema de ecuaciones paramétricas que buscamos tiene como términos independientes las componentes x1 y x2 de un vector genérico (x1 , x2 ), y como matriz de coeficientes la matriz cuyos vectores columna son (2, 1) y (4, 2); resulta entonces un sistema con dos parámetros, pongamos λ1 y λ2 . ⎧ ⎨ x1 = 2λ1 + 4λ2 ⎩ x2 = λ1 + 2λ2 .

El sistema es este:

(12)

Tenemos entonces dos sistemas de ecuaciones paramétricas para un mismo subespacio vectorial, uno de ellos incluso con una incógnita más; Recordemos bien que hay tantas ecuaciones como componentes tienen los vectores.

eso sí: ambos tienen la misma cantidad de ecuaciones. ¿Qué relación hay entre los dos? La tenemos entre las dos matrices de coeficientes: si completamos con columnas nulas la que menos columnas tiene hasta que ambas quedan del mismo orden, entonces se puede obtener una de la otra mediante la aplicación de transformaciones elementales por columnas sucesivas. En efecto: la matriz de coeficientes del sistema (11), completada con una columna nula, y la matriz de coeficientes del sistema (12) son, respectivamente, estas:



2 1

0 0



 y

2 1

4 2

 ,

y es claro que la segunda se puede obtener de la primera con la transformaSumar a la segunda columna el doble de la primera.

ción elemental C2 ← C2 + 2C1 .

¿Cuándo dos sistemas de ecuaciones paramétricas representan el mismo subespacio?

374

Dos sistemas de ecuaciones paramétricas que correspondan a un mismo subespacio ya tienen el mismo número de ecuaciones.

Veamos en detalle el resultado general que se insinúa en el § 373.

Tal resultado puede enunciarse así: afirmar que dos sistemas de ecuaciones paramétricas representan un mismo subespacio vectorial es equivalente a afirmar que las matrices de coeficientes de ambos sistemas cumplen la propiedad siguiente: tras añadir columnas nulas a la que menos columnas tenga de forma que ambas queden del mismo orden, una de las matrices se puede obtener de la otra mediante la aplicación de transformaciones elementales por columnas sucesivas.

Antes de nada, hagamos una observación previa: añadir columnas nulas a la matriz de coeficientes de

y después de añadir las columnas nulas, representa el mismo subespacio vectorial. Podemos considerar,

un sistema de ecuaciones paramétricas es tanto como

pues, que todos los sistemas de ecuaciones paramétri-

añadir vectores nulos al sistema de generadores del

cas de los que hablemos en esta demostración son

subespacio vectorial representado por el sistema, con

tales que sus matrices de coeficientes tienen el mismo

lo que el sistema de ecuaciones paramétricas, antes

número de columnas.

III. VECTORES

Ahora, como acontece al demostrar cualquier equi-

de coeficientes A; esto es: AX = O (en notación matri-

valencia, debemos demostrar dos enunciados, uno

cial). Notemos lo siguiente: si añadimos a la matriz A

recíproco del otro. El primero es este: si en la matriz de coeficientes de un sistema de ecuaciones paramétricas

cualquiera de las filas de la matriz B, el sistema de ecuaciones que resulta es equivalente al sistema AX = O.

ejecutamos una transformación elemental por colum-

¿Por qué? Como los vectores fila de B generan el mismo

nas (o una lista de ellas sucesivamente), el sistema

subespacio vectorial que los vectores fila de A, cada

resultante respresenta el mismo subespacio vectorial.

uno de los primeros es combinación lineal de los se-

Notemos que llevar a cabo una transformación elemen-

gundos; si añadimos a A una fila de B, resulta entonces

tal por columnas en una matriz se corresponde con

que esta fila nueva es igual a una suma de múltiplos

una manipulación, entre los vectores columna de la

de las filas de A; con transformaciones elementales por

matriz, del tipo que veíamos en el § 334 (cf. p. 293):

filas adecuadas, podríamos transformar esta fila nueva

intercambiar dos vectores, multiplicar un vector por un número no nulo, o sumar a un vector un múltiplo

en una fila nula, lo que nos muestra que el sistema con la fila añadida es equivalente al sistema sin ella. Como

de otro. Como los vectores columna de la matriz de

consecuencia, el sistema AX = O es equivalente al sis-

coeficientes de un sistema de ecuaciones paramétricas

tema DX = O, donde D es esta matriz:

forman un sistema de generadores del subespacio vectorial representado por el sistema, podemos deducir el resultado del hecho de que las manipulaciones de las

⎛ D=⎝

A B

⎞ ⎠.

que hablamos transforman un sistema de generadores de un subespacio en otro sistema de generadores del

De la misma manera, cambiando el papel de las matrices A y B, y llevando a cabo permutaciones de filas, ob-

mismo subespacio (cf. § 336, p. 294).

tenemos que también el sistema BX = O es equivalente

El segundo resultado es este: si dos sistemas de

al sistema DX = O. En definitiva, los sistemas homogé-

ecuaciones paramétricas representan el mismo subes-

neos AX = O y BX = O son equivalentes. También lo

pacio vectorial, entonces sus matrices de coeficientes

serán los sistemas homogéneos A X = O y B  X = O,

se pueden llevar una a la otra mediante la aplicación de

donde A y B  son las formas escalonadas reducidas

transformaciones elementales por columnas sucesivas. Denotemos por A y B las traspuestas de las matrices de

de A y B, respectivamente. Pero dos sistemas homogéneos que tengan escalonada reducida la matriz de coe-

coeficientes de los sistemas. Lo que queremos demos-

ficientes satisfacen esta propiedad: si los sistemas son

trar es equivalente a esta afirmación: si las matrices A

equivalentes, tal matriz de coeficientes es en ambos la

y B son tales que sus vectores fila generan el mismo

misma (cf. demostración en el § 100, p. 102). Final-

subespacio vectorial, entonces es posible obtener una

mente, como las matrices A y B tienen la misma forma

matriz de la otra mediante la aplicación de transforma-

escalonada reducida: A = B  , es posible obtener una

ciones elementales por filas sucesivas. Consideremos

de otra mediante la aplicación de transformaciones ele-

el sistema de ecuaciones lineales homogéneo de matriz

mentales por filas sucesivas.

Si λ = λ1 + 2λ2 , entonces: x1 = 2λ   x1 = 2(λ1 + 2λ2 ) = 2λ1 + 4λ2 , y x2 = λ = λ1 + 2λ2 .

Nota

Cuando dos sistemas de ecuaciones paramétricas corresponden al mismo

subespacio vectorial, también se verifica lo siguiente: es posible encontrar algún cambio de parámetros adecuado que nos transforme un sistema en el otro. En el caso de los sistemas de ecuaciones paramétricas (11) y (12) —ambos correspondientes a un mismo subespacio vectorial de R2 (§ 373)—, podemos obtener uno de otro con el cambio λ = λ1 + 2λ2 . 

III.3. INDEPENDENCIA LINEAL

Nota bene

Si dos sistemas de ecuaciones paramétricas representan el mismo

subespacio vectorial, entonces las matrices de coeficientes de ambos sistemas tienen el mismo rango. Ecuaciones paramétricas a partir de una base del subespacio vectorial El subespacio vectorial es distinto de {0} para que admita base (cf. § 349, p. 301).

375



Dado un subespacio vectorial distinto de {0}, ¿cuántos paráme-

tros hay en un sistema de ecuaciones paramétricas que lo represente? Ya lo hemos visto: tantos como vectores haya en el sistema de generadores elegido para construir, a partir de él, el sistema de ecuaciones paramétricas. Podemos minimizar esta cantidad de parámetros si el sistema de generadores de partida es una base del subespacio vectorial. En este caso, además, el número de parámetros de las ecuaciones paramétricas coincidirá con la dimensión del subespacio vectorial. Por ejemplo, volvamos a considerar el subespacio vectorial H de R4 generado por los vectores (1, −2, 0, 1), (−2, 4, 0, −2) y (0, 1, 3, 0). En el § 365,   comprobamos que el sistema (1, −2, 0, 1), (0, 1, 3, 0) es una base de H. Las ecuaciones paramétricas de H definidas a partir de esta base, designando los parámetros por λ y μ, toman esta forma: ⎧ ⎪ λ ⎪ ⎪ x1 = ⎪ ⎪ ⎪ ⎨ x2 = −2λ + μ ⎪ ⎪ 3μ x3 = ⎪ ⎪ ⎪ ⎪ ⎩x = λ . 4 Dos parámetros empleamos para estas ecuaciones paramétricas, y 2 es la dimensión del subespacio vectorial H. No hay sistemas de ecuaciones paramétricas para el subespacio vectorial H con menos de dos parámetros.

Ecuaciones implícitas Ecuaciones implícitas, y un primer ejemplo

También decimos que el sistema homogéneo es un sistema de ecuaciones implícitas que determina (o representa) el subespacio vectorial F .

376

Sabemos que todas las soluciones de un sistema de ecuaciones li-

neales homogéneo de n incógnitas forman un subespacio vectorial de Rn (cf. § 297, p. 272). Si un subespacio vectorial F de Rn es tal que coincide con el conjunto de soluciones de un sistema homogéneo (de n incógnitas), decimos que el sistema homogéneo es un sistema de ecuaciones implícitas del subespacio vectorial F (o simplemente que las ecuaciones del sistema homogéneo son unas ecuaciones implícitas del subespacio vectorial F ). Por ejemplo, en el § 283 (cf. p. 262), consideramos este sistema de ecuaciones lineales homogéneo: ⎧ ⎨x − y + z = 0 ⎩x + z = 0,

(13)

III. VECTORES

y comprobamos que sus soluciones son precisamente los múltiplos del vector (−1, 0, 1); es decir, el conjunto de sus soluciones es la recta de vector   director (−1, 0, 1): L (−1, 0, 1) . Podemos entonces decir que el sistema de ecuaciones lineales homogéneo (13) es un sistema de ecuaciones implícitas   de la recta L (−1, 0, 1) ; o, simplemente, que las ecuaciones del sistema homogéneo (esto es: x − y + z = 0 y x + z = 0) son unas ecuaciones implícitas de tal recta. Otro ejemplo

377

En el § 278 (cf. p. 256), estudiamos este ejemplo: todos los vec-

tores (x1 , x2 , x3 ) de R3 que se pueden expresar como una combinación lineal de los vectores (1, −1, 2) y (2, 0, 4) son exactamente los que satisfacen la condición x3 − 2x1 = 0. En otras palabras: el subespacio vecto  rial L (1, −1, 2), (2, 0, 4) coincide con el conjunto de soluciones de la ecuación lineal homogénea x3 − 2x1 = 0. La ecuación lineal x3 − 2x1 = 0 es, pues, una ecuación implícita del   subespacio vectorial L (1, −1, 2), (2, 0, 4) . O también: el sistema de ecuaciones lineales



x3 − 2x1 = 0

(de una sola ecuación) es un sistema de ecuaciones implícitas del subespacio   vectorial L (1, −1, 2), (2, 0, 4) . Como los vectores (1, −1, 2) y (2, 0, 4) son tales que ninguno es múlti  plo del otro, el subespacio vectorial L (1, −1, 2), (2, 0, 4) es un plano de R3 . 

Nota bene

Dimensión de un subespacio vectorial dado por ecuaciones implícitas

378

Nos dan un sistema de ecuaciones implícitas de un subespacio vec-

torial. A la vista del sistema, ¿es posible averiguar la dimensión del subespacio vectorial? Sí: tal dimensión es igual a la diferencia entre el número de componentes de los vectores y el rango de la matriz de coeficientes del sistema. En símbolos: dado un sistema de ecuaciones lineales homogéneo

Podemos decir que la dimensión es: dim Rn − rango A.

con n incógnitas, con matriz de coeficientes A, sus soluciones forman un subespacio vectorial de Rn de dimensión igual a n − rango A.

Consideremos un subespacio vectorial F de Rn , y

Antes de nada, distingamos dos casos triviales. Por

pongamos que tenemos un sistema de ecuaciones im-

un lado, si F = {0}, el sistema homogéneo AX = O tiene

plícitas para F de matriz de coeficientes A; es decir:

solución única —la nula—, y ello implica que el rango

el conjunto de soluciones del sistema de ecuaciones li-

de su matriz de coeficientes es igual al número de sus

neales homogéneo AX = O —escrito en notación matricial— coincide con F . Probemos que la dimensión de F

incógnitas (cf. § 178, p. 172); como este último es n, tenemos: n − rango A = n − n = 0 = dim F , y el resultado

es igual a n − rango A.

se cumple en este caso. Y, por otro lado, si F = Rn ,

III.3. INDEPENDENCIA LINEAL

el sistema AX = O está formado por ecuaciones nulas

puede escribir así: xr +1 u1 + xr +2 u2 + · · · + xn un−r , es

(cf. § 35, p. 51), con lo que rango A = 0, y también se

decir, como una combinación lineal de los n − r vec-

tiene el resultado: n − rango A = n − 0 = n = dim F . Ahora, denotemos por A la forma escalonada re-

tores u1 , u2 , . . . , un−r . Estos vectores son, pues, unos generadores del subespacio vectorial F .

ducida de la matriz A. El subespacio vectorial F tam-

Pero los vectores u1 , u2 , . . . , un−r también son li-

bién es igual al conjunto de soluciones del sistema de

nealmente independientes. Si nos fijamos en la ma-

ecuaciones lineales homogéneo A X = O (pues este

triz que los tiene como vectores fila, que es de or-

es equivalente al sistema AX = O). Pongamos que el

den (n−r , n), esta matriz se convierte de manera inme-

rango de la matriz A (y por tanto el de A ) es igual a r ,

diata en una matriz escalonada reducida de n − r pivo-

con 1  r < n (para no caer en los casos triviales co-

tes —y por tanto de rango igual a n − r — sin más que

mentados al principio), y supongamos que los r pivotes

“pasar” sus r primeras columnas a las últimas posi-

de la matriz A están en sus primeras columnas. El sistema A X = O, tras eliminar sus posibles ecuaciones

ciones (lo cual no supone más que ciertos intercambios de columnas, que no perturban el valor del rango).

nulas —las cuales serían las últimas—, es equivalente

Como el rango de esta matriz coincide con el número

al siguiente: ⎧ ⎪ x1 ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ x2 ⎪ ⎨

de vectores, estos son linealmente independientes.   En definitiva, el sistema u1 , u2 , . . . , un−r es una

+ b1(r +1) xr +1 + · · · + b1n xn = 0 + b2(r +1) xr +1 + · · · + b2n xn = 0 ..

⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎩

.

.. .

.. .

.. .

xr + br (r +1) xr +1 + · · · + br n xn = 0,

para algunos números bij con 1  i  r y r +1  j  n.

base del subespacio vectorial F . Como tiene n − r vectores, se concluye: dim F = n − r = n − rango A. Para terminar, ¿qué ocurre si los r pivotes de la matriz escalonada reducida A no están en las primeras columnas? En este caso, los pivotes se pueden llevar donde queremos con intercambios adecuados de co-

Las soluciones del sistema son exactamente los vecto-

lumnas, los cuales se traducen en intercambios de las

res de R que se pueden escribir de esta forma:    − b1(r +1) xr +1 + · · · + b1n xn ,   − b2(r +1) xr +1 + · · · + b2n xn , . . . ,

incógnitas del sistema, y en definitiva en intercambios

n

   − br (r +1) xr +1 + · · · + br n xn , xr +1 , . . . , xn ,

para algunos números xr +1 , . . . , xn (nótese que las incógnitas xr +1 , . . . , xn del sistema son las incógnitas libres). Si denotamos:   u1 = −b1(r +1) , −b2(r +1) , . . . , −br (r +1) , 1, 0, . . . , 0 ,   u2 = −b1(r +2) , −b2(r +2) , . . . , −br (r +2) , 0, 1, . . . , 0 ,

de las componentes de los vectores que son solución del sistema (cf. § 220, p. 204). Podríamos entonces proceder como en los párrafos anteriores, solo que las incógnitas libres ya no serían las mismas —aunque sí tendríamos la misma cantidad de ellas: n−r , pues el rango de la matriz de coeficientes seguiría siendo igual a r —, y los vectores u1 , u2 , . . . , un−r podrían definirse como los anteriores salvo intercambios de componentes, los mismos en todos los vectores. Estos intercambios de componentes no alteran el hecho de que los “nuevos” vectores u1 , u2 , . . . , un−r generen el subespacio F (al

.........................................................   un−r = −b1n , −b2n , . . . , −br n , 0, 0, . . . , 1 ,

ser los mismos intercambios en todos los vectores),

entonces podemos afirmar que toda solución del sistema A X = O —y por ende del sistema AX = O — se

terior salvo intercambios de columnas, con lo que su rango sigue siendo igual a n − r ).

ni tampoco el que sean linealmente independientes (la matriz que los tiene como vectores fila es como la an-

III. VECTORES

Destacamos este importante resultado, dándole rango de teorema (de hecho, en algunos libros se refieren a él como el teorema fundamental del Álgebra Lineal): Teorema fundamental del Álgebra Lineal

Un ejemplo

Teorema 3 El conjunto de soluciones de un sistema de ecuaciones lineales homogéneo con n incógnitas, con matriz de coeficientes A, es un subespacio vectorial de Rn de dimensión igual a n − rango A. 379

  En el ejemplo del § 376, vimos que la recta L (−1, 0, 1) admite el

siguiente sistema de ecuaciones implícitas: ⎧ ⎨x − y + z = 0 ⎩x + z = 0. Sabemos que la dimensión de cualquier recta es igual a 1 (cf. § 351, p. 302), pero comprobemos el valor de esta dimensión con la ayuda del teorema 3 (§ 378). Para ello, calculamos el rango de la matriz de coeficientes del sistema de ecuaciones implícitas anterior. Nos queda:     1 −1 1 F2 ←F2 −F1 1 −1 1 →  , 1 0 1 1 0 0 con lo que el rango de la matriz es igual a 2. Así, la dimensión del subespacio vectorial de R3 formado por las soluciones del sistema de ecuaciones es igual a 3 − 2 = 1 —diferencia entre el número de componentes de los vectores y el rango de la matriz de coeficientes—, lo que nos da la comprobación que queríamos. Otro ejemplo

380

La ecuación lineal homogénea x3 − 2x1 = 0, o mejor dicho: el sis-

tema homogéneo cuya única ecuación es esta ecuación, tiene como matriz de coeficientes una matriz que ya es escalonada: 

−2

0

 1 .

El rango de esta matriz es igual a 1, luego la dimensión del subespacio vectorial de R3 formado por todas las soluciones de la ecuación tiene dimensión igual a 3 − 1 = 2 (de nuevo, diferencia entre el número de componentes —o la dimensión del espacio vectorial, en este caso R3 — y el rango de la matriz de coeficientes). Recordemos que la ecuación lineal x3 −2x1 = 0 es una ecuación implícita   del plano L (1, −1, 2), (2, 0, 4) (§ 377), lo que nos confirma el cálculo de la dimensión, pues los planos tienen dimensión igual a 2 (cf. § 351, p. 302).

III.3. INDEPENDENCIA LINEAL

Paso de ecuaciones implícitas a paramétricas

381

Consideremos este sistema de ecuaciones lineales homogéneo: ⎧ ⎪ + 2x3 − x4 = 0 x1 ⎪ ⎪ ⎨ x2 + 4x3 − x4 = 0 (14) ⎪ ⎪ ⎪ ⎩ −x + x + 2x = 0, 1

2

3

y denotemos por F el subespacio vectorial de R4 formado por todas sus soluciones. Dicho de otra forma: el sistema (14) es un sistema de ecuaciones implícitas del subespacio vectorial F . ¿Cuál es la dimensión de F ? Y otra pregunta: ¿podemos escribir unas ecuaciones paramétricas de F ? Vamos con lo primero. Calculemos el rango de la matriz de coeficientes del sistema homogéneo (14). Para ello, escribimos: ⎛

1 ⎜ ⎝ 0 −1

0 1 1

2 4 2

⎞ ⎛ −1 1 ⎟ F3 ←F3 +F1 ⎜ −1 ⎠ →  ⎝0 0 0

0 1 1

⎛ ⎞ −1 1 ⎟ F3 ←F3 −F2 ⎜ −1 ⎠ →  ⎝0 0 −1

2 4 4

0 1 0

2 4 0

⎞ −1 ⎟ −1 ⎠ , 0

con lo que tal rango es igual a 2. La dimensión del subespacio vectorial F es entonces igual a 4 − 2 = 2 (diferencia entre el número de componentes de los vectores y el rango recién calculado). Y vamos ahora con lo segundo: ¿unas ecuaciones paramétricas del subespacio F ? La demostración del teorema 3 —en el § 378— nos da en el fondo la pista: resolvamos el sistema (14). La forma escalonada que le hemos encontrado a su matriz de coeficientes —en el párrafo anterior— ya es escalonada reducida; el sistema homogéneo que la tiene como matriz de coeficientes —quitando su tercera ecuación, que es nula— se nos queda en el siguiente:

⎧ ⎨ x1 ⎩

Las incógnitas x1 y x2 son básicas, y se despejan en función de las libres, que se sustituyen por λ y μ.

+ 2x3 − x4 = 0 x2 + 4x3 − x4 = 0.

Todas las soluciones de este sistema, y por ende del sistema (14), son los vectores (x1 , x2 , x3 , x4 ) de R4 tales que: ⎧ x1 = −2λ + μ, ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ x2 = −4λ + μ, ⎪ x3 = ⎪ ⎪ ⎪ ⎪ ⎪ ⎩ x4 =

Ya hemos llevado a cabo cálculos similares; por ejemplo, en el § 281 (cf. p. 259).

λ

,

(15)

μ,

donde λ y μ son números cualesquiera. ¡Pero este es un sistema de ecuaciones paramétricas! ¿De qué subespacio vectorial? Respondemos con otra pregunta: ¿cuál es el subespacio formado por los vectores de R4 cuyas componentes x1 , x2 , x3 y x4 se obtienen, a partir de las cuatro ecuaciones

III. VECTORES

de (15), dando valores a λ y μ? Justamente el subespacio formado por las soluciones del sistema (14), es decir, el subespacio vectorial F . El sistema escrito en (15) es, pues, un sistema de ecuaciones paramétricas del subespacio vectorial F . Antes de terminar, observemos lo siguiente. Para el sistema de ecuaciones paramétricas (15) (en las incógnitas λ y μ), ¿cuál es su matriz de coeficientes? Lo preguntamos porque los vectores columna de la matriz de coeficientes de un sistema de ecuaciones paramétricas son unos generadores del subespacio vectorial representado por las ecuaciones (§ 372) . . . Tal matriz de coeficientes es:



−2 ⎜ ⎜ −4 ⎜ ⎜ 1 ⎝ 0

⎞ 1 ⎟ 1⎟ ⎟, 0⎟ ⎠ 1

y sus vectores columna son (−2, −4, 1, 0) y (1, 1, 0, 1). El sistema de vecto  res (−2, −4, 1, 0), (1, 1, 0, 1) es, pues, un sistema de generadores del subespacio vectorial F . Como dim F = 2, este sistema además es una base del subespacio vectorial F (cf. § 354, p. 303). Nota bene

Para escribir unas ecuaciones paramétricas a partir de unas ecua-

ciones implícitas, hemos resuelto el sistema de ecuaciones implícitas: al escribir todas sus soluciones según el método visto en el Capítulo I, ya escribimos unas ecuaciones paramétricas. En un último paso, a partir de estas últimas —en los vectores columna de su matriz de coeficientes—, leemos unos vectores generadores. Paso de ecuaciones paramétricas a implícitas: eliminación de parámetros

382



Dado un subespacio vectorial, ¿cómo podemos escribir unas ecua-

ciones implícitas a partir de unas ecuaciones paramétricas? Como es costumbre, empecemos a verlo con un ejemplo. Consideremos el siguiente sistema de ecuaciones paramétricas: ⎧ ⎪ x1 = λ1 − 2λ2 + λ3 ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ x2 = −λ1 + λ2 + 2λ3 ⎪ ⎪ x3 = ⎪ ⎪ ⎪ ⎪ ⎩ x4 =

λ1

− λ3

(16)

2λ2 + 2λ3 ,

y denotemos por G el subespacio vectorial de R4 representado por ellas. Un vector (x1 , x2 , x3 , x4 ) de R4 es un vector de G precisamente si sus componentes satisfacen las cuatro igualdades anteriores para algún valor de λ1 , λ2 y λ3 ; o lo que es lo mismo: un vector (x1 , x2 , x3 , x4 ) es un vector de G precisamente si el sistema (16) (en las incógnitas λ1 , λ2 y λ3 ) admite solución

III.3. INDEPENDENCIA LINEAL

escribiendo las componentes x1 , x2 , x3 y x4 como los términos independientes del sistema. Para obtener todos los vectores del subespacio vectorial G, debemos, pues, discutir el sistema de ecuaciones lineales (16) según los valores de x1 , x2 , x3 y x4 : los vectores de G tendrán por componentes aquellos valores de x1 , x2 , x3 y x4 para los que el sistema sea compatible, bien determinado, bien indeterminado. Para discutir el sistema (16), como siempre escribimos su matriz ampliada y la escalonamos —y aunque los términos independientes figuran en el primer miembro, en la matriz ampliada los escribimos en la última columna, según lo establecido para las matrices ampliadas de sistemas de ecuaciones—. Ahora bien, acontece que los cálculos para escalonar esta matriz ampliada concreta fueron llevados a cabo en el § 279 (cf. p. 258): tal matriz ampliada, y la forma escalonada que de esta obtuvimos en el parágrafo citado, son, respectivamente, estas matrices: ⎞ ⎛ 1 2 1 x1 ⎟ ⎜ ⎛ ⎞ ⎟ ⎜ 1 2 1 x1 ⎟ ⎜0 3 3 x + x 1 2 ⎜ ⎟ ⎟ ⎜ ⎜ −1 1 ⎟ ⎟ ⎜ 2 x 2 ⎜ ⎟. ⎟ y ⎜ 1 2 ⎜ 1 0 −1 x ⎟ ⎜0 0 0 − x1 + x2 + x3 ⎟ ⎟ 3⎠ ⎜ ⎝ ⎟ 3 3 ⎜ ⎟ ⎜ 0 2 2 x4 ⎠ ⎝ 2 2 0 0 0 − x1 − x2 + x4 3 3 El sistema (16) es compatible —determinado o indeterminado— precisamente si la matriz escalonada anterior no admite pivotes en su última columna, lo que es tanto como decir que se tienen a la vez estas igualdades: 1 2 2 2 − x1 + x2 + x3 = 0 y − x1 − x2 + x4 = 0, 3 3 3 3 o bien (multiplicando los dos miembros de ambas igualdades por −3): x1 − 2x2 − 3x3 = 0

y

2x1 + 2x2 − 3x4 = 0.

En definitiva: los vectores del subespacio vectorial G de R4 son los vectores (x1 , x2 , x3 , x4 ) de R4 que satisfacen el siguiente sistema de ecuaciones lineales homogéneo:

⎧ ⎨ x1 − 2x2 − 3x3 =0 ⎩ 2x1 + 2x2 − 3x4 = 0.

(17)

Este es, pues, un sistema de ecuaciones implícitas para el subespacio vectorial G. Estas ecuaciones implícitas y las ecuaciones paramétricas escritas en (16) definen el mismo subespacio vectorial de R4 . Al procedimiento de obtención de unas ecuaciones implícitas a partir de unas ecuaciones paramétricas se le denomina eliminación de parámetros.

III. VECTORES

Eliminación de parámetros (caso general)

383

¿Cómo funciona la eliminación de parámetros en general? Es una

generalización inmediata de lo que hemos visto en el ejemplo del § 382.

Consideremos un subespacio vectorial F de Rn de-

neales de matriz ampliada



A

X



admite entonces

terminado por un sistema de ecuaciones paramétri-

solución precisamente si las expresiones lineales de la

cas de matriz de coeficientes A.

Fijemos a su vez

matriz X  correspondientes a las filas nulas de la ma-

y denotemos por X

triz A son iguales a 0 (para evitar pivotes en la última

la matriz columna cuyos términos son las componen-

columna). Estas expresiones lineales igualadas a 0, que

un vector (x1 , x2 , . . . , xn ) de R

n

tes de este vector: x1 , x2 , . . . , xn . Sabemos que el vec-

tenemos en cantidad igual a n − r , forman un sistema

tor (x1 , x2 , . . . , xn ) pertenece al subespacio F precisa-

de ecuaciones implícitas del subespacio vectorial F .

mente si el  de ecuaciones lineales de matriz  sistema ampliada A X admite solución (§ 368, y § 277,

Para finalizar, nos queda un detalle. ¿Qué ocurre si el rango de la matriz A es igual a n? En este

p. 255). Escalonemos esta matriz ampliada,  con lo cual X  . En obtendremos otra, que denotamos por A cada término de la matriz columna X  queda alguna

caso, el sistema  de ecuaciones lineales de matriz am  X —que tiene n ecuaciones—, y por pliada A   X , admite solución tanto el de matriz ampliada A

expresión lineal en las variables x1 , x2 , . . . , xn , es de-

para cualquier elección de los términos independientes

cir, alguna expresión del tipo a1 x1 + a2 x2 + · · · + an xn

(cf. § 175, p. 169), y en definitiva para cualquier elección

para algunos números a1 , a2 , . . . , an (compárese con el

del vector (x1 , x2 , . . . , xn ). El sistema de ecuaciones

ejemplo del citado § 382).

paramétricas que nos han dado para F es verificado,

Supongamos ahora que el rango de la matriz A —y 

pues, por todos los vectores de Rn ; es decir: F = Rn .

por tanto el número de filas no nulas de la matriz A —,

¿Y unas ecuaciones implícitas para Rn ? Nos vale cual-

que denotamos por r , es menor que n, de forma que hay alguna fila nula en A . El sistema de ecuaciones li-

quier sistema de ecuaciones lineales homogéneo con n incógnitas que tenga todas sus ecuaciones nulas.

El caso de Rn

384

El mismo Rn es un subespacio vectorial de Rn . ¿Cómo son unas

ecuaciones paramétricas y unas ecuaciones implícitas para Rn ? Las primeras no tienen ninguna peculiaridad: buscamos un sistema de generadores de Rn y escribimos a partir de él un sistema de ecuaciones   paramétricas. Por ejemplo, el sistema (4, 2), (−2, 5) es un sistema de generadores de R2 (de hecho, es una base de R2 , cf. § 337, p. 295); el sistema de ecuaciones paramétricas que podemos escribir a partir de él toma esta forma (denotando por λ y μ los parámetros): ⎧ ⎨ x1 = 4λ − 2μ ⎩ x2 = 2λ + 5μ. Y el sistema de ecuaciones paramétricas construido a partir de la base caRecuérdese:   BC = (1, 0), (0, 1) .

nónica de R2 (cf. § 345, p. 298) es el siguiente: ⎧ ⎨ x1 = λ ⎩ x2 = μ.

III.3. INDEPENDENCIA LINEAL

En cuanto a unas ecuaciones implícitas para Rn , sí son un tanto peculiares: según apuntamos al final del § 383 (véase la demostración allí incluida), como sistema de ecuaciones implícitas de Rn nos sirve cualquier sistema de ecuaciones lineales homogéneo, con n incógnitas, en el que sean nulas todas las ecuaciones. Por ejemplo, este sistema formado por una sola ecuación de dos incógnitas: 

Debido a su simpleza, no se suele trabajar con ecuaciones implícitas de Rn .

es un sistema de ecuaciones implícitas para R2 : cualquier vector (x1 , x2 ) de R2 es solución de la ecuación nula 0x1 + 0x2 = 0. 385

El caso de {0}

0x1 + 0x2 = 0 ,

Nos preguntamos ahora: ¿cómo son unas ecuaciones paramétricas

y unas ecuaciones implícitas del subespacio vectorial {0}?   El sistema de vectores 0 es un sistema de generadores del subespacio vectorial {0}; si estamos en Rn , el sistema de ecuaciones paramétricas que   escribimos a partir del sistema de generadores 0 es este:

Podemos escribir el parámetro —aquí: λ— para enfatizar que son ecuaciones paramétricas.

⎧ ⎪ x1 = 0λ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ x2 = 0λ .. ⎪ ⎪ ... ⎪ . ⎪ ⎪ ⎪ ⎪ ⎩ x = 0λ, n

o simplemente:

⎧ ⎪ x1 = 0 ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ x2 = 0 .. ⎪ ⎪ ... ⎪ . ⎪ ⎪ ⎪ ⎪ ⎩ x = 0. n

Por ejemplo, unas ecuaciones paramétricas para el subespacio {(0, 0)} son ⎧ ⎧ ⎨ x1 = 0 ⎨ x1 = 0λ o ⎩ x2 = 0. ⎩ x2 = 0λ, ¿Y unas ecuaciones implícitas del subespacio vectorial {0}? Nos vale cualquier sistema de ecuaciones lineales homogéneo, con tantas incógnitas como componentes tenga el vector 0, que sea compatible determinado: un sistema tal tendrá como única solución el vector 0. Verbigracia, un sistema de ecuaciones implícitas para el subespacio vectorial {(0, 0)} podría ser este: ⎧ ⎪ ⎪ ⎪ 2x1 + x2 = 0 ⎨ =0 3x1 ⎪ ⎪ ⎪ ⎩ x − x = 0, 1



2 ⎜ rango ⎝ 3 1

⎞ 1 ⎟ 0⎠ = 2 −1

2

pues tiene dos incógnitas —y son dos las componentes del vector (0, 0)— y admite una única solución —por supuesto, la nula: (0, 0)—. Nótese que la matriz de coeficientes del sistema tiene rango igual al número de incógnitas.

III. VECTORES

Ecuaciones implícitas a partir de unos generadores

386

Dados unos generadores de un subespacio vectorial, ¿cómo escribi-

mos unas ecuaciones implícitas del subespacio? Tener unos generadores es tanto como tener unas ecuaciones paramétricas (§ 372), luego podríamos escribir las ecuaciones paramétricas correspondientes a los generadores dados, y aplicar el procedimiento de eliminación de parámetros para obtener unas ecuaciones implícitas (por ejemplo, § 382). Así lo haremos, pero con una pequeña salvedad. El procedimiento de eliminación de parámetros requiere escribir la matriz ampliada del sistema de ecuaciones paramétricas (la cual es la matriz que se escalona); si partimos de los generadores, no hace falta escribir las ecuaciones paramétricas mismas, pues la matriz ampliada de la que hablamos es justamente la que tiene por vectores columna los generadores dados y el vector genérico del espacio vectorial correspondiente. Por ejemplo, para calcular un sistema de ecuaciones implícitas del subespacio vectorial de R4 generado por los tres vectores (1, −1, 1, 0), (2, 1, 0, 2)

En este ejemplo estamos con vectores de R4 : el vector genérico es (x1 , x2 , x3 , x4 ).

y (1, 2, −1, 2), empezamos escribiendo la matriz cuyos vectores columna son estos tres vectores y el vector genérico (x1 , x2 , x3 , x4 ): ⎛

1 ⎜ ⎜ −1 ⎜ ⎜ 1 ⎝ 0

2 1 0 2

1 2 −1 2

⎞ x1 ⎟ x2 ⎟ ⎟, x3 ⎟ ⎠ x4

y procedemos a escalonar la matriz. Ahora bien, ya tenemos este trabajo hecho en otro lugar: si nos fijamos, esta matriz es la misma que obteníamos en el § 382 —y que allí recordamos del § 279 (cf. p. 258)—, así que los cálculos a partir de ahora serían exactamente los mismos que llevamos a Recordamos el sistema (17): ⎧ ⎨ x1 − 2x2 − 3x3 =0 ⎩ 2x + 2x − 3x = 0. 1

2

4

cabo en este citado § 382. El sistema de ecuaciones lineales homogéneo (17) es, pues, un sistema de ecuaciones implícitas para el subespacio vectorial de R4 generado por los vectores (1, −1, 1, 0), (2, 1, 0, 2) y (1, 2, −1, 2), es   decir, para el subespacio vectorial L (1, −1, 1, 0), (2, 1, 0, 2), (1, 2, −1, 2) . Nota bene

Si el lector relee el ejemplo del § 279 (cf. p. 258), notará que todos los

cálculos allí realizados son los mismos que los realizados aquí (y en el § 382). En este y otros ejemplos de la Sección III.1, caracterizábamos todos los vectores que son combinación lineal de unos vectores dados como las soluciones de ciertos sistemas de ecuaciones lineales homogéneos. Con el lenguaje que hemos ido aprendiendo hasta aquí, podemos apreciar que este problema es exactamente el de calcular unas ecuaciones implícitas de un subespacio vectorial del cual  conocemos unos generadores.

III.3. INDEPENDENCIA LINEAL

¿Cuándo dos sistemas de ecuaciones implícitas representan el mismo subespacio vectorial?

387

Si dos sistemas de ecuaciones lineales homogéneos son equivalen-

tes (y por tanto tienen las mismas soluciones), entonces es claro que ambos son sistemas de ecuaciones implícitas de un mismo subespacio vectorial. Pero podemos decir más; de hecho, se verifica un resultado análogo al que vimos en el § 374 para las ecuaciones paramétricas. En concreto: afirmar que dos sistemas de ecuaciones implícitas representan un mismo subespacio vectorial es equivalente a afirmar que las matrices de coeficientes de ambos sistemas cumplen esta propiedad: tras añadir filas nulas a la que menos filas tenga de forma que ambas resulten del mismo orden, una de las matrices se puede obtener de la otra mediante la aplicación de transformaciones elementales por filas sucesivas. La justificación de este resultado es esencialmente la misma que la justificación del resultado que hemos recordado del citado § 374. Nota bene

Cuando dos sistemas de ecuaciones implícitas corresponden al mis-

mo subespacio vectorial, ambos sistemas tienen el mismo número de incógnitas (tantas como componentes tienen los vectores del subespacio), con lo que las  dos matrices de coeficientes tienen el mismo número de columnas. Esto también se puede deducir del teorema 3 (§ 378).

Nótese también que si dos sistemas de ecuaciones implícitas representan el mismo subespacio vectorial, en particular el rango de sus matrices de coeficientes es el mismo.

Número mínimo de ecuaciones implícitas

388

Dado un subespacio vectorial, sabemos que todos los sistemas de

ecuaciones paramétricas que lo representan tienen el mismo número de ecuaciones —tantas como componentes tienen los vectores—, y que es el número de parámetros el que puede variar; pero también sabemos que este número de parámetros es mínimo para aquellos sistemas escritos a partir de una base del subespacio vectorial (§ 375). En el caso de los sistemas de ecuaciones implícitas, todos los que representan a un mismo subespacio vectorial tienen en común el número de incógnitas —tantas como componentes presentan los vectores—, y puede variar de unos a otros la cantidad de ecuaciones. Nos planteamos entonces de qué forma sería posible minimizar el número de ecuaciones. Pongamos que estamos hablando de un subespacio vectorial de Rn con

Excluimos el caso en que el subespacio sea el mismo Rn , para evitar hablar de sistemas de cero ecuaciones.

dimensión igual a d, donde d < n. Se tiene entonces que el número mínimo de ecuaciones que debe tener cualquier sistema de ecuaciones implícitas que represente el subespacio vectorial es n − d. Es decir, es posible determinar el subespacio vectorial con exactamente n − d ecuaciones implícitas, pero no es posible conseguirlo con menos.

III. VECTORES

Si recordamos la demostración del resultado del § 383, nos dan un sistema de ecuaciones paramétri-

pues, un sistema de ecuaciones implícitas de exactamente n − d ecuaciones.

cas del subespacio vectorial y, después de eliminar

Por otra parte, de acuerdo con el teorema 3 (§ 378),

parámetros, nos queda una cantidad de ecuaciones implícitas igual a la diferencia entre n (número de com-

la matriz de coeficientes de un sistema de ecuaciones implícitas que represente el subespacio vectorial debe

ponentes de los vectores) y el rango de la matriz de

tener rango igual a n − d. (En efecto, si tal matriz es A,

coeficientes del sistema de ecuaciones paramétricas, el

el teorema nos asevera que d = n − rango A, de lo que

cual coincide con la dimensión del subespacio (§ 372);

se deduce: rango A = n−d.) Pero una matriz debe tener

es decir, quedan n − d ecuaciones implícitas. El pro-

al menos tantas filas como marca su rango, luego debe

cedimiento descrito en el citado § 383 nos construye,

haber al menos n − d ecuaciones en el sistema.

Número mínimo de ecuaciones implícitas de una recta y de un plano

389

Una recta de Rn es un subespacio vectorial de Rn con dimensión

igual a 1. De acuerdo con el resultado probado en el § 388, cualquier sistema de ecuaciones implícitas de una recta de Rn debe tener al menos n − 1 ecuaciones. Por ejemplo, una recta de R3 debe determinarse con al menos dos ecuaciones implícitas. De la misma forma, en cualquier sistema de ecuaciones implícitas de un

Pues la dimensión de un plano es igual a 2.

¿Cómo descartar ecuaciones implícitas sobrantes?

plano de Rn deben figurar al menos n − 2 ecuaciones. En particular, vemos que un plano de R3 requiere únicamente una ecuación implícita. 390

Cuando un sistema de ecuaciones implícitas tiene más ecuaciones

que el mínimo dado por el resultado del § 388, es posible descartar ecuaciones del sistema de forma que las que queden sigan formando un sistema de ecuaciones implícitas del mismo subespacio vectorial. Veamos cómo. Nos dan un sistema de ecuaciones implícitas de un subespacio vectorial

Como pedíamos en el § 388: que el subespacio no coincida con Rn y así evitar un posible sistema de cero ecuaciones.

de Rn con dimensión igual a d, donde d < n, pero el sistema dado tiene una cantidad de ecuaciones mayor que n − d —que, como sabemos, es el mínimo número de ecuaciones implícitas que deberían figurar para determinar el subespacio vectorial (§ 388)—. Con el fin de descartar ecuaciones implícitas, de entre las dadas, de forma que queden al final n − d ecuaciones que sigan siendo ecuaciones implícitas del mismo subespacio vectorial, podemos proceder así: escribimos la traspuesta de la matriz de coeficientes del sistema dado y calculamos sus columnas básicas (cf. § 364, p. 308), lo cual requiere escalonar la matriz y apuntar las columnas en las que figuran los pivotes; si en la citada matriz de coeficientes del sistema dado nos quedamos solo con aquellas filas que se corresponden con estas columnas básicas, el sistema de ecuaciones lineales homogéneo cuya matriz de coeficientes es esta nueva matriz verifica lo que queremos.

III.3. INDEPENDENCIA LINEAL

Si nos fijamos, conseguir lo que queremos —es de-

traspuesta también, y si en esta nos quedamos sola-

cir, a partir del sistema de ecuaciones implícitas da-

mente con las columnas básicas, la matriz que obtene-

do, escribir otro sistema de ecuaciones implícitas para

mos tiene n − d columnas y su rango sigue siendo igual

el mismo subespacio vectorial, pero solo con n − d ecuaciones— es tanto como decartar filas en la matriz

a n − d (véase la demostración del resultado del citado § 364). Si de nuevo trasponemos, obtenemos una ma-

de coeficientes del sistema original hasta que queden

triz de rango igual a n − d, y con n − d filas. Esta es la

solo n − d de ellas, pero llevando a cabo tal tarea de

matriz que buscamos: el sistema de ecuaciones lineales

forma que el rango se conserve.

homogéneo que la tiene como matriz de coeficientes es

La matriz de coeficientes original tiene rango igual a n − d, como consecuencia del teorema 3 (§ 378); su

Un ejemplo

391

un sistema de ecuaciones implícitas que cumple lo que queremos.

En el § 385, vimos un ejemplo de sistema de ecuaciones implícitas

del subespacio vectorial {(0, 0)}: ⎧ ⎪ 2x1 + x2 = 0 ⎪ ⎪ ⎨ =0 3x1 ⎪ ⎪ ⎪ ⎩ x − x = 0. 1 2

(18)

Pero según el resultado del § 388, en vez de tres deberían bastarnos dos ecuaciones implícitas: diferencia entre el número de componentes de los vectores y la dimensión del subespacio vectorial {(0, 0)}: 2 − 0 = 2. ¿Qué ecuación podría sobrar del sistema de ecuaciones implícitas (18)? Apliquemos el resultado del § 390. Para ello, escribimos la traspuesta La matriz de coeficientes del sistema (18) es ⎛ ⎞ 2 1 ⎜ ⎟ 0⎠. ⎝3 1 −1

de la matriz de coeficientes del sistema (18) y la escalonamos: 

2 1

3 0

1 −1



1 F2 ←F2 − F1 2

→ 



2 0

3 −3/2

1 −3/2

 .

Las columnas básicas (aquellas en las que figuran los pivotes) son la primera y la segunda: nos quedamos entonces con las filas primera y segunda de la matriz de coeficientes del sistema (18):   2 1 . 3 0 El sistema de ecuaciones lineales homogéneo que tiene por matriz de coeficientes esta matriz recién escrita, es decir: ⎧ ⎨ 2x1 + x2 = 0 ⎩ 3x1 = 0, resulta ser entonces un sistema de ecuaciones implícitas para el subespacio vectorial {(0, 0)}, y ello con un mínimo de ecuaciones.

III. VECTORES

Otro ejemplo

Este sistema es el (14) en el citado § 381.

392

En el § 381, consideramos el subespacio vectorial de R4 , denotado

por F , determinado por este sistema de ecuaciones implícitas: ⎧ ⎪ + 2x3 − x4 = 0 x1 ⎪ ⎪ ⎨ x2 + 4x3 − x4 = 0 ⎪ ⎪ ⎪ ⎩ −x + x + 2x = 0, 1

2

(14 )

3

y calculamos que su dimensión es igual a 2. De acuerdo con ello, el número mínimo de ecuaciones implícitas para determinar F es 2 (diferencia entre los números n = 4 —número de componentes de los vectores— y d = 2 —dimensión de F —). En el sistema de ecuaciones implícitas (14’) podría sobrar, pues, una ecuación; ¿cuál descartar? Aplicamos el resultado del § 390: al escalonar la matriz traspuesta de la La matriz de coeficientes del sistema (14’) es: ⎛ ⎞ 1 0 2 −1 ⎜ ⎟ ⎝ 0 1 4 −1 ⎠ . −1 1 2 0

Nótese bien que las columnas básicas son la primera y la segunda.

matriz de coeficientes del sistema (14’), obtenemos: ⎛ ⎛ ⎛ ⎞ ⎞ 1 0 −1 1 1 0 −1 F ←F −2F F ←F −4F 3 3 1 3 3 2 ⎜ ⎜ ⎜ ⎟ ⎟ ⎜ 0 ⎟ F4 ←F4 +F2 ⎜ 0 ⎟ F4 ←F4 +F1 ⎜ 0 1 1 1 1 ⎜ ⎟ → ⎟ →  ⎜  ⎜ ⎜ 2 ⎜0 ⎜0 4 4⎟ 4 2⎟ ⎝ ⎝ ⎝ ⎠ ⎠ 0 0 −1 −1 −1 −1 0

0 1 0 0

⎞ −1 ⎟ 1⎟ ⎟, 0⎟ ⎠ 0

con lo que nos podemos quedar solo con las ecuaciones primera y segunda del sistema (14’):

⎧ ⎨ x1 ⎩

+ 2x3 − x4 = 0 x2 + 4x3 − x4 = 0.

Este es un sistema de dos ecuaciones implícitas del subespacio vectorial F obtenido a partir del sistema (14’); no podemos tener menos ecuaciones.

Codimensión Codimensión de un subespacio vectorial

393

Queremos enfatizar lo siguiente: dado un subespacio vectorial, to-

dos los sistemas de ecuaciones implícitas que lo determinan tienen el mismo rango en su matriz de coeficientes, y este rango es igual a la diferencia entre el número de componentes de los vectores y la dimensión del subespacio vectorial (esto se comprobó, por ejemplo, en la demostración del resultado del § 388, como consecuencia del teorema 3, § 378). Esta diferencia de números tiene una denominación particular. Dado un subespacio vectorial de Rn , se denomina codimensión del subespacio vectorial a la diferencia entre la dimensión de Rn y la dimensión del subespacio vectorial. Si designamos por F el subespacio vectorial, su codimensión se denota así: codim F . Se tiene entonces: codim F = dim Rn − dim F = n − dim F .

III.3. INDEPENDENCIA LINEAL

Nota bene

Si tenemos un subespacio vectorial determinado por un sistema de

ecuaciones implícitas, la codimensión del subespacio es igual al rango de la matriz de coeficientes del sistema.



De acuerdo con el resultado del citado § 388, la codimensión de un subespacio vectorial establece el número mínimo de ecuaciones implícitas necesarias para definirlo. Ejemplos

394

El subespacio vectorial F de R4 introducido en el § 381 verifica

que codim F = dim R4 − dim F = 4 − 2 = 2. Si recordamos de este parágrafo citado, el sistema de ecuaciones implícitas que allí define F tiene una matriz de coeficientes de rango igual a 2; cualquier otro que pueda definir F debe cumplir este requisito. Una recta de Rn es un subespacio vectorial de Rn de codimensión igual a n − 1. Cualquier sistema de ecuaciones implícitas que determine una recta de Rn debe cumplir que el rango de su matriz de coeficientes es igual a n−1. Un plano de Rn tiene codimensión igual a n − 2: es, pues, necesario un sistema de ecuaciones implícitas de rango igual a n−2 para determinar uno. Hiperplanos vectoriales

395

Un hiperplano vectorial es un subespacio vectorial de codimensión

igual a 1. En símbolos: dado un subespacio vectorial H de Rn , decimos que H es un hiperplano vectorial de Rn si codim H = 1. Un hiperplano admite un sistema de ecuaciones implícitas formado por una única ecuación. El plano de R3 que vimos en el ejemplo del § 377 —nos referimos al   subespacio vectorial L (1, −1, 2), (2, 0, 4) — es un hiperplano de R3 , pues su codimensión es igual a 3 − 2 = 1. En este mismo parágrafo citado, vimos que la ecuación lineal x3 − 2x1 = 0 (en solitario) es una ecuación implícita del plano. Los hiperplanos de R3 son precisamente los planos de R3 . También, los hiperplanos de R2 son justamente las rectas de R2 . Definición alternativa

396

Según hemos visto en el § 395, un hiperplano admite una única

ecuación implícita. Surge esta duda: ¿cualquier subespacio vectorial determinado por una ecuación implícita en solitario es un hiperplano? Como un hiperplano —por definición— tiene codimensión igual a 1, un subespacio vectorial determinado por una única ecuación implícita es un hiperplano precisamente si cumple este requisito: el sistema de ecuaciones lineales formado por esa única ecuación tiene una matriz de coeficientes de rango igual a 1 (§ 393). Esto es tanto como decir que la ecuación no debe ser una ecuación nula. Como la ecuación es homogénea (su término independiente es igual a 0), ello es equivalente a su vez a que los coeficientes de la

III. VECTORES

ecuación no sean todos simultáneamente nulos. En definitiva: un hiperplano de Rn es un subespacio vectorial de Rn que coincide con el conjunto de soluciones de una ecuación lineal de la forma a1 x1 + a2 x2 + · · · + an xn = 0, con a1 , a2 , . . . , an no simultáneamente nulos. Por ejemplo, el subespacio vectorial de R3 determinado por la ecuación implícita 2x1 − 4x3 = 0 es un hiperplano de R3 . La ecuación lineal x2 = 0 es la ecuación implícita de un hiperplano de R2 ; también lo es de un hiperplano ¿De qué subespacio vectorial es ecuación implícita la ecuación 0x1 + 0x2 = 0?.

de R3 si la consideramos en las incógnitas x1 , x2 y x3 . Finalmente, la ecuación 0x1 + 0x2 = 0 no es la ecuación implícita de un hiperplano.

Ejercicios III.3 1

  ¿Qué diferencias hay entre 0, {0} y 0 ?

2

Considérense tres vectores v 1 , v 2 y v 3 de R3

c)

¿para qué valores de a y b forman los vectores

dados una base de R3 ?; d)

según los valores de a y b, calcular la dimensión

que son linealmente independientes. ¿Es libre el sis  tema v 1 , v 2 , 2v 1 + 3v2 + v 3 ? Si v 4 es otro vec-

del subespacio vectorial de R3 generado por los tres

tor de R3 , ¿cómo tiene que ser v 4 para que el siste  ma v 1 , v 2 , v 3 , v 4 sea libre? ¿Cuál sería la respuesta a

subespacio?

esta pregunta si todos los vectores fueran de R4 ? 3 a)

Calcular, según los valores del parámetro a, la

dimensión del subespacio vectorial de R3 generado por los vectores (1, 1, 1), (2, 2, 1) y (1, 3, a). b)

Si el valor de a es tal que el sistema de vecto  res (1, 1, 1), (2, 2, 1), (1, 3, a) es una base de R3 , calcular las coordenadas en esta base del vector (−1, −3, 0). 4 Calcular los valores del parámetro a para los   cuales los dos sistemas de vectores (1, −1, 0), (2, 0, a)   y (1, 2, −3), (0, 1, −1) generan el mismo subespacio de R3 . Calcular el rango de ambos sistemas y el del sistema formado por sus cuatro vectores juntos. 5

Si a y b designan números reales, se consideran

los vectores (2, 0, 2), (3, 5, a) y (5, −1, b). Se pide: a)

si a = 0 y b = 0, justificar que los vectores for-

man una base de R3 , y calcular las coordenadas del vec-

vectores; ¿para qué valores de a y b es un plano este

Considérese el subespacio vectorial G de R3 ge  nerado por T = (1, 1, 1), (1, 0, 1), (2, 1, 2), (0, 1, 0) , es   decir: G = L T . Se pide: 6

a)

escribir unas ecuaciones paramétricas de G;

b)

escribir unas ecuaciones implícitas de G;

c)

calcular la dimensión y la codimensión de G;

d)

escribir una base de G formada por vectores es-

cogidos entre los del sistema T ; e)

¿es el subespacio G un plano?; ¿es un hiperplano?

7 Contestar a las mismas cuestiones del ejercicio anterior tomando como sistema T este otro (esta vez, de vectores de R4 ):   T = (1, 1, 1, 0), (1, 0, 1, 1), (2, 1, 2, 1), (0, 1, 0, −1) . 8 Si a designa un número real, se considera el sis  tema S = (1, 1, 1), (1, 0, 1), (2, 1, 2), (1, 1, a) , de vec-

el mismo orden en que figuran en el enunciado);

tores de R3 , y se denota por F el subespacio vectorial   de R3 que genera: F = L S . Se pide:

b) ¿para qué valores de a y b son los vectores dados linealmente independientes?;

a) según los valores de a, calcular la dimensión y la codimensión de F ;

tor (0, 6, 2) en tal base (escrita esta con los vectores en

III.3. INDEPENDENCIA LINEAL

b)

según los valores de a, escribir una base de F for-

mada por vectores escogidos entre los del sistema S; c)

escribir unas ecuaciones paramétricas de F ;

d)

posiblemente distinguiendo casos según los va-

lores de a, escribir unas ecuaciones implícitas de F ; e)

11

Responder a lo mismo que en el ejercicio ante-

rior tomando como subespacio H el subespacio vectorial de R3 determinado por las siguientes ecuaciones implícitas: ⎧ ⎪ x1 − 2x2 + x3 = 0 ⎪ ⎪ ⎪ ⎪ ⎪ 2x − 4x + 2x = 0 ⎨ 1

el subespacio F , ¿es un hiperplano para algún

valor de a? 9

Considérese el subespacio vectorial F de R3 de-

terminado por el siguiente sistema de ecuaciones paramétricas:

⎧ ⎪ x1 ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ x2 ⎪ ⎪ x3 ⎪ ⎪ ⎪ ⎪ ⎩x 4

=

λ1 − 2λ2 + λ3

= −λ1 + λ2 + 2λ3 = =

12

Considérense los sistemas de ecuaciones lineales

siguientes: ⎧ ⎨ x + y + 2z = 1 (∗) ⎩x − y − z = 1

y

⎧ ⎨ x + y + 2z = 0 (∗∗) ⎩ x − y − z = 0,

dientes del primero (decimos que el sistema (∗∗) es el

3λ2 + λ3 .

sistema de ecuaciones lineales homogéneo asociado al sistema (∗)).

Se pide: a)

escribir unos generadores y una base de F ;

b)

calcular la dimensión y la codimensión de F ;

c)

llevando a cabo una eliminación de parámetros,

a)

Escribir todas las soluciones de ambos sistemas.

b)

Buscar una solución (a, b, c) del sistema (∗) con

esta propiedad: cualquier otra solución del sistema (∗)

escribir unas ecuaciones implícitas de F ; d)

3

obtenido el segundo anulando los términos indepen-

− λ3

λ1

2

⎪ ⎪ x1 − 2x3 = 0 ⎪ ⎪ ⎪ ⎪ ⎩ 2x − 2x − x = 0. 1 2 3

se puede escribir como suma de (a, b, c) y alguna solución del sistema homogéneo (∗∗). ¿Hay alguna otra

¿es el subespacio F un hiperplano?

solución del sistema (∗) con esta misma propiedad? c)

Demostrar este resultado general: dado un sis-

Se considera el subespacio vectorial H de R4 de-

tema de ecuaciones lineales no incompatible (es decir,

terminado por el siguiente sistema de ecuaciones im-

que admita solución), y fijada una de sus soluciones,

plícitas:

cualquier otra solución se puede escribir como suma

10

⎧ ⎪ ⎪ ⎪ ⎨

x1 + 2x2

de la fijada y alguna del sistema homogéneo asociado.

=0

−2x1 − 4x2 + x3 + x4 = 0 ⎪ ⎪ ⎪ ⎩ −x − 2x + x + x = 0. 1 2 3 4

(19)

Para este subespacio H, se pide:

(Indicación: Resulta mucho más cómodo escribir los sistemas —y sus soluciones— en notación matricial; lo que hay que probar entonces es esto: dado un sistema AX = C y fijada una solución suya X1 , para cualquier otra solución X1 de este sistema existe alguna

a)

calcular la dimensión y la codimensión;

b)

encontrar un sistema de generadores y una base;

c)

escribir unas ecuaciones paramétricas;

d)

estudiar si es posible descartar alguna ecuación

ambos de Rn , del conjunto obtenido sumando a

del sistema (19) de forma que las que queden sigan for-

cada uno de los vectores de F el vector u decimos

mando un sistema de ecuaciones implícitas del mismo subespacio H.

que es un subespacio afín de Rn ; se denota: u + F . ! " Es decir: u + F = u + x ! x ∈ F . (El subespacio

solución X0 del sistema homogéneo asociado AX = O tal que X1 = X1 + X0 .) Nota

Dados un vector u y un subespacio vectorial F ,

III. VECTORES

afín u + F es una suerte de traslación del subespa-

necesariamente homogéneo) es un subespacio afín

cio vectorial F . ) De acuerdo con lo visto en el ejer-

definido (por traslación si queremos) a partir del

cicio anterior, podemos afirmar que el conjunto de soluciones de un sistema de ecuaciones lineales (no

subespacio vectorial dado por el conjunto de solu ciones de su sistema homogéneo asociado.

RECAPITULACIÓN III

RECAPITULACIÓN III El conjunto Rn : vectores  El conjunto Rn es el que tiene por elementos las n-uplas de números reales,

El hecho de que se verifiquen las ocho propiedades anteriores se sintetiza afirmando que el conjun-

es decir: (x1 , x2 , . . . , xn ) donde x1 , x2 , . . . , xn son nú-

to Rn , dotado de la adición y de la multiplicación por

meros reales. Si n = 2, los elementos de R son pares

números, es un espacio vectorial sobre R. Cuando tra-

ordenados: (x1 , x2 ); si n = 3, los elementos de R3 son

bajemos con Rn , implícitamente consideraremos su es-

ternas; si n = 4, los elementos de R4 son cuaternas.

tructura de espacio vectorial, y llamaremos vectores a

2

Denotamos las n-uplas con letras en negrita, como x = (x1 , x2 , . . . , xn ). De esta n-upla, sus componentes primera, segunda, . . . , n-ésima son, respectivamente, x1 , x2 , . . . , xn .  Se define la suma de dos n-uplas (x1 , x2 , . . . , xn ) y (y1 , y2 , . . . , yn ) como (x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn )

sus elementos, y escalares a los elementos de R.  Dos vectores son iguales precisamente si sus componentes correspondientes son iguales.

Es decir, la

igualdad vectorial (x1 , x2 , . . . , xn ) = (y1 , y2 , . . . , yn ) es equivalente a las n igualdades escalares x1 = y1 , x2 = y2 , . . . , xn = yn .    Dada una matriz A = aij de orden (n, m), su j-ésimo vector columna es el vector de Rn cuyas componentes son los términos de la j-ésima columna de A, es decir: (a1j , a2j , . . . , anj ); y su i-ésimo vector fila es

(suma componente a componente), y el producto de

el vector de Rm cuyas componentes son los términos

una n-upla (x1 , x2 , . . . , xn ) por un número λ como

de la i-ésima fila de A, esto es: (ai1 , ai2 , . . . , aim ). Para una matriz de orden (n, m), hay m vectores

λ(x1 , x2 , . . . , xn ) = (λx1 , λx2 , . . . , λxn ). Propiedades de la adición: • asociativa: (x + y) + z = x + (y + z); • la n-upla nula: (0, 0, . . . , 0) (con n ceros), denotada por 0, es el elemento neutro de la adición: x + 0 = 0 + x = x; • cada n-upla es simetrizable: para cada n-upla x = (x1 , x2 , . . . , xn ), su opuesta, definida así: −x = −(x1 , x2 , . . . , xn ) = (−x1 , −x2 , . . . , −xn ), es tal que x + (−x) = (−x) + x = 0; • conmutativa: x + y = y + x.

columna y n vectores fila.  Decimos que un vector u es igual a una combinación lineal de k vectores dados v 1 , v 2 , . . . , v k si existen k escalares α1 , α2 , . . . , αk tales que: u = α1 v 1 + α2 v 2 + · · · + αk v k . Nos referiremos a los números α1 , α2 , . . . , αk como los coeficientes de la combinación lineal. Caso particular k = 1: u es combinación lineal de v 1 precisamente si u es múltiplo de v 1 . Método práctico: El vector u es igual a alguna combinación lineal de los k vectores v 1 , v 2 , . . . , v k precisa-

La adición articula el conjunto Rn como un grupo abe-

mente si admite solución el sistema de ecuaciones li-

liano.

neales cuya matriz ampliada es la matriz que tiene por

Propiedades de la multiplicación por números:

vectores columna los vectores v 1 , v 2 , . . . , v k y u (en

• asociativa (en los números): λ(μx) = (λμ)x;

este orden); además, cada solución de este sistema da

• distributiva respecto de la adición de números:

unos coeficientes para la combinación lineal.

(λ + μ)x = λx + μx;

Propiedad: si un vector es combinación lineal de

• distributiva respecto de la adición de n-uplas:

unos vectores, y cada uno de estos lo es a su vez de

λ(x + y) = λx + λy; • neutra para el número 1: 1x = x.

otros vectores dados, entonces el primer vector también es combinación lineal de estos últimos.

III. VECTORES

Subespacios vectoriales

 Dado un conjunto F , no

  tal que F = L v . En este caso, decimos también que el

vacío, de vectores, F subconjunto de Rn : F ⊆ Rn , deci-

vector v es un vector director de la recta F .

mos que F es un subespacio vectorial de Rn (o simplemente un subespacio de Rn ) si se satisfacen estas dos

un plano de Rn si existen dos vectores no nulos v 1

condiciones: • si x ∈ F y y ∈ F , entonces x + y ∈ F ; • si λ ∈ R y x ∈ F , entonces λx ∈ F .  Propiedades y algunos tipos de subespacios vectoriales: • cualquier subespacio vectorial presenta, por sí mismo, estructura de espacio vectorial; • el vector nulo: 0, es un vector de cualquier subespacio vectorial de R ; n

• si calculamos una combinación lineal de vectores de un subespacio vectorial dado, el resultado es un vector que sigue perteneciendo al subespacio vectorial; • los conjuntos Rn y {0} son subespacios vectoriales de Rn ; • dados unos vectores, el conjunto formado por todos los vectores que son combinación lineal de ellos es un subespacio vectorial; • dado un sistema de ecuaciones lineales homogéneo de n incógnitas, el conjunto de sus soluciones es un subespacio vectorial de Rn .  Se denomina subespacio vectorial (o simplemente

Decimos que un subespacio vectorial G de Rn es y v 2 de Rn , ninguno de los dos múltiplo del otro, tales   que G = L v 1 , v 2 . En tal caso, además decimos que los vectores v 1 y v 2 son unos vectores directores del plano G.  Generadores de Rn : una condición necesaria y suficiente para que unos vectores de Rn generen Rn es que la matriz que los tiene como vectores columna tenga rango igual a n. Consecuencia: para generar el espacio vectorial Rn , hacen falta al menos n vectores. Independencia lineal

 Dados unos vectores, de-

cimos que son linealmente dependientes si alguno de ellos se puede escribir como combinación lineal de los demás. Definición equivalente: los k vectores v 1 , v 2 , . . . , v k son linealmente dependientes precisamente si existen k escalares α1 , α2 , . . . , αk , no todos nulos, tales que α1 v 1 + α2 v 2 + · · · + αk v k = 0. Propiedades: • si entre unos vectores está el vector nulo, entonces tales vectores son linealmente dependientes;

subespacio) generado por unos vectores v 1 , v 2 , . . . , v k

• un solo vector es linealmente dependiente precisamente si es nulo;

de Rn al subespacio vectorial de Rn formado por todas

• dos vectores tales que uno es múltiplo del otro

las combinaciones lineales de estos vectores. Se deno  ta: L v 1 , v 2 , . . . , v k .

• dados unos vectores linealmente dependientes,

son linealmente dependientes;

Si F es un subespacio vectorial de Rn y unos vecto  res v 1 , v 2 , . . . , v k de Rn verifican: L v 1 , v 2 , . . . , v k = F ,

el que entre ellos sea igual a una combinación

decimos que los vectores v 1 , v 2 , . . . , v k son unos generadores del subespacio vectorial F (o que generan el

guiente: si lo “eliminamos”, los que quedan ge-

subespacio vectorial F ).

todos juntos.

Propiedades • si v es un vector (nulo o no) y λ es un número no     nulo, entonces L v = L λv ; • si v 1 y v 2 son dos vectores no nulos tales que uno       es múltiplo del otro: L v 1 , v 2 = L v 1 = L v 2 .  Decimos que un subespacio vectorial F de Rn es una recta de Rn si existe algún vector no nulo v de Rn

lineal de los demás es superfluo en el sentido sineran el mismo subespacio vectorial que generan

 Dados unos vectores, decimos que son linealmente independientes si ninguno de ellos se puede escribir como combinación lineal de los demás. Definición equivalente: los vectores v 1 , v 2 , . . . , v k son linealmente independientes precisamente si de la igualdad α1 v 1 + α2 v 2 + · · · + αk v k = 0 se deduce necesariamente que α1 = α2 = . . . = αk = 0.

RECAPITULACIÓN III

Propiedades: • si entre unos vectores dados está el vector nulo, entonces tales vectores no son linealmente independientes; • un solo vector es linealmente independiente precisamente si es no nulo;

lineal de los vectores del sistema, entonces el sistema nuevo también es un sistema libre; • si en un sistema de vectores intercambiamos dos vectores, o multiplicamos un vector por un número no nulo, o sumamos a un vector un múltiplo de otro, obtenemos otro sistema del mismo

• dos vectores tales que ninguno es múltiplo del

tipo que el de partida: si el primero es ligado,

otro son linealmente independientes; • dados unos vectores linealmente independientes,

el segundo también; si el primero es libre, el se-

cada uno de ellos es imprescindible en el sentido

   Diremos de un sistema de vectores v 1 , v 2 , . . . , v k

siguiente: si lo “eliminamos”, los restantes no generan el mismo subespacio que generan todos juntos; • dados unos vectores v 1 , v 2 , . . . , v k linealmente independientes, cualquier vector del subespa  cio L v 1 , v 2 , . . . , v k se puede escribir de una única manera como combinación lineal de los vectores v 1 , v 2 , . . . , v k .  Método práctico: Dados unos vectores, se forma

gundo también.

que es un sistema de generadores de un subespacio vectorial F de Rn si los vectores v 1 , v 2 , . . . , v k son unos   generadores de F , es decir, si L v 1 , v 2 , . . . , v k = F . Propiedad: si en un sistema de generadores de un subespacio vectorial intercambiamos dos vectores, o multiplicamos un vector por un número no nulo, o sumamos a un vector un múltiplo de otro, obtenemos un sistema de vectores que sigue siendo un sistema de ge-

matriz tiene rango menor que el número de vectores,

neradores del mismo subespacio vectorial.    Un sistema de vectores B = v 1 , v 2 , . . . , v k de un

entonces los vectores son linealmente dependientes; si

subespacio vectorial F es una base del subespacio vec-

la matriz que los tiene como vectores columna. Si la

tiene rango igual al número de vectores, entonces los vectores son linealmente independientes.  Un sistema de vectores es una lista, o colección, finita ordenada de vectores de un mismo espacio vectorial. Unos vectores v 1 , v 2 , . . . , v k de Rn forman (en este orden) un sistema de vectores de Rn , que se es  cribe así: v 1 , v 2 , . . . , v k . A veces denotaremos los sistemas de vectores con letras mayúsculas en negrita: S, B, etc.

torial F si se verifica: B es un sistema de generadores   de F (es decir: L v 1 , v 2 , . . . , v k = F ), y B es libre (o lo que es lo mismo: los vectores v 1 , v 2 , . . . , v k son linealmente independientes). Propiedades: • una condición necesaria y suficiente para que un sistema de vectores de Rn sea una base de Rn es que esté formado por n vectores tales que el rango de la matriz que los tiene como vectores columna sea igual a n;

 Decimos que un sistema de vectores es un sistema

• el número de vectores que figura en una base de

ligado si los vectores que lo forman son linealmente de-

un subespacio vectorial es el máximo múmero de

pendientes, y decimos que es un sistema libre si tales

vectores linealmente independientes que hay en

vectores son linealmente independientes. Propiedades:

el subespacio vectorial; • dado un subespacio vectorial, todas las bases que

• un sistema de vectores en el que figure el vector

tenga presentan el mismo número de vectores;

nulo es ligado;   • un sistema formado por un solo vector: v , es

• el subespacio vectorial {0} no admite base; • cualquier subespacio vectorial de Rn distinto del

ligado si v = 0, y es libre si v ≠ 0; • si a un sistema de vectores que es libre le adjuntamos un vector que no es igual a una combinación

subespacio vectorial {0} admite alguna base.   Dada una base B = v 1 , v 2 , . . . , v k de un subespacio vectorial F de Rn , si v es un vector de F , enton-

III. VECTORES

ces existen unos únicos números α1 , α2 , . . . , αk tales

• la dimensión de cualquier subespacio vectorial

que v = α1 v 1 + α2 v 2 + · · · + αk v k . Decimos que estos

de Rn es menor o igual que la de Rn , y se da la

números α1 , α2 , . . . , αk (en este orden) son las coordenadas del vector v en la base B.

igualdad solamente para el mismo Rn .

La base canónica de Rn , que se denota por BC , es el sistema de vectores formado por los vectores columna de la matriz identidad In :   BC = (1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, 0, . . . , 1) . Se trata de una base de R . Las coordenadas de un n

vector en la base canónica son precisamente sus componentes.

 El rango de unos vectores v 1 , v 2 , . . . , v k , o de un   sistema de vectores v 1 , v 2 , . . . , v k , es el número máximo de vectores linealmente independientes entre ellos.   Se denota por rango v 1 , v 2 , . . . , v k . Propiedades: • el rango de unos vectores es igual a la dimensión del subespacio vectorial que los vectores gene    ran: rango v 1 , v 2 , . . . , v k = dim L v 1 , v 2 , . . . , v k ; • el rango de un sistema de vectores no varía si ejecutamos en el sistema alguna de estas manipula-

 Si F es un subespacio vectorial de Rn distinto del

ciones: intercambiar dos vectores, multiplicar un

subespacio vectorial {0}, entonces admite base: se de-

vector por un número no nulo, y sumar a un vec-

nomina dimensión del subespacio vectorial F a la can-

tor un múltiplo de otro.

tidad de vectores de cualquiera de sus bases, y se de-

Método práctico: El rango de unos vectores es igual

signa por dim F .

al rango de la matriz que los tiene como vectores co-

Decimos que el subespacio vectorial {0} es de dimensión nula, o de dimensión igual a 0, y se escri-

lumna, y también es igual al rango de la matriz que los

be: dim{0} = 0. Propiedades (consideramos un subespacio vectorial F de Rn ): • las rectas son los subespacios vectoriales de dimensión igual 1, y los planos son los subespacios vectoriales de dimensión igual a 2; • la dimensión de un subespacio vectorial coincide con el número máximo de vectores linealmente independientes del subespacio (si dim F = p  1, hay algún sistema libre de vectores de F formado por p vectores, pero un sistema de vectores de F que tenga más de p vectores es ligado); • un sistema libre con tantos vectores como marque la dimensión es una base (si dim F = p  1 y tenemos p vectores v 1 , v 2 , . . . , v p de F que son linealmente independientes, entonces el sis  tema v 1 , v 2 , . . . , v p es una base de F ); • también, un sistema de generadores con tantos vectores como marque la dimensión resulta ser una base (si dim F = p  1 y v 1 , v 2 , . . . , v p son p vectores que generan F , entonces el sis  tema v 1 , v 2 , . . . , v p es una base de F ); • dim Rn = n;

tiene como vectores fila.  Recopilación de los métodos prácticos: dados unos vectores de Rn , calculamos su rango (como el rango de la matriz que los tiene como vectores columna, o el de la matriz que los tiene como vectores fila). Se cumple: • si el rango resulta menor que la cantidad de vectores, entonces los vectores son linealmente dependientes; • si el rango es igual que la cantidad de vectores, entonces los vectores son linealmente independientes; • si el rango es menor que el número de componentes de los vectores (es decir, menor que n), entonces los vectores no son generadores de Rn ; • si el rango es igual al número de componentes de los vectores (es decir, igual a n), entonces los vectores son generadores de Rn ; • si el rango es igual, a la vez, a la cantidad de vectores y al número de componentes de estos, entonces los vectores forman una base de Rn .  Dada una matriz, llamamos columna básica a cualquier columna tal que la columna correspondiente de alguna de sus formas escalonadas presenta un pivote.

RECAPITULACIÓN III

Dados unos vectores, escribimos la matriz cuyos

torial es equivalente a afirmar que las matrices

vectores columna son los vectores dados: entre estos

de coeficientes de ambos sistemas cumplen esta

vectores, aquellos que se corresponden con las columnas básicas de la matriz descrita forman una base del

propiedad: tras añadir columnas nulas a la que menos columnas tenga de forma que ambas que-

subespacio vectorial generado por todos los vectores

den del mismo orden, una de las matrices se

juntos.

puede obtener de la otra mediante la aplicación

Este cálculo no se puede llevar a cabo en la matriz cuyos vectores fila son los vectores dados: solo con la que los tiene como vectores columna. Ecuaciones de un subespacio vectorial  Conside  ramos un sistema de generadores v 1 , v 2 , . . . , v k de un

de transformaciones elementales por columnas sucesivas; • cuando se escribe un sistema de ecuaciones paramétricas de un subespacio vectorial, se minimiza la cantidad de parámetros si el sistema de gene-

subespacio vectorial F de Rn . Escribimos el sistema

radores a partir del cual se escribe el sistema de ecuaciones es una base del subespacio vectorial

de ecuaciones lineales, en las incógnitas λ1 , λ2 , . . . , λk ,

(además, en este caso, tal cantidad de parámetros

cuya matriz de coeficientes tiene por vectores columna los vectores v 1 , v 2 , . . . , v k y cuya matriz de términos

coincide con la dimensión del subespacio).

independientes tiene por vector columna un vector genérico (x1 , x2 , . . . , xn ). Decimos que este sistema es

 Si un subespacio vectorial F de Rn es tal que coincide con el conjunto de soluciones de un sistema de

un sistema de ecuaciones paramétricas del subespa-

ecuaciones lineales homogéneo (de n incógnitas), deci-

cio vectorial F (también decimos que sus ecuaciones

mos que el sistema homogéneo es un sistema de ecua-

son unas ecuaciones paramétricas del subespacio vectorial F ). Si v i = (vi1 , vi2 , . . . , vi n ) (para cada 1  i  k), el sistema de ecuaciones paramétricas toma la forma: ⎧ ⎪ x1 = v11 λ1 + v21 λ2 + · · · + vk1 λk , ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ x2 = v12 λ1 + v22 λ2 + · · · + vk2 λk , ⎪ ⎪ ....................................... ⎪ ⎪ ⎪ ⎪ ⎩ x = v λ +v λ +··· +v λ . n 1n 1 2n 2 kn k Las incógnitas de un sistema de ecuaciones paramétricas también reciben el nombre de parámetros.

ciones implícitas del subespacio vectorial F (o simplemente que las ecuaciones del sistema homogéneo son unas ecuaciones implícitas del subespacio vectorial F ). Teorema fundamental del Álgebra Lineal: El conjunto de soluciones de un sistema de ecuaciones lineales homogéneo con n incógnitas, con matriz de coeficientes A, es un subespacio vectorial de Rn de dimensión igual a n − rango A. Propiedades: • afirmar que dos sistemas de ecuaciones implícitas representan un mismo subespacio vectorial

Dado un sistema de ecuaciones paramétricas de

es equivalente a afirmar que las matrices de coe-

un subespacio vectorial de Rn que esté escrito a par-

ficientes de ambos sistemas cumplen esta propiedad: tras añadir filas nulas a la que menos filas

tir de k generadores del subespacio, los vectores del subespacio vectorial son aquellos cuyas componen-

tenga de forma que ambas resulten del mismo or-

tes x1 , x2 , . . . , xn se obtienen dando valores a los pa-

den, una de las matrices se puede obtener de la

rámetros λ1 , λ2 , . . . , λk en las ecuaciones del sistema.

otra mediante la aplicación de transformaciones

Propiedades: • la dimensión de un subespacio vectorial es igual

elementales por filas sucesivas; • para representar un subespacio vectorial de Rn

al rango de la matriz de coeficientes de cualquier

con dimensión igual a d, donde d < n, el número

sistema de ecuaciones paramétricas que lo repre-

mínimo de ecuaciones implícitas es n − d.

sente; • afirmar que dos sistemas de ecuaciones paramétricas representan un mismo subespacio vec-

Dado un sistema de ecuaciones implícitas de un subespacio vectorial de Rn con dimensión igual a d (tal que d < n) en el que figuren más de n − d ecua-

III. VECTORES

ciones, es posible descartar ecuaciones implícitas, de

acompañando a las filas nulas de la matriz de coefi-

entre las dadas, de forma que queden al final n − d

cientes). Este procedimiento se denomina eliminación

ecuaciones que sigan siendo ecuaciones implícitas del mismo subespacio vectorial. Para ello, podemos pro-

de parámetros. De la misma forma es posible escribir unas ecuacio-

ceder así: escribimos la traspuesta de la matriz de coe-

nes implícitas a partir de unos generadores.

ficientes del sistema dado y calculamos sus columnas básicas; si en la citada matriz de coeficientes del sistema nos quedamos solo con aquellas filas que se corresponden con estas columnas básicas, el sistema de ecuaciones lineales homogéneo cuya matriz de coeficientes es esta nueva matriz verifica lo que queremos.

 Se denomina codimensión de un subespacio vectorial F de Rn , y se denota: codim F , a la diferencia entre la dimensión de Rn y la de F : codim F = dim Rn − dim F (que es igual a n − dim F ). Propiedades: • la codimensión de un subespacio vectorial es

 Paso de ecuaciones implícitas a paramétricas: Se re-

igual al rango de la matriz de coeficientes de cual-

suelve el sistema de ecuaciones implícitas: al escribir

quier sistema de ecuaciones implícitas que lo de-

todas sus soluciones según el método visto en el Capí-

termine;

tulo I, ya quedan escritas unas ecuaciones paramétri-

• la codimensión de un subespacio vectorial esta-

cas (además, a partir de estas últimas —en los vectores

blece el número mínimo de ecuaciones implícitas

columna de su matriz de coeficientes—, se leen unos

necesarias para definirlo.

vectores generadores).  Paso de ecuaciones paramétricas a implícitas: Se discute el sistema de ecuaciones paramétricas según los

 Decimos que un subespacio vectorial H de Rn es un hiperplano vectorial de Rn si codim H = 1. Equivalentemente: un hiperplano vectorial de Rn es

valores de x1 , x2 , . . . , xn : las ecuaciones implícitas son

un subespacio vectorial de Rn que coincide con el con-

las condiciones que deben cumplir x1 , x2 , . . . , xn para

junto de soluciones de una ecuación lineal de la for-

que el sistema sea compatible, bien determinado, bien indeterminado (tras escalonar la matriz ampliada del

ma a1 x1 + a2 x2 + · · · + an xn = 0, con a1 , a2 , . . . , an no simultáneamente nulos.

sistema de ecuaciones paramétricas, las ecuaciones im-

Los hiperplanos de R3 son precisamente los planos

plícitas se obtienen al igualar a 0 las expresiones linea-

de R3 , y los hiperplanos de R2 son justamente las rec-

les en x1 , x2 , . . . , xn que quedan, en la última columna,

tas de R2 .

BIBLIOGRAFÍA Ballvé, María E., et al. Matemáticas (Acceso a la universidad), vols. 1 y 2. Sanz y Torres, 2012. Barbolla, Rosa y Paloma Sanz. Álgebra Lineal y teoría de matrices. Prentice Hall, 1997. Bujalance, Emilio, et al. Matemáticas Especiales. Sanz y Torres, 2000, segunda edición. de Burgos, Juan. Curso de Álgebra y Geometría. Alhambra Universidad, 1987. Cuesta Dutari, Norberto. La Sinfonía del Infinito. Ediciones Universidad de Salamanca, Salamanca, 1981. Delgado, Miguel, et al. Matemáticas (Álgebra, Cálculo, Geometría, Probabilidad). Teoría, problemas resueltos y propuestos. McGraw-Hill, 1999. Fernando, José F., et al. Álgebra Lineal, vols. 1 y 2. Sanz y Torres, 2010. Hernández, Víctor, et al. Introducción a las Matemáticas —Acceso a la Universidad. Ediciones Académicas, 2014, quinta edición. Michel, Philippe. Cours de Mathématiques pour Economistes. Économica, París, 1989, segunda edición. Prieto, Emilio y Alberto A. Álvarez. Álgebra Lineal para Administración y Dirección de Empresas. Sanz y Torres, 2010. Prieto, Emilio y Alberto A. Álvarez. Problemas resueltos de Álgebra Lineal para Administración y Dirección de Empresas. Sanz y Torres, 2010. Primo Martínez, Ángel. Matemáticas —Curso de Orientación Universitaria. SM, 1986. Simon, Carl P. y Lawrence Blume. Mathematics for Economists. Norton, 1994.

Juan del Rosal, 14 28040 Madrid Tel. Dirección Editorial: 913 987 521