El libro en los primeros capítulos se centra en la parte operativa y de adquisición de ejemplos en el espacio tridimensi
794 106 646KB
Spanish Pages [118]
Table of contents :
Vectores, rectas y planos
Matrices
Espacios Vectoriales
Transformaciones Lineales
Álgebra Lineal Ciencia y Tecnología
M.C. Oscar Ramírez
UNIVERSIDAD AUTÓNOMA DE LA CIUDAD DE MEXICO 2020©
Introducción *** El libro en los primeros capítulos se centra en la parte operativa y de adquisición de ejemplos en el espacio tridimensional y en el plano, y sugiere algunas nociones teóricas que después se formalizan en forma en el último capitulo, esto se ha hecho así para que el lector tenga el espacio para madurar y asimilar, ya con la parte operativa ejercitada en los capítulos previos al último, la generalización y formalización de las nociones que trabajo en R3 , R2 y en otros espacios sobre los que ya opero y trabajo antes de llegar a la parte mas formal. Además que al comienzo se hace énfasis en técnicas y ejemplos que no necesariamente se dan al comienzo de un curso abstracto de álgebra lineal, como las formas cuadráticas, o que sólo se mencionan en ejercicios sin apreciar la utilidad que tienen en las aplicaciones. Esperando que te sea de utilidad para que avances en tu carrera, última revisión 2020.
3
Vectores, rectas y planos *** 1.1.
Vectores en el espacio
Vamos a denotar a los vectores con A “ xa1 , a2 , a3 y y a los puntos por P “ pa1 , a2 , a3 q como representamos en la siguiente figura:
x pa1 , a2 , a3 q ˝
z
A “ xa1 , a2 , a3 y
y
a La norma del vector A “ xa1 , a2 , a3 y es |A| “ a21 ` a22 ` a23 , a los vectores i “ x1, 0, 0y, j “ x0, 1, 0y, k “ x0, 0, 1y se les conoce como vectores canónicos unitarios, porque tienen norma uno. 5
Un vector unitario en la direccion de A “ xa1 , a2 , a3 y es
1.1.1.
A |A|
Operaciones entre vectores
Sean A “ xa1 , a2 , a3 y, B “ xb1 , b2 , b3 y, C “ xc1 , c2 , c3 y vectores, definimos:
SUMA A ` B “xa1 , a2 , a3 y ` xb1 , b2 , b3 y “xa1 ` b1 , a2 ` b2 , a3 ` b3 y
RESTA A ´ C “xa1 , a2 , a3 y ´ xc1 , c2 , c3 y “xa1 ´ c1 , a2 ´ c2 , a3 ´ c3 y ESCALAR POR UN VECTOR si λ P R, λ A “λxa1 , a2 , a3 y “xλ a2 , λ a2 , λ a3 y
Ejemplos: x1, ´5, 2y ` x3, 1, 1y “x1 ` 3, ´5 ` 1, 2 ` 1y “ x4, ´4, 3y
z A ` B “ x4, ´4, 3y
A “ x1, ´5, 2y
B “ x3, 1, 1y y
x
Graficar 5x 12 , 15 , 1y x 52 , 1, 5y
z
x 12 , 15 , 1y x
y
1.1.2.
Producto Escalar(punto)
Sean A “ xa1 , a2 , a3 y, B “ xb1 , b2 , b3 y vectores, definimos A ¨ B “ a1 b1 ` a2 b2 ` a3 b3
Ahora, aplicando la ley de los cosenos al siguiente triángulo
A B´A
θ
B
|A ´ B|2 “ |A|2 ` |B|2 ´ 2 |A| |B| cos θ pa1 ´ b1 q2 ` pa2 ´ b2 q2 ` pa3 ´ b3 q2 “a21 ` a22 ` a23 ` b21 ` b22 ` b23 ´ 2 |A| |B| cos θ a1 b1 ` a2 b2 ` a3 b3 “ |A| |B| cos θ A ¨ B “ |A| |B| cos θ
Tenemos la equivalencia A ¨ B “ |A| |B| cos θ , en otras palabras con el producto punto se puede calcula el ángulo entre dos vectores.
1.1.3.
Producto Vectorial (cruz)
Dados los vectores A “ xa1 , a2 , a3 y, B “ xb1 , b2 , b3 y definimos
AˆB “
i a1 b1
j
k
a2 a3
b2 b3
Es decir: AˆB
a “i 2 b2
a1 a2 a1 a3 a3 `j `k b3 b1 b2 b1 b3
A ˆ B “i pa2 b3 ´ b2 a3 q ` j pa1 b3 ´ b1 a3 q ` k pa1 b2 ´ b1 a2 q A ˆ B “xa2 b3 ´ b2 a3 , a1 b3 ´ b1 a3 , a1 b2 ´ b1 a2 y
Ejemplo: obtener el producto vectorial de los vectores x1, 1, 1y y x1, ´1, 1y.
x1, 1, 1y ˆ x1, ´1, 1y
i “ 1 1
j 1
k
1
´1 1
“i p1 ` 1q ´ j p1 ´ 1q ` k p´1 ´ 1q “2j ´ 2k “ x2, 0, ´2y
Ahora calculamos :
x1, 1, 1y ¨ x2, 0, ´2y “p1qp2q ` p1qp0q ` p1qp´2q “ 0
x1, ´1, 1y ¨ x2, 0, ´2y “p1qp2q ` p´1qp0q ` p1qp´2q “ 0
Como el producto punto del vector x2, 0, ´2y con x1, 1, 1y y con x1, ´1, 1y es cero y todos los vectores involucrados tienen norma diferente de cero, entonces el vector es perpendicular o hace ángulo de noventa grados o π2 con cada uno de ellos, como se aprecia en la figura.
z
x1, ´1, 1y x
x1, 1, 1y
x1, 1, 1y ˆ x1, ´1, 1y
y
Es decir que el producto cruz de dos vectores resulta en un vector perpendicular a los vectores factores.
Ejercicios Dados los vectores U “ xu1 , u2 , u3 y, V “ xv1 , v2 , v3 y, W “ xw1 , w2 , w3 y verifique: Efectúa x1, ´1, 1y ˆ x1, 1, 1y que observaste?. Hint el producto vectorial NO conmuta.
pU ` V q ¨ W “ U ¨ W ` V ¨ W
U ¨V “V ¨U
U ¨ U ě 0, y U ¨ U “ 0 sólo cuando U “ 0.
Si λ P R se tiene pλU q ¨ V “ λ pU ¨ V q
U tiene norma uno. |U | U ¨V Hint recuerda la equivalencia para el producto |U | |V | , punto y despeja. cos θ “
Para la figura obtenga λ “
A¨B . Hint |λ B| “ |λ| |B| “ |A| cos θ |B|2 A
θ
B λB
A¨B B se llamará la proyección del vector A sobre el |B|2 vector B y se denotara por P roy AB . El vector
Dados U “ x1, 0, 1y, V “ x0, 1, 1y el conjunto Π “ tαU ` βV |α, β P Ru qué genera en el espacio tridimensional?
1.2.
Rectas y planos
Dados los vectores U “ xu1 , u2 , u3 y y V “ xv1 , v2 , v3 y. Ahora la expresión L ptq “ U ` t pV ´ U q , t P R
z
V ´U V U
´U y
x
En la figura se aprecia que para cada t P R el vector L ptq “ U ` t pV ´ U q esta sobre una linea en la dirección de V ´ U que pasa por el punto pu1 , u2 , u3 q, este vector se llamará vector director de la recta. Así tenemos la ecuación vectorial de la recta que pasa por le punto pu1 , u2 , u3 q en la dirección V ´ U es L ptq “ U ` t pV ´ U q , t P R.
Ejemplo Encontrar la recta que generan los vectores x1, 1, 1y, x0, 1, 2y, el punto p´1, ´3, ´2q pertenecerá a dicha recta? Primero obtenemos la ecuación vectorial de la recta
L ptq “x1, 1, 1y ` t rx0, 1, 2y ´ x1, 1, 1ys , t P R “x1, 1, 1y ` tx´1, 0, 1y “x1 ´ t, 1, 1 ` ty
Fianalmente, buscaremos si hay algún t tal que x1 ´ t, 1, 1 ` ty “ x´1, ´3, ´2y, es decir:
1´t“´1ñ t“0 1 “ ´ 3▽ ˝ 1 ` t “ ´ 2 ñ t “ ´3
Así obtenemos dos contradicciones ´3 “ t “ 0, es la primera y la segunda 1 “ ´3, ambas las obtenemos de suponer que el punto p´1, ´3, ´2q está en la recta, es decir que dicho punto no es parte de la recta L ptq. Ya vimos que dados dos vectores podemos que generar una recta con ellos, pero tambien si nos dan un punto y un vector, digamos el punto px0 , y0 , z0 q y el vector xa, b, cy, este será el vector director de la recta, y la ecuación quedaría sería
L ptq “ xx0 , y0 , z0 y ` txa, b, cy
Ahora, si px, y, zq es un punto de esta recta, entonces tenemos :
xx0 ` ta, y0 ` tb, z0 ` tcy “xx, y, zy x ´ x0 a y ´ y0 y0 ` tb “y ñ t “ b z ´ z0 z0 ` tcz ñ t “ c
x0 ` ta “x ñ t “
La ecuacion simetrica de la recta con vector director xa, b, cy con a, b, c ‰ 0 y que pasa por el punto px0 , y0 , z0 q x ´ x0 y ´ y0 z ´ z0 “ “ a b c
Ejemplo
Encontrar la ecuación simétrica de la recta ⟨
t L ptq “ 2 ` 3t, 4t, ´1 ` 4
⟩
Que pasa por el punto p2, 0, ´1q. De ⟨la ecuación vectorial de la recta tenemos que el vector ⟩ ⟨ direc⟩ 1 1 tor es 3, 4, , tenemos px0 , y0 , z0 q “ p2, 0, ´1q y xa, b, cy “ 3, 4, 4 4
tenemos sustituyendo: x ´ x0 y ´ y0 z ´ z0 x´2 y´0 z`1 “ “ ñ “ “ 1 a b c 3 4 4
1.3.
Planos
Dados los vectores U “ xu1 , u2 , u3 y, V “ xv1 , v2 , v3 y el conjunto Π “ tλU ` γV | λ, γ P Ru Es el plano generado por los vectores U, V, como se aprecia en la figura en la sig, pagína. La expresión λ U ` γ V se llama combinación lineal de los vectores U, V. z Π
V U x
y
Ahora, si n es un vector normal al plano Π notemos que es perpendicular a cualquier vector que este en ese plano:
z Π px0 , y0 , z0 q ˝
n px, y, zq ˝
y
x
En particular para el vector xx ´ x0 , y ´ y0 , z ´ z0 y en el plano Π, se tiene n ¨ xx ´ x0 , y ´ y0 , z ´ z0 y “ 0 , la anterior es la ecuación normal del plano. Para obtener un vector normal(perpendicular) al plano dados tres puntos en él px1 , y1 , z1 q, px2 , y2 , z2 q, px3 , y3 , z3 q procedemos a obtener dos vectores en el plano, digamos xx2 ´ x1 , y2 ´ y1 .z2 ´ z ´ 1y, y xx3 ´ x1 , y3 ´ y1 , z3 ´ z1 y procedemos a calcular n “ xx2 ´ x1 , y2 ´ y1 .z2 ´ z ´ 1y ˆ xx3 ´ x1 , y3 ´ y1 , z3 ´ z1 y Este será el vector normal al plano:
n“
Ejemplo
x2 x3
i
j
k
´ x1 y2 ´ y1 z2 ´ ´ x1 y3 ´ y1 z3 ´
z1 z1
Encontrar el plano que contiene los puntos p0, 1, 1q, p1, 0, 0q, p0, 0, 1q
Primero, vamos a encontrar dos vectores sobre el plano que contiene a esos tres puntos. mantenemos fijo el vector x0, 0, 1y: U “ x0 ´ 0, 1 ´ 0, 1 ´ 1y “x0, 1, 0y V “ x1 ´ 0, 0 ´ 0, 0 ´ 1y “x1, 0, ´1y
Procedemos a calcular U ˆ V.
U ˆV “
U ˆ V “i
1 0
´1
i 0 1
0
´j
j 1 0
0 1
0 ´1
k
´1
0
`k
0 1
1
0
“´i ´ k “x´1, 0, ´1y
Como ´U ˆV también es vector normal, tomamos a este como nuestro vector normal al plano, y obtenemos la ecuación normal del plano x1, 0, 1y ¨ xx, y, z ´ 1y “ 0 , desarrollando tenemos x ` y ` z “ 1.
z x`y`z “1 p0, 0, 1q ˝ ˝ p0, 1, 1q V U ˝ p1, 0, 0q
n
y
x
Solo comentamos que la forma vectorial de este plano es:
λ U ` γ V “ λx0, 1, 0y ` γx1, 0, ´1y, γ, λ P R
Ejercicios Determine si los cuatro puntos dados están en un mismo plano: a) p1, 1, ´2q , p4, 0, ´2q , p1, ´5, 10q , p´7, 2, 4q b) p2, ´1, 4q , p´1, 2, 3q , p0, 4, ´3q , p4, ´2, 4q Detrmina si los vectores dados estan en el mismo plano (coplanares): 1 1 a) 4i ` 6j, ´2i ` 6j, i ` 3j ` k 5 2
3 b) i ` 2j ´ 4k, ´2i ` j ` k, j ´ 2k 2 Hint, el volumen de un paralilepipedo con vertices U, V, W V olumen pU, V, W q “ W ¨ pV ˆ U q z
W ˝ U x ˝
˝
V
y Si los tres vectores son coplanares es equivalente a decir que el volumen del paralelepípedo que generan es cero. Determine si las rectas están sobre el plano dado: a) L ptq “ x1 ´ 2t, 3t, 4 ´ ty, 3x ` 5y ´ z “ 9,
x´1 y z`4 “ “ en el plano 2 5 5
b) L pτ q “ x3 ` 4τ, 6 ´ 11τ, 6 ` τ y, en el plano x ´ y ` z “ 10
1.4.
x ` 12 y´7 z`3 “ “ 2 5 5
Intersección de rectas, planos
Veamos cuales so las posibilidades para la intersección de planos:
‚
Para la intersección de planos tenemos tres casos: i) Los planos son paralelos y no se tocan(sus normales son proporcionales ), ii) Los planos se intersectan en una recta, iii) Los planos se tocan en un único punto.
Ejemplo
Determinar la intersección de los planos: 2x ´ 4y ` z “3 3 “1 2 ´5x ` y ` 8z “0 x`y´
Primero, vamos a representar el sistema de ecuaciones de una forma apropiada, separamos los coeficientes de cada variable y los acomodamos en un arreglo numerico como se muestra: x y z cte. » fi 2 ´4 4 3 — 3 ffi — ffi — 1 1 ´ 1ffi 2 fl – ´5 1 8 0
Vamos a establecer como podemos operar este arreglo numérico para encontrar la solución del sistema, podemos intercambiar dos renglones dentro del arreglo y el arreglo que queda será equivalente. Podemos multiplicar un renglón por una constante y el arreglo que obtenemos es equivalente al original. Se pueden sumar dos renglones. En nuestro caso buscamos escalonar el arreglo1 como a continuación mostramos para encontrar la solución. 1
Este arreglo se llama matriz, en este libro veremos posteriormente las propiedades y operaciones con matrices
intercambiamos primer renglón con el segundo:
»
2
— — — 1 – ´5
´4 1 1
fi » fi 3 4 3 1 1 ´ 1 ffi — 2 ffi 3 ffi — ffi ´ 1 ffi „ R1 Ø R2 — 2 ´4 4 3 ffi 2 fl – fl 8 0 ´5 1 8 0
multiplicamos por -2 el primer renglón y el resultado lo sustituimos en el segundo renglón, estamos buscando hacer lo que esta abajo del 1 de la primer columna primer renglón cero: fi 3 1 1 ´ 1 — 2 ffi — ffi „ ´2R1 `R2 Ñ R2 — 0 ´6 7 1 ffi „ 5R1 `R3 Ñ R3 – fl ´5 1 8 0 »
fi 3 —1 1 ´ 2 1ffi — ffi — 0 ´6 7 1 ffi — ffi – fl 1 0 6 5 2 »
fi 3 —1 1 ´ 2 1ffi — ffi 0 ´6 7 1 ffi „ R2 ` R3 Ñ R3 — — ffi – fl 15 0 0 6 2 »
Los tres ceros de la extrema izquierda del último arreglo, es lo que vamos a llamar sistema escalonado, que era lo que buscabamos con las operaciones permitidas, ahora mostramos el sistema al que llegamos :
3 x ` y ´ z “1 2 ´6y ` 7z “1 15 z“6 2
15 Finalmente procedemos a sustituir los valores z “ 6 ñ z “ 2 12 4 “ este valor lo sustituimos en la siguiente ecuación ´6y ` 7z “ 1 15 5 4 1 ´ 1 ´ 7z 5 “ 1, para encontramos el valor de y. Es decir y “ “ 6 6 30 con estos dos valores substituimos en la ultima ecuación 3 x`y´ z “1 2 3 1 4 53 para obtener el valor x “ 1 ´ y ` z “ 1 ´ ` “ . Es decir que 2 30 5 30 la solución de sistema es: x“
53 , 30
y“
1 , 30
z“
Asi los planos se intersectan en un solo punto
4 5 ˆ
53 1 4 , , 30 30 5
˙
Ejemplo
Encontrar la intersección, si la hay, de los planos:
2x ´ y ` 3z “2 ´4x ` 2y ´ 6z “0
Ponemos su arreglo(matriz) asociado y escalonamos: »
2
´1
–
´4
2
3
2
´6 0
fi
»
fl „2R1 ` R2 Ñ R2 –
2 ´1 3 2
fi
0
fl
0
0 4
Ya tenemos el sistema escalonado, pero del segundo renglón de la , es decir matriz, tenemos una contradicción, tenemos que2 0 “ 4▽ ˝ que el sistema no tiene solución. Lo cual era de esperarse, pues los coeficientes de las variables de cada ecuación nos da las entradas del vector normal de cada plano, es decir 2x´y`3z “ 2 ñ n1 “ x2, ´1, 3y y ´4x ` 2y ´ 6z “ 0 ñ n2 “ x´4, 2, ´6y, es decir que n2 “ ´2n1 por lo que los planos son paralelos, como el escalonamiento nos indica que NO tiene solución ya que los planos no se tocan por ser paralelos. 2
Esto es asi, pues como todo el renglón es cero excepto por la ultima columna, esto implica que los coeficientes de cada variable es cero y de queda la igualdad 0=4.
z
Π1 : ´ 4x ` 2y ´ 6z “ 0
n1
Π2 : 2x ´ y ` 3z “ 2
y
x
Ejemplo Encontrar la intersección de los planos, si la hay,para: x ` y ` z` “1 2x ` y ` 2z “2 x ` 2y ` z “1
Trabajamos sobre la matriz asociada al sistema:
»
1 1 1 1
fi
»
1
1
1 1
fi
— ffi ffi — — 2 1 2 2 ffi „ ´2R1 ` R2 Ñ R2 , — 0 ´1 0 0 ffi – fl fl – 1 2 1 1 1 2 1 1 »
1
1
1 1
fi
»
1
1
1 1
fi
ffi — ffi — 0 ´1 0 0 ffi „ R2 ` R3 Ñ R3 — 0 ´1 0 0 ffi „ ´R1 ` R3 Ñ R3 — – fl fl – 0 1 0 0 0 0 0 0
Ahora introducimos el concepto de grados de libertad sobre el sistema escalonado: gl “ grados de libertad= |#variables ´ #ecuaciones| Para nuestro caso gl“ |3 ´ 2| “ 1, es decir que el sistema escalonado tiene un grado de libertad, en otras palabras tiene un parámetro libre, digamos z “ t, el sistema queda: x ` y ` t “1 ñ x “ 1 ´ y ´ t “ 1 ´ t pues ´ y “0
La solución del sistema es L ptq “ x1 ´ t, 0, ty “ x1, 0, 0y ` t x´1, 0, 1y, t P R
En otras palabras es una recta, los dos planos se intersectan en una recta. Ejercicios
Si X “ xx1 , x2 , x3 y, P “ xp1 , p2 , p3 y son puntos de una recta, la forma normal de la recta esta dada por n ¨ pX ´ P q “ 0, es decir que n es un vector perpendicular o normal a la recta. Sean p1, 0, 3q, p0, 2, 1q puntos de una recta, encuentre la ecuación normal de esta recta. Hint verifica que el vector x0, 1, 1y es normal a la recta y utilizalo para obtener su ecuación normal.
Encuentra la intersección (si la hay) de los siguientes planos: a) 2x ` 3y ` z “1 x´y`z “´2 2x ´ 2y ` 2z “ ´ 4
b) 2x ´ 3y ` 4z “1 x´y´z “´1 ´x ` 2y ´ z “ ´ 2
c) x`y´z “´3 ´4x ` y ` 4z “7 ´2x ` 3y ` 2z “2
Sea A “ pa1 , a2 , a3 q un punto del plano Π : ax ` by ` z ` cz “ d y sea B “ pb1 , b2 , b3 q un punto no en Π. La ˇ el plano ˇ distancia del Ñ Ñ ˇ ˇ punto B al plano Π esta dada por ˇP roy n B ´ Aˇ . Para el plano x ´ 5y ` 7z “ 9 Encontrar su distancia al punto p4, 5, 7q. Hint verifica que el punto p2, 0, 1q es punto del plano y que la diferencia de los vectores de de los puntos es V “ x2, 5, 6y, finalmente calcula ˇ ˇ posición ˇn ¨ V ˇ ˇ ˇ ˇ |n|2 nˇ, donde n es el vector normal del plano. Encuentra el ángulo entre los planos x`y`z “ 0, 3x´y`2z “ 5. Hint usa el producto punto entre las normales de los planos para encontrar el ángulo. El punto de intersección de las rectas L ptq “ x1 ´ 2t, 3t, 4 ` ty y L pτ q “ x1`3τ, ´τ, 4`τ y estará en x1, 4, ´5y¨xx´1, y`3, zy “ 0?
Matrices *** Definición 2.0.1: Matriz Una matriz de dimensión n ˆ m donde ai,j P R, donde i representa j el número de columna : ¨ a11 a12 ˚a a ˚ 21 22 A“˚ .. ˚ ... . ˝ an1 an2
es un arreglo A “ pai,j qnˆm el numero de renglón o fila, y ˛ . . . a1m . . . a2m ‹ ‹ . . . ... ‹ ‹ ‚ . . . anm
Procederemos a describir las operaciones con las matrices.
31
2.1.
Operaciones básicas con matrices
Sean A “ paij qnˆm , B “ pbij qnˆm matrices del a misma dimensión ¨ ˛ ¨ ˛ a11 a12 . . . a1m b11 b12 . . . b1m ˚a a . . . a ‹ ˚b a . . . b ‹ 2m ‹ 2m ‹ ˚ 21 22 ˚ 21 22 ‹ ˚ Suma: A ` B “ ˚ ` .. . . . .. ‹ ˚ .. .. . . . .. ‹ ˚ ... . . ‚ ˝ . . . ‹ ˝ ‚ an1 an2 . . . anm bn1 bn2 . . . bnm ¨
a11 ` b11 a12 ` b12 ˚a ` b 21 a22 ` b22 ˚ 21 ˚ “˚ .. .. . . ˝ an1 ` bn1 an2 ` bn3
˛ . . . a1m ` b1m . . . a2m ` b2m ‹ ‹ ‹ . ... ‹ .. ‚ . . . anm ` bnm
Ejemplo ¨ ˛ ¨ ˛ ˛ ¨ 1 2 0 0 0 1 1`0 2`0 0`1 ˚0 1 1‹ ˚0 1 1‹ ˚0 ` 0 1 ` 1 1 ` 1‹ ˝ ‚` ˝ ‚“ ˝ ‚ 1 1 1 1`1 0`1 0`1 1 0 0 ˛ ¨ 1 2 1 ‹ ˚ “ ˝0 2 2‚ 2 1 1
¨
a11 a12 ˚a a ˚ 21 22 Resta: A ´ B “ ˚ .. ˚ ... . ˝ an1 an2 ¨
˛ ¨ . . . a1m b11 b12 ˚ . . . a2m ‹ ‹ ˚ b21 a22 ˚ .. . . . ... ‹ ‹ ´ ˚ ... . ‚ ˝ . . . anm bn1 bn2
a11 ´ b11 a12 ´ b12 ˚a ´ b 21 a22 ´ b22 ˚ 21 ˚ “˚ .. .. . . ˝ an1 ´ bn1 an2 ´ bn3
˛ . . . b1m . . . b2m ‹ ‹ . . . ... ‹ ‹ ‚ . . . bnm
˛ . . . a1m ´ b1m . . . a2m ´ b2m ‹ ‹ ‹ .. ... ‹ . ‚ . . . anm ´ bnm
Ejemplo
¨ ˛ ¨ ˛ ¨ ˛ 1 2 0 0 0 1 1´0 2´0 0´1 ˚0 1 1‹ ˚0 1 1‹ ˚0 ´ 0 1 ´ 1 1 ´ 1‹ ˝ ‚´ ˝ ‚“ ˝ ‚ 1 0 0 1 1 1 1´1 0´1 0´1 ¨ ˛ 1 2 ´1 ˚ ‹ “ ˝0 0 0 ‚ 0 ´1 ´1
¨
a11 a12 ˚a a ˚ 21 22 Escalar por matriz: λA “λ ˚ .. ˚ ... . ˝ an1 an2 ¨
˛ . . . a1m . . . a2m ‹ ‹ . . . ... ‹ ‹ ‚ . . . anm
λ a11 λ a12 ˚λ a λ a 22 ˚ 21 “˚ .. ˚ ... . ˝ λ an1 λ an2
˛ . . . λ a1m . . . λ a2m ‹ ‹ .. ‹ ... . ‹ ‚ . . . λ anm
Ejemplo
¨ ˛ ¨ ˛ 1 2 0 5ˆ1 5ˆ2 5ˆ0 ˚ ‹ ˚ ‹ 5 ˝0 1 1‚ “ ˝5 ˆ 0 5 ˆ 1 5 ˆ 1‚ 1 0 0 5ˆ1 5ˆ0 5ˆ0 ¨ ˛ 5 10 0 ˚ ‹ “ ˝0 5 5‚ 5 0 0
Producto de dos matrices Para el producto de dos matrices A “ paij qnˆm , B “ pbst qmˆl hay que notar que el numero de renglones del la primera matriz debe de ser igual al numero de columnas de la otra, y como consecuencia si esto no ocurre el producto no estará definido. C1 C2 . . . Cl ¨
R1 a11 a12 R2˚ ˚ a21 a22 . . AB “ . ˚ .. ˚ ... . ˝ Rn an1 an2
˛¨ . . . a1m b11 b12 ‹ ˚ . . . a2m ‹ ˚ b21 a22 ˚ .. . . . ... ‹ ‹ ˚ ... . ‚˝ . . . anm bm1 bm2
¨ R1 ¨ C1 R1 ¨ C2 ˚R ¨ C R ¨ C 2 2 ˚ 2 1 “˚ . . ˚ .. .. ˝ Rn ¨ C! Rn ¨ C2
˛ . . . b1n . . . b2n ‹ ‹ . . . ... ‹ ‹ ‚ . . . bml
˛ . . . R 1 ¨ Cl . . . R 2 ¨ Cl ‹ ‹ ‹ . ... .. ‹ ‚ . . . R n ¨ Cl
q
Donde pij “ Ri ¨ Cj “
Σ aisbsj “ ai1b11 ` ai2b2j ` . . . ` loaoiqmobqjon
s“1
Las columnas de B deben tener el mismo numero de renglones que columnas tiene A
Ejemplo
¨
˛ ¨ ˛ ¸ 2 ´1 ˜ p2qp1q ` p´1qp3q p2qp´1q ` p´1qp4q p2qp´5q ` p´1qp0q 1 ´1 ´5 ˚1 ˚ 0‹ p1qp´1q ` p0qp4q p1qp´5q ` p0qp0q ‹ “ ˝ p1qp1q ` p0qp3q ˝ ‚ 3 4 ‚ 0 ´3 4 p´3qp1q ` p4qp3q p´3qp´1q ` p4qp4q p´3qp´5q ` p4qp0q looomooon loooooomoooooon ¨ ˛ ´1 ´6 ´10 A B ˚ ‹ 1 ´1 ´5 ‹ “˚ ˝ ‚ 9 19 15
¨ ˛ ˜ ¸ ˜ ¸ 2 ´1 p1qp2q ` p´1qp1q ` p´5qp´3q p1qp´1q ` p´1qp0q ` p´5qp4q 1 ´1 ´5 ˚ ‹ 1 0 ‚“ p3qp2q ` p4qp1q ` p0qp´3q p3qp´1q ` p4qp0q ` p0qp4q 3 4 0 ˝ ´3 4 ¸ ˜ 16 ´21 “
10
´3
Notemos que AB ‰ BA es decir que el producto de matrices no es conmutativo.
Determinante de una matriz Para que tenga sentido calcular el determinante ˜ de una ¸ matriz la a c matriz tiene que ser cuadrada. Por ejemplo si A “ su deterb d minante |A| se define1 como:
|A| “
a b
c “ ad ´ bc d
Ejemplo
ˇ˜ ¸ˇ ˇ 2 9 ˇ 2 9 ˇ ˇ “ 2p0q ´ 9p´1q “ 9 ˇ ˇ “ ˇ ´1 0 ˇ ´1 0 Ahora para el una matriz tres por tres tenemos mas posibilidades, se ˛ ¨ a11 a12 a13 ˚ ‹ puede desarrollar por renglon o por columna. Sea A “ ˝a21 a22 a23 ‚ a31 a32 a33 Definimos el menor A11 como el determinante de la matriz que queda al quitar el primer renglón y la primer columna: A11 “
a22 a 32
a23 “ a22 a33 ´ a32 a23 a33
Ahora con esto presente el determinante de una matriz tres por tres desarrollada por primer renglón es 1
Notemos que el determinante es un número.
a 11 a21 a 31
a12 a13 a22 a23 “a11 p´1q1`1 A11 ` a12 p´1q1`2 A12 ` a13 A13 p´1q1`3 a32 a33 a22 “a11 a32
a23 a21 a23 a11 a12 ´ a12 ` a13 a33 a31 a33 a21 a22
Por segunda columna: a 11 a21 a 31
a12 a13 a22 a23 “a12 p´1q1`2 A12 ` a22 p´1q2`2 A22 ` a32 p´1q3`2 A32 a32 a33 “´
a21 a12 a31
a23 a11 a13 a11 a13 ´ a32 ` a22 a33 a21 a23 a31 a33
Es decir que se pueden calcular por el renglón o por la columna que prefiramos. Observación, los terminos Aij se llamarán menor y el término p´1qi`j Aij se llamará cofactor
Ejemplo
1 0 0
5 ´2 4 7 por primer columna 0 6
1 0 0
5 ´2 4 7 “p´1q1`1 A11 ` 0p´1q2`1 A21 ` 0p´1q3`1 A31 0 6 4 “ 0
7 6
“4p6q ´ 0p7q “ 24 ´ 0 “ 24
Ahora calculamos el determinante
1 3 0
4 11 4 0 por tercer renglón. 0 1
1 3 0
4 11 4 0 “0p´1q3`1 A31 ` 0p´1q3`2 A32 ` 1p´1q3`3 A33 0 1 1 “ 3
¨
4 “ 4 ´ 3p4q “ 4 ´ 12 “ ´8 4
a11 a12 ˚a a ˚ 21 21 cuadrada A “ ˚ .. ˚ ... . ˝ an1 an2 rengón es:
a 11 a21 .. . a n1
˛ . . . a1n . . . a2n ‹ ‹ . . . ... ‹ ‹ Su determinante por i´esímo ‚ . . . ann
a12 . . . a1n a21 . . . a2n n Σ aij p´1qi`j Aij .. . . . .. “j“1 . . an2 . . . ann
El determinate por j´esíma columna:
a 11 a21 .. . a n1
a12 . . . a1n a21 . . . a2n n Σ aij p´1qi`j Aij .. . . . .. “i“1 . . an2 . . . ann
Inversa de una Matriz La matriz inversa estará definida sólo para matrices cuadradas. Observación, una matriz A la que sus renglones los volvemos renglones (o sus columnas renglones) le llamaremos matriz transpuesta y la denotaremos por AT . ˜ ¸ a11 a12 Sea A “ su matriz inversa será: a21 a22 ¸ ˜ A ´A 11 21 1 A´1 “ |A| ´A12 A22 Es decir que su inversa es el inverso multiplicativo del determinante multiplicado por la matriz transpuesta de cofactores o menores de A.
Ejemplo
˜ Calcular la matriz inversa de la matriz
˜
2 3 ´1 4
¸´1
1 “ 11
2 3 ´1 4
¸
˜ ¸ 4 ´3 1 2
Notemos los siguiente:
˜
2 3 ´1 4
¸
1 11
¸ ¸ ¸˜ ˜ ˜ 4 ´3 4 ´3 2 3 1 “ 1 2 1 2 11 ´1 4
1 “ 11
¸ ˜ 11 0 0 11
˜ ¸ 1 0 “ 0 1
Obtenemos la matriz identidad, la que tiene unos en la diagonal y ceros en las demás entradas. Se deja como ejercicio hacer el producto A´1 A y checar que se obtiene otra vez la matriz identidad A´1 A “ I.
˛ ¨ a11 a12 a13 ‹ ˚ Para una matriz tres por tres ˝a21 a22 a23 ‚ su inversa será: a31 a32 a33 ˛ A11 ´A21 A31 1 ˚ ‹ ˝´A12 A22 ´A32 ‚ |A| A13 ´A23 A33 ¨
Ejemplo
¨
1 0
0 1
0 ´ 0
0 1
0 1
0 0
˚ ˚ ˚ ˚ ˛´1 ¨ ˚ 1 0 0 ˚ 3 0 1 0 1 0 ˚ 1˚ ˚3 1 0‹ ˝ ‚ “ ˚´ 5 1 5 1 ´ 3 0 1˚ 5 0 1 ˚ ˚ ˚ ˚ 3 1 1 0 1 0 ˝ ´ 5 0 5 0 3 1
¨
˛ 1 0 0 ‹ ˚ “ ˝´3 1 0‚ ´5 0 1
˛ ‹ ‹ ‹ ‹ ‹ ‹ ‹ ‹ ‹ ‹ ‹ ‹ ‹ ‹ ‚
Por último, efectuamos:
¨ ˛¨ ˛ ¨ ˛ 1 0 0 1 0 0 1 0 0 ˚3 1 0‹ ˚´3 1 0‹ ˚0 1 0‹ ˝ ‚˝ ‚“ ˝ ‚ 5 0 1 ´5 0 1 0 0 1
¨
˛¨ ˛ ¨ ˛ 1 0 0 1 0 0 1 0 0 ˚´3 1 0‹ ˚3 1 0‹ ˚0 1 0‹ ˝ ‚˝ ‚“ ˝ ‚ ´5 0 1 5 0 1 0 0 1
En general, para una matriz A de tamaño n ˆ n con determinante diferente de cero2 su matriz inversa es : ¨ ˛ A11 ´A21 . . . p´1qn`1 An1 ˚ ´A A22 . . . p´1qn`2 An2 ‹ 12 ˚ ‹ 1 ˚ ‹ A´1 “ .. .. .. ... ‹ |A| ˚ . . . ˝ ‚ 1`n 2`n p´1q A1n p´1q A2n . . . Ann
2
La matriz inversa de una matriz dada A no está definida si el determinante de la matriz A es cero.
Ejercicios ˜ ¸ ˜ ¸ 0 1 3 7 Dadas las matrices A “ ,B“ , obtener AB, La 0 2 0 0 matriz cero 0 es la que tiene todas sus entradas cero. Cúal es la moraleja?"ˆ Hint, la tiene divisores no triviales en ˙ ˇmatriz cero * ˇ a b ˇ M2ˆ2 rRs “ a, b, c, d P R c d ˇ
˜
¸ cos θ sen θ La matriz tendrá matriz inversa? de ser así ob´ sen θ cos θ tenerla. Hint recuerda que una matriz sea invertible equivale a tenga determinante diferente de cero.
¸ ˜ 2 0 calcular A2 ´ 2A ` I, donde I es la Para la matriz A “ 4 1 ˜ ¸ 1 0 matriz identidad I “ . Hint A2 “ A ˆ A 0 1
¨ ˛ ˛¨ ˛ ¨ 1 x 1 1 3 ˚ ‹ ‹˚ ‹ ˚ Obtén el producto ˝4 9 0‚˝y ‚ “ ˝2‚ resuelve el sistema 3 z 1 3 5 escalonando.
El rango de una matriz se define como el numero de columnas que no son suma de múltiplos de las demás columnas. Escalona el sistema ˛¨ ˛ ¨ ˛ ¨ 1 1 3 x 7 ˚5 1 1‹ ˚y ‹ ˚3‹ ˝ ‚˝ ‚ “ ˝ ‚ 2 1 7 z 5
Cúal es el rango de la matriz escalonada sin la columna de constantes ? y cúal es el rango de la matriz escalonada con la columna de constantes (matriz aumentada)? que observas?
Para la matriz asociada ¨ 3 ˚5 ˝ 2
al sistema de ecuaciones ˛¨ ˛ ¨ ˛ 1 1 x 1 ˚ ‹ ˚ ‹ 1 1‹ ‚˝y ‚ “ ˝1‚ 1 7 z 1
Obtén su matriz inversa, si es que tiene, y multiplica por la izquierda a ambos lados de la igualdad por la matriz inversa, qué observaste?
˜
¸˜ ¸ 1 1 6 Efectua que observas? Cuando el producto de un ´2 4 6 vector por una matriz es un múltiplo del vector original, a vector factor se llama vector propio.
Observa el siguiente procedimiento:
˜
˜ „ 29R
1
` 5R2 Ñ R1
1 0 3 5 0 1 7 2
¸
-6 15 87 0 -7 3 0 -29
¸
˜ „
1 3
R1 Ñ R1
2 ´ 29 7 29
5 29 3 ´ 29
„´7R
1 0 0 1
„
1
˜
1 0 3 5 -7 3 0 -29
˜
6 ´ 87
` 3R2 Ñ R2
1 R 87 1
Ñ R1
1 R Ñ R ´ 26 2 2
7 29
15 87 3 ´ 29
¸
1 0 0 1
¸
Ahora efectúa :
¸ ¸˜ ˜ 3 5 ´2 5 1 “ 7 2 29 7 ´3
˜ ¸ ˜ ¸ 3 5 1 ´2 5 “ 7 2 29 7 ´3
El procedimiento que observaste para que sirve? Hint qué obtuviste en los productos que te hiciste despúes del procedimiento?
¸
Ocupando el procedimiento ˛ anterior obtén la matriz ¨ del ejercicio 1 0 0 ˚ ‹ inversa de la matriz A “ ˝ 7 1 0‚. 11 0 0
El numero de operaciones que uno efectúa para calcular la matriz inversa por el método de cofactores es al menos [1] pn ` 1q! “ 1 ˆ 2 ˆ . . . ˆ n ´ 1 ˆ n ˆ n ` 1 y el numero de operaciones que se efectúa por le método que acabamos [1] de ver 3 es n3 cúal es más rápido?
3
La descomposición LU, es decir la factorización de una matriz A como producto de una matriz traingular superior por otra matriz triangular superior
2.2.
Valores propios y vectores propios
Definición 2.2.1: Vector Propio Dada una matriz A de n ˆ n, y un vector v, este vector se llamará vector propio(eigen vector)[3][5] de dicha matriz si Av “ λ v El valor λ se llamará valor propio.
Ejemplo
˛¨ ˛ ¨ ˛ ¨ 1 ´1 4 ´1 ´1p1q ` 4p´1q ` 1p4q ˚3 2 ´1‹ ˚ 4 ‹ ˚´1p3q ` 4p2q ` 1p´1q‹ ˝ ‚ ˝ ‚“ ˝ ‚ 2 1 ´1 1 ´1p2q ` 4p1q ` 1p´1q ¨ ˛ ´1 ˚ ‹ “˝ 4 ‚ 1
El valor propio del vector dado es 1.
Definición 2.2.2: Polinomio característico De la ecuación Av “ λ v tenemos λ v´Av “ 0 ñ v pλ I ´ Aq “ 0, en otras palabras λ I ´ A es la matriz cero y por lo tanto su determinante es cero, teneinedo presente esto, llamaremos a pA pλq “ |λ I ´ A| polinomio característico [3][5] las raices del polinomio característico se llamarán valores propios. [2]
Ejemplo Obtener el polinomio característico de la matriz ¸ ˜ 3 1 . A“ 2 2 ˇ ˜ ¸ ˜ ¸ˇ ˇ ˇ λ ´ 3 ´1 1 0 3 1 ˇ ˇ pA pλq “ ˇλ ´ ˇ “ 0 1 2 2 ´2 λ ´ 2 ˇ ˇ “ pλ ´ 3q pλ ´ 2q ´ 2 “λ2 ´ 5λ ` 4 “ pλ ´ 1q pλ ´ 4q
Asi tnenemos que λ1 “ 1, λ2 ´ “ 4 son valores propios de la matriz dada. Procedemos a obtener los vectores propios de cada valor.
˜ ˜ ¸ ¸˜ ¸ 3 1 v1 v1 “4 2 2 v2 v2 3v1 ` v2 “4v1 ñ v2 “ v1 2v1 ` 2v2 “4v2 ñ v1 “ v2
Tomamos v1 igual al coeficiente de v2 y v2 igual al coeficiente de v1 , y así obtenemos v2˜“¸1, v1 “ 1 el vector propio asociado al valor 1 propio λ “ 4 es vλ2 “ 1
¸˜ ¸ ˜ ¸ ˜ v1 v1 3 1 “ 2 2 v2 v2 3v1 ` v2 “v1 ñ v2 “ ´2v1 2v1 ` 2v2 “v2 ñ 2v1 “ ´v2
Tomamos v1 igual al coeficiente de v2 y v2 igual al coeficiente de v1 , y así obtenemos v2˜“ ´2, ¸ v1 “ 1 el vector propio asociado al valor 1 propio λ “ 1 es vλ1 “ ´2
Notemos que cada vector propio obtenidos no es suma de múltiplos de los demás vectores propios, esto se expresa ˜ ¸ ˜ ¸ 1 1 γ `β “0 1 ´2 Y se cumple solo cuando γ “ β “ 0, lo cual verificamos:
˜ ¸ ˜ ¸ 1 1 γ `β “0 1 ´2
γ ` β “0 ñ γ “ ´β γ ´ 2β “0 ñ ´3β “ 0 6 β “ 0 6 γ “ 0
Cuando esto ocurre, que la matriz tenga tantos vectores propios como la dimensión de la matriz(esto para matrices n ˆ n), que no sean múltiplos de sumas de los demás vectores propios, entonces la matriz se puede descomponer como producto de tres matrices, como se ejemplifica a continuación. Construimos la matriz P teniendo como columnas los vectores propios de la matriz A, es decir: ˜ ¸ 1 1 P “ 1 ´2
Ahora, su matriz inversa:
P ´1
˜ ¸ 2 1 1 “ 3 1 ´1
Con los valores propios construimos otra matriz , en el orden con el que escogimos los vectores propios para construir la matriz P, como a continuación se muestra: ˜ ¸ 4 0 D“ 0 1 Ahora efectuamos el siguiente producto:
¸ ¸˜ ¸ ˜ ¸˜ ¸˜ ˜ 2{3 1{3 4 1 2{3 1{3 4 0 1 1 “ 1{3 ´1{3 4 ´2 1{3 ´1{3 0 1 1 ´2
˜ ¸ 3 1 “ “A 2 2
En otras palabras: A “ P AP ´1
˜ ¸˜ ¸˜ ¸ 1 1 4 0 2{3 1{3 “ 1 ´2 0 1 1{3 ´1{3
El proceso anterior (diagonalización) es posible sólo cuando4 :
La matriz tiene tantos vectores propios como el tamaño de la matriz, y la matriz debe de tener tantas columnas como renglones( debe de ser cuadrada).
Cada vector propio no debe de ser sumas de múltiplos de los demás vectores propios,
Continuamos con otro ejemplo del calculo del polinomio característico, valores propios y vectores propios.
Ejemplo Obtener el polinomio característico de la matriz:
¨
˛ 3 ´1 0 ˚ ‹ A “ ˝´1 3 0‚ 1 1 2
4
El porque el proceso funciona y el porque de las condiciones se menciona en un capitulo posterior, en este solo lo describimos.
ˇ ¨ ˛ ¨ ˛ˇ ˇ λ ´ 3 ˇ 3 ´1 0 1 0 0 1 0 ˇ ˇ ˇ ˚0 1 0‹ ˚´1 3 0‹ˇ 1 λ ´ 3 0 pA pλq “ ˇλ ˝ ‚´ ˝ ‚ˇ “ ˇ ˇ ˇ 0 0 1 1 1 2 ˇ ´1 ´1 λ ´ 2
“ pλ ´ 2q
λ
´3 1 1 λ ´ 3
” ı 2 “ pλ ´ 2q pλ ´ 3q ´ 1
Los valores propios son λ1 “ 2, λ2 “ 4. Los vectores propios:
¨
¨ ˛ ˛¨ ˛ 3 ´1 0 v1 v1 ˚´1 3 0‹ ˚v ‹ ˚ ‹ ˝ ‚˝ 2 ‚ “4 ˝v2 ‚ 1 1 2 v3 v3
3v1 ´ v2 “4v1 ñ v1 “ ´v2 ñ v1 “ ´1, v2 “ 1 ´v1 ` 3v2 “4v2 ñ v1 “ ´v2 v1 ` v2 ` 3v3 “4v3 ñ v3 “ v1 ` v2 “ ´1 ` 1 “ 0
el vector propio asociado con el valor λ2 “ 4 es ¨ ˛ ´1 ˚1‹ ˝ ‚ 0 Para el otro valor propio
¨
˛¨ ˛ ¨ ˛ 3 ´1 0 v1 v1 ˚´1 3 0‹ ˚v ‹ ˚ ‹ ˝ ‚˝ 2 ‚ “2 ˝v2 ‚ 1 1 2 v3 v3
3v1 ´ v2 “2v1 ñ v1 “ v2 ñ v1 “ 1, v2 “ 1 ´v1 ` 3v2 “2v2 ñ v1 “ v2 v1 ` v2 ` 3v3 “2v3 ñ v3 “ ´v1 ´ v2 “ ´1 ´ 1 “ ´2
El vector propio asociado al valor propio λ1 “ 2 es ¨ ˛ 1 ˚1‹ ˝ ‚ ´2
Ejercicios Encontrar el polinomio característico, los valores propios y los vectores propios de las matrices: ˜ ¸ 4 2 a) 3 ´1 ¨ ˛ 1 6 ´2 ˚ ‹ b) ˝´3 2 0 ‚ 0 3 ´4 ¨ ˛ 1 2 3 4 ˚ ‹ ˚0 2 8 ´6‹ ‹ c) ˚ ˚0 0 3 ´5‹ ˝ ‚ 0 0 0 4 ˜ ¸ 5 6 d) 3 ´2 ˜ ¸ 5 ´1 e) 1 3 Encuentra la diagonalización (cuando sea posible) de las matrices del ejercicio anterior. Porque la matriz: ˛ 3 ´1 0 ˚´1 3 0‹ ‚ ˝ 1 1 2 ¨
NO se puede diagonalizar?
La forma general de una cónica es Qpx, yq “ Ax2 ` Bxy ` Cy 2 ` Dx ` Ey ` F “ 0 esta forma general de la cónica se le puede asociar una forma matricial como sigue: ˛ ¨ ˜ ¸ B ˜ ¸ A x x ‹ ˚ xx, yy ˝ B 2 ‚ ` xD, Ey `F “0 y y C 2 ˛ ¨ B ˚A ‹ Para quitar el termino en xy basta diagonalizar la matriz ˝ B 2 ‚ C 2 y llevar la cónica a forma canónica(teorema de los ejes principales). Donde, la ecuación canónica queda como ˜ ¸ u λ1 u2 ` λ2 v 2 ` xD, Ey P v donde λ1 , λ2 son los valores propios de la matriz de la cónica en forma no-canónica y P es la matriz que ocupamos para diagonalizar, como se vio en el capítulo. Para la cónica 17x2 ´ 30xy ` 17y 2 ´ 30 “ 0 Llevarla a su forma canónica diagonalizando su matriz asociada.
Espacios vectorial *** El matemático alemán Hermann Grassmann (1809-1877) es acreditado por la introducción de la idea de un espacio vectorial (aunque él no lo nombro así) en 1844. Por desgracia, su obra es muy difícil de abordar y no recibe tanta atención como merece. El matemático italiano Giuseppe Peano (1858-1932) lo estudio, en su libro de 1888, Calcolo Geometrico, Peano hizo más accesible la obra temprana de Grassmann y expusó los axiomas para un espacio vectorial como se le conocen en la actualidad. El libro de Peano es notable por ocupar la notación conjuntista como se utilizan hoy en día, aunque otros matemáticos no las aceptarón de inmediato. La definicón axiomática de Peano de espacio vectorial también tuvo poca influencia durante muchos años. Finalmente se aceptó en 1918, después de que Hermann Weyl (1885-1955) lo repitiera en su libro Space, Time, Matter, una introducción a la teoría de la relatividad general de Einstein 59
Definición 3.0.1: Espacios vectoriales Sea V un conjunto sobre el cual se definen dos operaciones, llamadas suma y multiplicación por un escalar. Si u, v P V, la suma de u y v se denota mediante u ` v, y si c es un escalar, el múltiplo escalar de u por c se denota mediante cu. Si los siguientes axiomas se cumplen para todos u, v, w P V y para todos los escalares c y d, entonces V se llama espacio vectorial y sus elementos se llaman vectores. 1. u ` v está en V, es decir que V es cerrado bajo la suma; 2. u ` v “ v ` u la suma es conmutativa en V, 3. u ` pv ` wq “ pu ` vq ` w la suma de vectores es asociativa, 4. Existe un elemento 0 en V, llamado vector cero, tal que u`0“0`u“u 5. Para cada u en V, cu está en V, el producto por escalares es cerrado en V, 6. c u P V, el producto por escalar es cerrado en V, 7. cpu ` vq “ cu ` cv, @ u, v P V, el producto por escalar es distributivo, 8. Para todos los escales c, d tenemos pc ` dqu “ cu ` du 9. cpduq “ pcdqu el producto por escalar es asociativo. 10. 1u “ u
El elemto neutro para la suma de vectores es único en un espacio
vectorial. En efecto, sean 0, 01 P V elementos neutros, luego 0 ` 01 “ 01 ñ 0 “ 01 ´ 01 “ 01 .
Ejemplo
Sea Rn “ txx1 , x2 , . . . , xn y : xi P R, 1 ď i ď nu Donde xx1 , x2 , . . . , xn y ` xy1 , y2 , . . . , yn y “ xx1 ` y1 , x2 ` y2 , . . . , xn ` yn y λ xx1 , x2 . . . , xn y “ xλx1 , λx2 . . . , λxn y , λ P R Ahora notemos que xx1 ` y1 , x2 ` y2 , . . . , xn ` yn y “ xy1 ` x1 , y2 ` x2 , . . . , yn ` xn y porque la suma en los números reales es conmutativa, además es asociativa y cerrada en los reales, entonces tenemos lo siguiente, si x “ xx1 , x2 , . . . , xn y y y “ xy1 , y2 , . . . , yn y, z “ xz1 , z2 , . . . , zn y entonces tenemos: x ` py ` zq “xx1 , . . . , xn y ` pxy1 , . . . , yn y ` xz1 , . . . , zn yq “xx1 ` y1 ` z1 , . . . , xn ` yn ` zn y “xpx1 ` y1 q ` z1 , . . . , pxn ` yn q ` zn y “ pxx1 , . . . , xn y ` xy1 , . . . , yn yq ` xz1 , . . . , zn y “ px ` yq ` z
Asi la suma es asociativa. Ahora el vector cero es 0 “ x0, . . . , 0y y este vector como se definió la suma, es neutro. Para la asociatividad:
x ` p´xq “xx1 . . . , xn y ` x´x1 , . . . , ´xn y “xx1 ` p´x1 q, . . . , xn ` p´xn qy “xx1 ´ x1 , . . . , xn ´ xn y “x0, . . . , 0y “ 0 Por otra parte λxx1 , . . . , xn y “ xλ x1 , . . . , λ xn y P Rn , es decir λx P Rn . Ahora , haciendo, en la anterior demostración x “ u ` v ñ λ pu ` vq “ λ u`λ v. si, en cambio tomamos λ “ α`β ñ pα ` βq x “ αx ` βx, o si λ “ αβ ñ pαβqx “ α pβxq ; finalmente 1xx1 , . . . , xn y “ x1 x1 , . . . , 1 xn y “ xx1 , . . . , xn y ñ 1 x “ x. Con lo cual concluimos de verificar que Rn es un espacio vectorial. Se deja como ejercicio demostrar que los siguientes son espacios vectoriales: ˇ ( ␣ P2 pRq “ a2 x2 ` a1 x ` a0 ˇ ai P R, 0 ď i ď 2 , escalares son R. #˜ ¸ˇ + a11 a12 a13 ˇ ˇ a P R, 1 ď i ď 2, 1 ď j ď 3 , M2ˆ3 pRq “ a21 a22 a23 ˇ ij ˇ ( ␣ F pR, Rq “ f : R Ñ Rˇf es función ˇ ( ␣ Mnˆm pRq “ paij qnˆm ˇ aij P R, 1 ď i ď n, 1 ď j ď m
3.1.
Subespacios
Definición 3.1.1: Subespacio vectorial Sea V un espacio vectorial y sea B Ă V, el conjunto B hereda todas los propiedades de espacio vectorial de V cuando, bajo las operaciones de V el conjunto B es él mismo espacio vectorial, o equivalentemente : Para todos u, v P B se cumple que u ` v P B, Para todo escalar λ, y u P V se cumple λ u P B 0V P B Cuando B satisface las tres condiciones, se llamará subespacio de V, y esto lo denotaremos por B ď V.
Ejemplo
Sea ˇ ␣ ( W “ px1 , x2 , . . . , xn´1 , 0q ˇ xi P R, 1 ď i ď n ´ 1 Ă Rn Entonces, tenemos: xx1 , x2 , . . . , xn´1 , 0y`xy1 , y2 , . . . , yn´1 , 0y “ xx1 `y1 , x2 `y2 , . . . , xn´1 ` yn´1 , 0y P W.
λxx1 , x2 , . . . , xn´1 , 0y “ xλx1 , λx2 , . . . , λxn´1 , 0y P W
Por último como el vector cero tiene la última entreda igual a cero, entonces 0 P W. Asi tenemos W ď V.
Ejemplo Sea x1, 0, 1y P R3 el conjunto ˇ ␣ ( B “ xx1 , x2 , x3 y ¨ x1, 0, 1y “ 0ˇxx1 , x2 , x3 y P R3
Es decir el conjunto de vectores perpendiculares a x1, 0, 1y, verificamos que es subespacio de R3 . Sean xx1 , x2 , x3 y, xy1 , y2 , y3 y P B luego pxx1 , x2 , x3 y ` xy1 , y2 , y3 yq ¨ x1, 0, 1y “ xx1 , x2 , x3 y ¨ x1, 0, 1y ` xy1 , y2 , y3 y ¨ x1, 0, 1y “ 0 ` 0 “ 0 es decir que xx1 , x2 , x3 y ` xy1 , y2 , y3 y P B.
Para xx1 , x2 , x3 y P B, λ P R tenemos :0 px1`x3 q “ 0 λxx1 , x2 , x3 y ¨ x1, 0, 1y “ λ
así λ xx1 , x2 , x3 y P B.
Finalmente como x1, 0, 1y ¨ x0, 0, 0y “ 0 se tiene que 0 P B.
Por los tres anteriores se sigue que B ď R3 .
Ejemplo
ˇ ␣ ( Sea Sym pn ˆ nq “ paij qnˆn ˇ aij “ aji , i ‰ j, 1 ď i, j ď n es decir el conjunto de las matrices simétricas que es un subconjunto del espacio Mnˆn pRq , como la suma de dos matrices simétricas es una matriz simétrica, el producto de un escalar por una matriz simétrica es una matriz simétrica, claramente la matriz cero es simétrica se tiene Sym pn ˆ nq ď Mnˆn pRq . Ejercicios ˇ ␣ ( Sean v1 , . . . , vs vectores de Rn . Sea W “ u P Rn ˇ u ¨ vi “ 0, i “ 1, . . . , s . Mostrar que W ď Rn .
Para los siguientes subconjuntos de R2 mostrar cuales son subespacios de Rn y cuales no y porque: ˇ ␣ ( a) px, yq ˇ x “ y ˇ ␣ ( b) px, yq ˇ x ´ y “ 1 ˇ ␣ ( c) px, yq ˇ x ` 4y “ 0 Mostrar que los siguientes subconjuntos de R3 son subespacios del espacio tridimensional: ˇ ␣ ( a) px, y, zq ˇ x ` y ` z “ 0 ˇ ␣ ( b) px, y, zq ˇ x “ y, 2y “ z ˇ ␣ ( c) px, y, zq ˇ x ` y “ 3z
Sea V un espacio vectorial y sean B, W ď V. Mostrar que los siguientes son subespacios de V. ␣ ˇ ( a) B X W “ xˇ x P B, x P W ˇ ␣ ( b) B ` W “ b ` wˇ b P B, w P W Sea V ď Rn . Sea W Ă Rn tal que ˇ ␣ ( W “ u P Rn ˇ u ¨ v “ 0, @ v P V mostrar que W ď Rn .
3.2.
Combinaciónes Lineales
Definición 3.2.1: Conjunto generador de vectores Sea V un espcio vectorial y sea v1 , . . . , vr P V. Diremos que v1 , . . . , vr generan a V si para cada v P V hay escalares λ1 , . . . , λr tales que v “ λ1 v1 ` . . . ` λr vr
Ejemplo
Sea ei “ x0, . . . , 1, 0, . . . 0y el i-ésimo vector canónico unitario, es decir el vector que tiene 1 un la i-ésima entrada y ceros en las demás. Los vectores e1 , . . . , en generan Rn . En efecto, sea x “ xx1 , . . . , xn y, luego n ÿ x “ x1 e1 ` x2 e2 ` . . . ` xn en “ xi ei i“1
Es decir que existen números x1 , . . . , xn P R que satisfacen la condición de la definición. Definición 3.2.2: Combinación Lineal En un espacio vectorial V y sea tv1 , v2 , . . . , vn u Ă V, la expresión λ1 v1 ` . . . ` λn vn se llamará combinación lineal, los ecalares λ1 , . . . , λn se llamarán coeficientes de la combinación.
Ejemplo
Sea y sea tv1(, v2 , . . . , vn u Ă V, el conjunto ˇ ␣ V un espacio vectorial C “ λ1 v1 ` . . . ` λn vn ˇ λi , i “ 1, . . . , n Ă V es un subespacio de V. En efecto, claramente 0 “ 0 v1 ` . . . ` 0 vn P C, ahora
λ1 v1 ` . . . ` λn vn ` γ1 v1 ` . . . ` γn vn “ pλ1 ` γ1 q v1 ` . . . ` pλn ` γn q vn κ pλ1 v1 ` . . . ` λn vn q “pκλ1 qv1 ` . . . ` pκλn qvn
Es decir que el conjunto de combinaciones lineales de un conjunto de vectores, contiene al cero del espacio y es cerrado bajo suma y multiplicación por escalar, por lo tanto es subespacio.
Ejercicios
Sea V un espacio vectorial y suponemos que sus escalares son R, y sea v P V no cero y sea u P V. Muestre que el conjunto ˇ ␣ ( u ` tvˇt P R Sea V un espacio vectorial y suponemos que sus escalares son R, y sea v, w P V no cero y sea u P V. Muestre que el conjunto ˇ ␣ ( u ` t1 v ` t2 w ˇ t P R Sean v1 , v2 , . . . , vr generadores de B ď Rn . Sea ˇ ␣ ( nˇ W “ w P R w ¨ vi “ 0, i “ 1, . . . , r Muestre que cada elemento de W es perpendicular a cada comr ÿ binación lineal λi vi P B. i“1
3.3.
Independencia Lineal
Definición 3.3.1: Vectores linealmente independientes Sea V un espacio vectorial, a los vectores v1 , v2 , . . . , vr P V se llamarán linealmente independientes si la única combinación lineal igual a cero es la que tiene todos sus coeficientes cero. Es decir, λ1 v1 ` . . . ` λr vr “ 0 sólo cuando λ1 “ . . . “ λr “ 0.
Cuando los vectores no son linealmente independientes le llamaremos linealmente dependientes.
Ejemplo
En Rn consideremos los vectores e1 “x1, 0, 0 . . . , 0y e2 “x0, 1, 0, . . . , 0y .. .. . . en “x0, 0, . . . , 1y
Los vectores e1 , . . . , en son linealmente independientes. En efecto x1 e1 ` . . . ` xn en “ x0, . . . , 0y ñ x1 “ . . . “ xn “ 0.
Ejemplo
Mostrar que los vectores x1, 1y y x´3, 2y en R2 son linealmente independientes. Tomamos una combinación lineal igualada a cero λ1 x1, 1y ` λ2 x´3, 2y “ 0 xλ1 ´ 3λ2 , λ1 ` 2λ2 y “x0, 0y λ1 ´ 3λ2 “0 λ1 ` 2λ2 “0
Restando la segunda ecuación de la primera obtenemos ´5λ2 “ 0 ñ λ2 “ 0 y sustituyendo este en la segunda, tenemos que λ1 “ 0. Definición 3.3.2: Base Si los elementos de un espacio vectorial v1 , . . . , vr P V generan V y además son linealmente independientes, entonces el conjunto de vectores B “ tv1 , . . . , vr u se llamará base de V. También podemos decir que los elementos v1 , . . . , vr forman o constituyen una base de V.
Ejemplo Ya se se demostró en un ejemplo anterior que el conjunto de vectores e1 , . . . , er Ă Rr son linealmente independientes. Sea xx1 , x2 , . . . , xr y P Rr luego xx1 , . . . , xr y “ x1 e1 ` . . . ` xr er Es decir que el conjunto de vectores e1 , . . . , er forma una base Rr .
Ejemplo Las funciones et , e2t son linealmente independientes. En efecto, tomamos una combinación lineal de ellas igualadas a cero: xet ` ye2t “ 0 derivamos a ambos lados xet ` 2ye2t “ 0
Ahora, de la segunda ecuación restamos la primera y obtenemos ye2t “ 0, como e2t ‰ 0 entonces y “ 0, lo anterior implica que xet “ 0, y por
un argumento similar tenemos x “ 0. Así tenemos que las funciones son linealmente independientes. #
Teorema Sean u, w P V, donde V es un espacio vectorial, entonces serán linealmente dependientes si y sólo si uno es un éscalar del otro. "
!
En efecto, si u, w son linealmente dependiente entonces hay escalares x, y no cero tales que xv ` yw “ 0 de aqui se sigue que v “ ´ xy w. Para la suficiencia suponemos que v “ λ w entonces v ` p´λqw “ 0 es decir que hay una combinación lineal de ellos igualada a cero donde los coeficientes de la combinación no son cero. La equivalencia anterior lo ocupamos en la parte de sisitemas de ecuaciones y intersecciones de rectas y planos de manera implícita. Ejercicios
Muestre que los siguientes vectores son linealmente independientes: a) x1, 1, 0y, x0, ´1, 1y b) x1, 1y, x´1, 1y c) x1, 0, 0, 1y, x0, 1, 10y
En el espacio de funciones continuas en el intervalo [0,1],ş Cr0, 1s, 1 tomamos et , e2t , e3t y definimos @ u, w P Cr0, 1s, u ¨ v “ 0 u w dt definimos : u1 “et u2 “e2t ´ P royu1 e2t u3 “e3t ´ P royu2 e3t
Demostrar que los vectores u1 , u2 , u3 son linealmente independientes, y que son ortogonales entres si. Sea B “ t1, x, x2 . . .u Ă Cr0, 1s, demuestre que todo subconjunto finito de B sus elementos son linealmente independientes. Sean xa, b, y, xc, dy P R2 , mostrar lo siguiente: a) Si ad ´ bc ‰ 0 entonces los vectores son linealmente independientes, b) Si son linealmente independientes entonces ad ´ bc ‰ 0, c) Si ad ´ bc ‰ 0 los vectores forma una base para R2 . Sea Rn como espacio vectorial y sean v1 , . . . , vs P Rn vectores y ninguno de ellos es el vector cero, tales que son mutuamente perpendiculares, es decir vi ¨ vj “ 0 para todos los i ‰ j. Mostrar que los vectores son linealmente independientes. Sea W el espacio vectorial generados por las funciones et , e2t , es decir ˇ ␣ ( W “ λ et ` γ e2t ˇ λ, γ P R cúales son las coordenadas del vector 5et ` 10e2t “ f ptq en W.
Muestre que #˜ ¸ ˜ ¸ ˜ ¸ ˜ ¸+ 1 0 0 1 0 0 0 0 B“ , , , 0 0 0 0 1 0 0 1 es un conjunto generador vectores linealmente independiente en el espacio vectorial M2ˆ2 pRq . ¿Cúantos elementos tiene B? Propón un conjunto B Ă Mnˆm pRq que sea base para Mnˆm pRq , ¿Cúantos elementos tiene B ?
3.4.
Dimensión
Teorema: Sea V un espacio vectorial y sea U “ tu1 , . . . , um u Ă V un conjunto de vectores que genera a V. Sean w1 , . . . , wn P V con n ą m. Entonces w1 , w2 , . . . , wn son linealmente dependientes. Puesto que el conjunto U es un conjunto generador, entonces tenemos el sistema: w1 “a11 u1 ` . . . a1m um .. .. .. .. .. . . . . . wn “an1 u1 ` . . . anm um
Para números c1 , . . . cn tomamos la conbinación lineal: ˜ ¸ ˜ ¸ n n ÿ ÿ 0 “ c1 w1 ` . . . ` cn wn “ u1 ci ai1 ` . . . ` um ci aim i“1
i“1
Ahora el sistema
c1 a11 ` . . . ` cn an1 .. ... .
“0 .. .
c1 a1m ` . . . ` cn anm “0
El sistema tiene solución no trivial porque tiene |n ´ m| grados de libertad. Luego, tomamos dicha solución como la elección de los c1 , . . . cn tales que c1 w1 ` . . . ` cn wn “ 0 es decir que los vectores w1 , . . . , wn son linealmente dependientes. Como consecuencia del teorema anterior tenemos que todas las bases de un espacio vectorial de dimensión finita tienen el mismo número de vectores, en efecto pues si B1 B2 Ă V son bases de V, entonces si el numero de vectores de una fuera menor que la otra estos serian linealmente dependientes por el teorema anterior ▽ , pero esto contradice ˝ que Bi es una base de V. Por lo tanto ambas bases deben de tener el mismo numero de elementos. Definición 3.4.1: Vectores Máximalmente l.i. Sea V un espacio vectorial , diremos que U “ tv1 , . . . , vt u Ă V es un conjunto máximal de vectores linealmente independientes, cuando twu Y U es un conjunto linealmente dependiente de vectores, donde w P V, w R U.
Proposición: Dado U “ tu1 , . . . , um u es un conjunto de vectores generadores de un espacio vectorial V, y si Ur Ă U es un conjunto maximal de r´vectores linealmente independientes entonces Ur es una base para V. ˇ ␣ ( En efecto, pues si u P UzUr “ u P Uˇu R Ur entonces el conjunto tuu Y Ur es linealmente dependiente, en efecto pues si cu `
r ÿ
xi ui “ 0
i“1
entonces c ‰ 0 porque de otra forma el conjunto Ur seria linealmente dependiente, lo cual contradice el hecho que este conjunto es maximal r ÿ xi de vectores linealmente independiente, es decir que u “ ui , es c i“1 decir que cada elemento del conjunto UzUr se puede expresar como una combinación lineal de los elementos de Ur , es decir que # + ˇ r ÿ ˇ U Ă xUr y “ ci ui ˇˇui P Ur i“1
por lo que Ur es un conjunto generador de V por serlo U, por lo anterior Ur es una base. Teorema: Todo conjunto máximal U “ tu1 , . . . , um u de vectores linealmente independientes de un espacio vectorial V, cumple U con ser una base. Esto sigue por que si v P VzU entonces en cv `
m ÿ i“1
ci ui “ 0 ocurre
c ‰ 0 porque de otra forma esto contradice que U es un conjunto m ÿ ci maximal de vectores linealmente independientes. así v “ ui , de ci i“1
esta forma tenemos que U genera, por lo que es una base. Teorema: Sea V un espacio vectorial de dimesión n, y tomamos v1 , . . . , vn P V vectores linealmente independientes, ellos son una base para V. El primer teorema de esta sección nos garantiza que no halla un conjunto con menos vectores que sea generador porque de otra forma los vectores v1 , . . . , vn serían linealmente dependientes, lo cual es una contradicción, algo análogo ocurre si suponemos que hay un conjunto generador de vectores que tenga más elementos, asi tenemos que los vectores v1 , . . . , vn forman un conjunto máximal de vectores linealmente independientes, y ya se demostró en un teorema previo que en estas condiciones son una base. Es decir que la dimesión de un espacio vectorial de dimensión finita, es la cardinalidad de un conjunto máximal de vectores linealmente independientes en él. La siguiente proposición se deja como ejercicio para el lector, sugerimos que tome una base en el subespacio dado y que demuestre que es una base del espacio. Proposición: Sea V un espacio vectorial y sea W ď V tal que dim W “ dim V, entonces W “ V.
Ejercicios
Sea V un espacio vectorial de dimensión n. Sea t un entero positivo, tal que t ă n, y sea tv1 , v2 , . . . , vt u un conjunto de vectores linealmente independientes de V. Luego hay elementos vt`1 , . . . , vn tales # que B “ tv1 , .+. . , vn u es una base de V.Hint muestra que t ÿ ˇ γi vi ˇ γi P R. ‰ H. y de ahi sigue el proceso por inducVz i“1
ción finita hasta completar la base. Sean V es un espacio vectorial con una base B con n´elementos y sea W ď V, tal que no es el subespacio con solo el 0 como elemento. Muestra que W tiene una base y además que la dimesion de W es menor o igual que n. Hint tomar w P Wz t0u , ahora si twu no es un conjunto maximal de vectores linealmente independientes, podemos encontrar w1 P Wz tw, 0u tal que w, w1 son l.i. y así proceder. Encontrar la dimensión de los siguientes espacios vectoriales: a) M2ˆ2 pRq , b) Mmˆn pRq , c) Mnˆn pRq , cuyas entradas son todas cero, con posiblemente 1 si esta en la diagonal. d) Mnˆn pRq , que son triangulares superiores, e) M2ˆ2 pRq , aij “ aji , i ‰ j, f) M3ˆ3 pRq , aij “ aji , i ‰ j g) Mnˆn pRq , aij “ aji , i ‰ j.
Sea V ď R2 , ¿cúal es la posible dimensión de V? Muestra que si V ‰ R2 , el subespacio V es una linea que pasa por el origen o t0u . Sea V ď R3 , ¿cúal es la posible dimensión de V? Muestra que si V ‰ R2 , el subespacio V es una linea que pasa por el origen o un plano que pasa por el origen o t0u .
3.5.
Rango de una matriz
Para A “ paij qmˆn P Mmˆn pRq , es decir ¨ ˚ ˚ A“˚ ˚ ˝
˛ a11 . . . a1n´1 a1n a21 . . . a2n´1 a2n ‹ ‹ .. . . . .. .. ‹ . . . ‹ ‚ am1 . . . amn´1 amn
La dimensión del subespacio generado por las columnas de A, se llamará el rango por columnas de A. Por un resultado de la sección anterior, tenemos que el rango por columnas de A es igual al número de columnas linealmente independientes de A. Análogamente se define el rango por renglones. En lo sucesivo, nos referimos al rango por columnas y el rango por renglones, a la dimensión del subespacio generados por las columnas o los renglones de A, respectivamente. Las siguientes operaciones en los renglones de A se llamarán operaciones por renglón: a) Sumar un multiplo escalar de un rengón con otro, b) Intercambiar renglones,
c) Multiplicar por un escalar un renglón.
Proposición: Las operaciones por renglón o por columna de una matriz A, deja invariable el rango por renglones de la matriz, pasa igual para el rango por columnas. En efecto, intercambiar los renglones de una matriz no tiene ningún efecto sobre el subespacio generado por los renglones, y por ende tampoco afecta el rango por renglones. Sumar un múltiplo de un renglón con otro, nos deja con los renglones de una matriz B como sigue
R1 “ A1 ` λA2 , A2 , . . . , Am
tenemos que cualquier combinación lineal de ellos es una combinación lineal de A1 , A2 , . . . , Am esto implica que Rng pBq ď Rng pAq donde Rng denota el rango de la matriz por renglones, y como podemos regresar a la matriz original desde de B tenemos la desigualdad Rng pAq ď Rng pBq . Así Rng pAq “ Rgn pBq . De manera analoga ocurre si multiplicamos un renglón por un escalar. Argumentos similares ocurren para el rango por columnas.
Teorema: Para una matriz A, de rango r, por una sucesión de operaciones por renglones o por columnas, la matriz se puede llevar a una matriz con unos en la diagonal de las primeros r´renglones y cero en todo los demás. r ¨ ˛ 1 0 ... 0 0 ... 0 ˚ 0 1 ... 0 0 ... 0 ‹ ‹ r ˚ ˚ . . . ‹ . . . ˚ .. .. . . .. .. .. ‹ ˚ ‹ ˚ ‹ ˚ 0 0 ... 1 0 ... 0 ‹ ˚ ‹ ˚0 0 ‹ 0 0 0 ˚ ‹ ˚ ‹ ˚ 0 0 ... 0 0 ... 0 ‹ ˚ . . .. .. . . . .. ‹ ˚ .. .. . . . ‹ ˝ ‚ 0 0 ... 0 0 ... 0 looooomooooon
looooooomooooooon
Asumimos que A no es la matriz cero, i.e. r ‰ 0, uno de las componentes es no cero y con las operaciones adecuadas, podemos asumir que dicha componente esta en la esquina superior izquierda, es decir a11 ‰ 0. Ahora vamos hacia abajo de la primer columna tomamos i1 ´ aa11 R1 ` Ri Ñ Ri , de esta forma tenemos un cero el i´ésimo renglón, y asi tenemos ceros debajo de a11 , y análogamente, una vez teniendo 1j ceros debajo de a11 para tener cero al lado tomamos ´ aa11 C1 `Cj Ñ Cj . Así proseguimos inductivamente para aii hasta obtener
¨ ˚ ˚ ˚ ˚ ˚ ˚ ˚ ˚ ˚ ˚ ˚ ˚ ˚ ˚ ˝
a11 0 0 a22 .. .. . . 0 0 0 0 0 0 .. .. . . 0
0
... ... ...
0 0 .. .
0 ... 0 ... .. .
0 0 .. .
. . . arr 0 ... 0 .. .
0 ... 0 0 ... .. . . . .
0 0 0 .. .
...
0 ... 0
0
y de aca con las operaciones adecuadas ¨ 1 0 ... 0 0 ˚ 0 1 ... 0 0 ˚ ˚ . . . ˚ .. .. . . ... ... ˚ ˚ ˚ 0 0 ... 1 0 ˚ ˚0 0 0 0 ˚ ˚ ˚ 0 0 ... 0 0 ˚ . . .. .. ˚ .. .. . . ˝
˛ ‹ ‹ ‹ ‹ ‹ ‹ ‹ ‹ ‹ ‹ ‹ ‹ ‹ ‹ ‚
se tiene ˛ ... 0 ... 0 ‹ ‹ .. ‹ . ‹ ‹ ‹ ... 0 ‹ ‹ 0‹ ‹ ‹ ... 0 ‹ ‹ . . . ... ‹ ‚
0 0 ... 0 0 ... 0 como afirmabamos. Por el teorema anterior tiene sentido hablar del rango a secas de una matriz, pues el teorema anterior implica que el rango por columnas es igual al rango por renglones. Este hecho se ocupa en la matriz escalonada de un sistema de ecuaciones con el criterio de que el sistema tiene solución cuando el rango de la matriz aumentada es igual al rango de la matriz reducida, sin la última columna.
Ejemplo
Encontrar el rango de la matriz ˜ ¸ 3 1 ´1 A“ 0 1 1 Como solo tiene dos renglones, el rango a lo más puede ser dos. Por otra parte notemos que para las columnas : ˜ ¸ ˜ ¸ ˜ ¸ 3 1 0 a `b “ 0 1 0
3a ` b “0 b “0 ñ 3a “ 0 6 a “ 0
Es decir que las columnas anteriores son linealmente independientes, notemos que tomamos un atajo en este ejemplo, el numero de renglones nos permitió acotar el rango de la matriz, de otra forma era necesario checar que las tres columnas juntas eran linealmente dependientes, pero las dos que ya trabajamos, eran l.i. esto nos facilito el trabajo.
Ejemplo
Encontrar el rango de la matriz ¨ ˛ 1 2 ´3 ˚ ‹ 1 0‹ ˚ 1 ˚ ‹ ˚ ´1 ´1 ‹ 3 ˝ ‚ ´1 2 ´1 Como la matriz tiene tres columnas, el rango de la matriz es a lo mas tres, trabajamos la matriz para llevarla a su forma escalonada: ˛ ¨ ˛ ¨ 1 2 ´3 1 2 ´3 ‹ ˚ ‹ ´R1 ` R2 Ñ R2 ˚ 3‹ 1 0‹ ˚ 0 ´1 ˚ 1 ‹„ ˚ ‹ „ R1 ` R3 Ñ R3 ˚ ˚0 1 ‹ ˚ ´1 ´1 ‹ 0 3 ‚ ˝ ‚ R1 ` R4 Ñ R4 ˝ 0 4 ´4 ´1 2 ´1 ¨ ˛ 1 2 ´3 R2 ` R3 Ñ R3 ˚ ‹ 3‹ ˚ 0 ´1 ‹ 4R2 ` R4 Ñ R4 ˚ ˚0 0 ‹ 3 ‚ R1 ` R4 Ñ R4 ˝ 0 0 8
Notemos de esta última matriz, que el último renglón es linealmente dependiente(l.d.) del antepenútimo, y se deja como ejercicio verificar que los tres primeros renglones son linealmente independientes(l.i.), por lo que el rango de la matriz es tres.
Ejercicios Encontrar el rango de las siguientes matrices: ˜ ¸ ¨ ˛ -2 0 1 1 2 7 a) ˚ ‹ 2 1 -1 f) ˝0 1 2‚ 0 0 3 ˜ ¸ 1 2 3 ¨ ˛ b) 2 0 0 5 7 0 ˚ ‹ g) ˝-3 1 2‚ ˜ ¸ 3 8 -5 -1 2 -2 c) 3 4 -5 ¨ ˛ 1 2 -3 ˜ ¸ ˚ ‹ -1 2 -2 ˚-2 -3 5‹ ‹ d) h) ˚ ˚2 4 -6‹ 3 4 -5 ˝ ‚ 1 -1 5 ˜ ¸ 2 0 e) 0 -3 Sea A una matriz triangular superior ¨ ˛ a11 a12 . . . a1n ˚ 0 a ... a ‹ 22 2n ‹ ˚ ˚ . ‹ . ˚ .. .. . . . ... ‹ ˝ ‚ 0 0 . . . ann Asumiendo que ningún elemento de la diagonal es cero, ¿cúal es el rango de la matriz?
Sea A P Mmˆn pRq y sea B P Mnˆr pRq de tal forma que el producto AB tiene sentido. a) Muestre que las columnas de AB son combinaciones lineales de las columnas de A. Ocupando lo anterior mostrar Rng AB ď Rng A b) Muestre que Rng AB ď Rng B. Hint, ocupar el hecho Rng AB “ Rng pABqt y que Rng B “ Rng B t .
Transformaciones lineales *** Definición 4.0.1: Transformación Dados W, V dos espacios vectoriales diremos que la asociación L : V Ñ W es una transormación cuando @ x, y P V, x “ y se tiene que L pxq “ L pyq . Observación Cuando W “ V “ R la transormación será llamada función, y cuando, W, V son conjuntos arbitrarios, no necesariamente espacios vectoriales, entonces L se llamará morfismo entre los espacios V, W.
Ejemplo
La asociación T : R3 Ñ R3 dada por ¨ ˛ ¨ ˛ ¨ ˛ 1 x x ˚ ‹ ˚ ‹ ˚ ‹ T ˝y ‚ “ ˝y ‚` ˝-1‚ 2 z z loomoon c 87
Es una transformación, ya que si tomamos u, v P R3 tal que u “ v ñ u ` c “ v ` c. Definición 4.0.2: Transformación lineal Una transformación L : V Ñ W entre los espacios vectoriales V, W será llamada tranformación lineal cuando abre sumas y saca constantes, es decir, dados u, v P V se tiene: L pu ` vq “ L puq ` L pvq y cuando para todo escalar γ y todo vector v P V pasa que L pγ vq “ γ L pvq
Proposición 4.0.1: Critero de linealidad Sean V, W espacios vectoriales y L : V Ñ W una transformación, dicha transfomación será lineal si y sólo si L ru ` κvs “ L rus ` κL rvs Para la necesidad pñq tenemos que la transformación es lineal, así que abre sumas, luego L ru ` κvs “ L rus ` L rκvs y como asumimos que la transformación es lineal, saca constantes, es decir L rus ` L rκvs “ L rus ` κL rvs . Para la suficiencia pðq tomamos κ “ 1 y entonces L ru ` vs “ L rus`L rvs , y observemos que L r0s “ L r0 ` 0s “ L r0s`L r0s ñ L r0s “ L r0s ´ L r0s “ 0. Tomando u “ 0 entonces L rκvs “ κL rvs .
Ejemplo
Sea L : C ra, bs Ñ C ra, bs , donde C ra, bs es la clase de funciones continuas en el intervalo cerrrado ra, bs , y definimos d f pxq dx Luego por como se definió L tenemos d L rf pxq ` κgpxqs “ pf pxq ` κgpxqq dx d d “ f pxq ` κ gpxq dx dx “L rf pxqs ` κL rgpxqs L rf pxqs :“
Es decir que la derivada es una transformación lineal.
Ejemplo
Sea A P M2ˆ3 pRq dada por ˜ ¸ 1 0 -1 A“ -3 2 0 Sea x P R3 , definimos L rxs “ Ax, entonces :
L rx ` κys “A px ` κyq “Ax ` κA y “L rxs ` κL rys
Con lo anterior tenemos que la transformación L : R3 Ñ R2 es una transformación lineal pues abre sumas y saca constantes.
Ejemplo
Sea L : R2 Ñ R2 una tranformación lineal tal que
L rp1, 1qs “ p1, 5q y L rp2, ´1qs “ p´2, 4q
encontrar L rp5, 1qs . Para encontrar la imagen, la escribimos como conbinación lineal:
p5, 1q “ x p1, 1q ` y p2, ´1q
Así tenemos el sistema de ecuaciones
x ` 2y “5 x ´ y “1 ñ 2x ´ 2y “ 2 7 4 x ` 2y ` 2x ´ 2y “7 ñ x “ ñ y “ 3 3
Con lo anterior tenemos :
7 4 L rp5, 1qs “ L rp1, 1qs ` L rp2, ´1qs 3 3 7 4 L rp5, 1qs “ p1, 5q ` p´2, 4q 3 3 ˆ ˙ 1 19 L rp5, 1qs “ ´ , 3 3
Proposición 4.0.2: Linealidad de función con coordenadas Sea F : V Ñ Rn un transformación lineal del espacio vectorial V en Rn . Entonces F es lineal si y sólo si cada función coordenada Fi : V Ñ R es lineal, para cada i “ 1, . . . , n. Como F : V Ñ Rn entonces F pvq “ pf1 pvq, . . . , fn pvqq , luego para la necesidad tenemos: F pv ` κwq “F pvq ` κF pwq “ pf1 pvq, . . . , fn pvqq ` κ pf1 pwq, . . . , fn pwqq “ pf1 pvq ` κf1 pwq, . . . , fn pvq ` κfn pwqq
Para 1 ď i ď n tenemos fi pv`κwq “ fi pvq`κfi pwq, así concluímos que cada función coordenada es lineal. La suficiencia se deja como ejercicio, para el lector.
Ejemplo
Sean V, W espacios vectoriales y sea L pV, Wq el conjunto de todas las transformaciones lineales de V en W. Ahora, para S, R P L pV, Wq definimos Suma pS ` Rq puq :“Spuq ` Rpuq Producto por escalar pSq pκuq :“κSpuq Luego pS ` Rq pu ` κvq “Spuq ` Rpuq ` κ pSpwq ` Rpwqq
En otras palabras, S ` R es una tranformación lineal. Se deja al lector como ejercicio mostrar que con las operaciones definidas, el conjunto L pV, Wq es un espacio vectorial. Ejercicios
¿Cúal de las siguientes transformaciones es lineal? a) Φ : R3 Ñ R2 dada por Φ px, y, zq “ px, zq
c) Φ : R3 Ñ R3 dada por Φ pxq “ x ` p0, ´1, 0q
b) Φ : R4 Ñ R4 dada por Φ pxq “ ´x
d) Φ : R2 Ñ R2 dada por Φ px, yq “ p2x ` y, yq
e) Φ : R2 Ñ R2 dada por Φ p2x, y ´ xq “ ´x f) Φ : R2 Ñ R2 dada por
Φ px, yq “ py, xq g) Φ : R2 Ñ R dada por Φ px, yq “ xy
Sean V, W espacios vectoriales y ˇsea L : V * Ñ W una transfor" ˇ mación lineal muestre que v P VˇˇL pvq “ 0 ď V Sea L : V Ñ W una transformación lineal muestre que ˇ " * ˇ L pvq P Vˇˇv P V ď W Sea LA : Rm Ñ Rn dada por LA pxq :“ Ax, con A P M pRqmˆn muestre que es una transformación lineal. Sean A, B P M pRqmˆn tal que Ax “ Bx, @x P Rn muestre que A “ B, o en otras palabras si LA “ LB , entonces A “ B. Si Lu : V Ñ V, LU pxq “ x ` u, es decir Lu es la traslación. ¿Para qué valores de u es Lu lineal ? Hint recuerda que toda transformación lineal R satisface Rp0q “ 0. Sea L : V Ñ W una transformación lineal a) Si D es una recta en V, muestre que L pDq , es ya sea una recta o un punto. b) Si D es un segmento entre los puntos P, Q P V,
muestre que L pDq , es ya sea una segmento o un punto.¿entre qué puntos está el segmento en LpDq? c) Si v, w P V son linealmen-
te independientes y suponga que Lpvq, Lpwq son linealmente independientes en W. Ahora sea Q P V, y sea A el paralelogramo: ˇ $ , ˇ & . A“ Q`λv`κwˇ0ďλ, κď1 ˇ % Muestre que L pAq es un paralelogramo en W
d) Dados dos elementos u, w P W, donde W es un espacio vectorial, que son linealmente independientes y sea L : V Ñ W una transformación lineal. Suponemos que Lpuq, Lpwq son linealmente independientes. muestre que la imagen del paralelogramo generado por u, w bajo L es ya sea un punto o un segmento
Sean e1 “ p1, 0q , e2 “ p0, 1q y sea L : R2 Ñ R2 una transformación lineal tal que Lpe1 q “ p1, 1q y Lpe2 q “ p´1, 2q. Sea C el cuadrado cuyas esquinas estan unbicadas en p0, 0q, p0, 1q, p1, 1q, p1, 0q muestre que LpCq es un paralelogramo. Sean V, W espacios vectoriales y sea L : V Ñ W una transformación lineal. Sean w1 , . . . , wn P W linealmente independientes y sean v1 , . . . , vn P V, tales que Lpvi q “ wi , @ i “ 1, . . . , n. Muestre que v1 , . . . , vn son linealmente independientes. Sea V un espacio"vectorial L : V Ñ R una transformación ˇ y sea * ˇ lineal. Sea W “ v P VˇˇLpvq “ 0 Ă V, y suponemos que V ‰
W, y tomamos v0 P VzW. Muestre que cada elemento de V se puede expresar como una suma w ` κv0 , para algún w P W y algún escalar κ. M uestre también que W ď V. Sean w1 , . . . , wn P W una base de W. Muestre que B “ tv0 , w1 , . . . , vn u es una base de V.
Definición 4.0.3: Vector propio, valor propio Dado un espacio vectorial V y una transformación lineal L : V Ñ V. Un vector propio (eigenvector)es un v P V, tal que hay un escalar κ que satisface Lpvq “ κv A dicho escalar se le llamará valor propio(eigenvalor).
Para L : Cra, bs Ñ Cra, bs, L :“
d . dx
a) Muestres que f pxq “ eγ x es una eigenfunción. d2 b) Si L “ 2 , en otras palabras la segunda derivada. Muestre dx que cos x, sen x son eigenfunciones, ¿cúales son sus valores propios? Sea L : V : V una transformación lineal y sea ˇ * " ˇ W “ v P VˇˇLpvq “ κv v Ă V Muestre que W ď V. Sean L : V : V una transformación lineal y v1 , . . . , vn eigenvectores no cero de L, con respectivos eigenvalores distintos κ1 , . . . , κn . Muestre que los vectores v1 , . . . , vn son linealmente independientes. Hint, ocupar inducción.
4.1.
Nucleo (Kernel) e Imagen de una tranformación lineal
Definición 4.1.1: Imagen de una transformación lineal. Sea L : V Ñ W una transformación lineal . La imagen de L es el conjunto de elementos w de W tal que hay un v P V con Lpvq “ w. es decir ˇ ␣ ( Im L “ w P Wˇ D v P V con Lpvq “ w Notemos que Im L ď W. En efecto pues Lp0V q “ 0W por lo que 0 PImL. Ahora si w, u PImL entonces hay v1 , v2 P V tal que Lpv1 q “ w, Lpv2 q “ u luego Lpv1 ` v2 q “ Lpv1 q ` Lpv2 q “ w ` u 6 w ` u P Im L Por último L pκv1 q “ κLpv1 q ñ κw P W. Definición 4.1.2: S a L : V Ñ W una tranformación lineal entre los espacio vectoriales V, W. El núcleo o kernel de L es el conjunto ˇ ␣ ( Ker L “ v P V ˇ Lpvq “ 0 Tenemos que Ker L ď V. Esto es porque claramente Lp0q “ 0 6 0 P Ker L. Sean v1 , v2 PKer L, entonces L pv1 ` v2 q “ Lpv1 q ` Lpv2 q “ 0 ` 0 “ 0 6 v1 ` v2 P Ker L Ahora, L pκ v1 q “ κ Lpv1 q “ κ 0 “ 0 6 κ v1 PKer L.
Ejemplo
Sea L : R3 Ñ R la transformación Lpx, y, zq “ 3x ´ 2y ` z Luego, dado A “ p3, ´2, 1q, podemos escribir Lpxq “ x ¨ A. Ahora, el Ker L es conjunto solución de la ecuación 3x ´ 2y ` z “ 0, i.e. Ker L “ tx P R3 | A ¨ x “ 0u . Esto se puede generalizar al espacio n-dimensional, definiendo el mapeo lineal LA : Rn Ñ R, LA pxq “ x ¨ A Donde su Kernel se puede interpretar como el conjunto de vectores perpendiculares al vector A.
Ejemplo
Sea P : R3 Ñ R2 la proyeción definida por P px, y, zq “ px, yq La transformación P es lineal cuyo kernel consiste de todos los vectores en R3 tales que sus dos primeras coordenadas son cero, es decir Ker L “ tx P R3 |x “ p0, 0, zqu , esto en notación conjuntista.
Ejemplo
Sea A P Mmˆn pRq y sea LA : Rn Ñ Rm , LA pxq “ Ax. La transformación es lineal y su kernel es el subespacio de soluciones del sistema de ecuaciones Ax “ 0.
Ejemplo Ecuaciones diferenciales
Let D la derivada, si denotamos por x una variable real, podemos d dr r , y de manera iterativa D “ r . Ahora sea V es el reescribir D “ dx dx espacio vectorial funciones que tienen derivadas de todos los ordenes. Sean a1 , . . . , ar P R, g P V, es decir que g es una función infinitamente diferenciable. Para el problema de econtrar una solución g de la ecuación diferencial ar
dr´1 g dr g ` a ` . . . ` a1 g “ f r´1 dxr dxr´1
Podemos reescribir esta ecuación sin ocupar la variable como sigue ar Dr g ` ar´1 Dr´1 g ` . . . ` a1 g “ f Cada derivada es una transformación lineal de V en si mismo. Sea L “ ar Dr ` ar´1 Dr´1 ` . . . ` a1 I. Entonces la transformación L es lineal al ser suma de transformaciones lineales. Luego la ecuación diferencial se puede escribir como Lpgq “ f. Notemos que esta una notación similar a la ocupada para resolver ecuaciones lineales, más aún esta es una ecuación no homogénea , la ecuación homogénea asociada es Lpgq “ 0, donde el lado derecho es la función cero. Con lo anterior tenemos ␣ ( Ker L “ g P V | ar Dr g ` ar´1 Dr´1 g ` . . . ` a1 g “ 0 Si g0 es una solución para la ecuación no homogénea Lpg0 q “ f, entonces todas las demás soluciones se obtienen mediante la traslación g0 ` Ker L “ tg0 ` g | g P Ker Lu esto último se deja como ejercicio.
Proposición 4.1.1 Sea L : V Ñ W una transformación lineal cuyo núcleo es t0u . Si v1 , . . . , vm son vectores linealmente independientes de V, entonces Lpv1 q, . . . , Lpvm q son vectores linealmente independientes de W. Tomamos una combinación lineal igualada a cero bajo las condiciones dadas en la proposición: κ1 Lpv1 q ` . . . ` κm Lpvm q “0 ñ L pκ1 v1 ` . . . ` κm vm q “0 ñ 0 “ a1 “ a2 “ . . . “ am por ser los vectores l.i. en V Es decir que Lpv1 q, . . . , Lpvm q son l.i. como afirmábamos. Comúnmente vamos a abreviar imagen y kernel como Im, Ker respectivamente en lo sucesivo. El siguiente teorema se el conoce como el teorema de la dimensión, el teorema relaciona la dimensión del espacio dominio con la dimensión de la imagen y del kernel. Teorema 4.1.1: Teorema de la dimensión Sean V, W espacios vectoriales y sea L : V Ñ W una transformación lineal entre ellos. Entonces dim V “ dim Ker L ` dim Im L Es decir que la dimensión del espacio dominio es igual a la suma de las dimensiones de él kernel y de la imagen. Si Im L “ t0u terminamos. Suponemos s “Im L ą 0. Sea tu1 , . . . , us u
una base de la imagen de L. Sean v1 , . . . , vs tales que Lpvi q “ ui , i “ 1, . . . , s. Si el kernel no es t0u , sea tw1 , . . . , wr u una base de el kernel. Afirmamos que: B “ tw1 , . . . , wr , v1 , . . . , vs u es una base de V. Sea v P V, entonces Lpvq “ a1 u1 ` . . . ` as us pero entonces Lpvq “a1 Lpv1 q ` . . . ` as Lpvs q “L pa1 v1 ` . . . ` as vs q , por linealidad de L Lpvq ´ L pa1 v1 ` . . . ` as vs q “0 L pv ´ a1 v1 . . . ´ as vs q “0, otra ves por linealidad
Es decir que v ´ a1 v1 . . . ´ as vs PKer L por que lo que se puede escribir como una combinacion lineal de la base apara el kernel: v ´ a1 v1 . . . ´ as vs “b1 w1 ` . . . ` br wr v “b1 w1 ` . . . ` br wr ` a1 v1 ` . . . ` as vs Sólo basta demostrar que son linealmente independientes. c1 w1 ` . . . ` cr wr ` d1 v1 ` . . . ` ds vs “0 L pc1 w1 ` . . . ` cr wr ` d1 v1 ` . . . ` ds vs q “0 c1 Lpv1 q ` . . . ` cr Lpvr q “0 c1 u1 ` . . . ` cr ur “0 6 0 “ c1 “ c2 “ . . . “ cr , por que los u’s son una base
Pero esto implica que d1 v1 ` . . . ` ds vs “ 0 pero siendo los v 1 s elementos de la base del kernel, se sigue que 0 “ d1 , . . . , ds , con esto tenemos que los w1 , . . . , wr , v1 , . . . , vs son linealmente independientes y como ya mostramos que generan, se tiene que son una base de V.
Ejercicios
Recordemos que una transformación ϕ es inyectiva si para todos x ‰ y se tiene ϕpxq ‰ ϕpyq. Sean V, W espacios vectoriales y sean L : V Ñ W una transformación lineal tal que Ker L “ t0u . Mostrar que L es inyectiva. Muestre que si L : V Ñ W es inyectiva entonces Ker L “ t0u . Dada una transformación lineal L : V Ñ W entre espacios vectoriales, muestres que es sobreyectiva equivale a que dim V “ dim Im L. Recordar que una transformación ϕ : X Ñ Y es sobreyectiva cuando para toda y P Y existe un x P X tal que ϕpxq “ y. Sea L : V Ñ W una transformación lineal entre espacios vectoriales, suponga dim V ą dim W. Muestre que el kernel de L no es 0. Sea L : V Ñ W una transformación lineal entre espacos vectoriales y sean v0 P V, w P W tal que LpV0 q “ w. Muestre que que caualquier solución de la ecuación L pxq “ w es de la forma v0 ` u, u PKer L.
Sea V es espacio vectorial de funciones con derivadas de todos los ordenes, y sea D : V Ñ V la derivada, ¿cúal es el Ker D? Sean V, D como en el ejercicio anterior, Sea L “ D ´ I donde I es el mapeo identidad de V. ¿cúal es el Ker L? si L “ D ´ aI donde a P R, ¿cúal sería su núcleo? Sea L : V Ñ W una transformación lineal entre espacios vectoriales, se llamará biyectiva si es inyectiva y sobreyectiva, con transformaciones lineales diremos que es isomorfismo si biyectiva. Para la transformación L : R2 Ñ R2 , dada por Lpx, yq “ xp1, 1q ` yp´1, 1q Muestre que L es isomorfismo de espacios vectoriales. ¿Cúal es la dimensión del subespacio de Rn que consiste de aquellos vectores a “ pa1 , . . . , an q , a1 ` . . . ` an “ 0.? Sea A P Mnˆn pRq , se llamará antisimétrica cuando A “ ´AT muestre que cualquier matriz C P Mnˆn pRq se puede escribir como suma de una matriz antisimétrica y una simétrica, donde una matriz D P Mnˆn pRq , es simétrica cuando D “ D T . Hint E ` ET E ´ ET dada E P Mnˆn pRq ,¿Como son las matrices , ? 2 2 ¿cúal de ellas es simetrica y cúal es antisimémtrica, cómo es su suma? En Mnˆn pRq tomamos S : Mnˆn pRq Ñ Mnˆn pRq definida como: A ` AT S pAq “ 2 i) Muestre que S es lineal,
ii) Muestre que el kernel de S es el conjunto de matrices antisimétricas, iii) Muestre que la imagen de S es el conjunto de todas las matrices simétricas, para esto hay que hacer dos cosas, mostrar SpAq es simétrica, y que para toda C PIm S, hay un U P Mnˆn pRq tal que SpU q “ C. iv) ¿Cál es la dimesión del espacio de las matrices antisimétricas? v) Exhiba una base para el espacio de matrices antisimétricas. En Mnˆn pRq sea L : Mnˆn pRq Ñ Mnˆn pRq definida como : L pDq “
D ´ DT 2
i) Muestre que L es lineal, ii) ¿Cúal es núcleo de L. y su dimensión? iii) ¿Cúal es la imagen de L? Una función f : R Ñ R se llamará funciónpar si f p´xq “ f pxq. Se llamará función impar cuando f p´xq “ ´f pxq. a) Verifique sen x que es función impar y que cos x es par, b) Sea V el espacio vectorial de todas las funciones reales de variable real, definimos la transformación T : V Ñ V como: T rf pxqs “
f pxq ` f p´xq 2
Muestre que la transformación T es lineal. c) ¿Cúal es el núcleo de T ?, d) ¿Cúal es la imagen de T ?, prueba tus afirmaciones.
El espacio producto, sean V, U espacios vectoriales definimos el producto cartesiano de ellos a continuación: ˇ ␣ ( V ˆ W “ pv, wq ˇ v P V, w P W En este conjunto, dados pv1 , u1 q , pv2 , u2 q P V ˆ U definimos dos operaciones: Suma pv1 , u1 q ` pv2 , u2 q “ pv1 ` v2 , u1 ` u2 q Producto por escalar κ pv1 , u1 q “ pκ v1 , κ u1 q a) Muestre que V ˆ U dotado con estas operaciones es un espacio vectorial, ¿cual es el elemento neutro? b) Muestre que dimpV ˆ Uq “dim V + dim U. ˇ ˇ ( ( ␣ ␣ ˇ q p0, j “ 1, . . . , s u 1, . . . , r Y Hint muestre que B “ pvi , 0q␣ˇ i “ j ˇ ( ˇ es una base vi i “ 1, . . . , r es una base ␣ ˇ de V ˆ U donde ( de V y uj ˇ j “ 1, . . . , s es una base de U. ˇ ␣ ( c) Sea B ď V muestre que en VˆV el conjunto △B “ pb, bq ˇ b P B es △B ď V ˆ V. ˇ ( ␣ d) Sea B “ tb1 , . . . , bl u una base de B. Mostrar que pbi , bi q ˇ i “ 1, . . . , l es una base del subespacio del inciso anterior. Sean A, B ď V. mostrando los siguientes incisos se muestra que dim A ` dim B “ dim pA ` Bq “ dim pA ` Bq ` dim pA X Bq a) Mostrar que la transformación T: AˆBÑD
Dada por T pa, bq “ a ´ b es una tranformación lineal. b) Mostrar que la imagen de T es A ` B, c) Mostrar que el núcleo de T es el subespacio de A ˆ B cuyos elementos son pu, uq , u P AXB. ¿cúal es una base para este subespacio y cúal es su dimensión? d) Para terminar la demostración ocupar el teorema de la dimensión.
4.2.
La matriz asociada a una transformacion lineal
Para toda matriz A tiene asociada una formación lineal LA . Pero por otra parte, dada una transformación lineal T : Rn Ñ Rm hay una matriz asociada a ella tal que T “ TA . ¨ ˛ 0 ˚ .. ‹ ˚.‹ ˚ ‹ ˚ ‹ i´ésimo i “ 1, . . . , n En efecto, sean los vectores ei “ ˚1‹ Ð Ahora para lugar cada i@tomamos ˚.‹ ˚ .. ‹ ˝ ‚ 0 T pei q es un vector columna en Rm . Es decir que tenemos los vectores
columna :
¨
˛ ¨ ˛ a11 a1n ˚ . ‹ ˚ ‹ .. ‹ , . . . , T pen q “ ˚ ... ‹ T pe1 q “ ˚ ˝ ‚ ˝ ‚ am1 amn
Como cada elemento x P Rn se expresa como: x “ x1 e ` . . . ` xn en y luego: T pxq “ x1 T pe1 q ` . . . ` xn T pen q “ A T La matriz A es la matriz asociada a la transformación. Notemos que se puede describir el espacio de columnas de A, en termino de las columnas unitarias en el espacio dominio. ¨ ¨ ˛ ˛ a1n a11 ˚ . ‹ ˚ ‹ .. ‹ , . . . , T pen q “ ˚ ... ‹ , T pe1 q “ ˚ ˝ ‚ ˝ ‚ amn am1
Ejemplo
Sea T la proyección, en otras palabras la transformación T px1 , x2 , x3 q “ px1 , x2 q, entonces la matriz asociada con T es: ˜ ¸ 1 0 0 0 0 0
Ejemplo
Sea I la transformación identidad, es ¨ 1 0 0 ... ˚ ˚0 1 0 . . . ˚ ˚ ... ... . . . ... ˝ 0 0 ... 0
decir Ix “ x es decir ˛ 0 0‹ ‹ .. ‹ .‹ ‚ 1
la matriz que tiene unos en la diagonal y ceros en todos los demas lugares.
Ejemplo
Sea L : R4 Ñ R2 el mapeo lineal tal que ˜ ¸ ˜ ¸ ˜ ¸ ˜ ¸ 2 3 ´5 1 Lpe1 q “ , Lpe2 q “ , Lpe3 q “ , Lpe4 q “ 1 ´1 4 7 Por lo que vimos anteriormente estan son las columnas de la matriz asociada, es decir ˜ ¸ 2 3 ´5 1 1 ´1 4 7 Observación si en lugar de vectores columna se ocuparan vectores renglón para los ei ’s entonces tendríamos la transpuesta de la matriz asociada. Sea V un espacio vectorial, y sea B “ tv1 , . . . , vn u una base de este espacio, como cada vector v P V se puede escribir como una combinación lineal de ellos v “ x1 v1 ` . . . ` xn vn
a las constantes x1 , . . . , xn se les llamará las coordenadas del vector en terminos de la base B, es decir que en esta base el vector se escribe como ¨ ˛ x1 ˚.‹ .‹ v“˚ ˝.‚ xn En otras palabras, si escogemos una base, podemos identificar V con Rn mediante las coordenadas de los vectores en la base dada. Ahora, dada una transformación lineal L : V Ñ V, dada una base en V esta induce una indentificación de dicho espacio con algún Rn , de esta forma podemos podemos representar L mediante una matriz. Cada base nos dara una matriz asociada diferente. Ciertas elecciones para las base nos darán matrices asociadas a L adecuadamente simples.
Ejemplo Para un espacio vectorial V asumimos que hay una base B “ tv1 , . . . , vn u y números κ1 , . . . , κn tales que Lpvi q “ κi vi para i “ 1, . . . , n Entonces, para esta base la matriz asociada con la tranformacón lineal L es la matriz diagonal: ¨ ˛ κ1 0 . . . 0 ˚ 0 κ ... 0 ‹ 2 ˚ ‹ ˚. . . ‹ . ˚ .. .. . . .. ‹ ˝ ‚ 0 0 . . . κn Si la elección de la base fuera diferente la matriz asociada con L no necesariamente sería simple como lo fue en este caso.
En general el método para construir la matriz asociada con una transformación lineal L respecto de una base dada es como se muestra a continuación: Dada una base B “ tv1 , . . . , vn u para el espacio vectorial V, puesto que B es base , hay nnumeros dij tales que Lpv1 q “d11 v1 ` . . . ` d1n vn .. .. .. . . . Lpvn q “dm1 v1 ` . . . ` dmn vn
Ahora, la imagen de un vector de cordenadas bajo L, ¿cómo sería? para obtenerla, sea v P V, luego: v “ x1 v1 ` . . . ` xn vn entonces: Lpvq “
n ÿ
xi Lpvi q
i“1
“
n ÿ i“1
˜
¸ ÿ
dij vi
j“1
ř Es decir que D es una matriz tal que Lpvi q “ nj“1 dij vi y x es el vector de coordenadas de v, entonces el vector de coordenadas de Lpvq es D T x, en los vectores de coordenadas la transformación L esta representada por la matriz D T , la transpuesta de D.
Ejemplo
Sea L : V Ñ V una transformación lineal, y sea B “ tv1 , v2 , v3 u una base de V tal que Lpv1 q “2v1 ´ v2 , Lpv2 q “v1 ` v2 ´ 4v3 , Lpv3 q “5v1 ` 4v2 ` 2v3 .
Tenemos que la matriz asociada a la transformación L en las coordenadas en B es : ¨ ˛ 2 1 5 ˚ -1 1 4‹ ˝ ‚ 0 -4 2 que es la matriz transpuesta de la matriz: ¨ ˛ 2 -1 0 ˚1 1 -4‹ ˝ ‚ 5 4 2
4.3.
Cambio de Base
Vamos a considerar como cambia la matriz asociada a una transformación lineal cuando cambiamos la base del espacio vectorial dominio. Para tal fin. veamos como cambian las coordenadas. Sean B “ tv1 , . . . , vn u y W “ tw1 , . . . , wn u bases distintas de un espacio vectorial V.
Sean x las coordenadas de un vector respecto de la base B, y sean y las coordenadas de este vector respecto de la base W . Para ver como cambian las coordenadas, sea v P V con coordenada x en B, visto como vecto columna, en otras palabras: v “ x1 v1 ` . . . ` xn vn esta última expresión la podemos ver como el producto punto: ¨ ˛ ¨ ˛ v1 v1 ˚ ‹ ˚ ‹ .. ‹ ˚ ... ‹ . q v “ xt ˚ “ px , . . . , x 1 n ˝ ‚ ˝ ‚ vn vn Donde xT es una n-ada renglón. Similarmente, ocurre para y ¨ ˛ ¨ ˛ v1 v1 ˚ ‹ ˚.‹ .. ‹ “ py1 , . . . , yn q ˚ ... ‹ v “ yt ˚ ˝ ‚ ˝ ‚ vn vn Puesto que podemos expresar cada elemento de la base W como combinaciones lineales de los elementos de la base D, así existe una matiz D “ pdij q tal que para cada i, wi “
n ÿ
dij vj .
j“1
Esto lo podemos expresar mejor de manera matricial como: ¨ ˛ ˛¨ ˛ ¨ ˛ ¨ v1 v1 w1 d11 . . . d1n ‹ ‹ ˚ ‹ ˚ ˚ . ‹ ˚ . .. ‹ ˚ .. ‹ ˚ ... ‹ ˚ .. ‹ “ ˚ .. . . “ D ˝ ‚ ‚˝ ‚ ˝ ‚ ˝ wn vn vn dn1 . . . dnn
Así tenemos x “ Dt y Notemos que tenemos nuevamente la matriz transpuesta. El cambio de coordenadas de una base en otra esta dada en términos de la transpuesta de la matriz que describe cada wi como una combinación lineal de los elementos de la base B. Proposición 4.3.1: Inversión de D La matriz D de cambio de base tiene inversa.
Cambiando bases, hay una matriz N tal que y “ N t x, como esto es cierto para todas las n-ádas x, y se tiene x “ Dt N t x “ pN Dqt x, @ x por lo que N D “ I, de manera similar ocurre para DN “ I, por lo que D es invertible. Dada una transformación lineañ L : V Ñ V. Ahora sea N la matriz que representa a N respecto de una base dada B “ tv1 , . . . , vn u y sea N 1 la matriz que representa a L respecto de la base W “ tw1 , . . . , wn u , por otra parte por definición las coordenadas de Lpuq son :
Lpuq “
$ & N x respecto de la base B %
N 1 x respecto a la base W
Ahora, por lo visto anteriormente, se tiene: Ax “Dt A1 y ADt y “Dt A1 y, pues x “ Dt y `
Dt
˘´1
ADy “A1 y @ y
Si tomamos N “ Dt , podemos expresar A1 en terminos de A, en efecto A1 “ N ´1 AN Diremos que dos matrices B, B 1 son similirares si hay una matriz invertibleN tal que B 1 “ N ´1 BN es dcir que que la matriz de la transformación se puede escribir por una matriz similar cuando tenemos dos bases. Ya en un capitulo aterior vimos una aplicación de lo anterior con la diagonalización de una matriz, aunque en ese momento no se menciono con tanto detalle.
Ejemplo
Suponga que con respecto a alguna base la matriz representando la trnasformación L : R2 Ñ R2 , es diagonal: ˜ ¸ 5 0 0 ´3 La matriz representando a la transformación respecto de otra base tendra la forma N ´1 M N, por lo ya mencionado anteriormente.
Ejercicios
¿Cúal es la matriz asociada con las siguientes transformaciones? a) L : R4 Ñ R2 , dada como Lpx1 , x2 , x3 , x4 q “ px1 , x2 q b) L : R4 Ñ R4 , dada por Lpx1 , x2 , x3 , x4 q “ px1 , x2 , 0, 0q c) La proyección de R4 en R3 . d) L : R2 Ñ R2 dada como Lpx, yq “ p5x, 5yq e) L : Rn Ñ Rn definida como Lpxq “ ´x f) L : Rn Ñ Rn definida como Lpxq “ 3x Sea L : Rn Ñ Rn tal que Lpxq “ κ x, donde κ es una constante, ¿Cúal es la matriz asociada? Dado el mateo L : R3 Ñ R2 , como se indica a continuación, ¿cúal es la matriz asociada con el mapeo dado? ˜ ¸ ˜ ¸ ˜ ¸ 1 -4 3 a) Lpe1 q “ , Lpe2 q “ , Lpe3 q “ -3 2 1 ¨ ˛ ˜ ¸ x ´5x ` y ´ 3z ˚ ‹ b) L ˝y ‚ “ x ` 2y ` 11z z Dado el espacio tridimensional V, con base B “ tv1 , v2 , v3 u , y la transformación lineal L : V Ñ V, como se indica en cada inciso . Encontrar la matriz asociada con la transformación.
a) Lpv! q “5v2 ` v3 Lpv2 q “v1 ` 4v2 ´ v3 Lpv3 q “ ´ v1 ` 4v2 v3
b) Lpv1 q “ 3v3 , Lpv2 q “ ´7v2 , Lpv3 q “ 5v3 c) Lpv1 q “v1 ´ 5v3 Lpv2 q “v3 Lpv3 q “ ´ v1
Dada la transformación lineal L : V Ñ V. Suponemos que el espacio V tiene una base B “ tv1 , . . . , vr u de eigenvectores, Lpvi q “ κ vi , i “ 1, . . . , r ¿cúal es la matriz asociada con esta transformación?
Bibliografía *** [1] Teukolsky S.A. et all, “Numerical recipes in C: the art of scientific computing ,"Cambridge University Press,, 2th edition, 1997. [2] Herstein, “Topics In Algebra ," Blaisdell Publishing Company,, 2th edition, 1964. [3] Hilbert, “Grundzuge einer allgemeinen Theorie der linearen Integralgleichungen," Nachrichten von d. Konigl. Ges. d. Wissensch. zu Gottingen (Math.-physik. Kl.),, pp. 49-91, 1904. [4] Jonathan S. Golan, “The linear algebra a beginning graduate student ought to know ," Springer Verlag, 2012. [5] Sylvester J.J., “A Demonstration of the Theorem That Every Homogeneous Quadratic Polynomial is Reducible By Real Orthogonal Substitutions to the Form of a Sum of Positive and Negative Squares," Philosophical Magazine 4, pp. 138-142, 1852. [6] Serge Lang, “Linear Algebra,"Springer Verlag, 2010. [7] Stephen Boyd, “Introduction to Applied Linear Algebra: Vectors, Matrices, and Least Squares ," Cambridge University Press, 2018. [8] Biswa Nath, “Numerical Linear Algebra and Applications", Society for Industrial and Applied Mathematics, 2010. 117
[9] Gregorie Allaire, “Numerical Linear Algebra ", Springer Verlag NY, 2008. [10] Richard Bronson, “Matrix Methods: Applied Linear Algebra", Academic Press, 2008. [11] Thomas S. Shore, “Applied Linear Algebra and Matrix Analysis", Springer Verlag, 2007. [12] Ted Davis, “Linear algebra and linear operators in engineering: with applications in Mathematica", Academic Press, 2000.