Docsity
Docsity

Prepara tus exámenes
Prepara tus exámenes

Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity


Consigue puntos base para descargar
Consigue puntos base para descargar

Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium


Orientación Universidad
Orientación Universidad

álgebra lineal, matemáticas, Apuntes de Álgebra Lineal

Libro álgebra lineal para ingeniería

Tipo: Apuntes

2018/2019

Subido el 24/06/2019

esmeralda-guevara-1
esmeralda-guevara-1 🇲🇽

5

(1)

2 documentos

Vista previa parcial del texto

¡Descarga álgebra lineal, matemáticas y más Apuntes en PDF de Álgebra Lineal solo en Docsity! Gabriela Jeronimo, Juan Sabia y Susana Tesauri Álgebra lineal Buenos Aires, agosto de 2008 Índice General 1 Espacios vectoriales 1 1.1 Espacios vectoriales y subespacios . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.1.1 Preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.1.2 Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1.1.3 Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.1.4 Sistemas de generadores . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.2 Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.2.1 Sistemas lineales homogéneos . . . . . . . . . . . . . . . . . . . . . . . . 13 1.2.2 Método de triangulación . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 1.2.3 Cantidad de soluciones de un sistema homogéneo . . . . . . . . . . . . . 17 1.2.4 Sistemas lineales no homogéneos. . . . . . . . . . . . . . . . . . . . . . . 19 1.3 Independencia lineal y bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 1.3.1 Independencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 1.3.2 Bases y dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 1.4 Suma de subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 1.4.1 Subespacio suma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 1.4.2 Suma directa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 1.5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 2 Matrices 47 2.1 Definiciones y propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 2.2 Matrices inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 2.3 Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 2.4 Coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 2.4.1 Coordenadas de un vector en una base . . . . . . . . . . . . . . . . . . . 55 2.4.2 Cambios de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 vi ÍNDICE GENERAL 2.5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 3 Transformaciones lineales 65 3.1 Definiciones, ejemplos y propiedades básicas . . . . . . . . . . . . . . . . . . . . 65 3.1.1 Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . 65 3.1.2 Núcleo e imagen de una transformación lineal . . . . . . . . . . . . . . . 68 3.1.3 Composición de transformaciones lineales . . . . . . . . . . . . . . . . . 71 3.2 Espacios vectoriales de dimensión finita . . . . . . . . . . . . . . . . . . . . . . 72 3.3 Teorema de la dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 3.4 Proyectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 3.5 Representación matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 3.5.1 Matriz de una transformación lineal . . . . . . . . . . . . . . . . . . . . 77 3.5.2 Matriz de la composición y cambios de bases . . . . . . . . . . . . . . . 78 3.6 Rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 3.6.1 Rango columna y rango fila . . . . . . . . . . . . . . . . . . . . . . . . . 79 3.6.2 Equivalencia de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 3.7 Espacios vectoriales de transformaciones lineales . . . . . . . . . . . . . . . . . 83 3.8 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 4 Espacio dual 95 4.1 El espacio dual de un espacio vectorial . . . . . . . . . . . . . . . . . . . . . . . 95 4.2 Base dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 4.3 Anulador de un subespacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 4.4 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 5 Determinantes 107 5.1 Definición y ejemplos básicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 5.1.1 Funciones multilineales alternadas . . . . . . . . . . . . . . . . . . . . . 107 5.1.2 Existencia y unicidad del determinante . . . . . . . . . . . . . . . . . . . 110 5.2 Propiedades del determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 5.2.1 Determinante de la transpuesta de una matriz . . . . . . . . . . . . . . 115 5.2.2 Matrices triangulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 5.2.3 Desarrollo del determinante por una fila o columna . . . . . . . . . . . . 117 5.2.4 Determinante del producto de matrices . . . . . . . . . . . . . . . . . . 118 5.3 Determinantes y matrices inversibles . . . . . . . . . . . . . . . . . . . . . . . . 119 5.3.1 Inversibilidad de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 119 5.3.2 Adjunta de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 ÍNDICE GENERAL vii 5.3.3 Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 5.4 Cálculo de algunos determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . 122 5.5 Rango de una matriz y determinante . . . . . . . . . . . . . . . . . . . . . . . . 124 5.6 Otra fórmula para el determinante . . . . . . . . . . . . . . . . . . . . . . . . . 126 5.7 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 6 Diagonalización 133 6.1 Nociones básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 6.1.1 Autovalores y autovectores . . . . . . . . . . . . . . . . . . . . . . . . . 134 6.1.2 Polinomio caracteŕıstico . . . . . . . . . . . . . . . . . . . . . . . . . . . 136 6.2 Una caracterización de matrices diagonalizables . . . . . . . . . . . . . . . . . . 137 6.2.1 Suma directa de subespacios . . . . . . . . . . . . . . . . . . . . . . . . 137 6.2.2 Espacios de autovectores y diagonalización . . . . . . . . . . . . . . . . 139 6.3 Polinomios minimales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142 6.3.1 Polinomio minimal de una matriz . . . . . . . . . . . . . . . . . . . . . . 142 6.3.2 Polinomio minimal de un vector . . . . . . . . . . . . . . . . . . . . . . 146 6.3.3 Teorema de Hamilton-Cayley . . . . . . . . . . . . . . . . . . . . . . . . 148 6.3.4 Un criterio de diagonalización usando el polinomio minimal . . . . . . . 151 6.4 Subespacios invariantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153 6.5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156 7 Forma de Jordan 163 7.1 Transformaciones lineales nilpotentes . . . . . . . . . . . . . . . . . . . . . . . . 163 7.1.1 Definiciones y propiedades básicas . . . . . . . . . . . . . . . . . . . . . 163 7.1.2 Existencia de forma de Jordan para una transformación lineal nilpotente165 7.1.3 Unicidad de la forma de Jordan nilpotente. Semejanza . . . . . . . . . . 169 7.2 Caso general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172 7.2.1 Forma de Jordan de una transformación lineal . . . . . . . . . . . . . . 173 7.2.2 Unicidad de la forma de Jordan . . . . . . . . . . . . . . . . . . . . . . . 178 7.3 Aplicación: Cálculo de las potencias de una matriz . . . . . . . . . . . . . . . . 182 7.4 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184 8 Espacios vectoriales con producto interno 189 8.1 Producto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 8.1.1 Definición y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 8.1.2 Norma de un vector . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191 8.1.3 Distancia entre vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . 193 x ÍNDICE GENERAL Caṕıtulo 1 Espacios vectoriales En diversos conjuntos conocidos, por ejemplo los de vectores en el plano o en el espacio (R2 y R3), o también el de los polinomios (R[X]), sabemos sumar sus elementos y multiplicarlos por números. Todos estos conjuntos comparten una cierta “estructura”, que está dada por esa suma y ese producto por números, a la que llamaremos espacio vectorial. En este caṕıtulo presentaremos la noción de espacio vectorial y estudiaremos algunas propiedades básicas que poseen los conjuntos con dicha estructura. 1.1 Espacios vectoriales y subespacios 1.1.1 Preliminares La noción de espacio vectorial requiere de dos conjuntos: un conjunto K (los escalares) y otro conjunto V (los vectores). Estos dos conjuntos deben satisfacer ciertas propiedades, que esencialmente se refieren a que los elementos de V se puedan sumar entre śı y multiplicar por elementos de K. Comenzaremos dando algunas definiciones previas para poder después presentar la defini- ción precisa de espacio vectorial. Definición 1.1 Sea A un conjunto no vaćıo. Una operación (o ley de composición interna u operación binaria) de A es una función ∗ : A×A → A. Notación. ∗(a, b) = c se escribe a ∗ b = c. Ejemplos. • + : N× N→ N, tal que +(a, b) = a + b, es una operación de N. • Como la resta, −(a, b) = a − b, no es una función de N × N en N, entonces no es una operación de N. 2 Espacios vectoriales • La suma +, el producto · y la resta − son operaciones de Z, Q, R y C. No nos interesaremos por operaciones cualesquiera, sino que trabajaremos con operaciones que posean algunas propiedades. Entre las propiedades que analizaremos se encuentran las siguientes: Definición 1.2 (Propiedades básicas) Sea ∗ : A×A → A una operación. i) ∗ se dice asociativa si (a ∗ b) ∗ c = a ∗ (b ∗ c) ∀ a, b, c ∈ A. ii) Se dice que ∗ tiene elemento neutro si ∃ e ∈ A tal que e ∗ a = a ∗ e = a para cada a ∈ A. (Observar que si ∗ tiene elemento neutro, éste es único, ya que si e y e′ son elementos neutros, e′ = e ∗ e′ = e.) iii) Si ∗ tiene elemento neutro e, se dice que todo elemento tiene inverso para ∗ si ∀ a ∈ A, ∃ a′ ∈ A tal que a ∗ a′ = a′ ∗ a = e. iv) ∗ se dice conmutativa si a ∗ b = b ∗ a ∀ a, b ∈ A. Se pueden estudiar las caracteŕısticas que comparten los conjuntos con una operación que satisface algunas de estas propiedades. Una noción útil es la de grupo, que definimos a continuación. Definición 1.3 Sea A un conjunto, y sea ∗ una operación en A que satisface las propiedades i), ii) y iii) de la definición anterior. Entonces (A, ∗) se llama un grupo. Si además ∗ cumple iv), se dice que (A, ∗) es un grupo abeliano o conmutativo. Ejemplos. • (N,+) no es un grupo: se puede probar que no tiene elemento neutro. • (Z, +), (Q,+), (R,+) y (C,+) son grupos abelianos. • (Z, ·) no es un grupo: se puede probar que sólo 1 y -1 tienen inverso multiplicativo. • (Q− {0}, ·), (R− {0}, ·) y (C− {0}, ·) son grupos abelianos. • A = {f : R → R}, ∗ = ◦ (composición de funciones). Entonces (A, ∗) no es un grupo: las únicas funciones con inversa para ◦ son las biyectivas. • SR = {f : R→ R / f es biyectiva }, ∗ = ◦. Entonces (SR, ◦) es un grupo. • C un conjunto, P(C) = {S ⊆ C}. Se define la operación 4 : P(C) × P(C) → P(C), llamada diferencia simétrica, de la siguiente forma: A4B = (A ∪B)− (A ∩B). Entonces (P(C),4) es un grupo abeliano. 1.1 Espacios vectoriales y subespacios 5 • Se define Q[√2] = { n∑ i=0 ai( √ 2)i / ai ∈ Q, n ∈ N0 } . Veamos que (Q[ √ 2],+, ·) es un cuerpo. Usando que Q[ √ 2] ⊂ R, se puede probar fácilmente que (Q[√2], +, ·) es un anillo con- mutativo. Observamos que Q[ √ 2] = {a + b√2 : a, b ∈ Q}. En efecto, para cada k ∈ N, se tiene que ( √ 2)2k = 2k y ( √ 2)2k+1 = 2k √ 2 y entonces, todo elemento de la forma n∑ i=0 ai( √ 2)i con ai ∈ Q y n ∈ N0 puede escribirse como a + b √ 2 con a, b ∈ Q. Rećıprocamente, es claro que todo elemento de la forma a + b √ 2 con a, b ∈ Q pertenece a Q[√2]. Veamos ahora que todo elemento no nulo tiene inverso. Sea a+ b √ 2 6= 0. Entonces (a+ b√2)(a− b√2) = a2−2b2 6= 0 (pues a, b ∈ Q), de donde (a + b √ 2)−1 = a a2 − 2b2 + −b a2 − 2b2 √ 2. También en el caso de los cuerpos se pueden probar propiedades generales. Por ejemplo: • Todo cuerpo (K, +, ·) es un dominio de integridad. Tenemos que probar que a · b = 0 ⇒ a = 0 o b = 0. Supongamos que a · b = 0. Si a = 0, ya está. Si a 6= 0, entonces existe a−1 tal que a · a−1 = a−1 · a = 1. Entonces a−1 · (a · b) = a−1 · 0 ⇒ (a−1 · a) · b = 0 ⇒ 1 · b = 0 ⇒ b = 0. Para poder completar la definición de espacio vectorial necesitamos definir una clase es- pecial de funciones que se aplican a elementos de dos conjuntos distintos: Definición 1.7 Sean A y B dos conjuntos. Una acción de A en B es una función · : A×B → B. Notación: · (a, b) = a · b Estamos ahora en condiciones de dar la definición de espacio vectorial. 1.1.2 Espacios vectoriales Definición 1.8 Sea (K, +, ·) un cuerpo. Sea V un conjunto no vaćıo, sea + una operación en V y sea · una acción de K en V . Se dice que (V, +, ·) es un K-espacio vectorial si se cumplen las siguientes condiciones: i) (V, +) es un grupo abeliano. ii) La acción · : K × V → V satisface: 6 Espacios vectoriales (a) a · (v + w) = a · v + a · w ∀ a ∈ K; ∀ v, w ∈ V . (b) (a + b) · v = a · v + b · v ∀ a, b ∈ K; ∀ v ∈ V . (c) 1 · v = v ∀ v ∈ V . (d) (a · b) · v = a · (b · v) ∀ a, b ∈ K; ∀ v ∈ V . Los elementos de V se llaman vectores y los elementos de K se llaman escalares. La acción · se llama producto por escalares. Nótese que el śımbolo · se usa tanto para la acción de K en V como para el producto en K, pero esto no debeŕıa generar confusión puesto que en el primer caso estará aplicado a un elemento de K y otro de V , mientras que en el segundo, a dos elementos de K. En lo que sigue, K denotará un cuerpo. Si (V, +, ·) es un K-espacio vectorial y la operación + de V y la acción · de K en V quedan claras del contexto, diremos simplemente que V es un K-espacio vectorial. Hay propiedades que se cumplen en cualquier espacio vectorial. A continuación mostramos algunas de ellas. Sea V un K-espacio vectorial. Entonces: 1. 0 · v = 0 para todo v ∈ V . (Observar que el elemento 0 que aparece en el miembro izquierdo de la igualdad es el elemento neutro de K, mientras que el de la derecha es el vector 0 ∈ V .) 2. (−1) · v = −v para todo v ∈ V . (Recuérdese que −v denota al inverso aditivo de v). Demostración. 1. Se tiene que 0 · v = (0 + 0) · v = 0 · v + 0 · v. Sea w el inverso aditivo de 0 · v. Entonces 0 = 0 · v + w = (0 · v + 0 · v) + w = 0 · v + (0 · v + w) = 0 · v + 0 = 0 · v 2. Vemos que v + (−1) · v = (−1) · v + v = (−1) · v + 1 · v = (−1 + 1) · v = 0 · v = 0. Luego, (−1) · v es el inverso aditivo de v, es decir (−1) · v = −v. Ejemplos. En lo que sigue K es un cuerpo. 1. K es un K-espacio vectorial. 1.1 Espacios vectoriales y subespacios 7 2. Sea Kn = {(x1, . . . , xn) / xi ∈ K}. Se definen + : Kn ×Kn → Kn, (x1, . . . , xn) + (y1, . . . , yn) = (x1 + y1, . . . , xn + yn) · : K ×Kn → Kn, λ · (x1, . . . , xn) = (λx1, . . . , λxn) Entonces Kn es un K-espacio vectorial. 3. Una matriz de n filas y m columnas es un arreglo de n×m números ubicados en n filas y m columnas. Sea Kn×m = {A / A es una matriz de n filas y m columnas de elementos en K}. Ob- servamos que un elemento A de Kn×m es de la forma A =   A11 A12 · · · A1m A21 A22 · · · A2m · · · · · · · · · · · · An1 An2 · · · Anm   . Si A ∈ Kn×m, denotaremos por Aij al elemento ubicado en la intersección de la fila i y la columna j de A. Se definen + : Kn×m ×Kn×m → Kn×m, (A + B)ij = Aij + Bij (1 ≤ i ≤ n, 1 ≤ j ≤ m) · : K ×Kn×m → Kn×m, (λ ·A)ij = λ ·Aij (1 ≤ i ≤ n, 1 ≤ j ≤ m) Entonces Kn×m es un K-espacio vectorial. 4. Sea Z un conjunto no vaćıo. Se considera KZ = {f : Z → K / f es función } y se definen + : KZ ×KZ → KZ , (f + g)(x) = f(x) + g(x) ∀x ∈ Z, · : K ×KZ → KZ , (λ · f)(x) = λ · f(x) ∀x ∈ Z. Entonces KZ es un K-espacio vectorial. 5. K[X], el conjunto de polinomios en la variable X a coeficientes en K, es un K-espacio vectorial con la suma usual de polinomios y la multiplicación usual de polinomios por una constante. 6. R es un Q-espacio vectorial; C es un R-espacio vectorial y un Q-espacio vectorial. 7. Q[ √ 2] es un Q-espacio vectorial. 1.1.3 Subespacios Dentro de un K-espacio vectorial V , hay subconjuntos que heredan la estructura de V , es decir, que son también espacios vectoriales con la misma operación, el mismo elemento neutro y la misma acción que V . En esta sección, comenzaremos el estudio de los subconjuntos con esta propiedad. 10 Espacios vectoriales iii) Sean λ ∈ K y v ∈ S ∩ T . Entonces v ∈ S y v ∈ T . Como λ ∈ K, v ∈ S y S es un subespacio, entonces λ · v ∈ S. Análogamente, λ · v ∈ T . Luego, λ · v ∈ S ∩ T . ¤ En forma análoga a lo hecho en la demostración de la proposición anterior, se prueba que la intersección de cualquier familia de subespacios de un K-espacio vectorial V es un subespacio de V . Observación 1.12 Si V es un K-espacio vectorial, S y T subespacios de V , entonces S ∪ T no es necesariamente un subespacio de V . En efecto, consideremos en R2 los subespacios S = < (1, 0) > y T = < (0, 1) >. Observamos que (1, 0) ∈ S y (0, 1) ∈ T ; luego, ambos pertenecen a S ∪ T . Pero (1, 0) + (0, 1) = (1, 1) /∈ S ∪ T , puesto que (1, 1) /∈ S y (1, 1) /∈ T . Concluimos esta sección exhibiendo algunos ejemplos de subespacios de distintos K- espacios vectoriales. Ejemplos. 1. Sean a1, . . . , an ∈ K fijos. Sea S = {(x1, . . . , xn) ∈ Kn : a1x1 + · · · anxn = 0}. Es fácil verificar que S es un subespacio de Kn. 2. S = { (x1, . . . , xn) ∈ Kn :    a11x1 + · · ·+ a1nxn = 0 ... am1x1 + · · ·+ amnxn = 0 } es un subespacio de Kn, pues S = m⋂ i=1 Si, donde Si = {(x1, . . . , xn) ∈ Kn : ai1x1 + · · · + ainxn = 0} (1 ≤ i ≤ m) y cada Si es un subespacio de Kn. 3. Sean V = K[X] y n ∈ N fijo. Se tiene que Kn[X] = {f ∈ K[X] / f = 0 o gr(f) ≤ n} es un subespacio de V : i) 0 ∈ Kn[X]. ii) Sean f, g ∈ Kn[X]. Si f = 0 o g = 0 es claro que f + g ∈ S. Si f + g = 0, entonces f + g ∈ S. Si no, gr(f + g) ≤ max(gr(f), gr(g)) ≤ n, y por lo tanto f + g ∈ S. iii) Sean λ ∈ K y f ∈ Kn[X]. Si λ = 0 o f = 0, entonces λ.f = 0 ∈ Kn[X]. Si no, gr(λ.f) = gr(f), de donde λ.f ∈ Kn[X]. Observar que el conjunto {f ∈ K[X] / f = 0 o gr(f) ≥ n}, para n ∈ N fijo, no es un subespacio de K[X]. Por ejemplo: f = Xn y g = −Xn +1 pertenecen a dicho conjunto, pero f + g = 1 no. 1.1.4 Sistemas de generadores El objetivo de esta sección es mostrar cómo pueden describirse todos los elementos de un K-espacio vectorial V a partir de ciertos subconjuntos de elementos de V . 1.1 Espacios vectoriales y subespacios 11 De la definición de K-espacio vectorial vemos que una forma de obtener nuevos elementos de V a partir de los elementos de un subconjunto G ⊆ V es considerando sumas finitas de múltiplos por escalares de elementos de G. Surge entonces la noción de combinación lineal: Definición 1.13 Sea V un K-espacio vectorial, y sea G = {v1, . . . , vr} ⊆ V . Una com- binación lineal de G es un elemento v ∈ V tal que v = r∑ i=1 αi.vi con αi ∈ K para cada 1 ≤ i ≤ r. Ejemplos. 1. Sea G = {(1, 2), (3, 4)} ⊆ R2. Una combinación lineal de G es un vector v = α.(1, 2) + β.(3, 4) con α, β ∈ R. 2. Sea G = {1, X, . . . , Xn} ⊆ Rn[X]. Una combinación lineal de G es n∑ i=0 αiX i con αi ∈ R para cada 0 ≤ i ≤ n. La definición de combinación lineal se extiende al caso de subconjuntos no necesariamente finitos del espacio vectorial considerado: Definición 1.14 Sea V un K-espacio vectorial, sea I un conjunto de ı́ndices y sea G = {vi / i ∈ I} ⊂ V . Una combinación lineal de G es un elemento v ∈ V tal que v = ∑ i∈I αi.vi donde αi = 0 salvo para finitos i ∈ I. Ejemplos. 1. Sea G = {Xi / i ∈ N0} ⊆ R[X]. Una combinación lineal de G es ∞∑ i=0 αiX i donde αi ∈ R y αi = 0 salvo para finitos valores de i ∈ N0. 2. Sea G = {(α, 0) : α ∈ R} ⊆ R2. Una combinación lineal de G es ∑ α∈R βα.(α, 0) tal que βα ∈ R y βα = 0 salvo para finitos α ∈ R. Dado un espacio vectorial V , considerando las combinaciones lineales de los elementos de ciertos subconjuntos de V , podemos obtener cualquier elemento del espacio vectorial en cuestión. Como se verá en los ejemplos, en muchos casos esto nos permitirá describir conjuntos infinitos (como por ejemplo R2) utilizando finitos elementos del espacio. Definición 1.15 Sea V un K-espacio vectorial y sea G ⊆ V . Se dice que G es un sistema de generadores de V (y se nota < G > = V ) si todo elemento de V es una combinación lineal de G. 12 Espacios vectoriales Ejemplos. 1. R2 = < (1, 0), (0, 1) >, pues ∀x = (α, β) ∈ R2, x = α.(1, 0) + β.(0, 1). 2. Kn = < (1, 0 . . . , 0), (0, 1, 0, . . . , 0), . . . , (0, . . . , 0, 1, 0, . . . , 0), . . . , (0, . . . , 0, 1) >. 3. Kn×m = < Eij > 1≤i≤n 1≤j≤m donde (Eij)kl = { 1 si k = i y j = l 0 si no 4. K[X] =< Xi >i∈N0 . 5. Si G ⊆ K[X] tal que para cada i ∈ N0, existe fi ∈ G con gr(fi) = i, entonces K[X] = < G >: Es claro que 0 ∈ < G >. Veamos, por inducción en gr(g), que g ∈ < G > para cada g ∈ K[X]. Si gr(g) = 0, entonces g ∈ K, y como existe f0 ∈ G con gr(f0) = 0 (es decir, f0 ∈ K − {0}), se tiene que g = g f0 .f0 ∈ < G >. Sea n > 0 y supongamos que todo polinomio de grado menor que n y el polinomio nulo pertenecen a < G >. Sea g ∈ K[X] con gr(g) = n. Por hipótesis, existe fn ∈ G con gr(fn) = n. Si g = n∑ j=0 ajX j y fn = n∑ j=0 bjX j , consideramos g̃ = g − anbn fn. Observamos que g̃ = 0 o gr(g̃) < n. Por hipótesis inductiva, g̃ ∈ < G >, es decir g̃ = ∑ f∈G cf .f con cf = 0 salvo para finitos f . En consecuencia, g = g̃ + an bn fn = ∑ f∈G, f 6=fn cf .f + ( cfn + an bn ) fn ∈ < G >. 1.2 Sistemas de ecuaciones lineales Hemos visto que un conjunto del tipo S =   (x1, . . . , xm) ∈ K m :    a11x1 + · · ·+ a1mxm = 0 ... an1x1 + · · ·+ anmxm = 0    es un subespacio de Km. Surge entonces la cuestión de describir estos conjuntos. Esto puede hacerse, por ejemplo, encontrando un sistema de generadores del subespacio S. Más en general, estudiaremos el problema de dar una descripción del conjunto de soluciones de un sistema de ecuaciones de la forma   a11x1 + a12x2 + · · ·+ a1mxm = b1 ... an1x1 + an2x2 + · · ·+ anmxm = bn donde aij ∈ K para todo 1 ≤ i ≤ n y 1 ≤ j ≤ m, y bi ∈ K para todo 1 ≤ i ≤ n, a los que llamaremos sistemas de n ecuaciones lineales en m incógnitas. 1.2 Sistemas de ecuaciones lineales 15 Es claro que x es solución de todas las ecuaciones que no fueron modificadas. Además λai1x1 + λai2x2 + · · ·+ λaimxm = λ(ai1x1 + ai2x2 + · · ·+ aimxm) = λ. 0 = 0. Luego, x es solución de (∗∗). Rećıprocamente, multiplicando la i-ésima ecuación de (∗∗) por 1λ se obtiene (∗), de donde, con el mismo razonamiento que antes, se deduce que si x es solución de (∗∗) también lo es de (∗). 3. Se demuestra en forma análoga. ¤ Observación 1.20 Si A es la matriz asociada a un sistema lineal homogéneo H, efectuar las operaciones de la proposición anterior sobre las ecuaciones de H equivale a hacerlo sobre las filas de A. Como consecuencia de esta observación, para resolver un sistema lineal trabajaremos con la matriz asociada al sistema, en lugar de hacerlo con las ecuaciones. Al aplicar en las matrices las operaciones dadas en la Proposición 1.19 estaremos obteniendo matrices cuyos sistemas lineales asociados son equivalentes al original. El siguiente teorema nos asegura que, por medio de las operaciones permitidas siempre puede obtenerse un sistema triangular equivalente al dado. Más aún, de la demostración se desprende un algoritmo para realizar esta tarea. Teorema 1.21 Sea H un sistema lineal homogéneo de n ecuaciones con m incógnitas. En- tonces, aplicando los cambios descriptos en la Proposición 1.19, puede obtenerse un sistema lineal homogéneo H ′ cuya matriz B es triangular superior, es decir, tal que Bij = 0 si i > j. Demostración. Procedemos por inducción en n, la cantidad de ecuaciones del sistema. Si n = 1 no hay nada que probar. Supongamos que vale para n y consideremos un sistema lineal de n + 1 ecuaciones    a11x1 + · · ·+ a1mxm = 0 ... an1x1 + · · ·+ anmxm = 0 an+1 1x1 + · · ·+ an+1mxm = 0 Si m = 1, es claro que el resultado vale. Supongamos m > 1. Primer caso: Si ai1 = 0 para cada 1 ≤ i ≤ n + 1. Entonces la matriz del sistema es de la forma   0 a12 · · · a1m ... ... ... 0 an+1 2 · · · an+1 m   =   0 c 0̄ M   donde 0̄ denota una columna de ceros y c ∈ K1×(m−1), M ∈ Kn×(m−1). 16 Espacios vectoriales Segundo caso: Existe j, 1 ≤ j ≤ n + 1, con a1j 6= 0. Eventualmente intercambiando las ecuaciones 1 y j, podemos suponer que a11 6= 0. Multiplicando la primera ecuación por 1a11 y aplicando operaciones de tipo 3. en las otras resulta   1 a12a11 · · · a1m a11 a21 a22 · · · a2m ... ... ... an+1 1 an+1 2 · · · an+1 m   Fi − ai1F1 −→   1 c 0̄ M   con c ∈ K1×(m−1) y M ∈ Kn×(m−1). Entonces, en cualquier caso, aplicando las operaciones descriptas en la Proposición 1.19 al sistema dado, puede obtenerse un sistema cuya matriz asociada es de la forma A =   a c 0̄ M   con M ∈ Kn×(m−1) y a = 1 ó a = 0. Sea HM el sistema cuya matriz asociada es M . Por hipótesis inductiva, aplicando operacio- nes permitidas puede obtenerse un sistema equivalente a HM cuya matriz M ′ es triangular superior. Aplicando esas mismas operaciones en la matriz A se obtiene B =   a c 0̄ M ′   con a = 1 ó a = 0, que es triangular superior. ¤ Ejemplo. Resolver el siguiente sistema lineal homogéneo en R4: { 2x2 − x3 + x4 = 0 3x1 + x2 + 10x3 + 5x4 = 0 x1 + 3x3 + x4 = 0 La matriz asociada al sistema de ecuaciones es A =   0 2 −1 1 3 1 10 5 1 0 3 1   . El primer paso del método de Gauss consiste en colocar en el lugar A11 un elemento no nulo. Para eso permutamos las filas 1 y 3 de la matriz (podŕıa usarse también la fila 2). Se obtiene   1 0 3 1 3 1 10 5 0 2 −1 1   . 1.2 Sistemas de ecuaciones lineales 17 A continuación debemos realizar operaciones de fila de manera de conseguir que los restantes elementos de la primera columna de la matriz sean ceros. Si Fi denota la i-ésima fila de la matriz, haciendo F2 − 3F1 resulta   1 0 3 1 0 1 1 2 0 2 −1 1   . Pasamos ahora a la segunda columna de la matriz. El elemento ubicado en la fila 2 columna 2 de la matriz es un 1, con lo que sólo resta conseguir un 0 en la fila 3 columna 2. Para eso efectuamos F3 − 2F2:   1 0 3 1 0 1 1 2 0 0 −3 −3   . Esta matriz se encuentra en forma triangular. El sistema asociado { x1 + 3x3 + x4 = 0 x2 + x3 + 2x4 = 0 −3x3 − 3x4 = 0 es equivalente al original. De la tercera ecuación deducimos que si X = (x1, x2, x3, x4) es solución del sistema, entonces x3 = −x4. Reemplazando en la segunda ecuación y despejando x2 se obtiene x2 = −x4. Finalmente, de la primera ecuación se deduce que x1 = 2x4. Además es claro que cualquier X que cumple estas condiciones es solución de la ecuación. En consecuencia, las soluciones del sistema son todos los vectores en R4 de la forma X = (2x4,−x4,−x4, x4) = x4(2,−1,−1, 1), es decir, el conjunto de las soluciones del sistema es el subespacio S = < (2,−1,−1, 1) >. 1.2.3 Cantidad de soluciones de un sistema homogéneo Una consecuencia inmediata del Teorema 1.21 es la siguiente: Observación 1.22 Sea H un sistema lineal homogéneo de n ecuaciones con m incógnitas. Supongamos que n > m. Entonces, por el teorema anterior, el sistema es equivalente a uno cuya matriz es triangular superior. Luego, las últimas filas de su matriz asociada son nulas y en consecuencia vemos que existe un sistema H ′ de n ecuaciones con n incógnitas cuyo conjunto de soluciones coincide con el de H (basta considerar las n primeras ecuaciones del sistema obtenido). Si H es un sistema lineal homogéneo con m incógnitas, es claro que 0 ∈ Km es una solución de H. Ésta se llama la solución trivial del sistema. En muchos casos nos interesará saber si el sistema tiene alguna solución distinta de 0 (a las que llamaremos soluciones no triviales). El siguiente resultado nos dice que en el caso de un sistema con menos ecuaciones que incógnitas esto siempre sucede. 20 Espacios vectoriales se dice no homogéneo si existe i, 1 ≤ i ≤ n, con bi 6= 0. La matriz A = (aij) se dice la matriz asociada al sistema. Llamaremos sistema homogéneo asociado a H a    a11x1 + a12x2 + · · ·+ a1mxm = 0 ... an1x1 + an2x2 + · · ·+ anmxm = 0 En el caso de un sistema lineal no homogéneo el conjunto de soluciones no es un subespacio (es claro que 0 no es solución). Sin embargo, el conjunto de soluciones de un sistema no ho- mogéneo está ı́ntimamente relacionado con el subespacio de soluciones del sistema homogéneo asociado. Proposición 1.26 Sea H un sistema lineal no homogéneo con soluciones. Sea S el conjunto de soluciones del sistema homogéneo asociado a H y sea p una solución particular de H. Entonces, el conjunto M de soluciones de H es M = S + p = {s + p : s ∈ S}. Demostración. Sea H el sistema   a11x1 + a12x2 + · · ·+ a1mxm = b1 ... an1x1 + an2x2 + · · ·+ anmxm = bn (⊆) Sea z ∈ M . Se tiene que z = (z − p) + p. Luego, para probar que z ∈ S + p, basta ver que z− p = (z1− p1, . . . , zm− pm) ∈ S, es decir, que es solución del sistema homogéneo asociado a H. Sea i, 1 ≤ i ≤ n. Entonces ai1(z1 − p1) + · · ·+ aim(zm − pm) = (ai1z1 + · · ·+ aimzm)− (ai1p1 + · · ·+ aimpm) = bi − bi = 0 puesto que z y p son ambas soluciones de H. Luego, z − p ∈ S. (⊇) Sea y ∈ S + p. Entonces y = s + p con s ∈ S. Para cada 1 ≤ i ≤ n, ai1y1 + · · ·+ aimym = ai1(s1 + p1) + · · ·+ aim(sm + pm) = = (ai1s1 + · · ·+ aimsm) + (ai1p1 + · · ·+ aimpm) = 0 + bi = bi, puesto que p es solución de H y s es solución del sistema homogéneo asociado a H. En consecuencia, y es solución de H, es decir, y ∈ M . ¤ 1.2 Sistemas de ecuaciones lineales 21 Ejemplo. Resolver el siguiente sistema de ecuaciones lineales en R4: { 2x2 − x3 + x4 = 0 3x1 + x2 + 10x3 + 5x4 = 3 x1 + 3x3 + x4 = 1 Por la proposición anterior, para obtener todas las soluciones del sistema basta conocer una solución particular y el conjunto de soluciones del sistema homogéneo asociado. Vemos que p = (1, 0, 0, 0) es una solución particular del sistema. Por otro lado, en un ejemplo anterior (página 16) hemos visto que el conjunto de soluciones del sistema homogéneo asociado es S = < (2,−1,−1, 1) >. En consecuencia, el conjunto de soluciones del sistema es < (2,−1,−1, 1) > + (1, 0, 0, 0). Sin embargo, el resultado que relaciona las soluciones de un sistema no homogéneo con las del homogéneo asociado es más que nada teórico: dado un sistema de ecuaciones lineales no homogéneo, es poco probable que conozcamos una solución particular sin resolverlo. La reso- lución de un sistema lineal no homogéneo, al igual que en el caso homogéneo, puede realizarse triangulando una matriz adecuada como mostramos en el siguiente ejemplo (comparar con el ejemplo de la página 16). Ejemplo. Resolver el siguiente sistema lineal no homogéneo en R4: { 2x2 − x3 + x4 = 2 3x1 + x2 + 10x3 + 5x4 = 1 x1 + 3x3 + x4 = −2 Consideraremos la siguiente matriz formada por la matriz del sistema homogéneo asociado al sistema a la que le agregamos como última columna los escalares solución de cada ecuación (lo separamos con una ĺınea para recordar que esos escalares son los que aparecen del otro lado de los iguales): (A | b) =   0 2 −1 1 2 3 1 10 5 1 1 0 3 1 −2   . El método de resolución es similar al de los sistemas homogéneos. Utilizamos el método de Gauss para triangular la matriz que está a la izquierda de la ĺınea pero realizando las operaciones en toda la fila, inclusive en los elementos a la derecha de la ĺınea: el método de Gauss se basa en intercambiar y operar con ecuaciones, aśı que para no cambiar las soluciones debemos trabajar con ambos miembros de las ecuaciones (en el caso homogéneo, esto no era necesario porque siempre los segundos miembros daban cero). Entonces, triangulando con las mismas operaciones que en el ejemplo de la página 16, obtenemos   0 2 −1 1 2 3 1 10 5 1 1 0 3 1 −2   −→   1 0 3 1 −2 3 1 10 5 1 0 2 −1 1 2   −→   1 0 3 1 −2 0 1 1 2 7 0 2 −1 1 2   −→ 22 Espacios vectoriales −→   1 0 3 1 −2 0 1 1 2 7 0 0 −3 −3 −12   −→   1 0 3 1 −2 0 1 1 2 7 0 0 1 1 4   . Esta matriz se encuentra en forma triangular y su sistema no homogéneo asociado { x1 + 3x3 + x4 = −2 x2 + x3 + 2x4 = 7 x3 + x4 = 4 es equivalente al original. De la tercera ecuación deducimos que si X = (x1, x2, x3, x4) es solución del sistema, entonces x3 = 4 − x4. Reemplazando en la segunda ecuación y despejando x2 se obtiene x2 = 3 − x4. Finalmente, de la primera ecuación se deduce que x1 = −14 + 2x4. Además es claro que cualquier X que cumple estas condiciones es solución del sistema. Luego, las soluciones del sistema son todos los vectores en R4 de la forma X = (2x4 − 14,−x4 + 3,−x4 + 4, x4) = x4(2,−1,−1, 1) + (−14, 3, 4, 0), es decir, el conjunto de las soluciones del sistema es el subespacio S = < (2,−1,−1, 1) > (solución del sistema homogéneo asociado) más la solución particular (−14, 3, 4, 0). Este procedimiento para resolver sistemas lineales no homogéneos motiva la siguiente definición: Definición 1.27 Dado un sistema de ecuaciones lineales no homogéneo H :    a11x1 + a12x2 + · · ·+ a1mxm = b1 ... an1x1 + an2x2 + · · ·+ anmxm = bn , se llama matriz ampliada asociada al sistema H a la matriz   a11 a12 · · · a1m b1 ... ... · · · ... ... an1 an2 · · · anm bn   . A diferencia de los sistemas homogéneos, los sistemas no homogéneos pueden no tener soluciones. El método descripto, que triangula la matriz ampliada asociada al sistema, nos muestra que en estos casos no hay solución particular posible: Ejemplo. Resolver el siguiente sistema lineal no homogéneo en R4: { x1 + 2x2 + x3 − x4 = 2 3x1 + x2 − x3 − x4 = 7 5x1 − 3x3 − x4 = 5 1.3 Independencia lineal y bases 25 es decir, existen αj ∈ K (j 6= i) tales que vi = n∑ j=1 j 6=i αjvj . Entonces 0 = i−1∑ j=1 αjvj + (−1)vi + n∑ j=i+1 αjvj , de donde {v1, . . . , vn} no es linealmente independiente. (⇐) Si {v1, . . . , vn} es linealmente dependiente, existen α1, . . . , αn ∈ K no todos nulos, tales que n∑ i=1 αivi = 0. Sin pérdida de generalidad, supongamos que αn 6= 0. Entonces vn = − n−1∑ i=1 αi αn .vi ∈ < v1, . . . , vn−1 >. Luego, < v1, . . . , vn > = < v1, . . . , vn−1 >. ¤ Ejemplos. Decidir si los siguientes conjuntos son linealmente independientes. 1. En R3, {(1, 0, 1), (1,−1, 0), (0, 0, 1)}. Sean α1, α2, α3 ∈ R tales que α1(1, 0, 1) + α2(1,−1, 0) + α3(0, 0, 1) = (0, 0, 0). Comparando coordenada a coordenada resulta que α1, α2, α3 son solución del sistema de ecuaciones    α1 + α2 = 0 −α2 = 0 α1 + α3 = 0 Es fácil ver que este sistema tiene como única solución a la trivial. Luego, el conjunto {(1, 0, 1), (1,−1, 0), (0, 0, 1)} es linealmente independiente. 2. En R[X], {Xi : i ∈ N0}. Sean αi ∈ R (i ∈ N0) tales que αi = 0 para casi todo i ∈ N0 y ∑ i∈N0 αiX i = 0. Para que el elemento ∑ i∈N0 αiX i de R[X] sea el polinomio nulo, todos sus coeficientes deben ser 0. Luego, αi = 0 para todo i ∈ N0, de donde el conjunto {Xi : i ∈ N0} es linealmente independiente. La siguiente proposición nos permitirá obtener otro método para decidir si un conjunto de vectores en Kn es linealmente independiente. Proposición 1.32 Sea V un K-espacio vectorial. Entonces: 26 Espacios vectoriales 1. {v1, . . . , vi, . . . , vj , . . . , vn} ⊆ V es l.i. ⇐⇒ {v1, . . . , vj , . . . , vi, . . . , vn} ⊆ V es l.i. 2. {v1, . . . , vi, . . . , vn} ⊆ V es l.i. ⇐⇒ {v1, . . . , λvi, . . . , vn} ⊆ V es l.i. para λ ∈ K−{0}. 3. {v1, . . . , vi, . . . , vj , . . . , vn} ⊆ V es l.i. ⇐⇒ {v1, . . . , vi + λvj , . . . , vj , . . . , vn} ⊆ V es l.i. para λ ∈ K. Demostración. 1. Se deduce del hecho que en un conjunto no interesa el orden de sus elementos. 2. Supongamos que {v1, . . . , vi, . . . , vn} es linealmente independiente. Sean α1, . . . , αn ∈ K tales que α1v1 + · · ·+ αi(λvi) + · · ·+ αnvn = 0. Entonces se tiene que αj = 0 para cada j 6= i y que αi.λ = 0. Puesto que λ 6= 0, resulta que también αi = 0. Luego, el conjunto {v1, . . . , λvi, . . . , vn} es linealmente independiente. Esto prueba la equivalencia, puesto que para demostrar la otra implicación basta mul- tiplicar el i-ésimo vector del conjunto por 1λ . 3. Supongamos que {v1, . . . , vi, . . . , vj , . . . , vn} es linealmente independiente. Sean α1, . . . , αn ∈ K tales que 0 = α1v1 + · · ·+ αi(vi + λvj) + · · ·+ αjvj + · · ·+ αnvn = α1v1 + · · ·+ αivi + · · ·+ (αiλ + αj)vj + · · ·+ αnvn. La independencia lineal de {v1, . . . , vi, . . . , vj , . . . , vn} implica que α1 = . . . = αi = . . . = αiλ + αj = . . . = αn = 0, de donde αk = 0 para todo 1 ≤ k ≤ n. En consecuencia, el conjunto {v1, . . . , vi +λvj , . . . , vj , . . . , vn} es linealmente independi- ente. La otra implicación se deduce de ésta observando que el conjunto {v1, . . . , vn} se obtiene de {v1, . . . , vi +λvj , . . . , vj , . . . , vn} cambiando el i-ésimo vector vi +λvj por (vi +λvj)+ (−λ)vj = vi. ¤ Como consecuencia de la proposición anterior, para decidir si un subconjunto de vectores {v1, . . . , vr} de Kn es linealmente independiente podemos proceder como sigue: • Considerar la matriz A cuyas filas son los vectores v1, . . . , vr. • Triangular la matriz A. 1.3 Independencia lineal y bases 27 • Si la matriz obtenida tiene alguna fila nula, el conjunto es linealmente dependiente. De lo contrario, es linealmente independiente. En efecto, en cada paso de la triangulación, lo que se hace es cambiar el conjunto de vectores por otro conjunto como en 1., 2. o 3. de la proposición anterior. Luego, el nuevo conjunto de vectores será l.i. si y sólo si el anterior era l.i. Si alguna fila de la matriz obtenida es nula, es decir, uno de los vectores del conjunto de vectores obtenido es el 0, es claro que el conjunto es l.d. Por otro lado, si ninguna fila de la matriz triangular superior es nula, es fácil ver que el conjunto de vectores obtenido es l.i. 1.3.2 Bases y dimensión Introducimos ahora el concepto de base de un espacio vectorial. Definición 1.33 Sea V un K-espacio vectorial. Una familia {vα}α∈I se llama una base del espacio vectorial V si {vα}α∈I es una familia linealmente independiente de V que satisface < vα >α∈I= V . Ejemplos. 1. En Kn, B = {e1, . . . , en}, donde (ei)i = 1 y (ei)j = 0 si j 6= i, es una base, llamada la base canónica de Kn. 2. En Kn×m, B = {Eij / 1 ≤ i ≤ n, 1 ≤ j ≤ m} es una base. 3. En K[X], B = {Xi / i ∈ N0} es una base. Dos sistemas de generadores cualesquiera de un K-espacio vectorial V pueden tener dis- tinta cantidad de elementos. Esto no sucede en el caso de dos bases y lo demostraremos para espacios vectoriales finitamente generados, lo que nos permitirá definir la dimensión de un espacio vectorial finitamente generado como la cantidad de elementos de una base cualquiera. Teorema 1.34 Sea V un K-espacio vectorial. Supongamos que < v1, . . . , vr > = V y que {w1, . . . , ws} ⊆ V es una familia linealmente independiente. Entonces s ≤ r. Demostración. Como V = < v1, . . . , vr >, para cada 1 ≤ i ≤ s, existen αij ∈ K (1 ≤ j ≤ r) tales que wi = r∑ j=1 αijvj . Consideremos el siguiente sistema de r ecuaciones y s incógnitas: s∑ h=1 αhjxh = 0 1 ≤ j ≤ r. (1.1) Sea (β1, . . . , βs) una solución del sistema. Entonces s∑ h=1 βhwh = s∑ h=1 βh ( r∑ j=1 αhjvj ) = s∑ h=1 ( r∑ j=1 βhαhjvj ) = 30 Espacios vectoriales Como por la triangulación anterior se ve simultáneamente que {(1,−1, 7, 3), (2, 1,−1, 0)} es un conjunto l.i. y que {(1,−1, 7, 3), (2, 1,−1, 0), (3, 1, 1, 1)} es un conjunto l.d, resulta que (3, 1, 1, 1) ∈ < (1,−1, 7, 3), (2, 1,−1, 0) >. Luego, {(1,−1, 7, 3), (2, 1,−1, 0)} es un sistema de generadores de S. Como además es linealmente independiente, es una base de S. 2. Extender el conjunto linealmente independiente {(1, 1, 0, 0), (1,−1, 1, 0)} a una base de R4. Consideremos la base canónica de R4, E = {(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)}. Con la notación utilizada en la demostración de la proposición anterior: Se tiene G1 := {(1, 1, 0, 0), (1,−1, 1, 0), (1, 0, 0, 0)}, que es linealmente independiente. Ahora, (0, 1, 0, 0) ∈ < G1 >, puesto que (0, 1, 0, 0) = (1, 1, 0, 0) − (1, 0, 0, 0) y entonces G2 := G1. El conjunto G2 ∪ {(0, 0, 1, 0)} es linealmente independiente. Consideramos entonces G3 := G2 ∪ {(0, 0, 1, 0)}. Este conjunto, formado por cuatro vectores linealmente in- dependientes de R4, debe poder extenderse a una base de R4, que tendrá 4 elementos puesto que dimR4 = 4; luego, ya es una base de R4. Como consecuencia de la proposición anterior, se obtienen los siguientes resultados sobre subespacios de un K-espacio vectorial de dimensión finita. Observación 1.39 Si V es un K-espacio vectorial de dimensión finita y S ⊆ V , entonces S es de dimensión finita. (Notar que si S tuviese una base con infinitos elementos, podŕıamos obtener dim V + 1 elementos l.i. en S y por lo tanto en V . Este conjunto podŕıa extenderse a una base de V con más de dim V elementos, lo que es un absurdo.) Proposición 1.40 Sean S y T subespacios de un K-espacio vectorial V de dimensión finita. Entonces: i) S ⊆ T ⇒ dim S ≤ dim T. ii) S ⊆ T y dim S = dim T ⇒ S = T. Demostración. i) Sea {s1, . . . , sr} una base de S y sea n = dim T . Como S ⊆ T , se tiene que {s1, . . . , sr} ⊆ T , y además es un conjunto linealmente independiente. Luego, puede extenderse a una base de T , y en consecuencia, dim S = r ≤ n = dim T . ii) Siguiendo el razonamiento de la demostración de i), al extender una base {s1, . . . , sr} de S a una de T , como dim S = dim T , no se agrega ningún vector. Luego S = < s1, . . . , sr > = T . ¤ 1.4 Suma de subespacios 31 Observar que el ı́tem ii) de la proposición anterior nos facilita la verificación de la igualdad entre dos subespacios. Ejemplo. Sean S y T los subespacios de R3: S = < (1,−k2 + 1, 2), (k + 1, 1− k,−2) > y T = {x ∈ R3 : x1 + x2 + x3 = 0}. Hallar todos los valores de k ∈ R para los cuales S = T . En primer lugar, veamos para qué valores de k ∈ R se tiene que S ⊂ T : • (1,−k2 + 1, 2) ∈ T ⇐⇒ 1 + (−k2 + 1) + 2 = 0 ⇐⇒ k = ±2 • (k + 1, 1− k,−2) ∈ T para todo k ∈ R. Luego, S ⊂ T si y sólo si k = −2 o k = 2. Finalmente, para cada uno de estos valores de k, basta ver si dim S = dim T . Observar que dim T = 2 (una base de T es {(−1, 1, 0), (−1, 0, 1)}). • Si k = −2, S = < (1,−3, 2), (−1, 3,−2) > = < (1,−3, 2) >, de donde dim S = 1. • Si k = 2, S = < (1,−3, 2), (3,−1,−2) > y, como {(1,−3, 2), (3,−1,−2)} es l.i. y por lo tanto una base de S, se tiene que dimS = 2. Concluimos que S = T si y sólo si k = 2. 1.4 Suma de subespacios Dados dos subespacios S y T de un K-espacio vectorial V la unión S ∪ T en general no es un subespacio de V , porque no contiene necesariamente a todos los elementos de la forma s + t con s ∈ S y t ∈ T , y un subespacio que contenga a S y a T debe contener a todos estos elementos. Esto da lugar a la noción de suma de subespacios. 1.4.1 Subespacio suma Definición 1.41 Sea V un K-espacio vectorial, y sean S y T subespacios de V . Se llama suma de S y T al conjunto S + T = {v ∈ V / ∃x ∈ S, y ∈ T tales que v = x + y} = {x + y / x ∈ S, y ∈ T}. La siguiente proposición muestra que la suma de dos subespacios es, en efecto, un subes- pacio que contiene a ambos, y da una caracterización de este conjunto en términos de sistemas de generadores de los subespacios considerados. Proposición 1.42 Sea V un K-espacio vectorial, y sean S y T subespacios de V . Entonces: i) S + T es un subespacio de V . ii) S + T es el menor subespacio (con respecto a la inclusión) que contiene a S ∪ T . iii) Si {vi}i∈I es un sistema de generadores de S y {wj}j∈J es un sistema de generadores de T , {vi}i∈I ∪ {wj}j∈J es un sistema de generadores de S + T . 32 Espacios vectoriales Demostración. i) 0 = 0 + 0 ∈ S + T , pues 0 ∈ S, 0 ∈ T . Sean v, v′ ∈ S + T . Existen x, x′ ∈ S, y, y′ ∈ T tales que v = x + y, v′ = x′ + y′. Entonces v + v′ = (x+ y)+ (x′+ y′) = (x+x′)+ (y + y′), y como S y T son subespacios x + x′ ∈ S, y + y′ ∈ T . Luego, v + v′ ∈ S + T . Sea v ∈ S + T y sea λ ∈ K. Existen x ∈ S, y ∈ T tales que v = x + y. Entonces, λ.v = λ.(x + y) = λ.x + λ.y. Como λ ∈ K, x ∈ S y S es un subespacio, resulta que λ.x ∈ S. Análogamente, λ.y ∈ T . Luego λ.v ∈ S + T . En consecuencia, S + T es un subespacio de V . ii) Sea W un subespacio de V tal que S ∪ T ⊆ W . Sea v ∈ S + T . Entonces v = x + y con x ∈ S, y ∈ T . Como S ⊆ S ∪ T ⊆ W , entonces x ∈ W ; y como T ⊆ S ∪ T ⊆ W , entonces y ∈ W . En consecuencia v = x + y ∈ W , puesto que W es un subespacio. Luego, S + T ⊆ W . iii) Sea v ∈ S + T , v = x + y con x ∈ S, y ∈ T . Dado que {vi}i∈I es un sistema de generadores de S, existen αi ∈ K (i ∈ I), con αi = 0 salvo para finitos i ∈ I, tales que x = ∑ i∈I αivi. De la misma manera, existen βj ∈ K (j ∈ J), con βj = 0 salvo para finitos j ∈ J , tales que y = ∑ j∈J βjwj . Luego v = ∑ i∈I αivi + ∑ j∈J βjwj resulta una combinación lineal de {vi}i∈I ∪ {wj}j∈J ⊆ S + T . ¤ Ejemplo. Sean S y T los subespacios de R4 S = < (1, 1, 0, 1), (2, 3, 1, 1) > y T = < (0, 0, 1, 1), (1, 2, 2, 1) >. Hallar una base de S + T . Por la proposición anterior, podemos obtener un sistema de generadores de S+T mediante la unión de un sistema de generadores de S y un sistema de generadores de T . Entonces S + T = < (1, 1, 0, 1), (2, 3, 1, 1), (0, 0, 1, 1), (1, 2, 2, 1) >. Ahora extraemos una base del sistema de generadores hallado. Se tiene:   1 1 0 1 2 3 1 1 0 0 1 1 1 2 2 1   →   1 1 0 1 0 1 1 −1 0 0 1 1 0 1 2 0   →   1 1 0 1 0 1 1 −1 0 0 1 1 0 0 1 1   →   1 1 0 1 0 1 1 −1 0 0 1 1 0 0 0 0   1.4 Suma de subespacios 35 Demostración. Supongamos que BS = {vi}i∈I y BT = {wj}j∈J . i) ⇒ ii) Dado que BS y BT son sistemas de generadores de S y T respectivamente, entonces B = BS ∪BT es un sistema de generadores de V = S ⊕ T . Por otro lado, si ∑ i∈I αivi ︸ ︷︷ ︸ ∈S + ∑ j∈J βjwj ︸ ︷︷ ︸ ∈T = 0, como también se tiene 0 = 0 + 0 con 0 ∈ S y 0 ∈ T , por la proposición anterior∑ i∈I αivi = ∑ j∈J βjwj = 0. La independencia lineal de BS y BT implica que αi = 0 ∀ i ∈ I y βj = 0 ∀ j ∈ J . Luego, B es linealmente independiente. ii) ⇒ i) Como B = BS ∪ BT es una base de V , para cada v ∈ V existen αi ∈ K, i ∈ I, y βj ∈ K, j ∈ J , casi todos nulos, tales que v = ∑ i∈I αivi + ∑ j∈J βjwj y por lo tanto v = x + y con x = ∑ i∈I αivi ∈ S e y = ∑ j∈J βjwj ∈ T . Luego V = S + T . Si v ∈ S ∩ T , se tiene que v = ∑ i∈I αivi = ∑ j∈J βjwj , de donde ∑ i∈I αivi + ∑ j∈J (−βj)wj = 0, y por la independencia lineal de B, resulta que αi = 0 ∀ i ∈ I y βj = 0 ∀ j ∈ J , de donde v = 0 y S ∩ T = {0}. ¤ Definición 1.47 Sea V un K-espacio vectorial y sea S ⊆ V un subespacio de V . Diremos que T es un complemento de S si S ⊕ T = V . Ejemplos. 1. Hallar un complemento de Rn[X] en R[X]. Buscamos un subespacio S de R[X] tal que R[X] = Rn[X] ⊕ S, es decir, R[X] = Rn[X] + S y R[X] = Rn[X] ∩ S = {0}. Se tiene que Rn[X] = < 1, X, . . . , Xn >. Consideremos S = < Xn+1, . . . , Xj , . . . > = < Xi >i≥n+1. Es claro que Rn[X] + S = R[X]. Si f ∈ Rn[X] ∩ S, entonces f = 0 o gr(f) ≤ n, y además f = h∑ i=n+1 aiX i con ai ∈ R. Luego, f = 0. En consecuencia, R[X] = Rn[X]⊕ S. 2. Sea S = {f ∈ R[X] / f(1) = 0}. Hallar un complemento de S en R[X]. Vemos que S = < (X − 1)Xi >i∈N0 . Sea T = < 1 >. Dado f ∈ R[X], f = (f−f(1))+f(1) y f−f(1) ∈ S, f(1) ∈ T . Entonces, S+T = R[X]. Sea f ∈ S ∩ T . Como f ∈ S, se tiene que f = (X − 1)g para algún g ∈ R[X] y como f ∈ T , f = 0 o gr(f) = 0. Luego f = 0. Por lo tanto S ⊕ T = R[X]. 36 Espacios vectoriales 1.5 Ejercicios Ejercicio 1. i) Representar gráficamente en el plano los siguientes vectores: (−1, 1) ; (2, 3) ; (−1, 1) + (2, 3) ; 12 .(−1, 1) + 32 .(2, 3) ii) Sean v, w ∈ R2. Interpretar geométricamente −v , 3.v , 13 .v , v + w , v − w. iii) Sean v = (3, 1) , w = (2, 4) ∈ R2. Representar gráficamente los conjuntos: S1 = {r.v / r ∈ R} S2 = {r.v / r ∈ R≥1} S3 = {r.v + s.w / r, s ∈ R} S4 = {r.v + s.w / r, s ∈ R , 0 ≤ r, s ≤ 1} S5 = {r.v + s.w / r, s ∈ R , 0 ≤ r, s ≤ 1, r + s = 1} Ejercicio 2. Probar en cada caso que el conjunto V con la suma y el producto por escalares definidos es un espacio vectorial sobre K. i) V = KN = {(ai)i∈N = (a1, a2, . . . , an, . . .)/ai ∈ K ∀ i ∈ N}, el conjunto de todas las sucesiones de elementos de K (donde K es un cuerpo cualquiera). + : (ai)i∈N + (bi)i∈N = (ai + bi)i∈N . : k.(ai)i∈N = (k.ai)i∈N ii) X es un conjunto, V = P(X), K = Z2. + : B + C = B4C . : 0.B = ∅, 1.B = B iii) V = R>0, K = Q. ⊕ : a⊕ b = a.b ⊗ : mn ⊗ a = n √ am Ejercicio 3. Sea V un espacio vectorial sobre K, k ∈ K, v ∈ V . Probar las siguientes afirmaciones: i) k.~0 = ~0 iii) k.v = ~0 ⇒ k = 0 ó v = ~0 ii) −(−v) = v iv) −~0 = ~0 Ejercicio 4. i) Sea v ∈ R2 un vector fijo. Se define la función fv : R2 → R2 de la siguiente forma: fv(x, y) = (x, y) + v Interpretar geométricamente el efecto de fv sobre el plano (fv se llama la traslación en v). 1.5 Ejercicios 37 ii) Probar que R2 es un R-espacio vectorial con la suma +(2,1) y el producto por escalares .(2,1) definidos de la siguiente forma: (x, y) +(2,1) (x′, y′) = (x + x′ − 2, y + y′ − 1) r .(2,1)(x, y) = r.(x− 2, y − 1) + (2, 1) (Este espacio se notará R2(2,1) para distinguirlo de R 2 con la suma y el producto usual. La notación se basa en que el (2, 1) resulta el neutro de la suma +(2,1)). iii) Interpretar geométricamente +(2,1) y .(2,1), teniendo en cuenta que: (x, y) +(2,1) (x′, y′) = f(2,1) ( f(−2,−1)(x, y) + f(−2,−1)(x′, y′) ) r .(2,1)(x, y) = f(2,1) ( r.f(−2,−1)(x, y) ) Ejercicio 5. Sea S = {f ∈ R[X] / f(1) = f(2)}. i) Verificar que la suma usual de polinomios es una operación en S (es decir: f, g ∈ S ⇒ f + g ∈ S) ii) Verificar que el producto usual de un número real por un polinomio es una acción de R en S (es decir: r ∈ R, f ∈ S ⇒ r.f ∈ S) iii) Probar que (S, +, .) es un R-espacio vectorial. (Si se minimiza el trabajo sólo deberá verificarse una propiedad para esto. Comparar i), ii) y iii) con el criterio para decidir si un subconjunto es un subespacio.) Ejercicio 6. i) Encontrar un subconjunto no vaćıo de R2 que sea cerrado para la suma y para la resta pero no para la multiplicación por escalares. ii) Encontrar un subconjunto no vaćıo de R2 que sea cerrado para la multiplicación por escalares pero no para la suma. Ejercicio 7. Decidir cuáles de los siguientes subconjuntos son subespacios de V como K- espacio vectorial: i) S1 = {a.i / a ∈ R} V = C K = R ó K = C ii) S2 = {f ∈ K[X] / f ′(1) = 0} V = K[X] iii) S3 = {M ∈ Kn×n /Mij = −Mji ∀ i, j } V = Kn×n iv) S4 = {f ∈ C∞(R) / f ′′ + 3f ′ = 0} V = C∞(R) K = R v) S5 = {v ∈ R2(2,1) / x + y = 3} V = R2(2,1) K = R vi) S6 = {(ai)i∈N ∈ KN / a1 = 0} V = KN vii) S7 = {(ai)i∈N ∈ KN /∃ k ∈ N tal que ar = 0 ∀ r ≥ k} V = KN viii) S8 = {(ai)i∈N ∈ KN / a1.a2 = 0} V = KN 40 Espacios vectoriales Ejercicio 19. i) Resolver el siguiente sistema en C2: { (1− i)x1 − ix2 = 0 2x1 + (1− i)x2 = 0 ii) Resolver en C3 el sistema A.x = 0 donde A =   i −(1 + i) 0 1 −2 1 1 2i −1   Ejercicio 20. Resolver los siguientes sistemas: i) en Z5:    x1 + 2x2 + 2x3 + x4 = 4 2x1 + 3x3 + x4 = 2 4x2 + 2x3 + 4x4 = 1 ii) en Z7:    x + z = 2 2y + z = 6 x + 3y = 0 iii) en Z3:    x + y + z = 1 2x + y + 2z = 0 x + z = 2 Ejercicio 21. Encontrar un sistema a coeficientes reales cuya solución general sea: (1, 1, 0) + λ(1, 2, 1), λ ∈ R. Ejercicio 22. Sean A ∈ Km×n, b ∈ Km×1. i) Si el sistema A.x = 0 tiene solución única, probar que el sistema A.x = b tiene a lo sumo una solución. Dar ejemplos de los distintos casos que se puedan presentar. ii) ¿Vale la rećıproca de i)? Ejercicio 23. Encontrar un sistema de generadores para cada uno de los siguientes espacios vectoriales sobre K: i) S1 = {(x, y, z) ∈ R3 / x + y − z = 0 ; x− y = 0} , K = R ii) S2 = { (x, y, z) ∈ (Z7)3 / {x + z = 0 2y + z = 0 x + 3y = 0 } , K = Z7 1.5 Ejercicios 41 iii) S3 = {A ∈ Q3×3 /Aij = −Aji ∀ i, j }, K = Q iv) S4 = {f ∈ R4[X] / f(1) = 0 y f(2) = f(3)} , K = R v) S5 = {(an)n∈N ∈ RN / ai = 0 ∀ i ≥ 5 ; a1 + 2a2 − a3 = 0 ; a2 + a4 = 0} , K = R vi) S6 = {f ∈ C∞(R) / f ′′′ = 0} , K = R Ejercicio 24. Sea V un R-espacio vectorial y sean v1 , v2 , v3 ∈ V . Probar que si v1 + 3v2 − v3 = 0 = 2v1 − v2 − v3 entonces < v1 , v2 , v3 > = < v3 >. Ejercicio 25. Determinar si v ∈ S en cada uno de los siguientes casos: i) v = (1, 2,−1), S = < (1, 3, 2) , (2, 0, 1) , (1, 1, 1) > ⊆ R3 ii) v = (1, 0,−1, 3), S = < (1, 0, 1, 0) , (2, 1, 0, 1) , (0, 1, 0,−2) > ⊆ R4 Ejercicio 26. Sea S = < (1,−1, 2, 1), (3, 1, 0,−1), (1, 1,−1,−1) > ⊆ R4. i) Determinar si (2, 1, 3, 5) ∈ S. ii) Determinar si {x ∈ R4/x1 − x2 − x3 = 0} ⊆ S. iii) Determinar si S ⊆ {x ∈ R4/x1 − x2 − x3 = 0}. Ejercicio 27. Hallar un sistema de generadores para S ∩ T como subespacio de V en cada uno de los siguientes casos: i) V = R3, S = {(x, y, z)/3.x− 2.y + z = 0} T = {(x, y, z)/x + z = 0} ii) V = R3, S = {(x, y, z)/3.x− 2.y + z = 0} T = < (1, 1, 0), (5, 7, 3) > iii) V = R3, S = < (1, 1, 3), (1, 3, 5), (6, 12, 24) > T = < (1, 1, 0), (3, 2, 1) > iv) V = R3×3, S = {(xij) / xij = xji ∀ i, j} T = {(xij) / x11 + x12 + x13 = 0} v) V = R[X], S = {f ∈ R[X] / f(1) = 0} T = < 1 , X, X2, X3 + 2X2 −X, X5 > vi) V = R[X], S = {f ∈ R[X] / f(1) = 0} T = {f ∈ R[X] / f ′(1) = f ′′(1) = 0} Ejercicio 28. Decidir si las siguientes sucesiones de vectores son linealmente independientes sobre K. i) (1−X)3, (1−X)2, 1−X, 1 en K[X] ii) (1, 2, 3) , (2, 3, 1) , (1, 1, 4) , (5, 1, 1) en R3 iii) (1, 4,−1, 3) , (2, 1,−3,−1) , (0, 2, 1,−5) en Q4 iv) (1− i, i) , (2,−1 + i) en C2, para K = R y K = C 42 Espacios vectoriales v) (3 + √ 2, 1 + √ 2) , (7, 1 + 2 √ 2) en R2, para K = Q y K = R vi) f(x) = 1 , g(x) = x en RR vii) f(x) = sen(x) , g(x) = cos(x) en RR viii) f(x) = ex , g(x) = x en RR ix) u = (1, 0, 1, 0, 1, . . .) , v = (0, 1, 0, 1, 0, . . .) , w = (1, 1, 0, 1, 1, 0, . . .) en RN Ejercicio 29. Hallar todos los k ∈ R para los cuales {v1 , v2 , v3} ⊂ V es un conjunto linealmente independiente en los siguientes casos: i) {(1, 2, k) , (1, 1, 1) , (0, 1, 1− k)} ⊂ R3 ii) {(k, 1, 0) , (3,−1, 2) , (k, 2,−2)} ⊂ R3 iii) {k.X2 + X , X2 − k , k2.X} ⊂ R[X] iv) {( 1 k −1 2 ) , ( k 1 0 2k ) , ( 0 0 1 0 ) } ⊂ R2×2 Ejercicio 30. Sean v1, . . . , vn ∈ Rn. Probar que {v1, . . . , vn} son linealmente independientes sobre R ⇐⇒ {v1, . . . , vn} son linealmente independientes sobre C. Ejercicio 31. En cada uno de los siguientes casos hallar una base del subespacio de soluciones del sistema lineal homogéneo A.x = 0 (K = R). i) A =   2 0 3 −1 1 −2 1 0 −1 1 0 1   ii) A =   0 5 3 1 −1 2 2 3 1   iii) A =   3 −1 0 1 2 −1 0 4 −1 0 3 1 1 0 1 2 0 0 3 1   Ejercicio 32. Completar los siguientes conjuntos linealmente independientes a una base del K-espacio vectorial V indicado. i) {(1, 1, 1, 1) , (0, 2, 1, 1)}, V = R4, K = R ii) {X3 − 2X + 1 , X3 + 3X}, V = R3[X], K = R iii) {( 1 1 i 1 ) , ( 0 i 1 1 ) , ( 0 2 1 1 )} , V = C2×2, K = R y K = C Ejercicio 33. Extraer una base de S de cada uno de los siguientes sistemas de generadores. 1.5 Ejercicios 45 Ejercicio 45. Decidir si las siguientes afirmaciones son verdaderas o falsas. Justificar. i) S, T subespacios de R3, dim S = dim T = 2 ⇒ ∃v 6= 0 tal que v ∈ S ∩ T . ii) S, T, W subespacios de R11, dim S = dim T = dim W = 4 ⇒ dim(S ∩ T ∩W ) ≥ 1. Ejercicio 46. Sea V un K-espacio vectorial y sean S, T y U subespacios de V . i) Probar que (S ∩ T ) + (S ∩ U) ⊆ S ∩ (T + U). ii) Mostrar que, en general, la inclusión anterior es estricta. iii) Probar que, si U ⊆ S, entonces vale la igualdad en i). Ejercicio 47. Sean S, T y U subespacios de un K-espacio vectorial V tales que S ∩ T = S ∩ U, S + T = S + U y T ⊆ U. Probar que T = U . Ejercicio 48. Sea V un K-espacio vectorial de dimensión n y sea T un hiperplano de V (es decir, un subespacio de dimensión n− 1). i) Probar que ∀ v /∈ T , T ⊕< v > = V . ii) Si S es un subespacio de V tal que S 6⊆ T , probar que S +T = V . Calcular dim(S ∩T ). iii) Si S y T son dos hiperplanos distintos, deducir dim(S ∩ T ). Ejercicio 49. Sea V = RR. i) Sean S = {f ∈ V / f(x) = f(−x) ∀x ∈ R } y T = {f ∈ V / f(−x) = −f(x) ∀x ∈ R } (S es el conjunto de funciones pares y T el conjunto de funciones impares). Probar que S y T son subespacios de V y que S ⊕ T = V . ii) Sean U = {f ∈ V / f(0) = 0} y W = {f ∈ V / f es constante}. Probar que U y W son subespacios de V y que U ⊕W = V . Ejercicio 50. i) Sea S = {(un)n∈N ∈ RN / un+2 = un+1 + un ∀n ∈ N }. Probar que S es un subespacio de RN. Calcular su dimensión. ii) Encontrar una base de S formada por sucesiones (un)n∈N que, ∀n ∈ N , verifiquen un = un−1 para algún u ∈ R. iii) Usando ii), encontrar una fórmula para el término general de la sucesión de Fibonacci: {F1 = 1 F2 = 1 Fn+2 = Fn+1 + Fn ∀n ≥ 1 46 Espacios vectoriales Caṕıtulo 2 Matrices En el caṕıtulo anterior hemos utilizado matrices para la resolución de sistemas de ecuaciones lineales y hemos visto que, para n,m ∈ N, el conjunto de las matrices de n filas y m columnas con coeficientes en un cuerpo K es un K-espacio vectorial. A continuación estudiaremos más en detalle estos conjuntos de matrices, aśı como también ciertas matrices particulares que nos serán de utilidad. 2.1 Definiciones y propiedades Comenzaremos recordando algunas definiciones y propiedades estudiadas en el caṕıtulo ante- rior. Sean n,m ∈ N. El conjunto de las matrices de n filas y m columnas con coeficientes en un cuerpo K es Kn×m =      a11 . . . a1m ... ... an1 . . . anm   / aij ∈ K ∀ 1 ≤ i ≤ n, 1 ≤ j ≤ m    . Para definir una matriz en Kn×m basta especificar, para cada 1 ≤ i ≤ n y cada 1 ≤ j ≤ m, qué elemento de K se halla en el lugar ij (correspondiente a la intersección de la fila i y la columna j) de la matriz. Ejemplo. Sean n,m ∈ N, y sean 1 ≤ k ≤ n, 1 ≤ l ≤ m. Se define la matriz Ekl ∈ Kn×m como (Ekl)ij = { 1 si i = k, j = l 0 si no Estas matrices se llaman las matrices canónicas de Kn×m. Una primera observación que debemos hacer se refiere a cómo determinar si dos matrices (de las mismas dimensiones) son iguales: 50 Matrices Definición 2.7 Sea K un cuerpo y sea A un conjunto con dos operaciones, + y · , y una acción ·K de K en A tales que 1. (A, +, ·) es un anillo 2. (A, +, ·K) es un K-espacio vectorial 3. (λ ·K X) · Y = λ ·K (X · Y ) = X · (λ ·K Y ) ∀λ ∈ K ∀X,Y ∈ A Se dice entonces que A es una K-álgebra. Observación 2.8 (Kn×n, +, ·K , ·) es una K-álgebra. Observamos que el producto de matrices nos permite escribir un sistema lineal de n ecua- ciones con m incógnitas    a11x1 + a12x2 + · · ·+ a1mxm = b1 ... an1x1 + an2x2 + · · ·+ anmxm = bn en la forma A.x = b, donde A ∈ Kn×m es la matriz asociada al sistema, x ∈ Km×1 se define como xi1 = xi (matriz de una columna cuyos elementos son las incógnitas del sistema), y b ∈ Kn×1 se define como bj1 = bj (matriz de una columna cuyos elementos son los resultados a los que están igualadas las ecuaciones). De esta manera, un sistema lineal puede verse como una única ecuación con una única incógnita x, pero que involucra matrices en lugar de escalares. El hecho que la solución en K de la ecuación a.x = b con a, b ∈ K, a 6= 0, se obtiene haciendo simplemente x = a−1b, nos lleva a pensar que el sistema lineal Ax = b podŕıa resolverse análogamente como x = A−1b en caso de disponer de una matriz A−1 que sea una inversa de A para el producto de matrices. Éste será el tema a estudiar en la próxima sección. Concluimos esta sección introduciendo dos nociones que nos serán de utilidad en lo suce- sivo: Definición 2.9 Sea A ∈ Kn×m. Se llama matriz transpuesta de A, y se nota At, a la matriz At ∈ Km×n definida por (At)ij = Aji para cada 1 ≤ i ≤ m, 1 ≤ j ≤ n. Definición 2.10 Sea A ∈ Kn×n. Se llama traza de la matriz A, y se nota tr(A), al escalar tr(A) = ∑n i=1 Aii. 2.2 Matrices inversibles No es cierto que todo elemento no nulo de Kn×n tenga inverso con respecto al producto. Por ejemplo: A = ( 1 0 0 0 ) ∈ K2×2 no tiene inversa. En efecto, A.B 6= I2 para toda matriz B ∈ K2×2, puesto que (A.B)22 = 0 6= (I2)22 para toda matriz B ∈ K2×2. 2.2 Matrices inversibles 51 En esta sección nos ocuparemos de las matrices que śı tienen inversa y veremos también cómo hallar la inversa de una matriz en el caso en que ésta exista. Definición 2.11 Una matriz A ∈ Kn×n se dice inversible si existe una matriz B ∈ Kn×n tal que A.B = B.A = In. Observemos que la matriz B de la definición es única. En efecto, si A.B = B.A = In y A.C = C.A = In, entonces B = In.B = (C.A).B = C.(A.B) = C.In = C. Notación. B = A−1. Para cada n ∈ N consideraremos el conjunto de todas las matrices inversibles en Kn×n: GL(n,K) = {A ∈ Kn×n / A es inversible}. Nos interesa estudiar la estructura de este conjunto. Proposición 2.12 Para cada n ∈ N , se verifican las siguientes propiedades: 1. Si A, B ∈ GL(n,K), entonces A.B ∈ GL(n,K). Más aún, (A.B)−1 = B−1A−1. En particular, el producto de matrices · es una operación en GL(n,K). 2. In ∈ GL(n, K). 3. Si A ∈ GL(n,K), entonces A−1 ∈ GL(n,K). Demostración. 1. Sean A,B ∈ GL(n,K). Entonces existen A−1 y B−1. Se tiene que (A.B).(B−1. A−1) = In y (B−1. A−1).(A.B) = In. Entonces A.B es inversible y (A.B)−1 = B−1. A−1. 2. Es consecuencia de que In.In = In. 3. De la definición de inversa se deduce inmediatamente que si A ∈ GL(n, K), entonces (A−1)−1 = A y por lo tanto A−1 ∈ GL(n,K). ¤ De la proposición anterior y la asociatividad del producto de matrices se deduce que: Proposición 2.13 (GL(n,K), ·) es un grupo, que se denomina el grupo lineal general (n, K). 52 Matrices Para concluir esta sección, veremos un método para determinar si una matriz en Kn×n es inversible y, en caso de serlo, encontrar su inversa. Lo describimos en el siguiente ejemplo: Ejemplo. Hallar, si es posible, A−1 siendo A ∈ R3×3 la matriz A =   1 1 0 0 2 −1 2 1 1   . Buscamos B ∈ R3×3 tal que A.B = B.A = I3. Si B =   a b c d e f g h i  , debe ser A.   a b c d e f g h i   =   1 0 0 0 1 0 0 0 1   . Esta igualdad se traduce en los tres sistemas de ecuaciones siguientes: A.   a d g   =   1 0 0   , A.   b e h   =   0 1 0   , y A.   c f i   =   0 0 1   , que podemos resolver simultáneamente:   1 1 0 1 0 0 0 2 −1 0 1 0 2 1 1 0 0 1   −→   1 1 0 1 0 0 0 2 −1 0 1 0 0 −1 1 −2 0 1   −→   1 1 0 1 0 0 0 1 −1 2 0 −1 0 0 1 −4 1 2   −→   1 0 0 3 −1 −1 0 1 0 −2 1 1 0 0 1 −4 1 2   Entonces B =   3 −1 −1 −2 1 1 −4 1 2   verifica la igualdad A.B = I3. Observemos que, si buscamos una matriz C tal que B.C = I3, bastaŕıa con hacer los pasos anteriores, pero a la inversa, con lo que obtendŕıamos la matriz A. Luego, A.B = B.A = I3, es decir A−1 =   3 −1 −1 −2 1 1 −4 1 2  . Cómo decidir si una matriz es inversible y hallar su inversa: • Dada A ∈ Kn×n, se arma una matriz en Kn×2n cuyas primeras n columnas correspon- den a la matriz A y cuyas últimas n columnas están formadas por los n vectores de la base canónica de Kn. 2.4 Coordenadas 55 En particular, esta observación nos dice que si por medio de la aplicación de operaciones elementales a las filas de la matriz A obtenemos la matriz identidad I, entonces aplicando las mismas operaciones en las filas de I obtendremos A−1. Por otro lado, nos da un teorema de estructura para GL(n,K): aśı como el Teorema Fundamental de la Aritmética en Z dice que todo número entero no nulo es producto de enteros primos, la observación anterior nos dice que toda matriz en GL(n,K) es producto de matrices elementales. 2.4 Coordenadas Dado un K-espacio vectorial V de dimensión n y fijada una base B de V , mediante el concepto de coordenadas de un vector en la base B podremos “identificar” cada elemento de V con un vector en Kn y trabajar entonces con elementos de Kn. 2.4.1 Coordenadas de un vector en una base Definición 2.15 Sea V un K-espacio vectorial de dimensión finita y sea B = {v1, . . . , vn} una base de V . Dado x ∈ V , existen únicos α1, . . . , αn ∈ K tales que x = α1v1 + · · ·+ αnvn (ver Proposición 1.37). El vector (α1, . . . , αn) ∈ Kn se llama el vector de coordenadas de x en la base B y será denotado por (x)B . Ejemplos. i) Sea V = R4[X] y sea B = {1, X,X2, X3, X4} base de V . Las coordenadas de X3 + 3X2 − 1 en la base B son (X3 + 3X2 − 1)B = (−1, 0, 3, 1, 0). Sea B′ = {X4, X3, X2, X, 1}. Entonces (X3 + 3X2 − 1)B′ = (0, 1, 3, 0,−1). ii) Sea V = R3 y sea E = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} la base canónica. Entonces para cada (x, y, z) ∈ R3, se tiene que (x, y, z)E = (x, y, z). iii) Sea V = R3 y sea B = {(1, 1, 1), (1, 1, 0), (1, 0, 0)}. Para cada (x, y, z) ∈ R3, (x, y, z) = z.(1, 1, 1) + (y − z).(1, 1, 0) + (x− y).(1, 0, 0). Entonces, (x, y, z)B = (z, y − z, x− y). Observemos que el vector de coordenadas en la base B de un elemento de R3 se obtiene de su vector de coordenadas en la base canónica multiplicando éste por una matriz apropiada: Si v ∈ R3 tiene coordenadas (x, y, z) en la base canónica E, entonces ((v)B) t =   z y − z x− y   =   0 0 1 0 1 −1 1 −1 0   ︸ ︷︷ ︸ C(E,B)   x y z   = C(E, B). ((v)E)t . 56 Matrices 2.4.2 Cambios de base Dadas dos bases de un mismo K-espacio vectorial V de dimensión finita, cada elemento de V tiene asociados dos vectores de coordenadas (generalmente distintos), uno en cada una de las bases. Con la ayuda de cierta matriz, llamada de cambio de base, se pueden obtener las coordenadas de un vector con respecto a una base de V a partir de las coordenadas del vector en otra base. Definición 2.16 Sea V un K-espacio vectorial de dimensión n, y sean B1 = {v1, . . . , vn} y B2 = {w1, . . . , wn} bases de V . Para cada 1 ≤ j ≤ n, sean αij ∈ K (1 ≤ i ≤ n) tales que vj = n∑ i=1 αijwi. Se llama matriz de cambio de base de B1 a B2, y se nota C(B1, B2) ∈ Kn×n, a la matriz definida por (C(B1, B2))ij = αij para cada 1 ≤ i, j ≤ n. En otros términos, la matriz de cambio de base C(B1, B2) ∈ Kn×n es la matriz cuya j-ésima columna son las coordenadas en la base B2 del j-ésimo vector de la base B1, para cada 1 ≤ j ≤ n. Ejemplo. Sea V = R3. Consideremos las bases B1 = E = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} y B2 = {(1, 1, 1), (1, 1, 0), (1, 0, 0)}. Para construir la matriz C(B1, B2) ∈ R3×3, comenzamos por escribir los elementos de B1 como combinación lineal de los de B2: (1, 0, 0) = 0.(1, 1, 1) + 0.(1, 1, 0) + 1.(1, 0, 0) (0, 1, 0) = 0.(1, 1, 1) + 1.(1, 1, 0) + (−1).(1, 0, 0) (0, 0, 1) = 1.(1, 1, 1) + (−1)(1, 1, 0) + 0.(1, 0, 0) Entonces, la matriz de cambio de base es: C(B1, B2) =   0 0 1 0 1 −1 1 −1 0   . (Comparar con el Ejemplo iii) de la sección anterior.) La proposición siguiente muestra que la matriz de cambio de base cumple la propiedad que hemos mencionado al comienzo de esta sección. Proposición 2.17 Sea V un K-espacio vectorial de dimensión finita, y sean B1 y B2 bases de V . Entonces, para cada x ∈ V , C(B1, B2).((x)B1) t = ((x)B2) t. Demostración. Sean B1 = {v1, . . . , vn} y B2 = {w1, . . . , wn}. Supongamos que, para cada 1 ≤ j ≤ n, vj = n∑ i=1 αijwi, con αij ∈ K para cada 1 ≤ i ≤ n; es decir, (C(B1, B2))ij = αij (1 ≤ i, j ≤ n). 2.4 Coordenadas 57 Sea x ∈ V . Si x = n∑ k=1 akvk, entonces para cada 1 ≤ h ≤ n, ( C(B1, B2).((x)B1) t ) h = n∑ r=1 αhrar. Si bh = n∑ r=1 αhrar para cada 1 ≤ h ≤ n, por la unicidad de las coordenadas en una base, para probar que (x)B2 = (b1, . . . , bn) basta ver que x = n∑ h=1 bhwh. Ahora, n∑ h=1 bhwh = n∑ h=1 ( n∑ r=1 αhrar ) wh = n∑ h=1 ( n∑ r=1 αhrarwh ) = = n∑ r=1 ( n∑ h=1 αhrarwh ) = n∑ r=1 ar ( n∑ h=1 αhrwh ) = n∑ r=1 arvr = x, que es lo que queŕıamos probar. ¤ Una pregunta que surge es la de la unicidad de la matriz de cambio de base: dadas dos bases B1 y B2, la matriz C(B1, B2) que hemos definido transforma coordenadas en la base B1 en coordenadas en la base B2. ¿Existirá alguna otra matriz en Kn×n con esta misma propiedad? El resultado que probamos a continuación nos asegura que no. Proposición 2.18 Sean A,A′ ∈ Kn×n. Si A.x = A′.x para todo x ∈ Kn, entonces A = A′. Demostración. Sea E = {e1, . . . , en} la base canónica de Kn. Por hipótesis, A.ej = A′.ej para cada 1 ≤ j ≤ n. Pero (A.ej)i = n∑ h=1 Aih(ej)h = Aij y (A′.ej)i = n∑ h=1 A′ih(ej)h = A ′ ij para cada 1 ≤ i ≤ n, de donde Aij = A′ij para todo 1 ≤ i, j ≤ n. Luego, A = A′. ¤ De las proposiciones anteriores se desprende: Observación 2.19 Dadas dos bases B1 y B2 de un espacio vectorial V de dimensión n, la matriz C(B1, B2) es la única matriz en Kn×n que verifica C(B1, B2)((x)B1) t = ((x)B2) t para todo x ∈ V . Esta observación dice que si una matriz A verifica A.((x)B1) t = ((x)B2) t para todo x ∈ V , entonces necesariamente A = C(B1, B2). Utilizando este resultado, es fácil probar las igualdades que enunciamos a continuación. Corolario 2.20 Sea V un K-espacio vectorial de dimensión finita, y sean B1, B2 y B3 bases de V . Entonces: 60 Matrices iv) Sea A ∈ Kn×n con n ≥ 2. Probar que el conjunto {In, A, A2, A3, . . . , An2−1} es lineal- mente dependiente. v) Dar condiciones necesarias y suficientes sobre A y B ∈ Kn×n para que a) (A + B)2 = A2 + 2AB + B2 b) A2 −B2 = (A−B).(A + B) vi) Probar que si A y B ∈ Kn×n no necesariamente vale A2.B2 = (A.B)2 Ejercicio 5. Sean A , B y C ∈ Kn×n (n ≥ 2). Mostrar la falsedad de las siguientes afirma- ciones: i) A.B = 0 ⇒ A = 0 ó B = 0 ii) A.B = A.C y A 6= 0 ⇒ B = C iii) A.B = 0 ⇒ B.A = 0 iv) Aj = 0 ⇒ A = 0 v) A2 = A ⇒ A = 0 ó A = In Ejercicio 6. Sea A ∈ Kn×n. Probar que el conjunto T = {B ∈ Kn×n/A.B = 0} es un subespacio de Kn×n. Si S ⊂ Kn es el subespacio de soluciones del sistema homogéneo cuya matriz asociada es A, probar que dim T = n. dim S. Ejercicio 7. Sean A,A′ ∈ Km×n ; B ∈ Kn×r ; D, D′ ∈ Kn×n ; α ∈ K. Probar: i) (A + A′)t = At + (A′)t iv) tr(D + D′) = tr(D) + tr(D′) ii) (α.A)t = α.At v) tr(α.D) = α.tr(D) iii) (A.B)t = Bt.At vi) tr(D.D′) = tr(D′.D) Ejercicio 8. Sean A y B ∈ Kn×n. i) Probar que si A y B son triangulares superiores, A.B es triangular superior. ii) Probar que si A y B son diagonales, A.B es diagonal. iii) Probar que si A es estrictamente triangular superior (es decir, Aij = 0 si i ≥ j), An = 0. Ejercicio 9. Sea A ∈ Kn×n. i) Probar que A.At y At.A son simétricas. Encontrar un ejemplo donde A.At 6= At.A. ii) El producto de dos matrices simétricas, ¿es una matriz simétrica? 2.5 Ejercicios 61 iii) Si K = R, probar que A = 0 ⇐⇒ A.At = 0 ⇐⇒ tr(A.At) = 0. Ejercicio 10. Sea A = ( 4 −1 8 −2 ) ∈ R2×2. i) Hallar b y c ∈ R tales que A2 + b.A + c.I2 = 0. ii) Calcular An ∀n ∈ N. Ejercicio 11. Sea A ∈ K2×2 con A = ( a b c d ) y sea ∆ = a.d − b.c. Probar que, si ∆ 6= 0, A ∈ GL(2,K) y A−1 = 1 ∆ . ( d −b −c a ) . Ejercicio 12. Sea A ∈ GL(n,K) y B , C ∈ Kn×m. Probar: i) A.B = A.C ⇒ B = C ii) A.B = 0 ⇒ B = 0 Ejercicio 13. Decidir si cada una de las siguientes afirmaciones es verdadera o falsa. i) A , B ∈ GL(n,K) ⇒ A + B ∈ GL(n,K) ii) A ∈ GL(n, K) ⇐⇒ At ∈ GL(n,K) iii) tr(A) = 0 ⇒ A /∈ GL(n,K) iv) A nilpotente (es decir, ∃ j ∈ N /Aj = 0) ⇒ A /∈ GL(n, K) Ejercicio 14. Sea A ∈ Km×n y sea b ∈ Km. Sea H = {x ∈ Kn /A.x = b}. Probar: i) Si C ∈ GL(m,K), entonces H = {x ∈ Kn / (C.A).x = C.b}. ii) Si m = n y A ∈ GL(n,K), entonces H tiene un solo elemento. ¿Cuál es? (Notar que esto significa que si A es inversible, cualquier sistema lineal cuya matriz asociada sea A tiene solución única). Ejercicio 15. i) Sea A = T 12(1) ∈ R2×2. Calcular A20 y 20.A. ii) Calcular (P ij)15 y (P ij)16. iii) Sea B = M3(2) ∈ R4×4. Calcular B20 y 20.B. 62 Matrices Ejercicio 16. Averiguar si las siguientes matrices son inversibles y en caso afirmativo exhibir sus inversas. i) A =   1 1 1 0 1 1 0 0 1   iv) A =   2 1 3 1 2 0 5 −1 8 2 0 0 0 1 2 0 0 0 1 2 0 0 0 0 2   ii) A =   1 0 −1 0 0 0 1 0 2 1 −2 3 3 1 −1 3   v) A =   a11 0 . . . 0 0 a22 . . . 0 . . . . . . . . . . . . 0 0 . . . ann   iii) A =   cos θ −sen θ 0 sen θ cos θ 0 0 0 1   Escribir las que sean inversibles como producto de matrices elementales. Ejercicio 17. Sea A ∈ Kn×n y sea b ∈ Kn. i) Probar que el sistema A.x = b tiene solución única ⇐⇒ A ∈ GL(n,K). ii) Probar que A ∈ GL(n,K) ⇐⇒ las filas de A son linealmente independientes ⇐⇒ las columnas de A son linealmente independientes. Ejercicio 18. Sea A ∈ Kn×n. Probar que: ∃B ∈ Kn×n/B.A = In ⇐⇒ A ∈ GL(n,K). Deducir que ∃B ∈ Kn×n/A.B = In ⇐⇒ A ∈ GL(n,K). Ejercicio 19. Encontrar las coordenadas de v ∈ V respecto de la base B en los siguientes casos: i) V = Kn ; v = (x1, . . . , xn) y B la base canónica ii) V = R3 ; v = (1, 2,−1) y B = {(1, 2,−1), (0, 1, 1), (0, 0, 2)} iii) V = R3 ; v = (1,−1, 2) y B = {(1, 2,−1), (2, 1, 3), (1, 3, 2)} iv) V = R3 ; v = (x1, x2, x3) y B = {(1, 2,−1), (2, 1, 3), (1, 3, 2)} v) V = R3[X] ; v = 2X2 −X3 y B = {3 , 1 + X , X2 + 5 , X3 + X2} vi) V = R2×2 ; v = ( a11 a12 a21 a22 ) y B = {( 1 3 0 −1 ) , ( 1 4 3 2 ) , ( 0 2 1 −1 ) , ( 1 1 2 5 )} Caṕıtulo 3 Transformaciones lineales Las transformaciones lineales son las funciones con las que trabajaremos en Álgebra Lineal. Se trata de funciones entre K-espacios vectoriales que son compatibles con la estructura (es decir, con la operación y la acción) de estos espacios. 3.1 Definiciones, ejemplos y propiedades básicas En esta sección introduciremos la noción de transformación lineal, aśı como también ciertas nociones básicas asociadas a estas funciones. 3.1.1 Transformaciones lineales Definición 3.1 Sean (V, + V , · V ) y (W,+ W , · W ) dos K-espacios vectoriales. Una función f : V → W se llama una transformación lineal (u homomorfismo, o simplemente morfismo) de V en W si cumple: i) f(v + V v′) = f(v) + W f(v′) ∀ v, v′ ∈ V. ii) f(λ ·V v) = λ ·W f(v) ∀λ ∈ K, ∀ v ∈ V. Observación 3.2 Si f : V → W es una transformación lineal, entonces f(0V ) = 0W . En efecto, puesto que f(0V ) = f(0V + 0V ) = f(0V ) + f(0V ), entonces 0W = f(0V ) + (−f(0V )) = ( f(0V ) + f(0V ) ) + (−f(0V )) = = f(0V ) + ( f(0V ) + (−f(0V )) ) = f(0V ) + 0W = f(0V ). 66 Transformaciones lineales Ejemplos. 1. Sean V y W dos K-espacios vectoriales. Entonces 0 : V → W , definida por 0(x) = 0W ∀x ∈ V , es una transformación lineal. 2. Si V es un K-espacio vectorial, id : V → V definida por id(x) = x es una transformación lineal. 3. Sea A ∈ Km×n. Entonces fA : Kn → Km definida por fA(x) = (A.xt)t es una transformación lineal. 4. f : K[X] → K[X], f(P ) = P ′ es una transformación lineal. 5. F : C(R) → R, donde C(R) = {f : R → R | f es continua}, F (g) = 1∫ 0 g(x) dx es una transformación lineal. Como hemos mencionado al comienzo, las transformaciones lineales respetan la estructura de K-espacio vectorial. Esto hace que en algunos casos se respete la estructura de subespacio, por ejemplo en las imágenes y pre-imágenes de subespacios por transformaciones lineales: Proposición 3.3 Sea f : V → W una transformación lineal. Entonces: 1. Si S es un subespacio de V , entonces f(S) es un subespacio de W . 2. Si T es un subespacio de W , entonces f−1(W ) es un subespacio de V . Demostración. 1. Sea S ⊆ V un subespacio y consideremos f(S) = {w ∈ W / ∃ s ∈ S, f(s) = w}. (a) 0W ∈ f(S), puesto que f(0V ) = 0W y 0V ∈ S. (b) Sean w, w′ ∈ f(S). Entonces existen s, s′ ∈ S tales que w = f(s) y w′ = f(s′). Luego w + w′ = f(s) + f(s′) = f(s + s′) ∈ f(S), puesto que s + s′ ∈ S. (c) Sean λ ∈ K y w ∈ f(S). Existe s ∈ S tal que w = f(s). Entonces λ ·w = λ ·f(s) = f(λ · s) ∈ f(S), puesto que λ · s ∈ S. 2. Sea T un subespacio de W y consideremos f−1(T ) = {v ∈ V / f(v) ∈ T}. (a) 0V ∈ f−1(T ), puesto que f(0V ) = 0W ∈ T . (b) Sean v, v′ ∈ f−1(T ). Entonces f(v), f(v′) ∈ T y, por lo tanto, f(v + v′) = f(v) + f(v′) ∈ T . Luego v + v′ ∈ f−1(T ). (c) Sean λ ∈ K, v ∈ f−1(T ). Entonces f(v) ∈ T y, en consecuencia, f(λ·v) = λ·f(v) ∈ T . Luego λ · v ∈ f−1(T ). ¤ 3.1 Definiciones, ejemplos y propiedades básicas 67 De la Definición 3.1 se deduce inmediatamente que una transformación lineal preserva combinaciones lineales. Veremos que, debido a esto, una transformación lineal queda uńıvo- camente determinada por los valores que toma en los elementos de una base cualquiera de su dominio. Comenzamos con un ejemplo. Ejemplo. Hallar, si es posible, una transformación lineal f : R2 → R2 que verifique f(1, 1) = (0, 1) y f(1, 0) = (2, 3). Dado (x1, x2) ∈ R2 se tiene que (x1, x2) = x2(1, 1)+(x1−x2)(1, 0). Entonces, si f verifica lo pedido, debe ser f(x1, x2) = x2.f(1, 1) + (x1 − x2).f(1, 0) = x2.(0, 1) + (x1 − x2).(2, 3) = (2x1 − 2x2, 3x1 − 2x2). Además, es fácil ver que esta función es una transformación lineal y que vale f(1, 1) = (0, 1) y f(1, 0) = (2, 3). Luego, f(x1, x2) = (2x1 − 2x2, 3x1 − 2x2) es la única transformación lineal que satisface lo pedido. La construcción realizada en el ejemplo puede hacerse en general. Por simplicidad, lo probaremos para el caso en que el dominio de la transformación lineal es un K-espacio vectorial de dimensión finita. Proposición 3.4 Sean V y W dos K-espacios vectoriales, V de dimensión finita. Sea B = {v1, . . . , vn} una base de V y sean w1, . . . , wn ∈ W vectores arbitrarios. Entonces existe una única transformación lineal f : V → W tal que f(vi) = wi para cada 1 ≤ i ≤ n. Demostración. Existencia. Dado v ∈ V existen únicos α1, . . . , αn ∈ K tales que v = n∑ i=1 αivi, es decir, (α1, . . . , αn) = (v)B es el vector de coordenadas de v en la base B. Definimos f(v) = n∑ i=1 αiwi. (Observar que no hay ambigüedad en la definición de f por la unicidad de α1, . . . , αn.) Veamos que f es una transformación lineal: Sean v, v′ ∈ V . Supongamos que v = n∑ i=1 αivi y v′ = n∑ i=1 α′ivi. Entonces v + v′ = n∑ i=1 αivi + n∑ i=1 α′ivi = n∑ i=1 (αi + α′i)vi, y, en consecuencia, f(v + v′) = n∑ i=1 (αi + α′i)wi = n∑ i=1 αiwi + n∑ i=1 α′iwi = f(v) + f(v ′). 70 Transformaciones lineales Luego, Im(f) = < (1,−1, 2), (−1, 1,−2), (0, 0, 1) > = < (1,−1, 2), (0, 0, 1) >. Otra manera de calcular la imagen de f , teniendo en cuenta que es una transformación lineal, es la siguiente: Consideremos un sistema de generadores de R3, por ejemplo la base canónica {e1, e2, e3}. Para cada x ∈ R3 se tiene que x = x1.e1 + x2.e2 + x3.e3, de donde resulta que f(x) = x1.f(e1) + x2.f(e2) + x3.f(e3). Luego, Im(f) = {f(x) : x ∈ R3} = < f(e1), f(e2), f(e3) > = = < (1,−1, 2), (−1, 1,−2), (0, 0, 1) > = < (1,−1, 2), (0, 0, 1) >. La proposición siguiente generaliza el segundo de los procedimientos utilizados en el ejem- plo anterior para el cálculo de la imagen de una transformación lineal. Proposición 3.10 Sean V y W dos K-espacios vectoriales y sea f : V → W una transfor- mación lineal. Entonces, si {vi : i ∈ I} es un sistema de generadores de V , {f(vi) : i ∈ I} es un sistema de generadores de Im(f). Demostración. Por definición, Im(f) = {w ∈ W / ∃ v ∈ V, f(v) = w} = {f(v) : v ∈ V }. Si {vi : i ∈ I} es un sistema de generadores de V , para cada v ∈ V , existen i1, . . . , in ∈ I y elementos αij ∈ K tales que v = n∑ j=1 αij vij . Luego f(v) = n∑ j=1 αij f(vij ) ∈ < {f(vi) : i ∈ I} >. Esto prueba que Im(f) ⊆ < {f(vi) : i ∈ I} >. Es claro que vale la otra inclusión, ya que f(vi) ∈ Im(f) para cada i ∈ I. Luego, Im(f) = < {f(vi) : i ∈ I} >. ¤ Corolario 3.11 Sean V y W dos K-espacios vectoriales y sea f : V → W una transfor- mación lineal. Si V es de dimensión finita, entonces Im(f) también lo es y se tiene que dim(Im(f)) ≤ dim V . Corolario 3.12 Si f : V → W es un epimorfismo, y {vi : i ∈ I} es un sistema de generadores de V , entonces {f(vi) : i ∈ I} es un sistema de generadores de W . Ejemplo. Sean S y T los subespacios de R3 definidos por S = {x ∈ R3 / x1 − x2 = 0} y T = {x ∈ R3 / x3 = 0}. Hallar una transformación lineal f : R3 → R3 tal que f(S) = T . Sabemos que para definir una transformación lineal f : R3 → R3 basta con especificar los valores que toma sobre los elementos de una base de R3. 3.1 Definiciones, ejemplos y propiedades básicas 71 Consideramos entonces una base de S, por ejemplo {(1, 1, 0), (0, 0, 1)}, y la extendemos a una base de R3, por ejemplo {(1, 1, 0), (0, 0, 1), (1, 0, 0)}. Teniendo en cuenta que T = < (1, 0, 0), (0, 1, 0) >, definimos: f(1, 1, 0) = (1, 0, 0), f(0, 0, 1) = (0, 1, 0), f(1, 0, 0) = (0, 0, 1). Entonces f(S) = < f(1, 1, 0), f(0, 0, 1) > = < (1, 0, 0), (0, 1, 0) > = T . Observemos que si f : V → W es un epimorfismo y {vi : i ∈ I} es una base de V , entonces {f(vi) : i ∈ I} no es necesariamente una base de Im(f): Por el corolario anterior, es un sistema de generadores, pero podŕıa no ser un conjunto linealmente independiente, como puede verse en el ejemplo presentado en la página 69. Esto es consecuencia de que una transformación lineal arbitraria no preserva independencia lineal. En la proposición siguiente veremos que esto śı es válido para el caso de monomorfismos. Sin embargo, si f : V → W no es un monomorfismo, existe v ∈ V , v 6= 0, tal que f(v) = 0, con lo cual {v} ⊂ V es un conjunto linealmente independiente, pero {f(v)} = {0} ⊂ W no lo es. Proposición 3.13 Sean V y W dos K-espacios vectoriales y sea f : V → W un monomor- fismo. Entonces, si {vi : i ∈ I} ⊂ V es un conjunto linealmente independiente, {f(vi) : i ∈ I} ⊂ W es un conjunto linealmente independiente. Demostración. Supongamos que una combinación lineal de {f(vi) : i ∈ I} satisface∑ i∈I αif(vi) = 0. Como f es una transformación lineal, entonces f ( ∑ i∈I αivi ) = 0, y como es un monomorfismo, debe ser ∑ i∈I αivi = 0. La independencia lineal de {vi : i ∈ I} implica que αi = 0 ∀ i ∈ I. ¤ Corolario 3.14 Si f : V → W es un monomorfismo y B = {vi : i ∈ I} es una base de V , entonces {f(vi) : i ∈ I} es una base de Im(f). En particular, si V es un K-espacio vectorial de dimensión finita, dim(Im(f)) = dimV . Teniendo en cuenta que un isomorfismo es una transformación lineal que es a la vez un epimorfismo y un monomorfismo, de los Corolarios 3.12 y 3.14 se deduce: Corolario 3.15 Sean V y W dos K-espacios vectoriales y sea f : V → W un isomorfismo. Entonces para toda base B de V , f(B) es una base de W . En particular, si V es de dimensión finita, W también lo es y dim V = dim W . 3.1.3 Composición de transformaciones lineales La composición de funciones usual puede realizarse, en particular, entre dos transformaciones lineales. El resultado es, en este caso, una nueva transformación lineal. 72 Transformaciones lineales Proposición 3.16 Sean V, W y Z K-espacios vectoriales. Sean f : V → W y g : W → Z transformaciones lineales. Entonces g ◦ f : V → Z es una transformación lineal. Demostración. Sean v, v′ ∈ V . Entonces g ◦ f(v + v′) = g(f(v + v′)) = g(f(v) + f(v′)) = g(f(v)) + g(f(v′)) = g ◦ f(v) + g ◦ f(v′). Análogamente, si λ ∈ K y v ∈ V , se tiene que g ◦ f(λ · v) = g(f(λ · v)) = g(λ · f(v)) = λ · g(f(v)) = λ · (g ◦ f(v)). ¤ Finalmente, analizamos las propiedades de la función inversa de una transformación lineal biyectiva (es decir, un isomorfismo). Proposición 3.17 Sean V y W dos K-espacios vectoriales y sea f : V → W una transfor- mación lineal. Si f es un isomorfismo, entonces f−1 : W → V es una transformación lineal (que resulta ser un isomorfismo). Demostración. Sean w,w′ ∈ W . Como f es un isomorfismo, existen únicos v, v′ ∈ V tales que w = f(v) y w′ = f(v′). Entonces f−1(w + w′) = f−1(f(v) + f(v′)) = f−1(f(v + v′)) = v + v′ = f−1(w) + f−1(w′). Dados w ∈ W y λ ∈ K, existe un único v ∈ V tal que w = f(v). Entonces f−1(λ · w) = f−1(λ · f(v)) = f−1(f(λ · v)) = λ · v = λ · (f−1(w)). Luego, f−1 es una transformación lineal. Es claro que es biyectiva. ¤ 3.2 Espacios vectoriales de dimensión finita Al estudiar espacios vectoriales de dimensión finita en los caṕıtulos anteriores, dijimos que podŕıamos trabajar en un K-espacio vectorial arbitrario de dimensión n “como si fuese” Kn simplemente considerando vectores de coordenadas. La noción de isomorfismo nos permite formalizar esta idea. Proposición 3.18 Sea V un K-espacio vectorial de dimensión n. Entonces existe un iso- morfismo f : V → Kn. Demostración. Sea B = {v1, . . . , vn} una base de V . Dado x ∈ V , existe únicos x1, . . . , xn ∈ K tales que x = n∑ i=1 xivi. Definimos f : V → Kn, f(x) = (x1, . . . , xn). 3.4 Proyectores 75 (2. ⇒ 3.) Por el teorema de la dimensión, n = dim V = dim(Nu(f)) + dim(Im(f)), y como f es un monomorfismo, dim(Nu(f)) = 0. Entonces dim(Im(f)) = n = dim W , de donde Im(f) = W . (3. ⇒ 1.) Por el teorema de la dimensión, y teniendo en cuenta que f es un epimorfismo, se tiene que n = dim V = dim(Nu(f)) + dim(Im(f)) = dim(Nu(f)) + n. Esto implica que dim(Nu(f)) = 0, con lo cual, Nu(f) = {0} y f es un monomorfismo. Siendo epimorfismo y monomorfismo, resulta que f es un isomorfismo. ¤ A diferencia de lo que sucede para muchos de los resultados que hemos demostrado, en el corolario anterior la hipótesis de que los espacios vectoriales sean de dimensión finita es esencial. El resultado no vale para transformaciones lineales definidas en espacios de dimensión infinita: Ejemplo. Sea V = K[X]. 1. Sea f : K[X] → K[X], f(P ) = P ′, que es una transformación lineal. • f es epimorfismo: Sea Q = n∑ i=0 aiX i. Entonces f ( n+1∑ i=1 ai i X i ) = Q. • f no es monomorfismo: f(1) = 0, pero 1 6= 0. 2. Sea g : K[X] → K[X], g(P ) = X.P . • g es monomorfismo: Si f(P ) = X.P = 0, entonces P = 0. • g no es epimorfismo: 1 /∈ Im(f). 3.4 Proyectores Definición 3.21 Sea V un K-espacio vectorial. Una transformación lineal f : V → V se llama un proyector si f ◦ f = f . Proposición 3.22 Sea V un K-espacio vectorial, y sea f : V → V una transformación lineal. Entonces f es un proyector si y sólo si f(x) = x para cada x ∈ Im(f). Demostración. (⇒) Supongamos que f es un proyector. Sea x ∈ Im(f). Entonces existe v ∈ V tal que x = f(v). Luego, f(x) = f(f(v)) = f ◦ f(v) = f(v) = x. (⇐) Sea v ∈ V . Entonces f(v) ∈ Im(f) y, por hipótesis, f(f(v)) = f(v), es decir, f ◦ f(v) = f(v). Como esto vale para cada v ∈ V , resulta que f ◦ f = f . ¤ Proposición 3.23 Sea V un K-espacio vectorial y sea f : V → V un proyector. Entonces Nu(f)⊕ Im(f) = V . 76 Transformaciones lineales Demostración. En primer lugar, veamos que Nu(f) ∩ Im(f) = {0}: Sea x ∈ Nu(f) ∩ Im(f). Como x ∈ Im(f), por la proposición anterior, f(x) = x. Pero x ∈ Nu(f), de donde f(x) = 0. Luego, x = 0. Veamos ahora que Nu(f) + Im(f) = V : Sea x ∈ V . Entonces x = (x− f(x)) + f(x) y se tiene que f(x − f(x)) = f(x) − f ◦ f(x) = f(x) − f(x) = 0, con lo que x − f(x) ∈ Nu(f) y f(x) ∈ Im(f). ¤ Proposición 3.24 Sea V un K-espacio vectorial, y sean S y T subespacios de V tales que S ⊕ T = V . Entonces existe un único proyector f : V → V tal que Nu(f) = S, Im(f) = T . Demostración. Como V = S ⊕ T , para cada x ∈ V , existen únicos s ∈ S y t ∈ T tales que x = s + t. Entonces, si f : V → V es un proyector tal que Nu(f) = S, Im(f) = T , se tiene que f(x) = f(s + t) = f(s) + f(t) = 0 + t = t, donde la penúltima igualdad es consecuencia de que f es un proyector y t ∈ Im(f) (ver Proposición 3.22). Consideremos entonces la función f : V → V definida por f(x) = t si x = s + t con s ∈ S, t ∈ T. Observamos que f es una transformación lineal: • Si x, x′ ∈ V tales que x = s + t, x′ = s′ + t′, con s, s′ ∈ S y t, t′ ∈ T , entonces x + x′ = (s + s′) + (t + t′) con s + s′ ∈ S y t + t′ ∈ T (puesto que S y T son subespacios de V ) y, por lo tanto, f(x + x′) = t + t′ = f(x) + f(x′). • Si λ ∈ K y x ∈ V , x = s + t con s ∈ S, t ∈ T , entonces λ.x = (λ.s) + (λ.t) con λ.s ∈ S, λ.t ∈ T . Luego f(λ.x) = λ.t = λ.f(x). Además, f es un proyector: Si x ∈ V y x = s + t con s ∈ S, t ∈ T , entonces f ◦ f(x) = f(f(s + t)) = f(t) = f(0 + t) = f(x). Es claro que Im(f) = T . Veamos que Nu(f) = S: Si x ∈ Nu(f) y x = s + t con s ∈ S, t ∈ T , entonces 0 = f(x) = t, con lo cual, x = s ∈ S. Por otro lado, si s ∈ S, entonces s = s + 0 con s ∈ S, 0 ∈ T y, por lo tanto, f(s) = 0. Luego, la función f que hemos definido es el único proyector f : V → V con Nu(f) = S, Im(f) = T . ¤ 3.5 Representación matricial Uno de los primeros ejemplos de transformaciones lineales que hemos visto son aquéllas de la forma f : Kn → Km, f(x) = A.x con A ∈ Km×n (cuando quede claro por el contexto, suprimiremos el signo de t, escribiendo A.x en lugar de (A.xt)t). En esta sección veremos que toda transformación lineal entre espacios vectoriales de di- mensión finita puede representarse de esta manera. Para esto, utilizaremos de manera funda- mental el hecho de que fijada una base de un K-espacio vectorial V de dimensión finita n, se tiene un isomorfismo entre V y Kn tomando coordenadas en dicha base. 3.5 Representación matricial 77 En esta sección todos los espacios vectoriales considerados serán de dimensión finita. 3.5.1 Matriz de una transformación lineal Si V y W son K-espacios vectoriales de dimensión n y m respectivamente, una transformación lineal f : V → W queda uńıvocamente determinada por los n vectores de W que son los valores de f en una base cualquiera de V . Además, fijada una base de W , estos n vectores quedan determinados por medio de sus vectores de coordenadas en Km. Se define entonces una matriz asociada a f que contiene toda esta información. Definición 3.25 Sean V y W dos K-espacios vectoriales de dimensión finita. Sean B1 = {v1, . . . , vn} una base de V y B2 = {w1, . . . , wm} una base de W . Sea f : V → W una transformación lineal. Supongamos que f(vj) = m∑ i=1 αijwi (1 ≤ j ≤ n). Se llama matriz de f en las bases B1, B2, y se nota |f |B1B2 , a la matriz en Km×n definida por (|f |B1B2)ij = αij para cada 1 ≤ i ≤ m, 1 ≤ j ≤ n. Notación. Si f : V → V y B1 = B2 = B, notaremos |f |B = |f |BB . Ejemplo. Sea f : R3 → R2, f(x1, x2, x3) = (x1 + 2x2 − x3, x1 + 3x2), y sean B1 y B2 las bases canónicas de R3 y R2 respectivamente. Se tiene que f(1, 0, 0) = (1, 1), f(0, 1, 0) = (2, 3), f(0, 0, 1) = (−1, 0). Entonces |f |B1B2 = ( 1 2 −1 1 3 0 ) . Observación 3.26 Si consideramos la transformación lineal asociada a una matriz A ∈ Kn×m, fA : Km → Kn definida por fA(x) = A.x, entonces, a partir de la definición an- terior, la matriz de fA en las bases canónicas E y E′ de Km y Kn respectivamente resulta ser |fA|EE′ = A. Observación 3.27 Sea V un K-espacio vectorial de dimensión n, y sean B1 y B2 bases de V . Entonces |idV |B1B2 = C(B1, B2), la matriz de cambio de base de B1 a B2 (ver Definición 2.16). Mediante el uso de las matrices introducidas en la Definición 3.25 y de vectores de coorde- nadas, toda transformación lineal puede representarse como la multiplicación por una matriz fija. Proposición 3.28 Sean V y W dos K-espacios vectoriales de dimensión finita, y sea f : V → W una transformación lineal. Si B1 y B2 son bases de V y W respectivamente, entonces para cada x ∈ V , |f |B1B2 . (x)B1 = (f(x))B2 . 80 Transformaciones lineales Ejemplo. Sea A ∈ R3×3, A =   1 −2 3 −1 2 1 1 −2 4  , y sea S = {x ∈ R3 /A.x = 0}. Entonces dim S = 3− rgC(A) = 3− dim < (1,−1, 1), (−2, 2,−2), (3, 1, 4) > = 3− 2 = 1. Teniendo en cuenta el subespacio generado por las filas de una matriz en lugar del generado por sus columnas puede darse la siguiente definición de rango fila análoga a la de rango columna. Definición 3.34 Sea A ∈ Kn×m. Se define el rango fila de A, y se nota rgF (A), como la dimensión del subespacio de Km generado por las filas de A. Es decir, si A =   F1 ... Fn  , entonces rgF (A) = dim < F1, . . . , Fn >. Observación 3.35 Sea A ∈ Kn×m. Entonces rgF (A) = rgC(At). Nuestro siguiente objetivo es mostrar que el rango fila y el rango columna de una matriz coinciden. Para hacer esto nos basaremos en la observación anterior. Primero mostraremos que el rango columna de una matriz A no cambia si se la multiplica a izquierda o derecha por matrices inversibles. Lema 3.36 Sea A ∈ Kn×m. Sean C ∈ GL(n,K) y D ∈ GL(m,K). Entonces rgC(A) = rgC(C.A.D). Demostración. Sea fA : Km → Kn la transformación lineal inducida por la multiplicación a izquierda por A. Si E y E′ son las bases canónicas de Km y Kn respectivamente, se tiene que |fA|EE′ = A y por lo tanto, rgC(A) = dim(Im(fA)). Por la Proposición 2.22, puesto que D ∈ GL(m,K), existe una base B1 de Km tal que D = C(B1, E), y como C ∈ GL(n, K), existe una base B2 de Kn tal que C = C(E′, B2). Entonces C.A.D = C(E′, B2).|fA|EE′ .C(B1, E) = |fA|B1B2 , de donde rgC(C.A.D) = dim(Im(fA)) = rgC(A). ¤ Ahora veremos que multiplicando a A por matrices inversibles convenientes se puede obtener una matriz tal que su rango y el de su transpuesta son fáciles de comparar. Lema 3.37 Sea A ∈ Kn×m − {0}. Entonces existen k ∈ N, 1 ≤ k ≤ min{n,m}, y matrices C ∈ GL(n,K) y D ∈ GL(m,K) tales que (C.A.D)ij = { 0 si i 6= j 1 si i = j ≤ k 0 si i = j > k 3.6 Rango de una matriz 81 Demostración. Consideremos la transformación lineal fA : Km → Kn inducida por la multi- plicación a izquierda por A. Sea {v1, . . . , vs} una base de Nu(fA) y sean w1, . . . , wm−s ∈ Km tales que B1 = {w1, . . . , wm−s, v1, . . . , vs} es una base de Km (si Nu(fA) = {0}, s = 0 y se toma una base B1 cualquiera de Km). Entonces {fA(w1), . . . , fA(wm−s)} es una base de Im(fA) y puede extenderse a una base de Kn. Sean z1, . . . , zn−m+s ∈ Kn tales que B2 = {fA(w1), . . . , fA(wm−s), z1, . . . , zn−m+s} es una base de Kn. Se tiene que (|fA|B1B2)ij = { 0 si i 6= j 1 si i = j ≤ m− s 0 si i = j > m− s Observamos que |fA|B1B2 = C(E′, B2).|fA|EE′ .C(B1, E) = C.A.D, donde C = C(E′, B2) ∈ GL(n,K) y D = C(B1, E) ∈ GL(m,K). ¤ Proposición 3.38 Sea A ∈ Kn×m. Entonces rgC(A) = rgF (A). Demostración. Es claro que el resultado vale si A = 0. Dada A ∈ Kn×m − {0}, por el lema anterior, existen matrices C ∈ GL(n,K), D ∈ GL(m,K) y k ∈ N, tales que (C.A.D)ij = { 0 si i 6= j 1 si i = j ≤ k 0 si i = j > k Por el Lema 3.36 se tiene que rgC(A) = rgC(C.A.D), y es claro que rgC(C.A.D) = k. Por otro lado, transponiendo se obtiene (Dt.At.Ct)ij = { 0 si i 6= j 1 si i = j ≤ k 0 si i = j > k con Dt ∈ GL(m, K) y Ct ∈ GL(n,K), de donde rgC(At) = rgC(Dt.At.Ct) = k. En consecuencia rgF (A) = rgC(At) = rgC(Dt.At.Ct) = k = rgC(A). ¤ Definición 3.39 Sea A ∈ Kn×m. Al número rgC(A) = rgF (A) lo llamaremos el rango de la matriz A, y lo notaremos rg(A). La Observación 3.33 puede ahora reescribirse utilizando la noción de rango de una matriz. 82 Transformaciones lineales Proposición 3.40 Sea A ∈ Kn×m y sea S = {x ∈ Km /A.x = 0}. Entonces dim S = m− rg(A). Esto significa que la dimensión del espacio de soluciones de un sistema lineal homogéneo es igual a la cantidad de incógnitas menos la cantidad de ecuaciones independientes. 3.6.2 Equivalencia de matrices Definición 3.41 Sean A,B ∈ Kn×m. Se dice que A es equivalente a B, y se nota A ≡ B, si existen matrices C ∈ GL(n,K) y D ∈ GL(m,K) tales que A = C.B.D. Es inmediato verificar que ≡ es una relación de equivalencia. Como hemos visto en la sección anterior, si dos matrices son equivalentes entonces tienen el mismo rango. A continuación veremos que la rećıproca de esta propiedad también es cierta. En consecuencia, el rango resulta ser un invariante que nos permite determinar fácilmente si dos matrices son equivalentes. Proposición 3.42 Sean A,B ∈ Kn×m. Entonces A ≡ B ⇐⇒ rg(A) = rg(B). Demostración. (⇒) Es consecuencia del Lema 3.36. (⇐) Supongamos que rg(A) = rg(B) = k. Entonces existen matrices C1, C2 ∈ GL(n,K) y D1, D2 ∈ GL(m,K) tales que (C1.A.D1)ij = { 0 si i 6= j 1 si i = j ≤ k 0 si i = j > k y (C2.B.D2)ij = { 0 si i 6= j 1 si i = j ≤ k 0 si i = j > k En consecuencia, C1.A.D1 = C2.B.D2, de donde A = (C−11 .C2).B.(D2.D −1 1 ) = C.B.D con C = C−11 .C2 ∈ GL(n, K) y D = D2.D−11 ∈ GL(m,K). Luego, A ≡ B. ¤ Finalmente, la siguiente proposición caracteriza matrices equivalentes por medio de trans- formaciones lineales: dos matrices son equivalentes si y sólo si son las matrices de una misma transformación lineal en distintas bases. Proposición 3.43 Sean A,B ∈ Kn×m. Entonces A ≡ B si y sólo si existe una transfor- mación lineal f : Km → Kn y bases B1, B′1 de Km y B2, B′2 de Kn tales que |f |B1B2 = A y |f |B′1B′2 = B. 3.8 Ejercicios 85 • T es un isomorfismo: T es monomorfismo: Sea f ∈ HomK(V, W ) tal que T (f) = 0, es decir, |f |BB′ = 0. Entonces, Im(f) = {0}, de donde f ≡ 0. T es epimorfismo: Sea A ∈ Km×n. Consideramos fA : V → W definida por ( fA(x) ) B′ =( A.(x)tB )t para cada x ∈ V . Se tiene que fA ∈ HomK(V, W ) y T (fA) = |fA|BB′ = A. ¤ 3.8 Ejercicios Ejercicio 1. Determinar cuáles de las siguientes aplicaciones son lineales. i) f : R3 → R2, f(x1, x2, x3) = (x2 − 3.x1 + √ 2.x3 , x1 − 12 .x2) ii) f : R2 → R3, f(x1, x2) = (x1 − x2 , 2.x2 , 1 + x1) iii) f : R3 → R3, f(x1, x2, x3) = (2.x1 − 7.x3 , 0 , 3.x2 + 2.x3) iv) f : R2 → R2, f(x1, x2) = (x1 + x2 , |x1|) v) f : C → C , f(z) = i.z (considerando a C como R-espacio vectorial y como C-espacio vectorial) vi) f : C → C , f(z) = i.Im(z) (considerando a C como R-espacio vectorial y como C- espacio vectorial) vii) f : C → C , f(z) = z (considerando a C como R-espacio vectorial y como C-espacio vectorial) viii) f : R2×2 → R , f ( a11 a12 a21 a22 ) = a11.a22 − a12.a21 ix) f : R2×3 → R3, f ( a11 a12 a13 a21 a22 a23 ) = (3.a13 − a23 , a11 + 2.a22 − a23 , a22 − a12) x) f : R2×2 → R2×3, f ( a11 a12 a21 a22 ) = ( a22 0 a12 + a21 0 a11 a22 − a11 ) xi) f : C2×2 → C2×2, f ( a11 a12 a21 a22 ) = ( a11 a12 a21 a22 ) (considerando a C2×2 como R-espacio vectorial y como C-espacio vectorial) Ejercicio 2. Interpretar geométricamente las siguientes aplicaciones lineales f : R2 → R2. i) f(x, y) = (x, 0) ii) f(x, y) = (0, y) 86 Transformaciones lineales iii) f(x, y) = (x,−y) iv) f(x, y) = ( 12 .(x + y), 1 2 .(x + y)) v) f(x, y) = (x.cos t− y.sen t , x.sen t + y.cos t) Ejercicio 3. i) Encontrar una función f : V → V (para un K-espacio vectorial V conveniente) que cumpla f(v + w) = f(v) + f(w) para cualquier par de vectores v , w ∈ V pero que no sea una transformación lineal. ii) Encontrar una función f : V → V (para un K-espacio vectorial V conveniente) que cumpla f(k.v) = k.f(v) para cualquier escalar k ∈ K y cualquier vector v ∈ V pero que no sea una transformación lineal. Ejercicio 4. Probar la linealidad de las siguientes aplicaciones: i) tr : Kn×n → K ii) t : Kn×m → Km×n, t(A) = At iii) f : Kn×m → Kr×m, f(A) = B.A donde B ∈ Kr×n iv) δ : C∞(R) → C∞(R), δ(f) = f ′ v) ²α : K[X] → K, ²α(f) = f(α) donde α ∈ K vi) s : KN → KN, s({ai}i∈N) = (0, a1, a2, . . . , an, . . .) Ejercicio 5. i) Probar que existe una única transformación lineal f : R2 → R2 tal que f(1, 1) = (−5, 3) y f(−1, 1) = (5, 2). Para dicha f , determinar f(5, 3) y f(−1, 2). ii) ¿Existirá una transformación lineal f : R2 → R2 tal que f(1, 1) = (2, 6), f(−1, 1) = (2, 1) y f(2, 7) = (5, 3)? iii) Sean f, g : R3 → R3 transformaciones lineales tales que f(1, 0, 1) = (1, 2, 1), f(2, 1, 0) = (2, 1, 0), f(−1, 0, 0) = (1, 2, 1), g(1, 1, 1) = (1, 1, 0), g(3, 2, 1) = (0, 0, 1), g(2, 2,−1) = (3,−1, 2). Determinar si f = g. iv) Hallar todos los a ∈ R para los cuales exista una transformación lineal f : R3 → R3 que satisfaga que f(1,−1, 1) = (2, a,−1) , f(1,−1, 2) = (a2,−1, 1) y f(1,−1,−2) = (5,−1,−7). 3.8 Ejercicios 87 v) Hallar una fórmula para todas las tranformaciones lineales f : R3[X] → R3 que satis- facen f(X3 + 2X2 − X + 4) = (6, 5, 3), f(3X2 + 2X − 5) = (0, 0,−3), f(X3 − 2X2 + 3X − 2) = (0,−1, 1) y f(2X3 − 3X2 + 7) = (6, 4, 7). Ejercicio 6. i) Calcular bases del núcleo y de la imagen para cada tranformación lineal del ejercicio 1. Decidir, en cada caso, si f es epimorfismo, monomorfismo o isomorfismo. En el caso que sea isomorfismo, calcular f−1. ii) Clasificar las transformaciones lineales tr , t , δ , ²α y s del ejercicio 4 en epimorfismos, monomorfismos e isomorfismos. Ejercicio 7. Sean f : R3 → R4, f(x1, x2, x3) = (x1 + x2, x1 + x3, 0, 0) y g : R4 → R2, g(x1, x2, x3, x4) = (x1 − x2, 2x1 − x2). Calcular el núcleo y la imagen de f , de g y de g ◦ f . Decidir si son monomorfismos, epimorfismos o isomorfismos. Ejercicio 8. Sean g : V → V ′ y f : V ′ → V ′′ transformaciones lineales. Probar: i) Nu(g) ⊆ Nu(f ◦ g). ii) Si Nu(f) ∩ Im(g) = {0}, entonces Nu(g) = Nu(f ◦ g). iii) Im(f ◦ g) ⊆ Im(f). iv) Si Im(g) = V ′, entonces Im(f ◦ g) = Im(f). Ejercicio 9. i) Sean S, T ⊂ R4 los subespacios definidos por S = {(x1, x2, x3, x4)/ x1 + x2 + x3 = 0} y T = {(x1, x2, x3, x4) / 2.x1 + x4 = 0 , x2 − x3 = 0}. ¿Existirá algún isomorfismo f : R4 → R4 tal que f(S) = T? ii) ¿Existirá algún monomorfismo f : R3 → R2? iii) ¿Existirá algún epimorfismo f : R2 → R3? iv) Sean v1 = (1, 0, 1, 0), v2 = (1, 1, 1, 0) y v3 = (1, 1, 1, 1). ¿Existirá alguna transformación lineal f : R2 → R4 tal que {v1, v2, v3} ⊂ Im(f)? Ejercicio 10. Determinar si existe (y en caso afirmativo hallar) una transformación lineal f : R3 → R4 que verifique Im(f) = S y Nu(f) = T en los siguientes casos: i) S = {(x1, x2, x3, x4)/x1 + x2 − x3 + 2.x4 = 0}, T = < (1, 2, 1) > ii) S = {(x1, x2, x3, x4)/x1 + x2 = 0, x3 + x4 = 0}, T = < (1,−2, 1) >
Docsity logo



Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved