Docsity
Docsity

Prepara tus exámenes
Prepara tus exámenes

Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity


Consigue puntos base para descargar
Consigue puntos base para descargar

Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium


Orientación Universidad
Orientación Universidad

Guía de álgebra UTN, Apuntes de Álgebra

Matrices y determinantes, sistemas de ecuaciones lineales, espacios vectoriales, aplicaciones lineales, ortogonalidad, autovalores y autovectores

Tipo: Apuntes

2018/2019

Subido el 22/10/2019

javier_torres1
javier_torres1 🇦🇷

4.5

(111)

600 documentos

Vista previa parcial del texto

¡Descarga Guía de álgebra UTN y más Apuntes en PDF de Álgebra solo en Docsity! Contenido Portada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 Contenido . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1 Matrices y determinantes 7 1.1 Notación y definiciones . . . . . . . . . . . . . . . . . . . . . . 7 1.2 Aritmética de matrices . . . . . . . . . . . . . . . . . . . . . . 10 1.3 Transformaciones elementales. . . . . . . . . . . . . . . . . . . 13 1.3.1 Transformaciones elementales fila. . . . . . . . . . . . . 14 1.3.2 Transformaciones elementales columna. . . . . . . . . . 15 1.4 Algoritmo de Gauss-Jordan. . . . . . . . . . . . . . . . . . . . 17 1.5 Determinante de una matriz cuadrada. . . . . . . . . . . . . . 22 1.5.1 Propiedades de los determinantes . . . . . . . . . . . . 23 1.6 Factorización triangular. . . . . . . . . . . . . . . . . . . . . . 25 1.7 Inversa de una matriz cuadrada . . . . . . . . . . . . . . . . . 27 1.7.1 Cálculo de la matriz inversa. . . . . . . . . . . . . . . . 28 1.8 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . . . . . 29 1.9 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . 32 2 Sistemas de ecuaciones lineales. Espacios vectoriales. 37 2.1 Notación y definiciones . . . . . . . . . . . . . . . . . . . . . . 38 2.2 Método de eliminación gaussiana . . . . . . . . . . . . . . . . 40 2.2.1 Sistemas de ecuaciones lineales homogéneos . . . . . . 45 2.3 Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . 47 3 4 Contenido 2.3.1 Dependencia e independencia lineal . . . . . . . . . . . 51 2.3.2 Espacios vectoriales de tipo finito . . . . . . . . . . . . 54 2.4 Variedades lineales . . . . . . . . . . . . . . . . . . . . . . . . 63 2.4.1 Operaciones con variedades lineales . . . . . . . . . . . 65 2.4.2 Ecuaciones de los subespacios. . . . . . . . . . . . . . . 68 2.5 Propiedades de los espacios vectoriales de tipo finito. . . . . . 75 2.6 Cambio de bases . . . . . . . . . . . . . . . . . . . . . . . . . 78 2.7 Espacios fundamentales asociados a una matriz. . . . . . . . . 80 2.7.1 Espacio columna de A. [R(A)]. . . . . . . . . . . . . . 80 2.7.2 Espacio fila de A: [R(AT )]. . . . . . . . . . . . . . . . . 82 2.7.3 Espacio nulo de A: N(A). . . . . . . . . . . . . . . . . 83 2.8 Teorema de Rouche-Fröbenius . . . . . . . . . . . . . . . . . . 84 2.9 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . . . . . 86 2.10 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . 99 3 Aplicaciones lineales. 109 3.1 Definiciones y propiedades . . . . . . . . . . . . . . . . . . . . 109 3.2 Ecuaciones de una aplicación lineal. . . . . . . . . . . . . . . . 116 3.3 Ecuaciones del núcleo y la imagen de una aplicación lineal . . 117 3.4 Matrices equivalentes. . . . . . . . . . . . . . . . . . . . . . . 119 3.5 Imagen inversa de una variedad lineal. . . . . . . . . . . . . . 121 3.6 Operaciones con aplicaciones lineales. . . . . . . . . . . . . . . 122 3.7 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . . . . . 125 3.8 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . 137 4 Ortogonalidad. 145 4.1 Formas bilineales. . . . . . . . . . . . . . . . . . . . . . . . . . 146 4.2 Producto escalar. . . . . . . . . . . . . . . . . . . . . . . . . . 147 4.3 Ortogonalidad . . . . . . . . . . . . . . . . . . . . . . . . . . . 151 4.4 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . . . . . 157 4.5 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . 164 8 Matrices y determinantes Definición 1.3 [Matrices fila y columna] Se denomina matriz fila a aquella que consta de una única fila. A = (a1 a2 · · · an) ∈ R1×n De igual manera, se denomina matriz columna a aquella que consta de una única columna. A =  a1 a2 ... an  ∈ Rn×1 Definición 1.4 [Matriz cuadrada] Se denomina matriz cuadrada de orden n a aquella que tiene n filas y n co- lumnas. A =  a11 a12 · · · a1n a21 a22 · · · a2n ... ... . . . ... an1 an2 · · · ann  A ∈ Rn×n Se denomina diagonal principal de una matriz cuadrada a la formada por los elementos aii i = 1, 2, . . . , n. a11 a12 · · · a1n a21 a22 · · · a2n ... ... . . . ... an1 an2 · · · ann  Definición 1.5 [Matrices diagonales, escalares y unidad] Se denomina matriz diagonal a aquella matriz cuadrada cuyos elementos no diagonales son todos nulos. Es decir aij = 0 si i 6= j D =  a11 0 · · · 0 0 a22 · · · 0 ... ... . . . ... 0 0 · · · ann  Notación y definiciones 9 Se denomina matriz escalar a aquella matriz diagonal cuyos elementos diago- nales son todos iguales.  α 0 · · · 0 0 α · · · 0 ... ... . . . ... 0 0 · · · α  Se denomina matriz unidad de orden n a aquella matriz escalar cuyos elemen- tos diagonales son todos unos. Es decir In =  1 0 · · · 0 0 1 · · · 0 ... ... . . . ... 0 0 · · · 1  Definición 1.6 [Matrices triangulares y escalonadas] Se denomina matriz triangular superior (inferior) a aquella matriz cuadrada cuyos elementos situados por debajo (encima) de su diagonal principal son todos nulos.  a11 a12 a13 · · · a1n 0 a22 a23 · · · a2n 0 0 a33 · · · a3n ... ... ... . . . ... 0 0 0 · · · ann   a11 0 0 · · · 0 a21 a22 0 · · · 0 a31 a32 a33 · · · 0 ... ... ... . . . ... an1 an2 an3 · · · ann  • Triangular superior: aij = 0 si i > j. • Triangular inferior: aij = 0 si i < j. El equivalente para matrices rectangulares de una matriz triangular son las denominadas matrices escalonadas que son aquellas matrices en las que aij = 0 si i > j. 10 Matrices y determinantes En caso de tratarse de una matriz cuadrada se tendŕıa una triangular superior.  a11 a12 a13 · · · a1 m−1 · · · a1n 0 a22 a23 · · · a2 m−1 · · · a2n 0 0 a33 · · · a3 m−1 · · · a3n ... ... ... . . . ... 0 0 0 · · · amm · · · amn   a11 a12 a13 · · · a1n 0 a22 a23 · · · a2n 0 0 a33 · · · a3n ... ... ... . . . ... 0 0 0 · · · ann 0 0 0 · · · 0 ... ... ... ... 0 0 0 · · · 0  1.2 Aritmética de matrices • Suma de matrices Sean A, B ∈ Rm×n, se denomina matriz suma de A y B, y se denota por C = A + B, a la matriz C ∈ Rm×n tal que cij = aij + bij i = 1, . . . , m j = 1, . . . , n. Propiedades – Asociativa: ∀A, B, C ∈ Rm×n =⇒ (A + B) + C = A + (B + C). – Conmutativa: ∀A, B ∈ Rm×n =⇒ A + B = B + A. – Elemento neutro: Existe la matriz 0 ∈ Rm×n denominada matriz nula y cuyos elementos son todos nulos, tal que ∀ A ∈ Rm×n =⇒ A + 0 = 0 + A = A. – Elemento opuesto: Para cualquier matriz A ∈ Rm×n existe la matriz −A ∈ Rm×n denominada matriz opuesta y cuyos elementos son los opuestos de los elementos de la matriz A tal que A + (−A) = −A + A = 0 Por tanto, (Rm×n, +) es un grupo conmutativo. Transformaciones elementales. 13 Definición 1.8 [Matriz antisimétrica] Una matriz cuadrada A se dice que es antisimétrica si coincide con la opuesta de su traspuesta. (Los elementos simétricos respecto de la diagonal principal son opuestos y su diagonal es de ceros). A antisimétrica ⇐⇒ A = −AT Definición 1.9 [Matriz ortogonal] Una matriz cuadrada y no singular se dice ortogonal si su traspuesta coincide con su inversa, es decir, si AT = A−1 o lo que es lo mismo: A ortogonal ⇐⇒ AAT = AT A = In Definición 1.10 [Traza de una matriz] Se define la traza de A y se denota por tr A como la suma de los elementos de su diagonal principal. tr A = n∑ i=1 aii Propiedades de la traza de una matriz • tr (A + B) = tr A + tr B. • tr (αA) = α tr A. 1.3 Transformaciones elementales. Se denominan transformaciones elementales a ciertas transformaciones que se realizan en una matriz y que nos serán de gran utilidad en la resolución de sistemas de ecuaciones lineales aśı como en otras operaciones con matrices que estudiaremos en temas posteriores. Estas transformaciones modifican, de determinadas formas, los elementos de una fila o una columna de la matriz o intercambian dos filas o columnas de esta. Las clasificaremos en dos grupos: • Transformaciones elementales fila. • Transformaciones elementales columna. 14 Matrices y determinantes 1.3.1 Transformaciones elementales fila. • Transformaciones Fij Intercambian las filas i y j de una matriz A ∈ Rm×n. Este efecto se produce al multiplicar, por la izquierda, la matriz A por la matriz Fij, siendo esta el resultado de intercambiar las filas i y j de la matriz Im. Ejemplo 1.1 Consideremos la matriz A =  2 1 3 44 2 1 5 1 0 2 3  . Para intercambiar las filas 2a y 3a aplicamos F23 cuya matriz es F23 =  1 0 00 0 1 0 1 0  (en I3 se han permutado las filas segunda y tercera). F23A =  1 0 00 0 1 0 1 0   2 1 3 44 2 1 5 1 0 2 3  =  2 1 3 41 0 2 3 4 2 1 5  observándose que han quedado permutadas las filas segunda y tercera de la matriz A.  • Transformaciones Fi(α) Multiplican la fila i de una matriz A ∈ Rm×n por un número α 6= 0. Este efecto se produce al multiplicar, por la izquierda, la matriz A por la matriz Fi(α), siendo esta el resultado de multiplicar por α la fila i de la matriz Im. Ejemplo 1.2 Para multiplicar por 3 la segunda fila de A (véase el Ejem- plo 1.1), aplicamos F2(3) cuya matriz asociada es F2(3) =  1 0 00 3 0 0 0 1  Transformaciones elementales. 15 (se ha multiplicado por 3 la segunda fila de I3). F2(3)A =  1 0 00 3 0 0 0 1   2 1 3 44 2 1 5 1 0 2 3  =  2 1 3 412 6 3 15 1 0 2 3  pudiéndose ver que ha quedado multiplicada por 3 la segunda fila de la matriz A.  • Transformaciones Fij(α) Suman a la fila i de una matriz A ∈ Rm×n su fila j multiplicada por α 6= 0. Este efecto se produce al multiplicar, por la izquierda, la matriz A por la matriz Fij(α), siendo esta la resultante de sumar a la fila i de la matriz Im su fila j multiplicada por α, es decir, la matriz resultante de sustituir el elemento iij = 0 por α. Ejemplo 1.3 Si queremos restar a la segunda fila de A (véase el Ejem- plo 1.1) el doble de la primera, aplicamos F21(−2) cuya matriz asociada es F21(−2) =  1 0 0−2 1 0 0 0 1  (se ha sustituido por -2 el elemento i21 = 0 de la matriz I3). F21(−2)A =  1 0 0−2 1 0 0 0 1   2 1 3 44 2 1 5 1 0 2 3  =  2 1 3 40 0 −5 −3 1 0 2 3  observándose que se ha producido en la matriz A el efecto deseado.  1.3.2 Transformaciones elementales columna. Son las mismas que las transformaciones elementales fila pero operando por columnas: • Transformaciones Cij Intercambian las columnas i y j de una matriz A ∈ Rm×n. Este efecto se produce al multiplicar, por la derecha, la matriz A por la matriz Cij, siendo esta el resultado de intercambiar las columnas i y j de la matriz In. 18 Matrices y determinantes – Si a11 = 0 y algún elemento de la primera columna es no nulo, podemos llevarlo al lugar (11) mediante una transformación Fij y proceder después como en el caso anterior. – Si ai1 = 0 ∀ i = 1, . . . , m, la primera columna es de ceros y por tanto, ai1 = 0 ∀ i > 1, es decir, se trata de una columna del tipo de las matrices escalonadas. • Procedemos después con a22 (el elemento a22 resultante de las transfor- maciones anteriores) al igual que procedimos con a11 anteriormente, es decir, si a22 6= 0 lo utilizamos para hacer ceros por debajo de él en la segunda columna. Si fuese a22 = 0 vemos si existe por debajo de él algún elemento ai2 6= 0 y, en caso de haberlo, realizamos la transformación F2i, etc. • Reiterando el proceso, llegamos a una matriz escalonada U . La matriz F no es más que el producto de las matrices de las transformaciones elementales filas realizadas para pasar de A a U . Ejemplo 1.7 Consideremos la matriz A del Ejercicio 1.1. A F21(−2)−→  2 1 3 40 0 −5 −3 1 0 2 3  F31(− 12 )−→  2 1 3 40 0 −5 −3 0 −1/2 1/2 1  F23−→ −→  2 1 3 40 −1/2 1/2 1 0 0 −5 −3  = U que es una matriz escalonada. Dado que F23F31(− 1 2 )F21(−2)A = U =⇒ FA = U con F = F23F31(− 1 2 )F21(−2) =  1 0 00 0 1 0 1 0   1 0 00 1 0 −1/2 0 1   1 0 0−2 1 0 0 0 1 ⇒ F =  1 0 0−1/2 0 1 −2 1 0   Algoritmo de Gauss-Jordan. 19 Definición 1.11 [Matriz escalonada canónica] Se denomina matriz escalonada canónica a una matriz escalonada con la pro- piedad de que el primer elemento no nulo de una fila es un uno y además, es el único elemento no nulo de su columna. Teorema 1.2 Toda matriz puede ser reducida mediante transformaciones ele- mentales fila a una escalonada canónica. Demostración. Basta con observar que una vez obtenida la matriz U , si en una fila hay algún elemento no nulo, la dividimos por el primer elemento no nulo de ella mediante Fi(α) y lo utilizamos para hacer ceros todos los de su columna (que se encontrarán por encima de él). Ejemplo 1.8 En el Ejemplo 1.7 se vió que A −→ U =  2 1 3 40 −1/2 1/2 1 0 0 −5 −3  F1( 12 )−→  1 1/2 3/2 20 −1/2 1/2 1 0 0 −5 −3  F2(−2)−→  1 1/2 3/2 20 1 −1 −2 0 0 −5 −3  F12(− 12 )−→  1 0 2 30 1 −1 −2 0 0 −5 −3  F3(− 15 )−→  1 0 2 30 1 −1 −2 0 0 1 3/5  F13(−2)−→  1 0 0 9/50 1 −1 −2 0 0 1 3/5  F23(1)−→  1 0 0 9/50 1 0 −7/5 0 0 1 3/5  que se trata de una escalonada canónica.  Los elementos que utilizamos para anular a los demás elementos de una co- lumna se denominan pivotes. Si en un determinado paso del proceso de pasar de A a U alguna columna es de ceros, diremos que el correspondiente pivote es nulo. Teorema 1.3 Toda matriz A ∈ Rm×n puede, mediante transformaciones ele- mentales, transformarse en una del tipo ( Ir 0 0 0 ) teniendo en cuenta que para ello es necesario realizar tanto transformaciones fila como transforma- ciones columna. 20 Matrices y determinantes Ejemplo 1.9 Si nos fijamos en la matriz del Ejemplo 1.7 que transformamos, mediante transformaciones elementales fila (ver Ejercicio 1.8) en la escalonada canónica  1 0 0 9/50 1 0 −7/5 0 0 1 3/5  podemos ahora, mediante la composición de las transformaciones columna C31(−95)C32( 7 5 )C33(−35) llevarla a  1 0 0 00 1 0 0 0 0 1 0  = ( I3 | 0 ).  Teorema 1.4 Una condición necesaria y suficiente para que una matriz cua- drada posea inversa es que su forma escalonada canónica sea la matriz unidad. Demostración. Si su forma escalonada canónica es In, existe F ∈ Rn×n tal que FA = In =⇒ F = A−1. Si existe A−1 tal que A−1A = In =⇒ ∃ F = A−1 tal que FA = In y por tanto, In es la forma escalonada canónica de A. Algoritmo de Gauss-Jordan Este teorema nos permite calcular la matriz inversa, de una matriz dada, mediante transformaciones elementales (filas o columnas, pero no ambas si- multáneamente). El organigrama de la Figura 1.1, muestra el algoritmo de escalonamiento de una matriz A ∈ Rm×n, mediante transformaciones elementales filas. Cuando se alcanza la condición de parada, la nueva matriz A es una matriz escalonada. Ejemplo 1.10 Consideremos la matriz A =  1 3 00 1 1 1 2 0  (I3 | A) =  1 0 0 1 3 00 1 0 0 1 1 0 0 1 1 2 0  F31(−1)−→  1 0 0 1 3 00 1 0 0 1 1 −1 0 1 0 −1 0  F12(−3)−→ Determinante de una matriz cuadrada. 23 Ejemplo 1.11 [Caso n = 2] Sea A una matriz cuadrada de orden 2: A = ( a11 a12 a21 a22 ) =⇒ det A = a11a22 − a12a21  Ejemplo 1.12 [Caso n = 3] Sea A una matriz cuadrada de orden 3: A =  a11 a12 a13a21 a22 a23 a31 a32 a33  det(A) = a11a22a33 + a12a23a31 + a13a21a32 − a13a22a31 − a12a21a33 − a11a23a32  Regla de Sarrus Una forma nemotécnica para el desarrollo de un determinante de orden 3 consiste en repetir bajo la fila tercera las filas primera y segunda de la matriz. Los productos de las tres diagonales resultantes en el sentido de la diagonal principal resultan ser los tres términos positivos del determinante, mientras que los productos de las diagonales en sentido contrario resultan ser los términos negativos del determinante. Términos positivos a11 a12 a13 a21 a22 a23 a31 a32 a33 → a11a22a33 a11 a12 a13 → a21a32a13 a21 a22 a23 → a31a12a23 Términos negativos a11 a12 a13 a21 a22 a23 a13a22a31 ← a31 a32 a33 a23a32a11 ← a11 a12 a13 a33a12a21 ← a21 a22 a23 1.5.1 Propiedades de los determinantes 1.- El valor de det A no depende de la fila k elegida. 2.- det AT = det A. 24 Matrices y determinantes Como consecuencia de esta propiedad, podemos dar una definición equi- valente del determinante cambiando el papel de las filas por el de las columnas: det A = n∑ i=1 aikAik para cualquier k fijo con 1 ≤ k ≤ n 3.- Si la matriz A posee una ĺınea (fila o columna) de ceros, su determinante es nulo. 4.- Si se intercambian dos ĺıneas de A, el determinante cambia de signo. 5.- Si la matriz A tiene dos ĺıneas paralelas iguales, su determinante es nulo. 6.- Si todos los elementos de una ĺınea se multiplican por un número α, todo el determinante queda multiplicado por dicho número. 7.- Si la matriz A posee dos ĺıneas paralelas proporcionales, su determinante es nulo. 8.- Si descomponemos una ĺınea (fila o columna) en suma de dos, podemos descomponer el determinante en suma de dos determinantes. det  a11 · · · a1n ... ... ai1 + bi1 · · · ain + bin ... ... an1 · · · ann  =det  a11 · · · a1n ... ... ai1 · · · ain ... ... an1 · · · ann  +det  a11 · · · a1n ... ... bi1 · · · bin ... ... an1 · · · ann  No confundir con det(A + B) = det A + det B 9.- El determinante de una matriz no vaŕıa si a una ĺınea se le suma una combinación lineal de ĺıneas paralelas. 10.- Si una ĺınea de la matriz A es combinación lineal de otras paralelas, su determinante es nulo. Teorema 1.5 Si A, B ∈ Rn×n se verifica que: det(AB) = det A · det B Factorización triangular. 25 1.6 Factorización triangular. El Teorema 1.1 nos garantizaba la existencia de una matriz F tal que FA = U siendo U una matriz triangular superior. Ampliaremos ahora ese resultado mediante el siguiente teorema. Teorema 1.6 Dada una matriz A cualquiera, existen matrices P, L y U ′ tales que PA = LU ′ siendo L triangular inferior y U ′ triangular superior. Demostración. La matriz F es el producto de intercambios del tipo Fij y transformaciones del tipo Fij(α). Dado que: FijFik(α) = Fjk(α)Fij FijFkj(α) = Fki(α)Fij FijFhk(α) = Fhk(α)Fij FijFki(α) = Fkj(α)Fij FijFjk(α) = Fik(α)Fij podemos llevar en F todas las transformaciones a la izquierda y todos los intercambios a la derecha: F = (Matriz de las transformaciones)·(Matriz de los intercambios) llamando P a la matriz de los intercambios y L−1 a la de las transformaciones, tenemos: L−1PA = U ′ ⇒ PA = LU ′ L−1 es una triangular inferior con unos en la diagonal y su inversa L es una matriz del mismo tipo. Además, como en la diagonal de U ′ se encuentran los pivotes, podemos des- componerla en el producto DU donde D es una matriz cuadrada y diagonal con sus elementos iguales a los pivotes y U una triangular superior con unos en su diagonal. Por tanto, podemos decir que: Dada cualquier matriz A, existen matrices P, L, D y U tales que PA = LDU con las caracteŕısticas dadas para P, L D y U . 28 Matrices y determinantes • Si A posee inversa A−1 se verifica que det A−1 = 1 det A . A−1A = I ⇒ det(A−1A) = det I =⇒ det A−1 · det A = 1 =⇒ det A−1 = 1 det A 1.7.1 Cálculo de la matriz inversa. Proposición 1.9 La suma de los productos de los elementos de una ĺınea por los adjuntos de una paralela es cero. n∑ j=1 akjAij = 0 si k 6= i Demostración. Este sumatorio correspondeŕıa al desarrollo de un determi- nante con las filas k e i iguales. Definición 1.14 Se denomina matriz adjunta de A y se denota por Adj A a la matriz resultante de sustituir cada elemento de la matriz cuadrada A por su adjunto. Proposición 1.10 A · Adj AT = det A · I. Demostración. Sea C = A · Adj AT . cij = n∑ k=1 aikbkj con bkj = Ajk =⇒ cij = n∑ k=1 aikAjk • Si i 6= j =⇒ cij = 0 (suma de los productos de los elementos de la fila i por los adjuntos de los de la fila j). • Si i = j =⇒ cii = n∑ k=1 aikAik = det A =⇒ C = det A · I =⇒ A · Adj AT = det A · I. Corolario 1.11 Si A es inversible A−1 = 1 det A · AdjAT. Ejercicios resueltos 29 ¿Qué coste conlleva el cálculo de la inversa de una matriz A ∈ Rn×n? • Calculando A−1 = 1 det A · AdjAT. det A ∼ n determinantes de orden n− 1. Aij ∀ i, j → n2 determinantes de orden n− 1. } =⇒ Un total de n2 + n determinantes de orden n− 1. El proceso es O((n + 1)!) • Mediante transformaciones elementales (Gauss-Jordan) n− 1 transformaciones con cada uno de los n pivotes. n operaciones para cada transformación. } =⇒ Un total de n3 − n2 operaciones. El proceso es O(n3) Con un ordenador que realice un millón de operaciones por segundo esti- maŕıamos un tiempo de cálculo para el determinante de una matriz cuadrada de orden 100 de • Calculando A−1 = 1 det A · AdjAT. −→ 3 · 10139 millones de años. • Mediante transformaciones elementales. −→ 1 segundo. 1.8 Ejercicios resueltos Ejercicio 1.1 Se considera la matriz A =  0 −1 10 1 −1 0 0 1  . Hallar una fórmula para An, siendo n un entero positivo. Solución: A2 =  0 −1 10 1 −1 0 0 1   0 −1 10 1 −1 0 0 1  =  0 −1 20 1 −2 0 0 1  30 Matrices y determinantes A3 = AA2 =  0 −1 10 1 −1 0 0 1   0 −1 20 1 −2 0 0 1  =  0 −1 30 1 −3 0 0 1  Probemos por inducción en n que An =  0 −1 n0 1 −n 0 0 1  • Para n = 1 se verifica. • Si An =  0 −1 n0 1 −n 0 0 1  =⇒ An+1 = AAn =  0 −1 10 1 −1 0 0 1   0 −1 n0 1 −n 0 0 1  = =  0 −1 n + 10 1 −(n + 1) 0 0 1  por lo que An =  0 −1 n0 1 −n 0 0 1  ∀n ∈ Z+ Ejercicio 1.2 Dada la matriz A = In − 1 n  1 1 ... 1  · ( 1 1 · · · 1 ) , probar que: a) Es simétrica. b) A2 = A. c) tr A = n− 1. Solución: Denotemos por un = ( 1 1 · · · 1 )T Ejercicios propuestos 33 Sol : ( ac −a2 c2 −ac ) . Ejercicio 1.7 Hallar las potencias n-ésimas de las matrices A =  1 1 11 1 1 1 1 1  B = ( α 1 0 α ) Sol : An = 3n−1A, Bn = αn−1 ( α n 0 α ) . Ejercicio 1.8 Decidir cuáles de las siguientes afirmaciones son verdaderas y cuáles falsas, dando en cada caso una demostración o un contraejemplo, según corresponda: a) Si A y B son simétricas, entonces A B es simétrica. b) Si A es simétrica y P es cuadrada, entonces PAP T es simétrica. c) Si A es una matriz cualquiera, entonces AAT y AT A son simétricas. d) Si A B es simétrica, entonces A y B también lo son. Sol : V,V,V,F. Ejercicio 1.9 Demostrar que una matriz cuadrada de orden n puede des- componerse de forma única como suma de una matriz simétrica y otra anti- simétrica. Realizar la descomposición de la matriz A =  −2 7 05 4 1 2 −5 5  Sol : A =  −2 6 16 4 −2 1 −2 5 +  0 1 −1−1 0 3 1 −3 0 . Ejercicio 1.10 Sea A una matriz antisimétrica. Demostrar: a) A2 es simétrica. 34 Matrices y determinantes b) Si B es simétrica, entonces A B es simétrica si, y sólo si A B = −B A. Ejercicio 1.11 Hallar todas las matrices que conmutan con A = ( 1 −2 −3 4 ) . Sol : Las matrices escalares de orden 2. Ejercicio 1.12 Calcular los siguientes determinantes:∣∣∣∣∣∣∣ 1 3 0 −1 2 −4 1 1 2 ∣∣∣∣∣∣∣ ∣∣∣∣∣∣∣ x 1 1 1 x 1 1 1 x ∣∣∣∣∣∣∣ ∣∣∣∣∣∣∣ x + 1 1 1 1 x + 1 1 1 1 x + 1 ∣∣∣∣∣∣∣ Sol : 2, x3 − 3x + 2, x3 + 3x2. Ejercicio 1.13 Calcular los siguientes determinantes por dos procedimientos: desarrollando por los elementos de la primera fila y mediante triangularización por transformaciones elementales.∣∣∣∣∣∣∣∣∣ 1 −3 1 5 4 0 3 −2 1 2 4 −2 3 3 4 1 ∣∣∣∣∣∣∣∣∣ ∣∣∣∣∣∣∣∣∣ 7 6 8 5 6 7 10 6 7 8 8 9 8 7 9 6 ∣∣∣∣∣∣∣∣∣ Sol : 276 y 4. Ejercicio 1.14 Demostrar que el determinante del producto de una matriz 2× 1 por otra 1× 2 es siempre cero. Sol : Observar que tiene las columnas proporcionales. Ejercicio 1.15 ¿Es cierto que el determinante de una matriz antisimétrica es siempre cero? Sol : Sólo si es de orden impar. Ejercicio 1.16 Sabiendo que los números 23715, 23529, 21359, 19437 y 17453 son múltiplos de 31, probar que el determinante de la matriz A =  2 3 7 1 5 2 3 5 2 9 2 1 3 5 9 1 9 4 3 7 1 7 4 5 3  es divisible por 31, sin calcular el determinante. Ejercicios propuestos 35 Ejercicio 1.17 Hallar los posibles valores del determinante de una matriz A en cada uno de los casos siguientes: a) A es idempotente, es decir A2 = A. b) A es ortogonal, es decir AAT = I. c) A es k-nilpotente, es decir existe k tal que Ak = 0. Sol : a) 1, b) ±1 y c) 0. Ejercicio 1.18 Calcular los siguientes determinantes:∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣ 1 a a · · · a a 0 2 a · · · a a 0 0 3 · · · a a ... ... ... . . . ... ... 0 0 0 · · · n− 1 a 0 0 0 · · · 0 n ∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣ ∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣ 1 2 3 · · · n− 1 n 1 3 3 · · · n− 1 n 1 2 5 · · · n− 1 n ... ... ... . . . ... ... 1 2 3 · · · 2n− 3 n 1 2 3 · · · n− 1 2n− 1 ∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣ Sol : n! y (n− 1)!. Ejercicio 1.19 Resolver la siguiente ecuación:∣∣∣∣∣∣∣∣∣ 1 + x 1 1 1 1 1 + x 1 1 1 1 1 + x 1 1 1 1 1 + x ∣∣∣∣∣∣∣∣∣ = 0 Sol : x3(x + 4) = 0 =⇒ 0, 0, 0,−4. Ejercicio 1.20 Calcular el valor de los determinantes:∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣ 2 1 0 0 · · · 0 0 1 2 1 0 · · · 0 0 0 1 2 1 · · · 0 0 ... ... ... ... . . . ... ... 0 0 0 0 · · · 2 1 0 0 0 0 · · · 1 2 ∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣ ∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣ 1 1 1 · · · 1 1 −1 2 0 · · · 0 0 0 −1 2 · · · 0 0 ... ... ... . . . ... ... 0 0 0 · · · 2 0 0 0 0 · · · −1 2 ∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣ Sol : n + 1 y 2n − 1. 38 Sistemas de ecuaciones lineales. Espacios vectoriales. en numerosos áreas donde aparecen estructuras particulares de forma natu- ral, lo que pone de manifiesto la unidad profunda entre los diversos campos de la matemática. Una de las estructuras algebraicas más relevantes, dentro del álgebra lineal, es la estructura de espacio vectorial, ı́ntimamente ligada al estudio y resolución de sistemas de ecuaciones lineales. 2.1 Notación y definiciones • Se denomina sistema de m-ecuaciones lineales con n-incógnitas a un sistema de ecuaciones de la forma: S ≡  a11x1 + a12x2 + · · ·+ a1nxn = b1 a21x1 + a22x2 + · · ·+ a2nxn = b2 ... am1x1 + am2x2 + · · ·+ amnxn = bm siendo x1, x2, . . . , xn las incógnitas del sistema y todos los aij y bi representan valores escalares pertenecientes a un cuerpo de números, K, que para nuestros propósitos en esta asignatura corresponderá con el cuerpo de los números reales, R. • Una solución del sistema consiste en la asignación de valores de R a cada una de las incógnitas de tal forma que se verifique cada una de las ecuaciones que componen el sistema. • Sea S(S) el conjunto de todas las posibles soluciones de un sistema S. Se pueden presentar los siguientes casos: ∗ Si S(S) = ∅ =⇒ Sistema Incompatible ∗ Si S(S) 6= ∅ =⇒ Sistema Compatible − S(S) unitario =⇒ Compatible determinado − S(S) no unitario =⇒ Compatible indeterminado • Dos ecuaciones se dicen equivalentes cuando las soluciones de la primera lo son también de la segunda y viceversa. Por extensión, dos sistemas se dicen equivalentes cuando sus conjuntos de soluciones son idénticos. Notación y definiciones 39 Propiedades de los sistemas de ecuaciones lineales • Si se multiplican los dos miembros de una ecuación por un escalar (real) no nulo, la ecuación resultante es equivalente a la primitiva. • Si se suman, miembro a miembro, dos ecuaciones con soluciones comu- nes, la ecuación resultante conserva las soluciones comunes. Los sistemas lineales admiten una sencilla representación matricial. Aśı, po- demos denotar Ax = b siendo: A =  a11 a12 · · · a1n a21 a22 · · · a2n ... ... . . . ... am1 am2 · · · amn  x =  x1 x2 ... xn  y b =  b1 b2 ... bm  gracias a la definición dada para el producto entre matrices y la de igualdad entre matrices. Es importante observar que en esta notación matricial se establece un orden para las variables del sistema ya que los coeficientes asociados a una variable se corresponden con una columna de la matriz A, llamada por ello matriz de los coeficientes; x es la matriz de las variables y b es la matriz de los términos independientes del sistema. Para hacer más operativa la notación a la hora de resolver sistemas lineales, podemos prescindir de la matriz columna de las variables del sistema y en su lugar representar el sistema mediante una única matriz ampliada, (A|b), que consiste en añadir a la matriz A una última columna correspondiente a la matriz b. De esta forma, una vez ordenadas las variables del sistema podemos identificar visualmente cada fila de la nueva matriz con una de las ecuaciones del sistema. Las propiedades enunciadas anteriormente pueden expresarse ahora en términos de las transformaciones elementales fila. • Si se aplica a la matriz ampliada de un sistema una transformación elemental fila Fi(α), con α no nulo, la matriz resultante representa un sistema lineal equivalente al anterior. • Si se aplica a la matriz ampliada de un sistema una transformación elemental fila Fij(1), la matriz resultante representa un sistema lineal equivalente al anterior. 40 Sistemas de ecuaciones lineales. Espacios vectoriales. Evidentemente, la combinación de ambos tipos de transformaciones elemen- tales, nos permite aplicar transformaciones fila del tipo Fij(α), obteniéndose sistemas equivalentes. Finalmente, la transformación elemental Fij tan solo representa una permuta entre las ecuaciones i-ésima y j-ésima, por lo que resulta un sistema equiva- lente. Estamos en condiciones de abordar el primer método para la resolución de sistemas de ecuaciones lineales. 2.2 Método de eliminación gaussiana Este método de resolución de sistemas de ecuaciones admite una fácil progra- mación, lo que permite resolver un sistema con la ayuda del ordenador. La idea del método consiste en aplicar a la matriz ampliada del sistema trans- formaciones elementales sobre las filas (no pueden realizarse transformaciones columna) obteniendo, de esta forma, sistemas equivalentes al dado pero cada vez más manejables. Mediante transformaciones, se consigue obtener un sis- tema equivalente al dado que tiene por matriz de los coeficientes una matriz escalonada. La notación quedará simplificada empleando matrices ampliadas para representar en todo momento a los sistemas lineales equivalentes que resultan tras las transformaciones. Vamos a iniciar el método con un ejemplo de orden tres. Ejemplo 2.1 Sea el sistema: S ≡  2x + y + z = 1 4x + y = −2 −2x + 2y + z = 7 (2.1) y nuestro problema es determinar los valores de x, y, z. En primer lugar, tomaremos la matriz ampliada del sistema, siguiendo el orden natural para las variables de mismo: (A|b) =  2 1 1 14 1 0 −2 −2 2 1 7  Este método, también conocido como de eliminaciones sucesivas o método de escalonamiento comienza restando múltiplos de la primera ecuación (fila) a las Método de eliminación gaussiana 43 F32(−1)−→  1 1 1 10 0 −1 0 0 0 0 0  La presencia de la última fila de ceros indica que exist́ıan dos ecuaciones pro- porcionales en el último paso (la segunda y tercera ecuaciones son idénticas) por lo que puede ser eliminada del sistema equivalente:{ x + y + z = 1 −z = 0 La sustitución regresiva, proporciona los valores z = 0 y x = 1− y. Obsérvese que en este ejemplo existe una relación de dependencia entre las variables x e y. Si tomamos un valor cualquiera para y, éste determina otro para la x. Existen infinitas soluciones en este caso, que podemos expresar de forma pa- ramétrica como  x = 1− λ y = λ z = 0 Se dice que y actúa como variable independiente y x, z son variables depen- dientes. Estamos ante un sistema compatible indeterminado.  Ejemplo 2.3 Para resolver el sistema S ≡  x − 2y + 2z = 3 x − 5y + 4z = 1 2x − 3y + 2z = 1 (2.3) Una vez más procedemos a escalonar la matriz ampliada del sistema: 1 −2 2 33 −5 4 1 2 −3 2 1  F21(−3)−→  1 −2 2 30 1 −2 −8 2 −3 2 1  F31(−2)−→  1 −2 2 30 1 −2 −8 0 1 −2 −5  F32(−1)−→  1 −2 2 30 1 −2 −8 0 0 0 3  44 Sistemas de ecuaciones lineales. Espacios vectoriales. La última fila representa la ecuación 0x + 0y + 0z = 3 lo que produce un sistema incompatible ya que 0 6= 3. Por tanto, no hay soluciones para nuestro sistema original. Se trata de un sistema incompatible.  Tras estos tres ejemplos, podemos analizar el comportamiento del método de eliminación gaussiana en relación con los pivotes del método de escalonamiento de Gauss-Jordan. • El caso de sistema incompatible (Ejemplo 2.3) se identifica fácilmente por el hecho de que existe un pivote en la última columna de la matriz ampliada. • En caso contrario, resulta un sistema compatible – Determinado si el número de pivotes coincide con el de variables. – Indeterminado si el número de pivotes es menor que el de variables. ¿Qué coste computacional tiene el algoritmo de eliminación para resolver un sistema n× n? En el primer paso hay que realizar una operación por cada término de la primera ecuación para cada una de las n− 1 ecuaciones que hay debajo: n(n− 1) = n2 − n operaciones. En el segundo paso (n− 1)2 − (n− 1), etc. hasta (2− 1)2 − (2− 1). Es decir, en total: (12 +22 + · · ·+n2)− (1+2+ · · ·+n) = n(n + 1)(2n + 1) 6 − (n + 1)n 2 = n3 − n 3 por lo que es de orden O(n3). La sustitución regresiva requiere 1 + 2 + · · ·+ n = (n + 1)n 2 =⇒ O(n2). Por lo que en total, podemos decir que el método de eliminación gaussiana es de orden O(n3). Aunque no incluiremos aqúı su demostración, el orden del método de Cramer es O((n + 1)!). Resulta evidente el considerable ahorro de tiempo que supone el método de eliminación gaussiana frente a la regla de Cramer. Método de eliminación gaussiana 45 2.2.1 Sistemas de ecuaciones lineales homogéneos Un sistema de ecuaciones lineales se dice que es homogéneo cuando todos sus términos independientes son nulos, es decir, es un sistema del tipo: S ≡  a11x1 + a12x2 + · · · + a1nxn = 0 a21x1 + a22x2 + · · · + a2nxn = 0 ... ... ... ... am1x1 + am2x2 + · · · + amnxn = 0 De la sección anterior se deduce que si aplicamos el método de eliminación gaussiana, puesto que la matriz ampliada tiene su última columna nula, por más transformaciones elementales fila que hagamos, siempre resultará otra columna nula. En conclusión: nunca habrá un pivote en esa columna y por tanto el sistema siempre es compatible. Si el número de pivotes es igual al número de varia- bles, el sistema es compatible determinado con solución única trivial (todas las variables toman el valor nulo) mientras que si el número de pivotes es menor, habrá infinitas soluciones y el sistema es compatible indeterminado. Podemos por tanto clasificar a los sistemas homogéneos como • incompatibles: aquellos que sólo admiten la solución trivial. • compatibles: aquellos que admiten infinitas soluciones. Al resolver un sistema homogéneo compatible mediante eliminación gaussiana, las variables asociadas a las columnas que contienen a los pivotes se denominan variables dependientes, siendo todas las demás variables independientes. Podemos despejar, mediante sustitución regresiva, las variables dependientes en función de las independientes. Las infinitas soluciones pueden expresarse mediante una serie de parámetros, tantos como variables independientes haya. Veamos un ejemplo: Ejemplo 2.4 Resolvamos el sistema homogéneo: S ≡  2x + y − z + t = 0 x + 2y + z − t = 0 3x − y − 2t = 0 (2.4) 48 Sistemas de ecuaciones lineales. Espacios vectoriales. En la expresión (2.5) existen dos tipos de operaciones: • Producto de escalar por vector. • Suma de vectores. Dichas operaciones verifican las siguientes propiedades: Propiedades de la suma de vectores • Ley de composición interna: ∀x, y ∈ Rn =⇒ x + y ∈ Rn • Asociativa: ∀x, y, z ∈ Rn =⇒ (x + y) + z = x + (y + z) • Elemento neutro: ∃ 0 ∈ Rn tal que 0 + x = x + 0 ∀x ∈ Rn • Elemento opuesto: ∀x ∈ Rn ∃ − x ∈ Rn tal que x + (−x) = (−x) + x = 0 • Conmutativa: ∀x, y, z ∈ Rn =⇒ x + y = y + x Se dice que el conjunto de los vectores de Rn para la operación de la suma, [Rn, +], tiene estructura de grupo conmutativo. Propiedades del producto por un escalar • Ley de composición externa: ∀λ ∈ R y ∀x ∈ Rn =⇒ λx ∈ Rn • Asociativa de los escalares: ∀α, β ∈ R y ∀x ∈ Rn =⇒ α(βx) = (αβ)x Espacios Vectoriales 49 • Distributivas: ∀α, β ∈ R y ∀x, y ∈ Rn =⇒  α(x + y) = αx + αy (α + β)x = αx + βx • Elemento unidad: ∀x ∈ Rn =⇒ 1 · x = x Se dice que el conjunto de los vectores de Rn para las operaciones de la suma y el producto por un escalar, [Rn, +, ·], tiene estructura de espacio vectorial. La definición anterior se puede extender a un conjunto V diferente de Rn. Definición 2.1 Espacio vectorial Dado un conjunto V en el que se han definido dos operaciones, una interna, la suma, y otra externa, producto por un escalar, verificando las diez propiedades anteriores, se dice que [V, +, ·] es un espacio vectorial real (o sobre R). Aśı, por ejemplo, son espacios vectoriales: • El conjunto de las matrices cuadradas de orden 3, R3×3, junto a las ope- raciones de suma de matrices y producto de un escalar por una matriz. • Los polinomios en una variable x, P [x], junto a las operaciones de suma de polinomios y producto de un polinomio por un escalar. • El conjunto de las sucesiones de números reales, R∞, junto a la suma de sucesiones (término a término) y producto de una sucesión por un escalar (que se realiza, igualmente, término a término). • El espacio de las funciones, f(x), reales de una variable real, x, definidas en el intervalo [0, 1], junto a la suma de funciones, que se define como (f + g)(x) = f(x) + g(x), y al producto de una función por un escalar, definido como (αf)(x) = αf(x). • Si en R2 consideramos: { (x, y) + (x′, y′) = (x + x′, y + y′) α(x, y) = (α2x, α2y) [R2, +, ·] es un espacio vectorial sobre R. 50 Sistemas de ecuaciones lineales. Espacios vectoriales. Sin embargo, si en R2 consideramos: { (x, y) + (x′, y′) = (x + x′, y + y′) α(x, y) = (αx, 0) [R2, + ·] no es un espacio vectorial sobre R ya que 1 · x 6= x, pues 1 · (x, y) = (1 · x, 0) = (x, 0) 6= (x, y). La definición formal de espacio vectorial nos permite pensar en otros entes como vectores, siempre y cuando la suma y el producto por un escalar cumplan las 10 propiedades exigidas. Aśı, por ejemplo, pueden tratarse como vectores las matrices, las sucesiones, los polinomios y las funciones, entre otros muchos. Propiedades de un espacio vectorial Un espacio vectorial real [V, +, ·] cumple las siguientes propiedades: • Los elementos neutro y opuestos son únicos. Sean 0 y 0′ elementos neutros: 0 = 0 + 0′ por ser 0′ neutro 0′ = 0 + 0′ por ser 0 neutro } =⇒ 0 = 0′ Sean x′ y x′′ opuestos de x. (x′ + x) + x′′ = x′ + (x + x′′) =⇒ 0 + x′′ = x′ + 0 =⇒ x′′ = x′ • α0 = 0 ∀α ∈ R. αx = α(x + 0) = αx + α0 =⇒ α0 = 0 • 0x = 0 ∀x ∈ V . αx = (0 + α)x = 0x + αx =⇒ 0x = 0 • αx = 0 =⇒ α = 0 o x = 0. Debemos probar que si αx = 0 y α 6= 0 entonces ha de ser, necesaria- mente, x = 0. αx = 0 y α 6= 0 =⇒ ∃α−1 : α−1α = 1 =⇒ α−1αx = α−10 =⇒ 1x = 0 =⇒ x = 0 Espacios Vectoriales 53 Teorema 2.1 Un conjunto finito de vectores H = {x1, x2, . . . , xk} es lineal- mente dependiente si y sólo si, al menos, uno de ellos depende linealmente de los restantes. Demostración. Si {x1, x2, . . . , xk} son linealmente dependientes existe xi con i = 1, 2, . . . , k tal que xi = α1x1 + · · ·+ αi−1xi−1 + αi+1xi+1 + · · ·+ αkxk. En efecto: Por ser linealmente dependientes existen λ1, λ2, . . . , λk ∈ R no todos nulos tales que λ1x1 + λ2x2 + · · ·+ λkxk = 0. Sea λi 6= 0 1 ≤ i ≤ k. Entonces xi = − λ1 λi x1 − · · · − λi−1 λi xi−1 − λi+1 λi xi+1 − · · · − λk λi xk =⇒ xi = α1x1 + · · ·+ αi−1xi−1 + αi+1xi+1 + · · ·+ αkxk =⇒ xi es combinación lineal de los demás. Rećıprocamente, si algún xi es combinación lineal de los demás, el conjunto de vectores {x1, x2, . . . , xk} es un sistema ligado. En efecto: Si xi es combinación lineal de los demás, implica que xi = α1x1 + · · ·+ αi−1xi−1 + αi+1xi+1 + · · ·+ αkxk =⇒ α1x1 + · · ·+ αi−1xi−1 − 1 · xi + αi+1xi+1 + · · ·+ αkxk = 0 =⇒ k∑ j=1 αjxj = 0 con αi = −1 y por tanto {x1, . . . , xk} es un sistema ligado. Definición 2.4 Se dice que H ⊂ V depende linealmente de H ′ ⊂ V si cual- quier vector de H depende linealmente de los vectores de H ′. Propiedades de la dependencia lineal. a) Si un conjunto de vectores {x1, x2, . . . , xk} contiene al vector nulo, es un sistema ligado. 0x1 + 0x2 + · · ·+ 1 · 0 + · · ·+ 0xk = 0 siendo 1 6= 0. 54 Sistemas de ecuaciones lineales. Espacios vectoriales. b) Si en un conjunto de vectores {x1, x2, . . . , xk} hay dos proporcionales entonces, es un sistema ligado. xi = kxj =⇒ 0x1+· · ·+0xi−1+kxj +0xi+1+· · ·+(−k)xj +· · ·+0xk = 0 con k 6= 0, por lo que {x1, x2, . . . , xk} es un sistema ligado. c) H = {x1, . . . , xr} sistema ligado H ⊂ H ′ = {x1, . . . , xr, xr+1, . . . , xk}  =⇒ H ′ sistema ligado λ1x1 + · · ·+ λrxr = 0 con algún λi 6= 0 =⇒ λ1x1 + · · ·+ λrxr + 0xr+1 + · · ·+ 0xk = 0 con λi 6= 0. d) Si un vector x es una combinación lineal de los vectores {x1, x2, . . . , xm} y cada uno de estos depende linealmente de {y1, y2, . . . , yk} entonces, x depende linealmente de {y1, y2, . . . , yk} x = m∑ i=1 λixi = m∑ i=1 λi · k∑ j=1 αijyj = k∑ j=1 ( m∑ i=1 λiαij)yj = k∑ j=1 βjyj e) Un conjunto formado por un único vector no nulo, es un sistema libre. x 6= 0 y αx = 0 =⇒ α = 0 =⇒ {x} es un sistema libre. f) Si H = {x1, x2, . . . , xn} es un sistema libre, cualquier subconjunto no vaćıo de H es también un sistema libre. Sea {x1, . . . , xr} ⊂ {x1, . . . , xn}. Si {x1, . . . , xr} fuese ligado entonces, {x1, . . . , xn} seŕıa ligado en contra de la hipótesis (ver el apartado c). g) Ningún sistema libre puede contener al vector nulo. Si contuviese al 0, seŕıa un sistema ligado (ver el apartado a). 2.3.2 Espacios vectoriales de tipo finito Definición 2.5 [Sistema generador] Dado un espacio vectorial V se dice de que un conjunto finito {u1, u2, . . . , un} de vectores de V es un sistema generador si ∀ x ∈ V ⇒ x = n∑ i=1 αiui con αi ∈ K donde K representa al cuerpo de definición (generalmente R o C). Espacios Vectoriales 55 Un espacio vectorial V se dice de tipo finito si posee un sistema finito de generadores. Evidentemente, el conjunto de generadores de un espacio vectorial no es único. Existen numerosos espacios vectoriales que no están engendrados por un nú- mero finito de generadores, por ejemplo, el espacio vectorial de los polinomios, pues cualquier conjunto finito de polinomios {p1(x), p2(x), . . . , pn(x)}, cua- lesquiera que sean sus grados, generan a un subconjunto de P [x] pero no a todo P [x]. Otros espacios vectoriales están generados por un número finito de generado- res, como por ejemplo Rn, Rm×n ó Pn[x], el espacio de los polinomios de grado menor o igual que n en la variable x. Definición 2.6 [Base de un espacio vectorial] Un conjunto B = {u1, u2, . . . , un} de vectores de un espacio vectorial V definido sobre un cuerpo K se dice que constituye una base si es un sistema generador de V y además es libre. Teorema 2.2 Todo espacio vectorial V finito y no nulo posee, al menos, una base. Demostración. Por tratarse de un espacio vectorial de tipo finito, existe un sistema generador finito H = {u1, u2, . . . , un} tal que V = L (H) y como V 6= {0} uno, al menos, de estos vectores generadores es no nulo, es decir, existen subconjuntos de H formados por vectores linealmente independientes. Entre todos estos subconjuntos de H elegimos uno cuyo número de vectores sea máximo. Sea este {u1, u2, . . . , ur} con 1 ≤ r ≤ n y veamos que constituye una base. a) Es un sistema libre por construcción. b) Veamos que es un sistema generador de V . En efecto: como el conjunto de vectores {u1, u2, . . . , un} es un sistema generador de V , cualquier vector x ∈ V es combinación lineal de ellos. Como por otra parte, todos ellos son combinación lineal de los vectores {u1, u2, . . . , ur}, cualquier vector x ∈ V puede ser expresado como combinación lineal de {u1, u2, . . . , ur} (véanse las propiedades de la dependencia lineal), por lo que es un sistema generador de V . 58 Sistemas de ecuaciones lineales. Espacios vectoriales. Definición 2.9 [Base canónica] De entre todas las bases del espacio vectorial (Rn, +, ·) hay una que recibe el nombre especial de base canónica y suele denotarse por C = {e1, e2, . . . , en} siendo  e1 = (1, 0, 0, . . . , 0) e2 = (0, 1, 0, . . . , 0) ... en = (0, 0, 0, . . . , 1) La demostración de que realmente constituye una base es trivial, dada la sencillez en la estructura de sus elementos: • Se trata de un sistema generador ya que cualquier vector (x1, x2, . . . , xn) puede obtenerse como x1e1 + x2e2 + . . . + xnen • Es un sistema libre de vectores pues de n∑ i=1 xiei = 0 (vector nulo) se deduce que (x1, x2, . . . , xn) = (0, 0, . . . , 0) ⇐⇒ x1 = 0, x2 = 0, . . . , xn = 0 Obsérvese que las coordenadas de un vector respecto de la base canónica coin- ciden con los n valores que componen el vector. Dado un espacio vectorial V de dimensión finita, dim V = n, una vez elegida una base B para dicho espacio, podemos establecer una relación de uno a uno entre los vectores del espacio V y los del espacio Rn. Es decir, podemos asociar (identificar) cada vector de V con un único elemento de Rn que representa sus coordenadas respecto de la base elegida. Con esta idea, podemos prescindir de trabajar con los vectores originales (ma- trices, polinomios, funciones, etc.) y trabajar con sus coordenadas. Teorema 2.5 Fijada una base B en un espacio vectorial V de dimensión n, el conjunto de vectores {x1, x2, . . . , xm} es un sistema libre si, y sólo si, lo es el conjunto de sus coordenadas como vectores de Rn. Espacios Vectoriales 59 Demostración. Sean (xi1, xi2, . . . , xin), para i = 1, . . . ,m, las coordenadas del vector xi ∈ V respecto de la base B = {v1, v2, . . . , vn}. m∑ i=1 αixi = 0 ⇐⇒ m∑ i=1 αi( n∑ j=1 xijvj) = 0 ⇐⇒ n∑ j=1 ( m∑ i=1 αixij)vj = 0 Dado que B es una base y por tanto un sistema libre, la expresión anterior es equivalente al sistema α1x11 + α2x21 + . . . + αmxm1 = 0 α1x12 + α2x22 + . . . + αmxm2 = 0 ... ... ... ... α1x1n + α2x2n + . . . + αmxmn = 0 que podemos expresar de la forma α1  x11 x12 ... x1n + α2  x21 x22 ... x2n + · · ·+ αm  xm1 xm2 ... xmn  =  0 0 ... 0  Aśı pues, los vectores {x1, x2, . . . , xn} son linealmente independientes si, y sólo si, lo son los vectores de Rn: {(x11, x12, . . . , x1n), (x21, x22, . . . , x2n), . . . , (xm1, xm2, . . . , xmn)} Definición 2.10 Llamamos rango de un conjunto de vectores al mayor nú- mero de ellos linealmente independientes. ¿Qué operaciones o modificaciones se pueden realizar en un conjunto de vectores de forma que no se altere la dependencia lineal, es decir, sin que se altere su rango? Proposición 2.6 Si en un conjunto de vectores {x1, x2, . . . , xm} (que dis- pondremos en forma de matricial como una matriz cuyas columnas son los vectores xi) (x1 x2 · · · xn) ⇐⇒  x11 x21 · · · xm1 x12 x22 · · · xm2 ... ... . . . ... x1n x2n · · · xmn  se aplican transformaciones elementales, su rango no se altera. 60 Sistemas de ecuaciones lineales. Espacios vectoriales. Demostración. Para transformaciones elementales columna tenemos: • La transformación Cij consiste simplemente en cambiar de orden dos vectores. • La transformación Ci(α) (para α 6= 0) consiste en reemplazar el vector xi por un múltiplo de él, αxi. Obviamente este reemplazamiento no cambia el número de vectores linealmente independientes que existe en el conjunto. • Finalmente, la transformación Cij(α) reemplaza el vector xi por el nuevo vector v = xi + αxj. Veamos que esto tampoco cambia el número de vectores linealmente independientes: – Si xi es combinación lineal de los restantes vectores, xi = n∑ k=1 k 6=i λkxk, entonces resulta v = xi+αxj = n∑ k=1 k 6=i λkxk +αxj, de donde v también es combinación lineal de los restantes. – Si xi es linealmente independiente de los demás, necesariamente v también pues en caso contrario, si v = xi + αxj = n∑ k=1 k 6=i λkxk, despejando xi resulta xi = n∑ k=1 k 6=i λkxk −αxj con lo que tendŕıamos que xi es combinación de los demás, lo cual contradice nuestra hipótesis de que era independiente de los demás. Para transformaciones elementales fila: La dependencia o independencia lineal del conjunto {x1, x2, . . . , xn} de vectores, equivale a la compatibilidad o incompatibilidad del sistema de ecuaciones lineales homogéneo dado por α1x1 + α2x2 + · · ·+ αnxn = 0 α1x11 + · · ·+ αmxm1 = 0 ... α1x1n + · · ·+ αmxmn = 0 ⇐⇒  x11 · · · xm1... . . . ... x1n · · · xmn   α1... αm =  0... 0  Compatibilidad que no se ve alterada al realizar transformaciones ele- mentales fila. Variedades lineales 63 2.4 Variedades lineales Definición 2.12 [Variedad lineal o Subespacio vectorial] Sea (V, +, ·) un espacio vectorial y L ⊂ V . Decimos que L es un subespacio vectorial o variedad lineal de V si L tiene estructura de espacio vectorial para las mismas operaciones de V y sobre el mismo cuerpo (K). Proposición 2.10 L subespacio vectorial de V ⇐⇒  ∀x, y ∈ L =⇒ x + y ∈ L∀x ∈ L y ∀α ∈ K =⇒ αx ∈ L Demostración. • Si L es una variedad lineal de V es un espacio vectorial, por lo que ∀x, y ∈ L =⇒ x + y ∈ L ∀x ∈ L y ∀α ∈ K =⇒ αx ∈ L • Rećıprocamente, dado que la suma es interna en L ⊆ V se verifican todas las propiedades de la suma y análogamente ocurre con las de la ley externa, por lo que L tiene estructura de espacio vectorial sobre el cuerpo K. Estas dos condiciones podemos refundirlas en una sola: Corolario 2.11 [Caracterización] L es un subespacio vectorial de V si, y sólo si, ∀x, y ∈ L ∀α, β ∈ K  =⇒ αx + βy ∈ L Ejemplo 2.5 a) L = {x = (x1, x2, 0) : x1, x2 ∈ R} es subespacio vectorial de R3. b) L = {x = (−α, α) : α ∈ R} es subespacio vectorial de R2. c) L = {x = (α, 3α) : α ∈ R} es subespacio vectorial de R2.  64 Sistemas de ecuaciones lineales. Espacios vectoriales. Definición 2.13 [Variedad lineal engendrada por un conjunto de vectores] Sean V un espacio vectorial real y H ⊂ V . Se denomina variedad lineal engendrada por H y la denotamos por L (H) al conjunto de vectores de V que son combinaciones lineales de los vectores de H. El conjunto H es un sistema generador de L (H). ¿Es realmente L (H) una variedad lineal de V ? Teorema 2.12 L (H) es una variedad lineal de V . Demostración. x, y ∈ L (H) =⇒ existen  x1, . . . , xk, y1, . . . , yp ∈ H α1, . . . , αk, β1, . . . , βp ∈ R tales que: x = k∑ i=1 αixi y = p∑ j=1 βjyj de donde αx + βy = α k∑ i=1 αixi + β p∑ j=1 βjyj = k∑ i=1 (ααi)xi + p∑ j=1 (ββj)yj, es decir, αx + βy es combinación lineal de x1, . . . , xk, y1, . . . , yp ∈ H, por lo que αx + βy ∈ L (H) y por tanto, L (H) es una variedad lineal de V . Propiedades Sea V ∈ Rn un espacio vectorial y sean H, H ′ ⊂ V . Se cumplen: • H ⊆ L (H ). ∀ x ∈ H como 1 ∈ R =⇒ 1 · x = x ∈ L (H) =⇒ H ⊆ L (H) • H ⊂ H ′ =⇒ L (H ) ⊆ L (H ′). ∀ x ∈ L (H) =⇒ x = k∑ i=1 αixi con xi ∈ H ⊂ H ′ =⇒ x = k∑ i=1 αixi con xi ∈ H ′ =⇒ x ∈ L (H ′) =⇒ L (H) ⊆ L (H ′) Variedades lineales 65 • L (L (H )) = L (H ). De las dos propiedades anteriores deducimos que H ⊆ L (H) =⇒ L (H) ⊆ L (L (H)) Veamos ahora que L (L (H)) ⊆ L (H). ∀x ∈ L (L (H)) =⇒ x = k∑ i=1 αixi con xi ∈ L (H) xi ∈ L (H) =⇒ xi = p∑ j=1 βijxj con xj ∈ H x = k∑ i=1 αi p∑ j=1 βijxj = p∑ j=1 ( k∑ i=1 αiβij)xj = p∑ j=1 γjxj con xj ∈ H es decir, x ∈ L (H) =⇒ L (L (H)) ⊆ L (H) y por tanto, L (L (H)) = L (H). 2.4.1 Operaciones con variedades lineales Intersección Sea V un espacio vectorial definido sobre un cuerpo K y sean L1 y L2 dos variedades lineales de V . L = L1 ∩ L2 es otra variedad lineal de V que recibe el nombre de subespacio intersección. En efecto: ∀x, y ∈ L ∀λ, µ ∈ K } =⇒ x, y ∈ L1 =⇒ λx + µy ∈ L1 x, y ∈ L2 =⇒ λx + µy ∈ L2 } =⇒ λx+µy ∈ L1∩L2 Por tanto, L1 ∩ L2 es una variedad lineal de V . Podemos generalizar diciendo: si Li 2 ≤ i ≤ n es un conjunto de i variedades lineales de V entonces, L = n⋂ i=2 Li es también una variedad lineal de V . Este resultado es fácil probarlo utilizando para ello el método de inducción. 68 Sistemas de ecuaciones lineales. Espacios vectoriales. Rećıprocamente si la descomposición es única, como ∀ x ∈ L1 ∩ L2 ⇒ x = x + 0 = 0 + x⇒ { x = x + 0 con x ∈ L1 0 ∈ L2 x = 0 + x con 0 ∈ L1 x ∈ L2 y al ser única la descomposición x = 0 ⇒ L1 ∩ L2 = {0}, por lo que la suma es directa. 2.4.2 Ecuaciones de los subespacios. Sean V un espacio vectorial de dimensión n, B = {v1, v2, . . . , vn} una base de V , L un subespacio de V de dimensión r < n y B′ = {u1, u2, . . . , ur} una base de L. Definición 2.14 [Ecuaciones paramétricas de una variedad lineal] Se denominan ecuaciones paramétricas de una variedad L a las relaciones que ligan las coordenadas de un vector cualquiera x ∈ L respecto de las bases B′ de L y B de V . ∀ x ∈ L =⇒ x = r∑ i=1 λiui ∀ x ∈ L ⊆ V =⇒ x = n∑ j=1 xjvj u1, u2, . . . , ur ∈ V =⇒ ui = a1iv1 + a2iv2 + · · ·+ anivn i = 1, 2, . . . , r x = λ1u1 + λ2u2 + · · ·+ λrur = x1v1 + x2v2 + · · ·+ xnvn =⇒ λ1(a11v1 + · · ·+ an1vn)+ · · ·+λr(a1rv1 + · · ·+ anrvn) = x1v1 + · · ·+xnvn =⇒ (λ1a11 + · · ·+ λra1r)v1 + · · ·+ (λ1an1 + · · ·+ λranr)vn = x1v1 + · · ·+ xnvn y al ser únicas las coordenadas de un vector respecto de una base, se tiene: x1 = λ1a11 + · · ·+ λra1r ... xn = λ1an1 + · · ·+ λranr  Ecuaciones paramétricas de L. Se trata pues, de un sistema de n ecuaciones con r incógnitas siendo r < n. Definición 2.15 [Ecuaciones impĺıcitas de una variedad] Si en el sistema anterior eliminamos los parámetros λ1, λ2, . . . , λr, se obtie- nen las denominadas ecuaciones impĺıcitas de la variedad lineal L. Variedades lineales 69 Visto de otra forma, un vector (x1, x2, . . . , xn) pertenece a la variedad L si, y sólo si, el sistema anterior es compatible determinado en los parámetros {λ1, . . . , λr}. Por tanto, si escalonamos la matriz ampliada del sistema, no debe haber pivotes en la última columna. Al igualar a cero esos pivotes obtenemos las ecuaciones impĺıcitas de L. Ejemplo 2.6 Para hallar las ecuaciones paramétricas e impĺıcitas de la varie- dad L de R5 engendrada por los vectores (1, 2, 1, 0, 0), (0,−1, 1, 1, 0), (1, 0,−1, 0, 1), (1, 1, 2, 1, 0) que expresaremos poniendo L =< (1, 2, 1, 0, 0), (0,−1, 1, 1, 0), (1, 0,−1, 0, 1), (1, 1, 2, 1, 0) > Determinamos, en primer lugar, una base de L. 1 2 1 0 0 0 −1 1 1 0 1 0 −1 0 1 1 1 2 1 0  −→F13(−1) F41(−1)  1 2 1 0 0 0 −1 1 1 0 0 −2 −2 0 1 0 −1 1 1 0  −→F32(−2) F42(−1) 1 2 1 0 0 0 −1 1 1 0 0 0 −4 −2 1 0 0 0 0 0  por tanto, una base de L es B = {(1, 2, 1, 0, 0), (0,−1, 1, 1, 0), (1, 0,−1, 0, 1)} y dim L = 3. Debido a ello, cualquier vector x ∈ L puede expresarse de la forma: x = (x1, x2, x3, x4, x5) = λ1(1, 2, 1, 0, 0) + λ2(0,−1, 1, 1, 0) + λ3(1, 0,−1, 0, 1) de donde x1 = λ1 + λ3 x2 = 2λ1 − λ2 x3 = λ1 + λ2 − λ3 x4 = λ2 x5 = λ3  Ecuaciones paramétricas de L. 70 Sistemas de ecuaciones lineales. Espacios vectoriales. Obsérvese que las ecuaciones paramétricas no son únicas, dependen de las bases elegidas. Por ejemplo, otra base de L está formada por las filas no nulas y finales de la matriz escalonada resultante: B′ = {(1, 2, 1, 0, 0), (0,−1, 1, 1, 0), (0, 0,−4,−2, 1)}, por lo que podemos elegir libremente la base que mejor nos convenga. Vamos a hallar ahora unas ecuaciones impĺıcitas a partir de las anteriores ecuaciones paramétricas: 1 0 1 x1 2 −1 0 x2 1 1 −1 x3 0 1 0 x4 0 0 1 x5  −→ F21(−2) F31(−1)  1 0 1 x1 0 −1 −2 x2 − 2x1 0 1 −2 x3 − x1 0 1 0 x4 0 0 1 x5  −→ F32(1) F42(1)  1 0 1 x1 0 −1 −2 x2 − 2x1 0 0 −4 −3x1 + x2 + x3 0 0 2 −2x1 + x2 + x4 0 0 1 x5  −→ 2F4 + F3 4F5 + F3  1 0 1 x1 0 −1 −2 x2 − 2x1 0 0 −4 −3x1 + x2 + x3 0 0 0 −7x1 + 3x2 + x3 + 2x4 0 0 0 −3x1 + x2 + x3 + 4x5 ⇒  −7x1 + 3x2 + x3 + 2x4 = 0−3x1 + x2 + x3 + 4x5 = 0 Estas dos últimas son unas ecuaciones impĺıcitas de L.  Analicemos una forma alternativa de resolver el ejercicio anterior. Puesto que el objetivo del primer escalonamiento en el ejercicio es sólo determinar vectores linealmente independientes en L, podemos ahorrar esfuerzos y pasar directa- mente al segundo escalonamiento para hallar simultáneamente las ecuaciones impĺıcitas y una base de L. Basta tomar desde el principio todos los vectores generadores de L: 1 0 1 1 x1 2 −1 0 1 x2 1 1 −1 2 x3 0 1 0 1 x4 0 0 1 0 x5  −→ F21(−2) F31(−1)  1 0 1 1 x1 0 −1 −2 −1 x2 − 2x1 0 1 −2 1 x3 − x1 0 1 0 1 x4 0 0 1 0 x5  −→ F32(1) F42(1) Variedades lineales 73 Las ecuaciones impĺıcitas de L1 son { x1 − x2 + x3 = 0 x1 − x4 = 0 Como los pivotes se encuentran sobre las dos primeras columnas, los dos vec- tores del sistema generador de L1 son linealmente independientes y por tanto constituyen una base de L1. A partir de esta base obtenemos las ecuaciones paramétricas Las ecuaciones paramétricas de L1 son  x1 = λ1 x2 = λ1 + λ2 x3 = λ2 x4 = λ1 De manera análoga, para L2 tenemos: 1 0 x1 0 1 x2 0 0 x3 0 1 x4  → F42(−1)  1 0 x1 0 1 x2 0 0 x3 0 0 x4 − x2  Las ecuaciones impĺıcitas de L2 son { x3 = 0 x2 − x4 = 0 Como los pivotes se encuentran sobre las dos primeras columnas, los dos vec- tores del sistema generador de L2 son linealmente independientes y por tanto constituyen una base de L2. A partir de esta base obtenemos las ecuaciones paramétricas Las ecuaciones paramétricas de L2 son  x1 = λ1 x2 = λ2 x3 = 0 x4 = λ2 El subespacio intersección, L1 ∩ L2, viene determinado por las ecuaciones L1 ∩ L2 :  x1 − x2 + x3 = 0 −x1 + x4 = 0 x3 = 0 − x2 + x4 = 0 74 Sistemas de ecuaciones lineales. Espacios vectoriales. Si escalonamos dicho sistema resulta: 1 −1 1 0 −1 0 0 1 0 0 1 0 0 −1 0 1  → F21(1)  1 −1 1 0 0 −1 1 1 0 0 1 0 0 −1 0 1  → F42(−1)  1 −1 1 0 0 −1 1 1 0 0 1 0 0 0 −1 0  → F43(1)  1 −1 1 0 0 −1 1 1 0 0 1 0 0 0 0 0  Las ecuaciones impĺıcitas de L1 ∩ L2 son  x1 − x2 + x3 = 0 x2 − x3 − x4 = 0 x3 = 0 Resolviendo el sistema, tenemos x3 = 0, x1 = x2 = x4. Las ecuaciones paramétricas de L1 ∩ L2 son  x1 = λ x2 = λ x3 = 0 x4 = λ Finalmente, un sistema generador de L1 +L2 está formado por la unión de las bases de L1 y L2. A partir de éste, obtenemos las ecuaciones impĺıcitas: 1 0 1 0 x1 1 1 0 1 x2 0 1 0 0 x3 1 0 0 1 x4  → F21(−1) F41(−1)  1 0 1 0 x1 0 1 −1 1 x2 − x1 0 1 0 0 x3 0 0 −1 1 x4 − x1  →F32(−1)  1 0 1 0 x1 0 1 −1 1 x2 − x1 0 0 1 −1 x3 − x2 + x1 0 0 −1 1 x4 − x1  → F43(1)  1 0 1 0 x1 0 1 −1 1 x2 − x1 0 0 1 −1 x3 − x2 + x1 0 0 0 0 x4 + x3 − x2  La ecuación impĺıcita de L1 + L2 es: x2 − x3 − x4 = 0. Propiedades de los espacios vectoriales de tipo finito. 75 Como los pivotes se encuentran en las tres primeras columnas de la matriz, una base de L1 + L2 está formada por los tres primeros vectores del sistema generador: {(1, 1, 0, 1), (0, 1, 1, 0), (1, 0, 0, 0)}. Por lo que Las ecuaciones paramétricas de L1 + L2 son  x1 = λ1 + λ3 x2 = λ1 + λ2 x3 = λ2 x4 = λ1  2.5 Propiedades de los espacios vectoriales de tipo finito. Sea V un espacio vectorial de tipo finito con dim V = n. Teorema 2.14 Todo subespacio propio H de V (H ⊂ V siendo H 6= V ) tiene dimensión menor que la de V . Demostración. dim H ≤ dim V ya que si V tiene dimensión n, no podemos encontrar n + 1 vectores linealmente independientes. Veamos entonces que si H es un subespacio propio de V es dim H 6= dim V . H subespacio propio de V ⇒ ∃ x ∈ V : x 6∈ H. Si {u1, u2, . . . , uk} es una base de H, H ′ = < u1, u2, . . . , uk, x > es otro subespacio de V con dim H ′ = k + 1 dim V ≥ dim H ′ > dim H ⇒ dim V > dim H Por tanto, la dimensión de H es estrictamente menor que la de V. Teorema 2.15 [Ampliación de una base] Dado un conjunto de vectores linealmente independientes {u1, u2, . . . , uk} siendo k < n = dim V , se pueden encontrar n− k vectores uk+1, uk+2, . . . , un tales que el conjunto {u1, . . . , uk, uk+1, . . . , un} constituya una base de V . Demostración. {u1, u2, . . . , uk} genera un subespacio de V de dimensión k < n H1 = < u1, u2, . . . , uk > es decir, H1 es un subespacio propio de V por lo que existe, al menos, un vector uk+1 ∈ V tal que uk+1 6∈ H1. 78 Sistemas de ecuaciones lineales. Espacios vectoriales. 2.6 Cambio de bases Sea V un espacio vectorial finito y consideremos dos bases cualesquiera B = {u1, u2, . . . , un} y B′ = {v1, v2, . . . , vn} del espacio V . Se llaman ecuaciones de cambio de bases en V a las relaciones que ligan las coordenadas de un mismo vector x ∈ V respecto de las bases B y B′. ∀ x ∈ V ⇒  x = n∑ i=1 λiui ⇒ (λ1, . . . , λn)B coord. de x respecto a B x = n∑ i=1 µivi ⇒ (µ1, . . . , µn)B′ coord. de x respecto a B ′ Como B′ = {v1, v2, . . . , vn} ⊂ V podemos expresar cada uno de los vectores de B′ en función de la base B, es decir, (a1j, a2j, . . . , anj)B serán las coordenadas de vj respecto de la base B. x = n∑ i=1 λiui = n∑ j=1 µjvj = n∑ j=1 µj ( n∑ i=1 aijui ) = n∑ i=1 ( n∑ j=1 aijµj ) ui =⇒ λi = n∑ j=1 aijµj i = 1, 2, . . . , n o en forma matricial, λ1... λn  =  a11 · · · a1n... . . . ... an1 · · · ann   µ1... µn  es decir xB = PB′BxB′ donde PB′B ∈ R n×n es la matriz del cambio de bases, llamada también matriz de paso, xB es el vector de coordenadas referido a la base B y xB′ el vector de coordenadas referido a la base B′. Obsérvese que las columnas de la matriz P B′B están formadas por las coordenadas de cada vector de B′ respecto de la base B. Veamos dos propiedades interesantes de las matrices de paso: • P B′B es una matriz regular ya que sus columnas son las coordenadas de los vectores de una base y éstos son linealmente independientes. Cambio de bases 79 • (P B′B )−1 = P BB′ . Puesto que las coordenadas de un vector respecto de una base son únicas, tenemos: xB = PB′BxB′ =⇒ xB′ = (PB′B) −1xB por ser matriz regular x B′ = P BB′ xB ecuación del cambio de B a B′ } =⇒ (P B′B )−1 = P BB′ Ejemplo 2.8 Considérense las bases de R4 B = {u1, u2, u3, u4} y B′ = {v1, v2, v3, v4} donde v1 = u1 − 2u2 + u3 , v2 = u1 − u3 , v3 = u2 + u4 , v4 = u2 + u3. Dado que v1 = u1 − 2u2 + u3 =⇒ v1 = (1,−2, 1, 0)B v2 = u1 − u3 =⇒ v2 = (1, 0,−1, 0)B v3 = u2 + u4 =⇒ v3 = (0, 1, 0, 1)B v4 = u2 + u3 =⇒ v4 = (0, 1, 1, 0)B y la ecuación matricial del cambio de base xB = PB′BxB′ viene dada por x1 x2 x3 x4  =  1 1 0 0 −2 0 1 1 1 −1 0 1 0 0 1 0   x′1 x′2 x′3 x′4  Si x tiene de coordenadas (1, 2, 0,−1)B , sus coordenadas respecto de la base B′ las calcularemos resolviendo el sistema 1 2 0 −1  =  1 1 0 0 −2 0 1 1 1 −1 0 1 0 0 1 0   x′1 x′2 x′3 x′4  =⇒  x′1 x′2 x′3 x′4  =  1 1 0 0 −2 0 1 1 1 −1 0 1 0 0 1 0  −1 1 2 0 −1  =  −1/2 3/2 −1 2  Es decir, las coordenadas de x respecto de la base B′ son x = (−1/2, 3/2,−1, 2)B′ 80 Sistemas de ecuaciones lineales. Espacios vectoriales. Las coordenadas, respecto de la base B del vector x que respecto a la base B′ tiene coordenadas x = (0, 0,−1, 1) B′ vendrán dadas por x1 x2 x3 x4  =  1 1 0 0 −2 0 1 1 1 −1 0 1 0 0 1 0   0 0 −1 1  =  0 0 1 −1  Es decir, las coordenadas de x respecto de la base B son x = (0, 0, 1,−1)B  2.7 Espacios fundamentales asociados a una matriz. Generalmente los subespacios vectoriales pueden ser descritos de dos formas: dando un conjunto de vectores que generen a dicho subespacio, tal como sucede con el espacio columna (o el espacio fila) de una matriz, donde se especifican las columnas (o filas) o dando una lista de restricciones que debe cumplir el subespacio, es decir, en lugar de dar los vectores que lo generan, dar las propiedades que deben cumplir. Por ejemplo, el espacio nulo de una matriz A consta de todos los vectores que verifican Ax = 0 donde cada una de las ecuaciones de este sistema representa una restricción. En el primer tipo de descripción puede haber filas o columnas combinaciones lineales de las demás y por ello, no seŕıa necesario darlas para definir al su- bespacio. En la segunda, pueden existir restricciones a las que les ocurra lo mismo, es decir, que puedan evitarse por estar impĺıcitamente exigidas en las demás. En ambos casos es dif́ıcil dar una base a simple vista, siendo necesario un procedimiento sistemático. La idea consiste en dar una base para cada uno de los subespacios asociados a una matriz A a partir de una matriz escalonada U , obtenida por eliminación gaussiana. 2.7.1 Espacio columna de A. [R(A)]. Definición 2.16 [Espacio columna de una matriz A] Se denomina espacio columna de una matriz A ∈ Rm×n y se denota por R(A) Espacios fundamentales asociados a una matriz. 83 2.7.3 Espacio nulo de A: N(A). Definición 2.18 Se denomina espacio nulo de una matriz A ∈ Rm×n a la variedad formada por todos los vectores x ∈ Rn tales que Ax = 0. Cuando hemos definido los espacios fila y columna de una matriz A hemos dicho que eran los espacios generados por las filas y las columnas de A respec- tivamente, es decir, son espacios vectoriales por definición. No ocurre lo mismo cuando definimos el espacio nulo, ya de la definición nos lleva a preguntarnos ¿Constituyen un espacio vectorial los vectores de Rn tales que Ax = 0? Sean x, y ∈ N(A) es decir, dos vectores tales que Ax = 0 y Ay = 0. Para cualesquiera que sean λ, µ ∈ R, el vector λx + µy verifica que A(λx + µy) = λAx + µAy = λ · 0 + µ · 0 = 0 es decir, λx + µy ∈ N(A) y, por tanto, N(A) es una variedad lineal de Rn. El propósito original de la eliminación gaussiana es el de simplificar un sistema de ecuaciones lineales haciéndolo más manejable y sin alterar sus soluciones. Dado el sistema Ax = 0 y mediante eliminación obtenemos Ux = 0 siendo el proceso reversible y por tanto, N(A) = N(U) De las m ecuaciones del sistema Ax = 0 sólo r ≤ m de ellas serán indepen- dientes y se corresponderán con las r-filas no nulas de U . Dichas ecuaciones constituyen las ecuaciones impĺıcitas de N(A), por lo que dim N(A) = n− r. El sistema Ux = 0 equivalente a Ax = 0 tendrá n − r variables libres corres- pondientes a las n− r columnas de U sin pivotes. Dando alternativamente los valores 1 y 0 para cada una de las variables libres y resolviendo Ux = 0 para las restantes variables, mediante sustitución regresiva obtenemos los (n− r)-vectores que forman una base de N(A). Ejemplo 2.11 Para hallar una base del espacio nulo de la matriz del Ejem- 84 Sistemas de ecuaciones lineales. Espacios vectoriales. plo 2.9 hab́ıamos visto que U =  1 3 3 20 0 3 1 0 0 0 0  =⇒ Ux = 0 ⇐⇒  1 3 3 20 0 3 1 0 0 0 0   x1 x2 x3 x4  = 0 =⇒ Las ecuaciones impĺıcitas de N(A) son { x1 + 3x2 + 3x3 + 2x4 = 0 3x3 + x4 = 0 que, tomando a x2 y a x3 como variables libres, pueden ser escritas de la forma x4 = −3x3 x1 = −3x2 + 3x3 } =⇒ x2 = 1 x3 = 0 } =⇒ x1 = −3 x4 = 0 } =⇒ (−3, 1, 0, 0) x2 = 0 x3 = 1 } =⇒ x1 = 3 x4 = −3 } =⇒ (3, 0, 1,−3) por lo que una base del espacio nulo de A es BN(A) = {(−3, 1, 0, 0), (3, 0, 1,−3)}  2.8 Teorema de Rouche-Fröbenius Consideremos el sistema de ecuaciones lineales no homogéneo S ≡  a11x1 + · · ·+ a1nxn = b1 ... am1x1 + · · ·+ amnxn = bm =⇒ Ax = b donde A ∈ Rm×n, x ∈ Rn×1, b ∈ Rm×1. Se denomina matriz ampliada con los términos independientes y se denota por (A|b) a la matriz (A|b) =  a11 · · · a1n b1... . . . ... ... am1 · · · amn bm  Teorema de Rouche-Fröbenius 85 Teorema 2.19 [Teorema de Rouche-Fröbenius] a) El sistema Ax = b es compatible si, y sólo si, rg A = rg(A|b). a.1) Si b = 0 el conjunto de soluciones de Ax = 0 constituye un subes- pacio vectorial de Rn. El espacio nulo de A, N(A). a.2) Si b 6= 0 el conjunto de soluciones, en caso de existir, es de la forma x1 + N(A) donde x1 es una solución particular de Ax = b. b) Si rg A = r =⇒ dim N(A) = n− r. Demostración. a) Si Ax = b tiene solución, equivale a que b es una combinación lineal de las columnas de A, es decir, al añadir a la matriz A la columna b, no se altera su rango y por tanto rg A = rg(A|b). a.1) El espacio nulo ya henos visto que es una variedad lineal de Rn. a.2) Ax = b , Ax1 = b =⇒ A(x − x1) = Ax − Ax1 = b − b = 0 =⇒ x− x1 ∈ N(A) =⇒ x ∈ x1 + N(A). b) rg A = r equivale a decir que el sistema Ax = 0 posee n − r variables libres, es decir, que dim N(A) = n− r. Observaciones • De a) se deduce que Ax = b es incompatible si, y sólo si, rg A 6= rg(A|b) • De b) se deduce que – rg A = r = n =⇒ dim N(A) = 0 y por tanto el espacio nulo está formado sólo por la solución trivial. ? El sistema homogéneo Ax = 0 es incompatible. ? El sistema completo Ax = b es compatible determinado (admite solución única). – rg A = r < n =⇒ dim N(A) 6= 0 ? El sistema homogéneo Ax = 0 es compatible. ? El sistema completo Ax = b es compatible indeterminado (ad- mite infinitas soluciones). 88 Sistemas de ecuaciones lineales. Espacios vectoriales. Ejercicio 2.3 Sean u, v, y w tres vectores, linealmente independientes, de un espacio vectorial. Demostrar que los vectores u + v, u− v, y u− 2v + w, también son linealmente independientes. Solución: Para cualquier combinación lineal de ellos igualada a cero α(u + v) + β(u− v) + γ(u− 2v + w) = 0 obtenemos (α + β + γ)u + (α− β − 2γ)v + γw = 0 y por ser u, v y w linealmente independientes se tiene que α + β + γ = 0 α− β − 2γ = 0 γ = 0  =⇒ α = β = γ = 0 por lo que los vectores u + v, u − v y u − 2v + w también son linealmente independientes. Ejercicio 2.4 Sea V un espacio vectorial, L un subespacio de V y {u1, . . . , un} un sistema generador de L formado por vectores linealmente independien- tes. Demostrar que si x es un vector de V que no pertenece a L, entonces {u1, . . . , un, x} es un conjunto de vectores linealmente independientes. Sol : Consideremos una combinación lineal de ellos igualada a cero. λ1u1 + · · ·+ λnun + µx = 0 µ necesariamente es cero, ya que de lo contrario seŕıa x = −λ1 µ u1 − · · · − λn µ un ∈ L en contra de la hipótesis de que x 6∈ L. Al ser µ = 0 nos queda que λ1u1 + · · · + λnun = 0 y por ser {u1, . . . , un} linealmente independientes se deduce que λ1 = · · · = λn = 0 Es decir λ1u1 + · · ·+ λnun + µx = 0 =⇒ λ1 = · · · = λn = µ = 0 por lo que {u1, . . . , un, x} son linealmente independientes. Ejercicios resueltos 89 Ejercicio 2.5 Sea B = {u1, u2, u3, u4} una base del R-espacio vectorial V . Se consideran los conjuntos B′ = {v1, v2, v3, v4} y B′′ = {w1, w2, w3, w4}, donde: v1 = (0, 1, 0, 3), v2 = (−1, 1, 0, 0), v3 = (−2, 0,−1, 2), v4 = (−1,−1,−1, 1) w1 = (2,−2, 0, 1), w2 = (1, 1, 1, 0), w3 = (3, 0, 1,−1), w4 = (0,−2,−1, 1) respecto de la base B. Se pide: a) Probar que B y B′ son bases de V . b) Hallar la matriz del cambio de base de B′ a B′′. c) Determinar las coordenadas respecto de B′ del vector x cuyas coordena- das respecto de B′′ son (2, 1, 0,−1). Solución: Consideremos las matrices B1 y B2 que tienen, por columnas, los vectores {v1, v2, v3, v4} y {w1, w2, w3, w4} respectivamente B1 =  0 −1 −2 −1 1 1 0 −1 0 0 −1 −1 3 0 2 1  B2 =  2 1 3 0 −2 1 0 −2 0 1 1 −1 1 0 −1 1  a) Escalando la matriz B1 obtenemos: 0 −1 −2 −1 1 1 0 −1 0 0 −1 −1 3 0 2 1 →  1 1 0 −1 0 −1 −2 −1 0 0 −1 −1 3 0 2 1 →  1 1 0 −1 0 −1 −2 −1 0 0 −1 −1 0 −3 2 3 →  1 1 0 −1 0 −1 −2 −1 0 0 −1 −1 0 0 8 6 →  1 1 0 −1 0 −1 −2 −1 0 0 −1 −1 0 0 0 −2  =⇒ rg B2 = 4 por lo que los vectores {v1, v2, v3, v4} constituyen una base de V . 90 Sistemas de ecuaciones lineales. Espacios vectoriales. Análogamente, para B2 se tiene 2 1 3 0 −2 1 0 −2 0 1 1 −1 1 0 −1 1 →  1 0 −1 1 2 1 3 0 −2 1 0 −2 0 1 1 −1 →  1 0 −1 1 0 1 5 −2 0 1 −2 0 0 1 1 −1 →  1 0 −1 1 0 1 5 −2 0 0 −7 2 0 0 −4 1 →  1 0 −1 1 0 1 5 −2 0 0 1 0 0 0 −4 1 →  1 0 −1 1 0 1 5 −2 0 0 1 0 0 0 0 1  por lo que rg B2 = 4 y, por tanto, {w1, w2, w3, w4} constituyen otra base de V . b) Sea P B′B′′ la matriz del cambio de base de la base B′ a la B′′. B1xB′ = B2xB′′ =⇒ xB′′ = B −1 2 B1xB′ = PB′B′′xB′ =⇒ P B′B′′ = B−12 B1 =  −6 −1 −3 −1 9 1 4 1 1 0 0 0 10 1 5 2  c) Sea xB′ el vector referido a la base B ′ dado que P B′B′′ x B′ = x B′′ =  2 1 0 −1  =⇒ xB′ = P−1B′B′′  2 1 0 −1  =  0 −6 3 −5  Ejercicio 2.6 Sea B = {u, v, w} una base del espacio vectorial V . Sean u′ = 2u− v + w, v′ = u + w y w′ = 3u− v + 3w. a) Probar que B′ = {u′, v′, w′} es una base de V . b) Establecer las ecuaciones del cambio de base de B a B′. c) Hallar las coordenadas respecto de B del vector z = −2u′ + 3v′ + w′. Ejercicios resueltos 93 b) Al tratarse de una variedad de R4 con dos ecuaciones impĺıcitas, dim L = dimR4 − número de ecuacioes impĺıcitas = 4− 2 = 2 Una base de L puede ser, por ejemplo, BL = {u1, u2} que son linealmente independientes. c) Respecto de la base BL = {u1, u2} se tiene que u1 = (1, 0) u2 = (0, 1) u3 = u1 + u2 = (1, 1) u4 = −4u1 + 3u2 = (−4, 3) d) Teniendo en cuenta que∣∣∣∣∣∣∣∣∣ 1 0 0 0 0 1 1 1 1 −2 1 3 2 −4 0 2 ∣∣∣∣∣∣∣∣∣ = ∣∣∣∣∣ 1 30 2 ∣∣∣∣∣ = 2 6= 0 una base ampliada es B = {e1, e2, u1, u2}. Ejercicio 2.8 Construir en R5 , un subespacio suplementario del subespacio: L :  2x1 − x2 + x4 − x5 = 0 4x1 + 2x4 + x5 = 0 3x2 − x4 + 2x5 = 0 Solución: Busquemos, en primer lugar, las ecuaciones paramétricas de la variedad. Obsérvese que en las ecuaciones impĺıcitas no aparece la coordenada x3, por lo que x3 = µ. 2 −1 1 −1 4 0 2 1 0 3 −1 2 → 2 −1 1 −1 0 2 0 3 0 3 −1 2 → 2 −1 1 −1 0 2 0 3 0 0 −1 −5/2 de donde x5 = t x4 = − 5 2 t x2 = − 3 2 t x1 = t o bien, haciendo t = 2λ, las ecuaciones paramétricas de L son x1 = 2λ x2 = −3λ x3 = µ x4 = −5λ x5 = 2λ 94 Sistemas de ecuaciones lineales. Espacios vectoriales. λ = 0, µ = 1 =⇒ (0, 0, 1, 0, 0) λ = 1, µ = 0 =⇒ (2,−3, 0,−5, 2) Una base de L es, por tanto, BL = {(0, 0, 1, 0, 0), (2,−3, 0,−5, 2)}. Dado que ∣∣∣∣∣∣∣∣∣∣∣∣ 1 0 0 0 0 0 1 0 0 0 0 0 0 0 1 0 0 1 0 0 2 −3 0 −5 2 ∣∣∣∣∣∣∣∣∣∣∣∣ = ∣∣∣∣∣ 1 00 −5 ∣∣∣∣∣ = −5 6= 0 los vectores e1, e2 y e5 amplian la base BL a una de R5, por lo que la variedad L′ suplementaria de L es la variedad generada por ellos tres, L′ =< e1, e2, e5 > Ejercicio 2.9 Sea V un R-espacio vectorial de dimensión 5 y sea B una base de V B = {u1, u2, u3, u4, u5} Se consideran los subespacios: F : { x1 + x2 + x3 − x4 = 0 2x2 + x3 + 2x4 − x5 = 0 respecto de B, y G =< v1, v2, v3, v4 > donde los vectores v1, v2, v3 y v4 vienen dados por: v1 = (1, 0, 0,−1, 0)B v2 = (0,−1,−1, 4,−1)B v3 = (1, 1, 0,−4, 0)B v4 = (3,−2, 4,−1, 4)B Determinar la dimensión, una base, ecuaciones impĺıcitas y paramétricas de F , G, F ∩G y F + G, respecto de la base B. Ejercicios resueltos 95 Solución: a) F Al ser independientes sus ecuaciones impĺıcitas tenemos que dim F = dimR5 − número de ecuaciones impĺıcitas = 5− 2 = 3 Haciendo x3 = 2α, x4 = β y x5 = 2γ se tiene que x1 + x2 = −2α + β 2x2 = −2α− 2β + 2γ } =⇒ { x1 = −α + 2β − γ x2 = −α− β + γ por lo que las ecuaciones paramétricas de F son x1 = −α + 2β − γ x2 = −α− β + γ x3 = 2α x4 = β x5 = 2γ α = 1, β = 0, γ = 0 =⇒ (−1,−1, 2, 0, 0) α = 0, β = 1, γ = 0 =⇒ ( 2,−1, 0, 1, 0) α = 0, β = 0, γ = 1 =⇒ (−1, 1, 0, 0, 2) Una base de F viene dada por BF = {(−1,−1, 2, 0, 0), (2,−1, 0, 1, 0), (−1, 1, 0, 0, 2)} b) G Como nos dan un sistema generador de G vamos a ver qué vectores son linealmente independientes. 1 0 0 −1 0 0 −1 −1 4 −1 1 1 0 −4 0 3 −2 4 −1 4 → 1 0 0 −1 0 0 −1 −1 4 −1 0 1 0 −3 0 0 −2 4 2 4 → → 1 0 0 −1 0 0 −1 −1 4 −1 0 0 −1 1 −1 0 0 6 −6 6 → 1 0 0 −1 0 0 −1 −1 4 −1 0 0 −1 1 −1 0 0 0 0 0 =⇒ sólo los tres primeros vectores son linealmente independientes, por lo que una base de G es BG = {v1, v2, v3} y dim G = 3 98 Sistemas de ecuaciones lineales. Espacios vectoriales. → 1 0 0 −1 0 0 −1 −1 4 −1 0 0 6 −6 6 0 0 3 −5 1 0 0 1 −1 1 0 0 −1 3 1 → 1 0 0 −1 0 0 −1 −1 4 −1 0 0 1 −1 1 0 0 0 −2 −2 0 0 0 0 0 0 0 0 2 2 → → 1 0 0 −1 0 0 −1 −1 4 −1 0 0 1 −1 1 0 0 0 1 1 0 0 0 0 0 0 0 0 0 0 Es decir, una base de F + G es BF+G = {(1, 0, 0,−1, 0), (0,−1,−1, 4,−1), (0, 0, 1,−1, 0), (0, 0, 0, 1, 1)} y por tanto, dim(F + G) = 4 Teniendo en cuenta que cualquier vector de F +G es combinación lineal de los vectores de la base, se tiene que las ecuaciones paramétricas de F + G son x1 = α x2 = −β x3 = −β +γ x4 = −α+4β−γ +µ x5 = −β +µ Eliminando ahora los parámetros 1 0 0 0 x1 0 −1 0 0 x2 0 −1 1 0 x3 −1 4 −1 1 x4 0 −1 0 1 x5 → 1 0 0 0 x1 0 −1 0 0 x2 0 −1 1 0 x3 0 4 −1 1 x4 + x1 0 −1 0 1 x5 → → 1 0 0 0 x1 0 −1 0 0 x2 0 0 1 0 x3 − x2 0 0 −1 1 x4 + x1 + 4x2 0 0 0 1 x5 − x2 → Ejercicios propuestos 99 → 1 0 0 0 x1 0 −1 0 0 x2 0 0 1 0 x3 − x2 0 0 0 1 x4 + x1 + 4x2 + x3 − x2 0 0 0 1 x5 − x2 → → 1 0 0 0 x1 0 −1 0 0 x2 0 0 1 0 x3 − x2 0 0 0 1 x4 + x1 + 4x2 + x3 − x2 0 0 0 0 x5 − x2 − (x4 + x1 + 4x2 + x3 − x2) de donde x5 − x2 − (x4 + x1 + 4x2 + x3 − x2) = 0, es decir, la ecuación impĺıcita de F + G es x1 + 4x2 + x3 + x4 − x5 = 0 2.10 Ejercicios propuestos Ejercicio 2.10 Resolver, utilizando el método de reducción de Gauss, el si- guiente sistema: x + 2y + z + 2t + 4u = 4 −2x − 4y − z − 3t − 6u = −6 2x + 4y + t + 4u = 4 3x + 6y + z + 4t + 7u = 8 Sol : (x, y, z, t, u) = (2− 2λ, λ, 2, 0, 0). Ejercicio 2.11 Resolver, utilizando el método de reducción de Gauss, el si- guiente sistema homogéneo: 2x + y − z + t = 0 x + 2y + z − t = 0 3x − y − 2t = 0 Sol : (x, y, z, t) = λ(1,−1, 3, 2). 100 Sistemas de ecuaciones lineales. Espacios vectoriales. Ejercicio 2.12 Discutir, y resolver en su caso según los valores de a, los sistemas:  x − y = 2 3x + 2y = 4 4x + y = a  ax + ay + z = 1 x + ay + z = a x + y + az = a Sol : 1.- Compatible determinado si a = 6 con (x, y) = (8/5,−2/5) Incompatible si a 6= 6. 2.- Si a 6= 1 y a 6= −1 Compatible determinado (x, y, z) = (−1, 1, 1) Si a = −1 Compatible indeterminado x = −1, y = zλ. Si a = 1 Compatible indeterminado x = 1− λ− µ, y = λ, z = µ. Ejercicio 2.13 Discutir, y resolver en su caso, según los valores de a y c, el sistema:  x − y − z + at = c x + y + z + t = 0 x − y + z − t = 12 x + y − z + t = −8 Sol : Si a 6= −1 Comp. det. con (x, y, z, t) = (2, −6a− c− 2 1 + a , 4, c− 4 1 + a ). Si a = −1 y c 6= 4 Incompatible. Si a = −1 y c = 4 Comp. Indet. con (x, y, z, t) = (2,−6− λ, 4, λ). Ejercicio 2.14 Estudiar, según los valores de m, el siguiente sistema: 6x + 18y − 2mz = 0 7x − 2y − 4z = 0 4x + 10y − 6z = 0 Sol : Si m = 5 Comp. indet. con (x, y, z) = (2λ, λ, 3λ). Si m 6= 5 Incompatible.
Docsity logo



Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved