Docsity
Docsity

Prepara tus exámenes
Prepara tus exámenes

Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity


Consigue puntos base para descargar
Consigue puntos base para descargar

Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium


Orientación Universidad
Orientación Universidad

Apuntes Completos Álgebra Lineal 1º, Apuntes de Álgebra Lineal

Asignatura: Algebra Lineal, Profesor: Araceli Suarez Barrio, Carrera: Ingeniero Sistemas de Telecomunicación, Universidad: UVA

Tipo: Apuntes

2011/2012

Subido el 09/04/2012

qvarker
qvarker 🇪🇸

4.2

(83)

31 documentos

Vista previa parcial del texto

¡Descarga Apuntes Completos Álgebra Lineal 1º y más Apuntes en PDF de Álgebra Lineal solo en Docsity! Apuntes de la asignatura ALGEBRA LINEAL E.T.S.I.T. Departamento de Matemática Aplicada Universidad de Valladolid Contenidos 1. Preliminares 3 1.1. Números complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.2. Polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.3. Números combinatorios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2. Eliminación gaussiana. Matrices y determinantes 21 2.1. Ejemplo introductorio. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.2. Algebra de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 2.3. Resolución por eliminación gaussiana . . . . . . . . . . . . . . . . . . . . . . . . . . 25 2.4. Interpretación matricial de la eliminación gaussiana . . . . . . . . . . . . . . . . . . 28 2.4.1. Operaciones elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 2.4.2. Sistemas escalonados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 2.4.3. Sistema general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 2.5. Matriz inversa. Método de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . . 32 2.6. Resolución por determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 2.6.1. Desarrollo por los elementos de una ĺınea . . . . . . . . . . . . . . . . . . . 38 2.6.2. Matrices inversas y sistemas de Cramer . . . . . . . . . . . . . . . . . . . . 39 3. Espacios vectoriales y aplicaciones lineales 46 3.1. Ejemplo. Vectores en el plano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 3.2. Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 3.2.1. Combinaciones lineales. Subespacios vectoriales . . . . . . . . . . . . . . . . 48 3.2.2. Dependencia e independencia lineal. Bases y dimensión . . . . . . . . . . . 49 3.2.3. Coordenadas de un vector respecto a una base. Cambio de base . . . . . . . 52 3.3. Subespacios fundamentales de una matriz . . . . . . . . . . . . . . . . . . . . . . . 55 3.3.1. Definición y propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 3.4. Operaciones con subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 3.4.1. Intersección de subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 3.4.2. Suma de subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 3.5. Aplicaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 3.5.1. Definición y propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 3.5.2. Matriz de una aplicación lineal. Cambio de base . . . . . . . . . . . . . . . 64 4. Espacios eucĺıdeos 75 4.1. Ejemplo introductorio. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 4.2. Producto escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 1 ciones entre ellos. En C se puede definir la suma y el producto: z1 + z2 = (a1 + a2, b1 + b2) z1 × z2 = (a1a2 − b1b2, a1b2 + a2b1). La definición de estas operaciones no es arbitraria, pues éstas tienen que cumplir una serie de propiedades que dé a la nueva construcción coherencia con las operaciones entre los tipos de números anteriores. Aśı, se cumplen las propiedades (1) Para z1, z2 números complejos cualesquiera, z1 + z2 = z2 + z1, z1 × z2 = z2 × z1. (2) Para z1, z2, z3 números complejos cualesquiera, z1+(z2+z3) = (z1+z2)+z3, z1×(z2×z3) = (z1 × z2)× z3. (3) El elemento 0 = (0, 0) es neutro para la suma (z + 0 = z para cualquier complejo z) y el elemento 1 = (1, 0) es neutro para el producto (z × 1 = z para cualquier complejo z). (4) Para z1, z2, z3 números complejos cualesquiera, z1 × (z2 + z3) = z1 × z2 + z1 × z3. (5) Para z = (a, b) cualquier número complejo, el elemento −z = (−a,−b) es su opuesto (z + (−z) = (0, 0)) y si z = (a, b) ̸= (0, 0), el elemento z−1 = ( a a2 + b2 , −b a2 + b2 ) es su inverso (z × z−1 = (1, 0)). Los números complejos son una extensión de los reales. El número complejo de la forma (a, 0) se identifica con el número real a. De este modo, por ejemplo, (0, 0) = 0 y (1, 0) = 1. Esta identificación es compatible con las operaciones, de modo que las operaciones definidas anteriormente en C y restringida al conjunto de números con parte imaginaria nula coinciden con las operaciones usuales de suma y producto de números reales. De este modo, R se puede considerar como un subconjunto de C. Representación geométrica Los números complejos se representan geométricamente como puntos del plano o como vec- tores del plano con base en el origen. La parte real es la componente del vector en el eje horizontal y la parte imaginaria la componente del vector en el eje vertical.  z = (a, b) a b - 6 Se llama unidad imaginaria al número complejo (0, 1), que se denota por i. De este modo, i2 = −1, (−i)2 = −1, i3 = −i . . .. A veces se utiliza la letra j, sobre todo en el contexto de la teoŕıa de circuitos, donde la letra i se reserva para denotar la intensidad. 4 Forma binómica de un número complejo Dado (a, b) ∈ C podemos escribir: (a, b) = (a, 0) + (b, 0)× (0, 1) = a+ bi, según la identificación ya introducida. Esta suele ser la notación habitual y se denomina forma binomial o binómica del número complejo. Esta representación identifica con la misma claridad las partes real e imaginaria de un número complejo. Además, permite reconocer las operaciones: sumar dos complejos es sumar partes reales y sumar partes imaginarias. Multiplicar dos complejos se realiza como si fuesen reales, teniendo en cuenta que i2 = −1. A partir de ahora, entonces, denotaremos el producto z1 × z2 como z1z2. Los números complejos (0, b) = bi (b ∈ R) se denominan imaginarios puros. Conjugado de un complejo Dado un número complejo z = a+ bi, se llama conjugado de z al número complejo z̄ = a− bi. Geométricamente no es sino la reflexión de z respecto del eje real.  z = a+ bi @ @ @ @R z̄ = a− bi Algunas propiedades del conjugado son las siguientes: (1) z + z̄ = 2Re(z). (2) z − z̄ = 2iIm(z). (3) zz̄ = (Re(z))2 + (Im(z))2. (4) z ∈ R ⇔ z = z̄. (5) z1 + z2 = z1 + z2, z1z2 = z1 z2. (6) z = z. (7) (−z) = −z̄. (8) Si z ̸= 0, z−1 = (z̄)−1. 5 Ejemplos. Expresamos en forma binómica z = (2− i)(1 + 3i) 1 + i = 2 + 6i− i+ 3 1 + i = 5 + 5i 1 + i = 5 z = (5 + 2i) (1 + i) = (5 + 2i)(1− i) (1 + i)(1− i) = 5− 5i+ 2i+ 2 1 + 1 = 7 2 − 3 2 i. z = 1 + i3 (1− i)3 = 1− i (1− i)3 = 1 (1− i)2 = 1 −2i = 2i 4 = i 2 . Módulo de un número complejo Para cada número complejo z = a + bi se llama módulo de z al número real no negativo definido por |z| = √ zz̄ = √ (Re(z))2 + (Im(z))2 = √ a2 + b2. Por ejemplo, |2− 2i| = √ 8, |1 + 3i| = √ 10. Geométricamente, |z| representa la distancia entre el punto del plano z = (a, b) y el origen de coordenadas (0, 0), o sea, la longitud del vector del plano asociado a z.  |z| z = a+ bi Algunas propiedades del módulo son las siguientes: (1) zz̄ = |z|2. (2) |Re(z)| ≤ |z|, |Im(z)| ≤ |z|. (3) |z| ≥ 0 ∀z y |z| = 0 ⇔ z = 0. (4) |z̄| = |z|. (5) |z1z2| = |z1||z2|, |z1 + z2| ≤ |z1|+ |z2|. El módulo define una distancia entre números complejos. Si z1, z2 ∈ C, entonces |z1−z2| representa la distancia entre los dos números. 6 Dado z ̸= 0 de forma trigonométrica z = r(cos θ+ i sin θ), planteamos el problema de obtener todos los complejos w tales que wn = z. (Se dirá que w es una ráız n-ésima compleja de z). Si el w buscado tiene forma trigonométrica w = ρ(cosϕ + i sinϕ), del cálculo de potencia anterior tenemos que wn = ρn(cos(nϕ) + i sin(nϕ)). Como wn debe coincidir con z, cuya forma trigonométrica es z = r(cos θ+i sin θ), entonces ρn = r y nϕ = θ + 2πk, con k entero. De este modo, ρ está determinado como ρ = n √ r, mientras que para ϕ tenemos ϕk = θ n + k 2π n , con k entero. En principio, cualquier valor de k proporciona una ráız de z. Sin embargo para los valores k = 0, 1, ..., n− 1, los complejos correspondientes wk = ρϕk , 0 ≤ k ≤ n− 1, son las n ráıces distintas, pues al llegar a k = n caemos de nuevo en w0, con k = n + 1 en w1 etc ... (igualmente con los valores negativos de k). Por tanto, un número complejo no nulo tiene exactamente n ráıces n-ésimas diferentes, que son las ya descritas wk, 0 ≤ k ≤ n − 1. Hay que notar que los números reales no poseen esta propiedad. Ejemplo 1. Calculamos las ráıces cúbicas de z = i. En primer lugar hallamos el módulo de z y su argumento principal. Tenemos |z| = 1, Arg(z) = π/2. Entonces, si w = 3 √ z se tiene que w3 = z. De aqúı obtenemos que |w|3 = |z| = 1 y 3Arg(w) = Arg(z) + 2kπ con k entero. Las tres ráıces cúbicas de z quedan determinadas por |w| = 1, Arg(w) = π 2 + 2kπ 3 , k = 0, 1, 2. Es decir, k = 0, w0 = cos(π/6) + i sin(π/6) = ( √ 3 + i)/2 k = 1, w1 = cos(5π/6) + i sin(5π/6) = (− √ 3 + i)/2 k = 2, w2 = cos(3π/2) + i sin(3π/2) = −i. Ejemplo 2. Calculamos las ráıces sextas de z = −8. Primero hallamos el módulo de z y su argumento principal. Tenemos |z| = 8, Arg(z) = π. Entonces, si w = 6 √ z se tiene que w6 = z. De aqúı obtenemos que |w|6 = |z| = 8 y 6Arg(w) = Arg(z)+2kπ con k entero. Las seis ráıces sextas de z quedan determinadas por |w| = 6 √ 8 = √ 2, Arg(w) = π + 2kπ 6 , k = 0, 1, 2, 3, 4, 5. Es decir, k = 0, w0 = √ 2(cos(π/6) + i sin(π/6)) = √ 2( √ 3 + i)/2 k = 1, w1 = √ 2(cos(π/2) + i sin(π/2)) = √ 2i k = 2, w2 = √ 2(cos(5π/6) + i sin(5π/6)) = √ 2(− √ 3 + i)/2 k = 3, w3 = √ 2(cos(7π/6) + i sin(7π/6)) = − √ 2( √ 3 + i)/2 k = 4, w4 = √ 2(cos(3π/2) + i sin(3π/2)) = −i √ 2 k = 5, w5 = √ 2(cos(11π/6) + i sin(11π/6)) = − √ 2( √ 3− i)/2. 9 La última operación que vamos a definir es la exponencial compleja. Dado un número complejo z = a+ bi, con a, b reales, definiremos la exponencial ez como el número complejo ez = ea(cos b+ i sin b), esto es, |ez| = ea > 0, b argumento de (ez). Algunas propiedades de la exponencial compleja son las siguientes: (a) ez1+z2 = ez1 .ez2 (z1, z2 ∈ C), (b) (ez)−1 = e−z (z ∈ C). (c) eiθ = cos θ + i sin θ, θ ∈ R, es el complejo de módulo unidad y argumento θ. (d) Todo número complejo z ̸= 0 con r = |z|, θ = Arg(z) puede expresarse en la forma z = reiθ. La última propiedad proporciona una nueva representación de un número complejo, la forma exponencial. Procede de reescribir la forma trigonométrica utilizando la definición de exponencial compleja: z = r(cos θ + i sin θ) = reiθ. Ejemplos. z = 1 + i √ 3 2 = cos(π/3) + i sin(π/3) = e iπ 3 z = 2eiπ = 2(cos(π) + i sin(π)) = −2. Por su parte, la propiedad (c) da lugar a dos fórmulas muy útiles que es conveniente recordar. Si θ es un ángulo cualquiera, la definición de exponencial dice que eiθ = cos θ + i sin θ, e, igualmente e−iθ = cos (−θ) + i sin (−θ) = cos θ − i sin θ, es decir, que los dos complejos eiθ y e−iθ son conjugados. Si ahora sumamos ambas igualdades, tenemos eiθ + e−iθ = 2 cos θ ⇒ cos θ = e iθ + e−iθ 2 . (1.1) Si en lugar de sumar, restamos, tendremos eiθ − e−iθ = 2i sin θ ⇒ sin θ = e iθ − e−iθ 2i . (1.2) Las fórmulas (1.1) y (1.2) permiten reescribir, respectivamente, el coseno y el seno de un ángulo en términos de exponenciales complejas (véanse, por ejemplo, los ejercicios 10 y 11). 10 1.2. Polinomios Dados un número natural n y los n+1 números reales o complejos a0, a1, . . . , an, los llamados coeficientes, se define el polinomio p en la variable x como la función que hace corresponder al valor que tome x el valor p(x) = a0 + a1x+ a2x 2 + · · ·+ anxn. Se dice que el grado del polinomio p es n cuando an ̸= 0. Dos polinomios p(x) = a0 + a1x+ a2x 2 + · · ·+ anxn, q(x) = b0 + b1x+ b2x2 + · · ·+ bmxm son iguales p = q si tienen el mismo grado n = m y son idénticos los coeficientes de potencias iguales de la indeterminada: aj = bj , j = 0, . . . , n. Operaciones con polinomios Dados dos polinomios p(x) = a0 + a1x+ a2x 2 + · · ·+ anxn, q(x) = b0 + b1x+ b2x2 + · · ·+ bmxm, con n > m, se llama polinomio suma a p(x) + q(x) = c0 + c1x+ c2x 2 + · · ·+ cnxn, cuyos coeficientes se obtienen sumando los coeficientes respectivos de iguales potencias de la indeterminada en las expresiones de p y q, es decir ci = ai + bi, i = 0, 1, . . . , n, donde, para n > m se tiene que suponer que los coeficientes bm+1, . . . , bn son iguales a cero. (1 + 2x) + (3 + x+ x2 + x3) = 4 + 3x+ x2 + x3. El grado de la suma será igual a n si n > m. Para n = m, puede ocurrir que el grado de la suma sea menor que n, precisamente si bn = −an. Se llama producto de los polinomios p(x), q(x) al polinomio p(x)q(x) = d0 + d1x+ d2x 2 + · · ·+ dn+mxn+m, cuyos coeficientes se determinan por di = ∑ j+k=i ajbk, i = 0, 1, . . . , n+m, es decir, el coeficiente di es el resultado de sumar todos los productos de aquellos coeficientes de los polinomios p y q, la suma de cuyos ı́ndices es igual a i. (1 + 2x)(3 + x+ x2 + x3) =?. El grado del producto de dos polinomios es igual a la suma de sus grados. La suma verifica las propiedades conmutativa, asociativa, elemento neutro (0(x) = 0) y ele- mento opuesto. 11 Una de las ventajas del método de Horner es que tiene una estructura de algoritmo, de modo que uno puede automatizarlo. Vamos a describir el procedimiento general. Consideremos un polinomio cualquiera p(x) = a0 + a1x+ · · ·+ anxn, que deseamos evaluar en x = c. Escribimos p(c) = a0 + c(a1 + c(a2 + · · ·+ c(an−1 + can) · · ·)). Entonces, definimos bn = an y a continuación bn−1 = an−1 + cbn (primer paréntesis), bn−2 = an−2 + cbn−1 (segundo paréntesis), ... = ... bk = ak + cbk+1, (1.3) ... = ... b1 = a1 + cb2, b0 = a0 + cb1 = p(c). La fórmula (1.3) corresponde a un paso general del algoritmo: para calcular el siguiente valor bk (es decir el correpondiente paréntesis) se suma al coeficiente ak la constante c por el último valor de las b calculado, bk+1 (es decir, el último paréntesis calculado). Esto puede representarse en la siguiente tabla: an an−1 an−2 · · · ak · · · a1 a0 c cbn cbn−1 · · · cbk+1 · · · cb2 cb1 bn bn−1 bn−2 · · · bk · · · b1 b0 = p(c) o bien en el algoritmo que puede fácilmente representarse en el ordenador: b(n) = a(n) Para k = n− 1 : −1 : 0 b(k) = a(k) + c ∗ b(k + 1) La tabla anterior no sólo proporciona el valor del polinomio p(x) en x = c; con ella también se obtienen los coeficientes de la división de p(x) por x− c. Esto es aśı por la siguiente razón: si consideramos el polinomio q(x) = b1 + b2x+ · · ·+ bn−1xn−2 + bnxn−1, con los coeficientes obtenidos de la tabla, entonces (x− c)q(x) + b0 = bnxn + (bn−1 − cbn)xn−1 + · · ·+ (b2 − cb3)x2 + (b1 − cb2)x+ b0 − cb1 = anx n + an−1x n−1 + · · ·+ a2x2 + a1x+ a0 = p(x), 14 donde hemos utilizado la fórmula (1.3) en cada uno de los paréntesis. De esta manera, los números b1, . . . , bn son los coeficientes del polinomio cociente de p(x) entre x− c, con b0 = p(c) el resto de la división. Ejemplo. División de p(x) = 5x4 + 10x3 + x− 1 por x+ 2. Aqúı se tiene α = −2: 5 10 0 1 -1 -2 -10 0 0 -2 5 0 0 1 -3 El cociente de la división de p(x) por x+ 2 es 5x3 + 1 y el resto −3, precisamente el valor de p(−2). Se tiene p(x) = (5x3 + 1)(x+ 2)− 3. 1.3. Números combinatorios Finalmente, en algún momento necesitaremos mencionar algunas ideas de combinatoria. Recorde- mos primero que se define el factorial del número natural n como el producto de los números naturales de 1 hasta n: n! = 1 · 2 · 3 · · ·n. Por convenio 0! = 1. Hay que observar que el factorial de n es el número de ordenaciones posibles de n elementos. Permutaciones Se llaman permutaciones a las agrupaciones de un determinado número de elementos, orde- nados de tal forma que cada grupo se diferencia de los demás por el orden de colocación de dichos elementos. Una forma de representar las permutaciones es la siguiente: dados un número n ≥ 1 de elemen- tos, denotados por a1, . . . an, una permutación es una reordenación de los elementos aσ(1), aσ(2) , . . . , aσ(n), de manera que el primer elemento pasa a estar en la posición σ(1), el segundo en la posición σ(2), etc. Aśı, una permutación puede identificarse con una aplicación σ : {1, 2, . . . , n} → {1, 2, . . . , n}, j 7→ σ(j), que también se suele denotar por σ : ( 1 2 3 · · · n σ(1) σ(2) σ(3) · · · σ(n) ) . Por ejemplo, σ : ( 1 2 3 3 2 1 ) es una permutación de tres elementos. El número de permutaciones de orden n es n!. El conjunto de tales permutaciones se denota por Sn. 15 Sea σ ∈ Sn. Tomemos dos ı́ndices k y l con 1 ≤ k < l ≤ n. Se dirá que forman una inversión para σ si σ(k) > σ(l). Por ejemplo, en la permutación de orden tres anterior, 1 y 2 forman una inversión para σ, al igual que 1 y 3 ó 2 y 3. Sea inv(σ) el número total de inversiones de σ. La paridad de la permutación se define como π(σ) = (−1)inv(σ), que sólo puede tomar los valores 1 ó −1. En nuestro ejemplo anterior, π(σ) = −1. Números combinatorios Sean n, k ≥ 0 enteros con n ≥ k. Se llaman combinaciones de n elementos tomados de k en k a las agrupaciones que pueden formarse con n elementos tomados de k en k, de manera que cada grupo se distingue de los demás por lo menos en uno de los elementos que lo forman, independientemente del orden de su colocación. Por ejemplo, con n = 4 elementos, podemos formar las combinaciones k = 1 a, b, c, d → 4 k = 2 ab, ac, ad → 6 bc, bd cd k = 3 abc, abd, acd → 4 bcd k = 4 abcd → 1 El número de combinaciones distintas de n elementos tomados de k en k se llama número com- binatorio n sobre k y se define como( n k ) = n! k!(n− k)! , donde si k = 0 recordemos que ( n 0 ) = 1. Aśı, del ejemplo anterior ( 4 0 ) = 1, ( 4 1 ) = 4, ( 4 2 ) = 6, ( 4 3 ) = 4, ( 4 4 ) = 1. Algunas propiedades de los números combinatorios son( n 0 ) = 1, ( n n ) = 1. ( n 1 ) = n. ( n n− k ) = ( n k ) . ( n+ 1 k ) = ( n k ) + ( n k − 1 ) . 16 Ejercicio 8. Calcula todos los valores de las siguientes ráıces de números complejos: a) 8 √ 1, b) 3 √ −2 + 2i, c) 5 √ −4 + 3i, d) 3 √ i, e) √ 1− i. Ejercicio 9. Si α y β son dos ángulos cualesquiera, comprueba las fórmulas trigonométricas cos(α+ β) = cos(α) cos(β)− sin(α) sin(β). cos(α− β) = cos(α) cos(β) + sin(α) sin(β). sin(α+ β) = sin(α) cos(β) + sin(β) cos(α). sin(α− β) = sin(α) cos(β)− sin(β) cos(α). Ejercicio 10. Expresa en función de cos(θ) y sin(θ): a) cos(5θ), b) cos(8θ), c) cos(6θ), d) sin(7θ). Ejercicio 11. Representa en forma de polinomio de primer grado en las funciones trigonométricas de los ángulos múltiplos de θ: a) sin3 θ, b) cos5 θ, c) sin2 θ, d) cos2 θ. Ejercicio 12. (Obtenido del libro: Curso práctico de Algebra, de J. Gardo y A. Miquel, inten- dentes mercantiles y censores jurados de cuentas, ed. Cultura, Barcelona, 1950). 10 estudiantes propusieron a su patrona gratificarla espléndidamente el d́ıa en que les viera sentados a la mesa en el mismo orden. Haciendo tres comidas diarias, ¿cuántos d́ıas teńıan que transcurrir antes de verse obligados a repetir una de las colocaciones precedentes? Ejercicio 13. (Del mismo libro que el ejercicio anterior). En un cuartel hay 20 guardias los cuales tienen un servicio por parejas, variando la composición de las parejas diariamente. Empezaron el servicio en determinada fecha y los relevaron cuando se véıan obligados a repetir las parejas. ?Cuántos d́ıas duró dicho servicio extraordinario? Ejercicio 14. Utilizando el binomio de Newton, desarrolla en potencias de x los polinomios: (a) (x− 1)3. (b) (x+ 2)4. (c) (x+ 1)5. ALGUNOS EJERCICIOS RESUELTOS DEL TEMA 1 Ejercicio 3. (a) x ≥ 0, y = 0. (b) x = y = 0 o bien x = 1, y = 0. Ejercicio 4. (a) Circunferencia centrada en el origen de radio uno. (b) Ćırculo centrado en el origen de radio uno incluyendo la circunferencia. Ejercicio 5. (a) Circunferencia centrada en (1, 0) de radio uno. (b) Hipérbola y2 − x2 = 1. (c) Cuadrante inferior derecho del plano. 19 Ejercicio 7. a) cos θ + sin θ = eiθ + e−iθ 2 + eiθ − e−iθ 2i = (1− i)eiθ + (1 + i)e−iθ 2 . 1 2 cos 2θ − 3 5 sin 2θ = ( 5 + 6i 20 )e2iθ + ( 5− 6i 20 )e−2iθ. 1 3 cos θ − 1 4 sin 3θ = 1 6 (eiθ + e−iθ)− 1 8i (e3θ − e−3θ). b) 4 + 3 2 eiθ − 1 4 e2iθ = 4 + 3 2 (cos θ + i sin θ)− 1 4 (cos 2θ + i sin 2θ), e−iθ + e3+iθ + 2e2iθ = cos θ − i sin θ + e3(cos θ + i sin θ) + 2(cos 2θ + i sin 2θ), e3iθ + e−3iθ = 2 cos 3θ, e3iθ − e−3iθ = 2i sin 3θ. Ejercicio 8. a) Las ráıces son zk = e kπi 4 , k = 0, 1, 2, 3, 4, 5, 6, 7. b) Las ráıces son z0 = 6 √ 8(cos(π/4) + i sin(π/4)), z1 = 6 √ 8(cos(11π/12) + i sin(11π/12)), z2 = 6 √ 8(cos(19π/12) + i sin(19π/12)). c) Las ráıces son zk = 5 √ 5ei arctg(−3/4)+2kπ 5 , k = 0, 1, 2, 3, 4. Ejercicio 10. a) cos(5θ) = cos5(θ)− 10 cos3(θ) sin2(θ) + 5 cos(θ) sin4(θ). d) sin(7θ) = 7 cos6 θ sin θ − 35 cos4 θ sin3 θ + 21 cos2 θ sin5 θ − sin7 θ. Ejercicio 11. a) sin3 θ = −(1/4) sin(3θ) + (3/4) sin θ. b) cos5 θ = (1/16) cos(5θ) + (5/16) cos(3θ) + (5/8) cos θ. 20 Tema 2 Eliminación gaussiana. Matrices y determinantes 2.1. Ejemplo introductorio. Hay varios tipos de problemas que se basan en una red de conductores por la que fluye alguna clase de fluido, como redes de riego, de calles o de tráfico. A menudo hay puntos en el sistema por los que el fluido entra en la red o sale de ella. El principio básico de tales sistemas es que el fluido que entra a cada nudo del sistema debe ser igual al que sale. Supongamos que en el diagrama que aqúı aparece se describe una red de canales de riego. Cuando la demanda es máxima, los flujos en las intersecciones A,B,C,D aparecen indicados en la figura. Buscamos resolver los dos problemas siguientes: (a) Determinar los posibles flujos en cada canal de la red. (b) Si se cierra el canal BC, ¿qué cantidad de flujo debe mantenerse para que ningún canal lleve un flujo superior a 30 litros?              / x2 x5 55 x1 20 D C A B 20 x4 15 x3 - - - - ? ? ? ? Partiendo entonces del principio de que en cada nudo de la red la cantidad de ĺıquido que 21 (a) Distributiva: (λ+ α)A = λA+ αA, ∀λ, α ∈ K, A ∈ Mm,n(K). (b) Distributiva: λ(A+B) = λA+ λB (c) Asociativa: (λα)A = λ(αA). (d) Si λA es la matriz nula, entonces o bien λ = 0 o bien A es la matriz nula. Finalmente hay otras dos operaciones sobre matrices que utilizaremos a lo largo del curso. En primer lugar, está la trasposición de matrices. La matriz traspuesta de una dada A = (aij) ∈ Mm,n(K) es la matriz que se obtiene intercambiando filas por columnas. Se denota por AT ∈ Mn,m(K) y su elemento (i, j) es aji. Por ejemplo: A =  1 23 4 5 6 ⇒ AT = ( 1 3 5 2 4 6 ) . Naturalmente, se tiene que (AT )T = A y (A+B)T = AT +BT . La otra operación es la multiplicación de matrices. Entendamos primero cómo se emparejan una matriz fila X = (x1, x2, . . . , xn) con una matriz columna Y = (y1, y2, . . . , yn) T , ambas con el mismo número de elementos. El producto es un número, dado por XY = x1y1 + x2y2 + · · ·+ xnyn. Desde este punto de vista, no pueden multiplicarse matrices de cualquier tamaño. Para que un producto AB tenga sentido, el número de columnas de A ha de ser igual al número de filas de B. En ese caso, la matriz producto C = AB tiene tantas filas como A y tantas columnas como B. La expresión genérica de la matriz producto es la siguiente: si A = (aij) ∈ Mm,n(K) y B = (bjk) ∈ Mn,p(K) entonces C = AB = (cik) ∈ Mm,p(K) donde cik = ai1b1k + ai2b2k + · · ·+ ainbnk = n∑ j=1 aijbjk. Es decir, cik es el producto de la fila i−ésima de A por la columna k−ésima de B. Algunos ejemplos pueden aclarar esta idea: Ejemplos. ( 1 4 0 2 )  1 −1 2 3  = 3  3 2 2 11 −1 0 2 2 0 −3 4   4 −1 1 2 4 0 −1 1 0 2 −2 1  =  16 5 46 −9 3 19 −13 6  . Propiedades destacables del producto son las siguientes: (a) Asociativa: A(BC) = (AB)C. (b) Distributiva respecto de la suma: A(B + C) = AB +AC. (c) Matrices cuadradas y elemento unidad; inversas: las matrices cuadradas (n = m) de un orden determinado tienen un elemento unidad para el producto, que es la matriz identidad de tal orden. 24 Sin embargo, hay matrices cuadradas que son diferentes de la matriz no nula y carecen de inversa para el producto. La noción de matriz inversa será tratada más adelante. (d) El producto de matrices no es conmutativo: en general AB ̸= BA. (e) Trasposición y producto: (AB)T = BTAT . Finalmente, notemos que el sistema (2.1) puede escribirse en formulación matricial como Ax⃗ = b⃗, (2.3) donde x⃗ = (x1, x2, . . . , xn) T y b⃗ = (b1, b2, . . . , bn) T . 2.3. Resolución por eliminación gaussiana Vamos a presentar el método de eliminación gaussiana a través de varios ejemplos y después justificaremos los pasos más formalmente. Ejemplo 1. Discute y en su caso resuelve el sistema x+ 2y + z = 1 2x+ y + 3z = 0 (2.4) 4x− y − 3z = 3 El método consiste en pasar de este sistema a otro equivalente más sencillo a través de un proceso de eliminación de incógnitas. Buscamos primero eliminar la incógnita x de las ecuaciones segunda y tercera. Para ello, restamos a la segunda ecuación dos veces la primera y a la tercera cuatro veces la primera. Obtenemos x+ 2y + z = 1 −3y + z = −2 −9y − 7z = −1. Ahora, eliminamos la incógnita y de la tercera ecuación, restando a ésta tres veces la segunda. El resultado es x+ 2y + z = 1 −3y + z = −2 (2.5) −10z = 5. Hemos llegado a un sistema llamado de tipo triangular superior. Esto significa que la primera variable (x) sólo aparece en la primera ecuación, la segunda (y) sólo en las dos primeras ecuaciones y la última variable (z) en todas las ecuaciones. Parece claro que los sistemas (2.4) y (2.5) son equivalentes, en el sentido de que, o bien son ambos incompatibles o si tienen soluciones, son las mismas. Esto se debe a que el sistema (2.5) se obtiene de (2.4) simplemente operando con sus ecuaciones. Ahora bien, el sistema (2.5) puede discutirse sin aparente problema, y resolverse despejando las incógnitas desde la última ecuación hasta la primera. Este proceso se llama sustitución regresiva. Aśı, la última ecuación dice que z = −5/10 = −1/2. 25 Llevando este valor a la segunda ecuación, obtenemos y = −2− z −3 = 1/2, y sustituyendo en la primera ecuación, se tiene x = 1− 2y − z = 1/2. Esto significa que el sistema (2.4) es compatible (tiene solución) y determinado (la solución es única). La solución es x = 1/2, y = 1/2, z = −1/2. Notas (1) Es importante indicar que cuando se elimina una variable, se comparan las ecuaciones con una que queda fija mientras se esté eliminando esa variable. Cuando se cambia de incógnita a eliminar, también cambiamos de ecuación con la que comparar. Aśı, en el ejemplo anterior, eliminar x implica cambiar las ecuaciones segunda y tercera comparándolas con la primera, que queda fija. Una vez eliminada x, nos olvidamos de la primera ecuación; para eliminar y cambiamos la tercera ecuación comparándola con la segunda, que es ahora la que queda fija. Este proceso es general: siempre se hace lo mismo independientemente del número de ecuaciones y de incógnitas que tengamos: 1. Eliminar la primera incógnita de todas las ecuaciones salvo la primera, comparando aquéllas con ésta, que queda fija. 2. Eliminar la segunda incógnita de todas las ecuaciones salvo las dos primeras, comparando todas las ecuaciones desde la tercera con la segunda, que queda fija. 3. Repetir el proceso hasta la penúltima incógnita, que se elimina de la última ecuación, comparando ésta con la penúltima, que queda fija. (2) El número por el que hay que multiplicar a la ecuación fijada para eliminar la incógnita depende de los coeficientes que tenga ésta en las ecuaciones. Por ejemplo, para eliminar y en la tercera ecuación, hemos restado a ésta (−9)/(−3) veces la segunda ecuación, que es lo necesario para hacer cero la posición de −9y: −9y − (−9/− 3)(−3y) = 0. (3) Este algoritmo puede utilizarse para discutir y en su caso resolver cualquier sistema de ecua- ciones (véase la hoja de ejercicios). (4) El sistema final del proceso siempre ha de quedar de tipo escalonado, en el sentido de que si hay solución, se puedan ir despejando los valores de las incógnitas ‘desde abajo hacia arriba ’, en el proceso que hemos llamado sustitución regresiva. Ejemplo 2. Discute y en su caso resuelve el sistema x− y + 2z = 1 2x+ y = 3 x+ 2y − 2z = 0 Repetimos el proceso del ejemplo 1. La eliminación de la incógnita x lleva al sistema x− y + 2z = 1 3y − 4z = 1 3y − 4z = −1, 26 (2) Si la operación consiste en multiplicar la fila r por un número λ ̸= 0, entonces E se obtiene de la identidad Im sustituyendo el 1 de la posición (r, r) por λ. Aśı, EA es una matriz que se obtiene de A multiplicando por λ su fila r. Por ejemplo A = ( 2 5 8 −1 0 −1 ) , E = ( 1 0 0 4 ) ⇒ EA = ( 2 5 8 −4 0 −4 ) . (3) Si la operación consiste en sumar a la fila r la fila s (r ̸= s) entonces E se obtiene de Im incorporando a ésta un 1 en la posición (r, s). Aśı, EA es una matriz que se obtiene de A sumando a su fila r la fila s. Por ejemplo A =  2 1 14 5 0 −2 −1 −1  , E =  1 0 00 1 0 1 0 1 ⇒ EA =  2 1 14 5 0 0 0 0  . Por su interés para la eliminación gaussiana, destacamos la matriz asociada a la combinación de operaciones elementales que consiste en sumar a la fila r la fila s (r ̸= s) multiplicada por un número λ ̸= 0. La matriz E se obtiene de la identidad Im incorporando a ésta el valor λ en la posición (r, s). Por ejemplo, A =  2 1 14 5 0 2 1 1  , E =  1 0 −10 1 0 0 0 1 ⇒ EA =  0 0 04 5 0 2 1 1  . 2.4.2. Sistemas escalonados Pasamos ahora a una explicación más rigurosa del método de eliminación gaussiana, utilizando una interpretación matricial. Ya hemos visto que el sistema (2.1) puede escribirse en la forma matricial (2.3) Ax⃗ = b⃗, donde la matriz m× n A =  a11 a12 · · · · · · a1n a21 a22 · · · · · · a2n · · · · · · · · · · · · · · · am1 am2 · · · · · · amn  se llama matriz de coeficientes de (2.1). El vector columna b⃗ = (b1, b2, . . . , bm) T es la matriz de los términos independientes de (2.1). Las incógnitas están dispuestas en un vector columna x⃗ = (x1, x2, . . . , xn) T . La discusión y posible resolución del sistema (2.1) parte justamente del final del proceso, es decir, de la discusión de los sistemas finales como los que hemos obtenido en los ejemplos, llamados sistemas con forma escalonada superior. Estos sistemas Ux⃗ = c⃗ tienen una matriz de coeficientes U llamada matriz con forma escalonada superior, que se caracteriza por las siguientes propiedades: (a) Las primeras filas de U corresponden a filas no idénticamente nulas. El primer elemento no nulo de cada una de estas filas se llama pivote. (b) Debajo de cada pivote hay una columna de ceros. 29 (c) Cada pivote está a la derecha del pivote de la fila anterior. Para sistemas lineales Ux⃗ = c⃗ con matriz de coeficientes U en forma escalonada superior se verifica: (1) El sistema es compatible si y sólo si filas nulas de U corresponden a componentes nulas del término independiente c (recuérdense los ejemplos 2 y 4). (2) El sistema es determinado si hay tantos pivotes como incógnitas, en cuyo caso se resuelve por sustitución regresiva. (3) El sistema es indeterminado si hay menos pivotes que incógnitas (ejemplo 4). En ese caso, la solución general se obtiene por ejemplo identificando las incógnitas no asociadas a ningún pivote (variables libres) aśı como cada una de las incógnitas asociadas a los pivotes (variables básicas) resolviendo por sustitución regresiva el sistema triangular superior que se obtiene al pasar al término independiente la contribución de las variables libres (recuérdese el ejemplo 4). 2.4.3. Sistema general Consideremos ahora el sistema lineal (2.1) general y definamos su matriz ampliada, incorpo- rando a la matriz A del sistema el término independiente b⃗ como última columna, A′ = [A|⃗b] ∈ Mm,n+1(K) Se dice que dos sistemas lineales con el mismo número de incógnitas son equivalentes si, o bien son ambos incompatibles o bien son ambos compatibles y comparten las mismas soluciones. Hemos visto que un paso t́ıpico del método de eliminación gaussiana consiste en llevar un sistema lineal a otro mediante operaciones elementales sobre las ecuaciones del sistema. Esta manera de obtener las ecuaciones del sistema resultante a partir de las del sistema original hace que los dos sistemas sean equivalentes. Pero, en términos matriciales, una operación elemental entre ecuaciones del sistema es en realidad una operación elemental entre las filas de la matriz ampliada (las filas de la matriz de coeficientes más las correspondientes componentes del término independiente). De nuevo, como ocurŕıa con el método de Horner para evaluar un polinomio, una de las ven- tajas del método de eliminación gaussiana es su carácter algoŕıtmico, que facilita su aprendizaje. Además, nada impide que pueda aplicarse a cualquier sistema La equivalencia entre los sistemas permite afirmar entonces que discutir y en su caso resolver el sistema (2.1) sea equivalente a discutir y en su caso resolver el sistema escalonado obtenido. Por otra parte, las operaciones elementales involucradas son del tipo: sumar a una fila (ecuación) otra multiplicada por un número y probablemente intercambiar la posición de dos filas (ecuaciones). Aśı pues, los pasos para discutir y resolver un sistema por eliminación gaussiana son los siguientes: 1. Utilizar las operaciones elementales indicadas sobre la matriz ampliada del sistema para llevar éste a uno equivalente con forma escalonada superior, haciendo ceros por debajo de los pivotes de cada fila. 30 2. Discutir el sistema escalonado resultante, según lo indicado en el apartado anterior. En caso de que el sistema sea compatible determinado, resolver por sustitución regresiva. Si el sistema es indeterminado, trasladar la contribución de las variables libres al segundo miembro y resolver en las variables básicas por sustitución regresiva. Ejemplo. Discute y resuelve en su caso el sistema x1 + 2x2 − x3 + x4 − 2x5 = 1 2x1 − 2x2 + x3 − x4 + x5 = 1 4x1 − 10x2 + 5x3 − 5x4 + 7x5 = 1 2x1 − 14x2 + 7x3 − 7x4 + 11x5 = −1 La matriz ampliada es A′ =  1 2 −1 1 −2 | 1 2 −2 1 −1 1 | 1 4 −10 5 −5 7 | 1 2 −14 7 −7 11 | −1  . Buscamos primero la forma escalonada superior equivalente. El pivote de la primera fila es el 1 de la posición (1, 1). Para conseguir la forma escalonada superior, tenemos que hacer ceros en todos los elementos de la primera columna por debajo del pivote. Para ello, restamos a la fila segunda la primera multiplicada por dos (ésta es una combinación de operaciones elementales) a la fila tercera la primera multiplicada por cuatro y a la fila cuarta la primera multiplicada por dos. Observemos que en este primer paso la fila del pivote, la primera, queda fija. El hecho de que la fila pivotal quede fija se repite en todo el proceso. Nos queda un sistema equivalente con matriz ampliada  1 2 −1 1 −2 | 1 0 −6 3 −3 5 | −1 0 −18 9 −9 15 | −3 0 −18 9 −9 15 | −3  . Cambiamos ahora de fila pivotal. El pivote de la segunda fila es el −6 de la posición (2, 2). Para llegar a la forma escalonada superior, hay que hacer ceros en la columna del pivote por debajo de él, es decir, en las posiciones (3, 2) y (4, 2), comparando las filas tercera y cuarta con la del pivote, es decir, la segunda. Se necesita entonces restar a la fila tercera la segunda multiplicada por tres y a la cuarta la segunda multiplicada por tres. El resultado es un sistema equivalente con matriz ampliada [U |⃗c] =  1 2 −1 1 −2 | 1 0 −6 3 −3 5 | −1 0 0 0 0 0 | 0 0 0 0 0 0 | 0  . Las siguientes filas son idénticamente nulas, ya no tenemos pivotes. Hemos alcanzado la forma escalonada superior equivalente, que corresponde al sistema x1 + 2x2 − x3 + x4 − 2x5 = 1 −6x2 + 3x3 − 3x4 + 5x5 = −1 31 restando a la fila segunda la tercera multiplicada por −2 y a la fila primera la tercera multiplicada por −2. Aśı,  1 3 0 1/3 4/3 −2/30 1 0 1/3 5/6 −2/3 0 0 1 −1/3 2/3 −1/3  Finalmente, pasando al segundo pivote, hacemos ceros por encima de él, restando a la fila primera la segunda multiplicada por tres, 1 0 0 −2/3 −7/6 4/30 1 0 1/3 5/6 −2/3 0 0 1 −1/3 2/3 −1/3  entonces B = −2/3 −7/6 4/31/3 5/6 −2/3 −1/3 2/3 −1/3  , es la inversa de A, pues es un ejercicio comprobar que AB = BA = I3. Para justificar el procedimiento, necesitamos volver a mencionar la interpretación matricial de las operaciones elementales, de la que ya hablamos en apartados anteriores. Vimos que la acción de una operación elemental sobre las filas de una matriz A equivale a multiplicar la matriz E asociada a la operación por la matriz A. Recordemos que la matriz E tiene una forma distinta según sea la operación elemental a realizar. Teniendo esto presente, fijémonos en que si podemos realizar operaciones elementales sobre las filas de una matriz A ∈ Mn,n(K) que consiguen transformar ésta en la identidad, entonces matricialmente esto significa que podemos encontrar matrices elementales E1, . . . , Ep de modo que EpEp−1 · · ·E1A = In. Si llamamos B a la matriz producto B = EpEp−1 · · ·E1, la igualdad anterior significa queBA = In y que AB = In, es decir, que B es la inversa de A. Queda sólo justificar la manera de construir la inversa que hemos visto en el ejemplo. Si consideramos la matriz ampliada [A | In ] , tal y como hemos hecho en el ejemplo, y realizamos la primera operación elemental tanto en A como en la identidad In, nos queda [E1A | E1In ] = [E1A | E1 ] . Tras la segunda operación elemental, se tiene [E2E1A | E2E1 ] . Aśı hasta completar todas las operaciones elementales; el resultado final es [EpEp−1 · · ·E2E1A | EpEp−1 · · ·E2E1 ] , 34 es decir [ In | B ] . Esto justifica la aparición de la inversa de A a la derecha, donde inicialmente estaba la matriz identidad. Hay algunos detalles a tener en cuenta en este método. El método sirve también para identificar si la matriz en cuestión admite inversa. Es el mismo procedimiento el que nos advierte; si hay un momento en el que no podemos continuar al pretender transformar la matriz A en la identidad, entonces la matriz no será invertible. Esto se da cuando: (i) La primera columna de A es nula; pues entonces no podremos colocar un 1 en el elemento (1, 1) por muchas operaciones por filas que realicemos. (ii) La columna por debajo del elemento de la derecha de un pivote es nula; pues entonces nunca podremos colocar un 1 en la siguiente posición de la diagonal principal de la matriz, por muchas operaciones elementales que hagamos. Por ejemplo, 4 2 6 1 0 03 0 7 0 1 0 −2 −1 −3 0 0 1 →  1 1/2 3/2 1/4 0 00 −3/2 5/2 −3/4 1 0 0 0 0 1/2 0 1  , y la matriz A =  4 2 63 0 7 −2 −1 −3  no tiene inversa. De nuevo, al igual que ocurŕıa con la eliminación gaussiana, hay que destacar la estructura algoŕıtmica del método, lo que facilita su aprendizaje. Hay que observar también que, al calcular la inversa de una matriz, en ningún momento se obtienen expĺıcitamente las matrices elementales E1, . . . , Ep. Lo que importa es el producto final Ep · · ·E1, es decir, la matriz inversa. 2.6. Resolución por determinantes En el caso de sistemas lineales con el mismo número de ecuaciones que de incógnitas y con solución única, hay que mencionar una alternativa para construir tal solución, que viene dada por el concepto de determinante de una matriz. Desde un punto de vista geométrico y en dimensiones dos y tres, podŕıa definirse el determi- nante de una matriz en términos de áreas y volúmenes. Por ejemplo, dada una matriz 2× 2, A = ( a11 a12 a21 a22 ) , podŕıa definirse el determinante de A, denotado por det(A), como el área encerrada por el par- alelogramo de aristas determinadas por las columnas de A, entendidas como vectores en el plano, de modo que det ( a11 a12 a21 a22 ) = a11a22 − a21a12. 35 En el caso de una matriz 3× 3, A =  a11 a12 a13a21 a22 a23 a31 a32 a33  , el determinante de A podŕıa definirse igualmente como el volumen del paraleleṕıpedo cuyas aristas están generadas por las columnas de A, entendidas como vectores en el espacio. En este caso, la fórmula es un poco más complicada de obtener y se llama regla de Sarrus, det  a11 a12 a13a21 a22 a23 a31 a32 a33  = a11a22a33 + a31a12a23 + a21a32a13 = −a12a21a33 − a11a32a23 − a31a22a13. Para matrices de mayor tamaño no podemos dar una referencia geométrica realista, de manera que la definición sigue otro enfoque. Sea A = (aij) ∈ Mn,n(K). Se define el determinante de A como el número det(A) = ∑ σ∈Sn π(σ)a1σ(1)a2σ(2) · · · anσ(n) = ∣∣∣∣∣∣∣∣ a11 a12 · · · · · · a1n a21 a22 · · · · · · a2n · · · · · · · · · · · · · · · an1 an2 · · · · · · ann ∣∣∣∣∣∣∣∣ , donde Sn es el conjunto de permutaciones de orden n y π(σ) la paridad de la permutación σ (véase el tema preliminar). Cuando σ recorre Sn, los términos a1σ(1)a2σ(2), . . . , anσ(n) describen todos los posibles productos de n factores extráıdos de los elementos de A con la propiedad de que en dichos productos siempre figura un elemento de cada fila y de cada columna de A. En el cálculo efectivo de un determinante no suele usarse la definición salvo en los ejemplos clásicos con n = 2 y n = 3, que hemos mencionado previamente. El cálculo de un determinante puede hacerse de varias formas, y aqúı mencionaremos algunas. La primera está basada en propiedades fundamentales del determinante, que pasamos a describir. Dada A = (aij) ∈ Mn,n(K), denotamos sus filas por F1, . . . , Fn, es decir, A =  F1 F2 ... ... Fn  . Las propiedades son las siguientes: 1. det(A) es lineal en cada fila, es decir, si 1 ≤ k ≤ n, (a) Para λ ∈ K, ∣∣∣∣∣∣∣∣∣∣∣∣∣∣ F1 F2 ... λFk ... Fn ∣∣∣∣∣∣∣∣∣∣∣∣∣∣ = λ ∣∣∣∣∣∣∣∣∣∣∣∣∣∣ F1 F2 ... Fk ... Fn ∣∣∣∣∣∣∣∣∣∣∣∣∣∣ . 36 Entonces, para cualquier fila k se satisface la fórmula det(A) = ak1Ak1 + ak2Ak2 + · · ·+ aknAkn, llamada desarrollo del determinante por los elementos de la fila k. Hay una fórmula análoga para el desarrollo del determinante por una columna cualquiera l: det(A) = a1lA1l + a2lA2l + · · ·+ anlAnl. Por ejemplo ∣∣∣∣∣∣ 2 4 6 0 1 −2 1 4 1 ∣∣∣∣∣∣ = 2 ∣∣∣∣ 1 −24 1 ∣∣∣∣− 4 ∣∣∣∣ 0 −21 1 ∣∣∣∣+ 6 ∣∣∣∣ 0 11 4 ∣∣∣∣ = 4.∣∣∣∣∣∣ 2 4 6 0 1 −2 1 4 1 ∣∣∣∣∣∣ = −4 ∣∣∣∣ 0 −21 1 ∣∣∣∣+ ∣∣∣∣ 2 61 1 ∣∣∣∣− 4 ∣∣∣∣ 2 60 −2 ∣∣∣∣ = 4. Como se ve, el método reduce el cálculo de un determinante de una matriz al de determinantes de matrices de un orden menos. 2.6.2. Matrices inversas y sistemas de Cramer Dos son las utilidades que tienen los determinantes en relación con los sistemas lineales: el cálculo de la inversa de una matriz invertible y las llamadas fórmulas de Cramer. Ambas son de uso limitado, precisamente por lo tedioso del cálculo de los determinantes. Respecto a la primera aplicación, dada una matriz A = (aij) ∈ Mn,n(K) se llama matriz de adjuntos o de cofactores de A a la matriz obtenida a partir de los cofactores de A que hemos definido anteriormente, es decir, Aadj = (Aij) =  A11 A12 · · · · · · A1n A21 A22 · · · · · · A2n · · · · · · · · · · · · · · · An1 An2 · · · · · · Ann  . Entonces, se puede comprobar la fórmula A(Aadj)T = (Aadj)TA = det(A)In. Esto implica el siguiente resultado: A admite inversa si y sólo si det(A) ̸= 0, en cuyo caso se tiene A−1 = 1 det(A) (Aadj)T . Por ejemplo, si A =  2 4 60 1 −2 1 4 1  , entonces, se puede comprobar que Aadj =  9 −2 −120 −4 −4 −14 4 2  , 39 y por tanto A−1 = 1 4  9 20 −14−2 −4 4 −1 −4 2  . Por otra parte, en el caso de un sistema Ax⃗ = b⃗ con el mismo número de ecuaciones que incógnitas (A cuadrada) y con solución única (det(A) ̸= 0), se puede obtener ésta a través de las llamadas fórmulas de Cramer. Utilizando la expresión anterior de A−1, tenemos x⃗ = A−1⃗b = 1 det(A) (Aadj)T b⃗, lo que lleva a que la solución x⃗ = (x1, . . . , xn) T se pueda escribir como xj = det(Aj) det(A) , j = 1, . . . , n, siendo Aj la matriz obtenida a partir de la matriz A sustituyendo la columna j de ésta por el vector b⃗ = (b1, . . . , bn) T . Estas son las llamadas fórmulas de Cramer. EJERCICIOS DEL TEMA 2 Ejercicio 1. Resuelve los dos apartados del ejemplo introductorio. Ejercicio 2. Halla con las matrices siguientes las operaciones que se indican: A−2B, 3A−C,A+ B + C,A2; A =  1 −1 23 4 5 0 1 −1  , B =  0 2 13 0 5 7 −6 0  , C =  0 0 23 1 0 0 −2 4  . Determina una matriz D tal que A+B +C +D sea la matriz nula 3× 3. Determina una matriz E tal que 3C − 2B + 8A− 4E sea la matriz nula 3× 3. Ejercicio 3. Calcula los siguientes productos de matrices ( 1 4 0 2 )  3 −6 2 4 1 0 −2 3  , ( 1 4 0 2 )  1 −1 2 3  ,  1 −1 2 3  ( 1 4 0 2 ) , ( 1 4 0 2 )  3 −6 2 4 1 0 −2 3  ,  3 2 21 −1 0 2 0 −3  4 −1 12 4 0 −1 1 0  ,  3 −1 1 12 −4 0 2 1 0 −3 2   2 −1 2 0 −1 1 3 −2  . 40 Ejercicio 4. Estudia y, en los casos de compatibilidad, calcula la solución general de los sistemas lineales Ax = b con coeficientes reales, cuando A y b valen A =  3 −1 1 2 0 1 0 2 6 2 1 5 −3 3 1 −1  b =  −1 0 5 4  A =  1 0 1 2 44 −1 3 1 3 2 2 0 1 0  b =  49 5  A =  2 −1 0 4 −2 0 0 2 1 2 1 1 2 −5 −2  b =  −4 8 4 0 −12  A =  1 0 2 1 2 2 −1 3 1 2 1 4 5 4 −4 5  b =  0 0 0 0  Ejercicio 5. Resuelve los siguientes sistemas lineales x+ y + z + t = 7 x+ y + z + t = 7 x+ y + 2t = 8 x+ y + 2t = 5 2x+ 2y + 3z = 10 2x+ 2y + 3z = 10 −x− y − 2z + 2t = 0 − x− y − 2z + 2t = 0 x− y + 2z − t = −8 2x+ 4y − z = −5 2x− 2y + 3z − 3t = −20 x+ y − 3z = −9 x+ y + z = −2 4x+ y + 2z = 9 x− y + 4z + 3t = 4 Ejercicio 6. Discute los siguientes sistemas en función de los parámetros a y b: a) x+ ay + a2z = 1 x+ ay + abz = a bx+ a2y + a2bz = a2b b) x+ y + az = a2 x+ ay + z = a ax+ y + z = 1 . Ejercicio 7. Halla todas las soluciones de cada uno de los sistemas: (3− 2i)x1 + x2 − 6x3 + x4 = 0 x1 − ix2 − x4 = 0 2x1 + x2 − (3 + i)x3 = 0 x1 + x2 − 2x3 − (1 + 2i)x4 = 0. 41 Ejercicio 16. Evalúa los determinantes siguientes:∣∣∣∣∣∣∣∣∣∣∣ 6 2 1 0 5 2 1 1 −2 1 1 1 2 −2 3 3 0 2 3 −1 −1 −1 −3 4 2 ∣∣∣∣∣∣∣∣∣∣∣ , ∣∣∣∣∣∣∣∣∣∣∣ 1 2 −1 3 1 2 −1 1 −2 3 3 1 0 2 −1 5 1 2 −3 4 −2 3 −1 1 −2 ∣∣∣∣∣∣∣∣∣∣∣ . ∣∣∣∣∣∣∣∣ 1 3 1 1 2 1 5 2 1 −1 2 3 4 1 −3 7 ∣∣∣∣∣∣∣∣ , ∣∣∣∣∣∣∣∣ 1 1 −2 4 0 1 1 3 2 −1 1 0 1 1 2 5 ∣∣∣∣∣∣∣∣ .∣∣∣∣∣∣∣∣ 1 1 i 0 i 0 −3 2 2 + 2i 2 2i− 6 4 4i+ 5 1 −3− i 0 ∣∣∣∣∣∣∣∣ , ∣∣∣∣∣∣∣∣ 1− i 0 2i −2i 0 1 2 2 1 0 1 + i 1− i 1 1 0 0 ∣∣∣∣∣∣∣∣ . ALGUNOS EJERCICIOS RESUELTOS DEL TEMA 2 Ejercicio 4. Primer sistema: compatible determinado. Solución: x1 = 1, x2 = 2, x3 = 0, x4 = −1. Segundo sistema: compatible indeterminado. Tercer sistema: incompatible. Cuarto sistema: compatible determinado. Solución: x1 = 0, x2 = 0, x3 = 0, x4 = 0. Ejercicio 5. Primer sistema: compatible indeterminado. Solución: x = 8− y, z = −4, t = 3. Segundo sistema: incompatible. Tercer sistema: compatible determinado. Solución: x = −7, y = 3, z = 2, t = 2. Cuarto sistema: compatible determinado. Solución: x = 1, y = −1, z = 3. Ejercicio 6. Sistema (a). Tres casos: Si a ̸= 0 y a ̸= b, sistema compatible determinado. Si a = 0, sistema incompatible. Si a = b, el sistema es compatible indeterminado si a = 1 e incompatible si a ̸= 1. Sistema (b). Tres casos: Si a ̸= 1 y a ̸= −2, sistema compatible determinado. Si a = −2, sistema incompatible. Si a = 1, sistema compatible indeterminado. 44 Ejercicio 7. El primer sistema es compatible indeterminado. Las soluciones son de la forma x1 = 2i 1+ix3, x2 = 2 1+ix3, x4 = 0. Ejercicio 8. b2 + b3 − b1 = 0. Ejercicio 9. E =  1 0 00 0 1 0 1 0  , E =  1 0 0−3 1 0 0 0 1  , E =  1 0 00 1 0 −5 0 1  . Ejercicio 10. Las soluciones de los sistemas son los siguientes: Primer sistema: x = −4/14, y = −13/14, z = −3/14. Segundo sistema: x = 34/14, y = −19/14, z = −41/14. Tercer sistema: x = 1, y = 1, z = 1. Cuarto sistema: x = −1/7, y = 2/7, z = 1/7. Ejercicio 11. A no tiene inversa. B−1 = 1 8 −2 2 25 −1 −1 1 −5 3  . C no tiene inversa. D no tiene inversa. E−1 = 1 28  7 0 0 0 −6 4 0 0 3 −44 28 0 −14 28 −28 28  , F−1 = 13  3 0 3 −3 −3 5 5 −3 −3 2 2 0 0 −1 −4 3  . Ejercicio 12. B−1 =  −2 5 3 7 5 −12 −7 −16 −4 8 5 12 2 10 2 2  . Ejercicio 15. ∣∣∣∣∣∣ 1 a b+ c 1 b a+ c 1 c a+ b ∣∣∣∣∣∣ = ∣∣∣∣∣∣ 1 a a+ b+ c 1 b a+ b+ c 1 c a+ b+ c ∣∣∣∣∣∣ = (a+ b+ c) ∣∣∣∣∣∣ 1 a 1 1 b 1 1 c 1 ∣∣∣∣∣∣ = 0. Ejercicio 16. Primer determinante = −24. Segundo determinante = −32.Tercer determinante = −115.Cuarto determinante = 4.Quinto determinante = 0.Sexto determinante = −4 + 8i. 45 Tema 3 Espacios vectoriales y aplicaciones lineales Varios son los objetivos de este tema. A diferencia de la lección anterior, que trataba de resolver problemas concretos encontrando algoritmos apropiados para ello, aqúı buscamos reglas para manejar vectores. Cuando se habla de vectores, uno piensa en principio en los vectores del plano (que ya hemos tratado someramente al explicar los números complejos) o los vectores en el espacio tridimensional. Estos son, sin embargo, ejemplos de una estructura, la de espacio vectorial, que tiene sentido sin la referencia geométrica. De esta forma, la palabra vector ha de entenderse en un sentido más general, como elemento de un conjunto que tiene unas reglas operacionales determinadas. Aśı, los polinomios son vectores, las matrices son vectores, etc. Tenemos entonces que explicar lo que se entiende por espacio vectorial, las operaciones entre sus elementos, los vectores, y las relaciones entre espacios vectoriales a través de las aplicaciones lineales. 3.1. Ejemplo. Vectores en el plano Para introducir la idea de lo que es un espacio vectorial, vamos a recordar alguno de los más conocidos y utilizados. Vamos a considerar el conjunto de vectores v⃗ en el plano con base en el origen, que naturalmente se puede identificar con el conjunto de puntos (x, y), con x, y ∈ R, es decir, R2. Recordemos que para generar nuevos elementos en R2 podemos sumar vectores v⃗1 = ( x1 y1 ) , v⃗2 = ( x2 y2 ) ⇒ v⃗1 + v⃗2 = ( x1 + x2 y1 + y2 ) , o multiplicar un número real por un vector: λ ∈ R, v⃗ = ( x y ) ⇒ λv⃗ = ( λx λy ) . El hecho de que estas dos operaciones entre vectores en el plano verifiquen una serie de reglas (véase la definición general) significa que el conjunto de vectores en el plano con base en el origen o R2 adquiere lo que se llama estructura de espacio vectorial. De manera que, en general, para obtener un espacio vectorial, necesitamos un conjunto de elementos y dos operaciones sobre ese conjunto que permitan generar nuevos elementos y que sigan unas reglas apropiadas. 46 3.2.2. Dependencia e independencia lineal. Bases y dimensión Una descripción más expĺıcita de un e.v. puede darse a partir de relaciones entre sus elementos los vectores. Sea V un e.v. Se dice que los vectores x⃗1, . . . , x⃗n ∈ V son linealmente dependientes si existen escalares λ1, . . . , λn ∈ K no todos nulos verificando λ1x⃗1 + · · ·+ λnx⃗n = 0⃗. Esto significa que algún vector del sistema es combinación lineal de los restantes. Rećıprocamente, si un vector x⃗ ∈ V es combinación lineal de los vectores x⃗1, . . . , x⃗n entonces existen escalares λ1, . . . , λn con x⃗ = λ1x⃗1 + · · ·+ λnx⃗n, es decir, (−1)x⃗+ λ1x⃗1 + · · ·+ λnx⃗n = 0⃗, y los vectores x⃗, x⃗1, . . . , x⃗n son linealmente dependientes. Se dice que los vectores x⃗1, . . . , x⃗n ∈ V son linealmente independientes cuando no son lineal- mente dependientes, es decir, si ninguno de los vectores es combinación lineal de los restantes. Esto significa que si planteamos una combinación lineal nula λ1x⃗1 + · · ·+ λnx⃗n = 0⃗, entonces necesariamente λ1 = · · · = λn = 0. Luego veremos un método práctico para determinar la independencia lineal de un conjunto de vectores dado. Si consideramos los vectores como flechas desde el origen, no es dif́ıcil visualizar la dependencia lineal en el espacio tridimensional. Dos vectores son dependientes si están en la misma recta, y tres vectores son dependientes si están en el mismo plano. Por ejemplo, las columnas de la matriz A =  1 3 02 6 1 −1 −3 −3  , son linealmente dependientes, ya que la segunda columna es tres veces la primera. Un poco más complicado de ver es que las filas son también dependientes. Se dice que un conjunto finito de vectores {x⃗1, . . . , x⃗n} es libre cuando los vectores x⃗1, . . . , x⃗n son linealmente independientes. Caso de no ser libre, el conjunto se denomina ligado. Pasamos ahora a explicar lo que es una base en un espacio vectorial. Para manejar en la práctica muchos espacios vectoriales, se suele buscar un conjunto finito y destacado de vectores, de manera que cualquier otro vector del espacio vectorial pueda escribirse como combinación lineal de los vectores de este conjunto. Esto no siempre puede hacerse, pues hay espacio vectoriales que no pueden describirse completamente por un conjunto finito de vectores. Sin embargo, hay otros que śı admiten tal propiedad; son los llamados espacios vectoriales de generación finita. Por ejemplo, todo vector de R3 (x, y, z)T es una combinación lineal x(1, 0, 0)T + y(0, 1, 0)T + z(0, 0, 1)T 49 de los vectores (1, 0, 0)T , (0, 1, 0)T , (0, 0, 1)T ; de este modo, el espacio vectorialR3 es de generación finita, pues todo vector de R3 puede escribirse como combinación lineal de un conjunto finito de vectores. Vamos a restringirnos a partir de ahora a espacios vectoriales de generación finita. Se dice que un conjunto G = {x⃗1, . . . , x⃗n} de vectores de un espacio vectorial V es un sistema generador de V si todo vector de V puede escribirse como combinación lineal de los vectores de G. Para poder describir completamente todos los vectores de un espacio vectorial, necesitaremos entonces que éste admita un sistema de generadores. Sin embargo, no es suficiente con esto. Para ver el porqué, consideremos el siguiente ejemplo de vectores en el plano: v⃗1 = (1, 0) T , v⃗2 = (0, 1) T , v⃗3 = (1, 1) T . Cualquier vector v⃗ = (x, y)T de R2 se puede escribir como combinación lineal de estos tres vectores; por ejemplo, v⃗ = xv⃗1 + yv⃗2 + 0v⃗3. De esta manera, el conjunto G = {v⃗1, v⃗2, v⃗3} es un conjunto de generadores de R2. Sin embargo, hay un problema. Por ejemplo, el vector v⃗ = (1, 1)T se puede escribir como v⃗ = 2v⃗1 + 0v⃗2 − v⃗3, o también como v⃗ = −v⃗1 + v⃗2 + 2v⃗3. El hecho de que un mismo vector se pueda escribir como combinación lineal de los tres vectores de más de una forma da lugar a confusión. Aśı, necesitamos que los vectores del sistema generador que tomemos verifiquen que cualquier vector se pueda escribir como combinación lineal de ellos sólo de una forma. Siguiendo con el mismo ejemplo, observemos que si ahora tomamos el conjunto G′ = {v⃗1, v⃗2}, éste sigue siendo un sistema de generadores de vectores del plano, pues si v⃗ = (x, y)T es cualquiera, se puede escribir v⃗ = xv⃗1 + yv⃗2. La diferencia entre G y G′ es que el primero es un sistema libre y el segundo es ligado. El hecho de conseguir que los vectores que formen G′ sean linealmente independientes implica que cualquier vector se puede escribir como combinación lineal de tales vectores sólo de una forma. En efecto, si tenemos un vector cualquiera v⃗ escrito, con respecto a G′, de dos formas v⃗ = xv⃗1 + yv⃗2 = x ′v⃗1 + y ′v⃗2, entonces se tiene (x− x′)v⃗1 + (y − y′)v⃗2 = 0⃗, y como v⃗1 y v⃗2 son independientes, necesariamente x − x′ = y − y′ = 0, es decir, x = x′, y = y′; luego v⃗ se escribe sólo de una forma con respecto a los vectores de G′. Generalizando lo razonado para el ejemplo a un espacio vectorial cualquiera, observamos que para evitar que un vector pueda expresarse de más de una forma como combinación lineal de los 50 vectores de un sistema generador, hay que exigir a éstos que sean linealmente independientes. Esto da lugar a la definición de base. Se dice que un conjunto de vectores B = {x⃗1, . . . , x⃗n} ⊂ V es una base de V cuando B es un sistema generador y libre. Añadir la propiedad de independencia lineal a la de generador implica que cada vector v⃗ ∈ V puede expresarse de una y sólo una manera como combinación de los vectores de una base. A todo esto hay que añadir dos cosas: la primera es que podemos tener más de una base en un espacio vectorial de generación finita. Aśı, en el ejemplo anterior, G′ forma una base, pero también G′′ = {v⃗1, v⃗3} forma una base, o también G′′′ = {v⃗2, v⃗3}. Lo segundo a mencionar es el llamado teorema de la base: Teorema 1. Todas las bases de un espacio vectorial de generación finita V son finitas y poseen el mismo número de elementos. Este número se denomina dimensión del e. v. V y se escribe dimKV . Ejemplos. (1)Bases canónicas (véase el ejercicio 1). Ya hemos visto que los vectores (1, 0, 0)T , (0, 1, 0)T , (0, 0, 1)T constituyen un sistema generador de R3. Además, son linealmente independientes, pues cualquier combinación lineal nula de ellos λ1(1, 0, 0) T + λ2(0, 1, 0) T + λ3(0, 0, 1) T = (0, 0, 0)T , genera un sistema lineal de tres ecuaciones trivial con λ1 = λ2 = λ3 = 0. De este modo, forman una base de R3 llamada base canónica. Por tanto dimRR3 = 3. (2) En general, la base canónica deRn como espacio vectorial sobreR es el conjunto de n vectores, e⃗1 = (1, 0, 0, . . . , 0) T e⃗2 = (0, 1, 0, . . . , 0) T ... ... e⃗n = (0, 0, 0, . . . , 1) T , de modo que dimRRn = n, n = 1, 2, . . .. (3) En el espacio de los polinomios de grado menor o igual que un entero no negativo n y coeficientes reales, denotado por Pn[X], la base canónica viene dada por los monomios 1, x, x2, . . . , xn, de manera que dimRPn[X] = n+ 1, n = 0, 1, . . .. Las siguientes propiedades establecen las formas para obtener bases de sistemas generadores y de sistemas libres. Teorema 2. Sea V un espacio vectorial de dimensión n. Se satisfacen las siguientes propiedades: 1. Un sistema generador G ⊂ V es una base si y sólo si no se puede reducir a un nuevo sistema generador. 2. Siempre se puede obtener una base B de un sistema generador, descartando vectores si es necesario. 51 de x⃗ ∈ V se denotan por M(x⃗, B′) = (x′1, x′2, . . . , x′n)T . Supongamos que se conocen los vectores de B′ en función de los de B, es decir, b⃗′1 = q11⃗b1 + q21⃗b2 + · · ·+ qn1⃗bn b⃗′2 = q12⃗b1 + q22⃗b2 + · · ·+ qn2⃗bn ... = ... b⃗′n = q1nb⃗1 + q2nb⃗2 + · · ·+ qnnb⃗n. Entonces, las coordenadas M(x⃗, B) = (x1, x2, . . . , xn) T vendrán, en función de las coordenadas M(x⃗, B′) = (x′1, x ′ 2, . . . , x ′ n) T , dadas por las fórmulas x1 = q11x ′ 1 + q12x ′ 2 + · · ·+ q1nx′n x2 = q21x ′ 1 + q22x ′ 2 + · · ·+ q2nx′n ... = ... xn = qn1x ′ 1 + qn2x ′ 2 + · · ·+ qnnx′n, que matricialmente se escribe M(x⃗, B) = QM(x⃗, B′), Q = M(B′, B) =  q11 q12 · · · · · · q1n q21 q22 · · · · · · q2n · · · · · · · · · · · · · · · qn1 qn2 · · · · · · qnn  . La matriz Q se llama matriz de cambio de base de B′ a B y es una matriz invertible. Como ha mostrado la construcción del sistema, hay que observar que las columnas de Q = M(B′, B) son las coordenadas de los vectores de la base B′ con respecto a la base B. Precisamente, su matriz inversa es la matriz del cambio de coordenadas inverso, de B a B′, es decir M(x⃗, B′) = Q−1M(x⃗, B) = M(B,B′)M(x⃗, B). Este es, con frecuencia, el problema a resolver. Ejemplo. Calculemos las coordenadas del vector x⃗ = (3, 2, 1)T en la base B′ = {v⃗1, v⃗2, v⃗3}, donde v⃗1 = (1, 2, 0) T , v⃗2 = (−3,−7, 1)T , v⃗3 = (0,−2, 1)T . La base de referencia donde está dispuesto el vector x⃗ es la base canónica. La relación entre las dos bases es v⃗1 = e⃗1 + 2e⃗2 v⃗2 = −3e⃗1 − 7e⃗2 + e⃗3 v⃗1 = −2e⃗2 + e⃗3. Entonces la matriz de cambio de base es Q =  1 −3 02 −7 −2 0 1 1  . Luego, las nuevas coordenadas M(x⃗, B′) = (x′1, x ′ 2, x ′ 3) T deben verificar el sistema lineal 32 1  =  1 −3 02 −7 −2 0 1 1 x′1x′2 x′3  , que, resolviendo, nos da x′1 = −3, x′2 = −2, x′3 = 3. 54 3.3. Subespacios fundamentales de una matriz 3.3.1. Definición y propiedades Pasamos ahora a describir un procedimiento para resolver en la práctica varios problemas que se han ido planteando en secciones anteriores. Concretamente: 1. Cómo describir los subespacios de un espacio vectorial de dimensión finita. 2. Cómo determinar una base de un subespacio. 3. Cómo obtener una base de un sistema generador dado. 4. Cómo formar una base a partir de un sistema libre dado. Con respecto al problema 1, generalmente los subespacios (que no sean el formado exclusiva- mente por el vector nulo) se describen de dos maneras. La primera consiste en dar un sistema de generadores del subespacio (en particular, una base) que pueden disponerse como el espacio fila o el espacio columna de una matriz. En la segunda, podemos dar una lista de restricciones acerca del subespacio; en lugar de decir cuáles son los vectores en el subespacio, se dicen las propiedades que deben satisfacer. Generalmente estas restricciones vienen dadas más o menos expĺıcitamente por un conjunto de ecuaciones lineales, de modo que el subespacio queda descrito como el conjunto de soluciones de un sistema lineal homogéneo Ax⃗ = 0⃗ y cada ecuación del sistema representa una restricción. En el primer tipo puede haber filas o columnas redundantes y en el segundo puede haber restricciones redundantes. En ninguno de los dos casos es posible dar una base (resolver el problema 2) por mera inspección, es necesario algún procedimiento sistemático. El método que aqúı explicaremos está basado en el proceso de eliminación gaussiana de una matriz A dado en el tema 1 y la matriz U escalonada superior que quedaba asociada a ésta al final del proceso. Con este procedimiento vamos también a poder resolver los problemas 3 y 4 y el problema añadido de cómo pasar de una representación de un subespacio a la otra. Definición. Supongamos que reducimos una matriz A ∈ Mm,n(K) mediante operaciones elemen- tales a una matriz U de forma escalonada. Llamemos r al número de pivotes de U , de tal modo que las últimas m − r filas de U son idénticamente nulas. A este número r se le llama rango de la matriz A. Hay una relación entre el rango r y la independencia lineal: precisamente, r es el número de filas linealmente independientes de la forma escalonada U . Los subespacios fundamentales de una matriz A ∈ Mm,n(K) son los siguientes: 1. Espacio fila fil(A): es el espacio generado por las filas de A. 2. Espacio nulo Ker(A) = {x⃗/Ax⃗ = 0⃗}. 3. Espacio columna col(A): es el espacio generado por las columnas de A. 4. Espacio nulo por la izquierda Ker(AT ) = {x⃗/AT x⃗ = 0⃗}. La relación entre los subespacios fundamentales de una matriz y los subespacios vectoriales es la siguiente: si el subespacio viene dado por un sistema de generadores, será el espacio fila (o el espacio columna) de la matriz cuyas filas (o columnas) sean los vectores del sistema generador. Si 55 el subespacio viene dado por un conjunto de restricciones, se escribirá como el espacio nulo o el espacio nulo por la izquierda de una matriz, la del sistema homogéneo dado por las restricciones. Queda claro entonces que para determinar una base de un subespacio tenemos que analizar la manera de determinar una base de los subespacios fundamentales de una matriz. En ello tendrá que ver su forma escalonada obtenida por eliminación gaussiana. 1. Espacio fila de A. La eliminación actúa en A para producir una matriz escalonada U ; el espacio fila de U se obtiene directamente: su dimensión es el rango r y sus filas distintas de cero constituyen una base. Ahora bien, cada operación elemental no altera el espacio fila, pues cada fila de la matriz U es una combinación de las filas originales de A. Como al mismo tiempo cada paso puede anularse mediante una operación elemental, entonces fil(A) = fil(U), por tanto, fil(A) tiene la misma dimensión r y la misma base. Hay que notar que no comen- zamos con las m filas de A, que generan el espacio fila y descartamos m − r para obtener una base. Podŕıamos hacerlo, pero puede ser dif́ıcil decidir cuáles filas descartar; es más sencillo tomar simplemente las filas de U distintas de cero. Ejemplo. Determina una base del subespacio deR4 generado por los vectores v⃗1 = (1, 1, 0, 1)T , v⃗2 = (1, 2, 2, 1)T , v⃗3 = (3, 4, 2, 3) T . Disponemos los vectores generadores como las filas de una matriz A =  1 1 0 11 2 2 1 3 4 2 3  . El subespacio es entonces el espacio fila de A. Reducimos por eliminación gaussiana, A =  1 1 0 11 2 2 1 3 4 2 3 →  1 1 0 10 1 2 0 0 1 2 0 →  1 1 0 10 1 2 0 0 0 0 0  = U. Puesto que U tiene dos pivotes, r = 2, de modo que la dimensión del subespacio es dos. Como una base de fil(U) lo forman las dos primeras filas, lo mismo ocurre con fil(A), de manera que una base del subespacio es w⃗1 = (1, 1, 0, 1) T , w⃗2 = (0, 1, 2, 0) T . 2. Espacio nulo de A. Es el formado por los vectores x⃗ tales que Ax⃗ = 0⃗. En la eliminación gaussiana se reduce el sistema Ax⃗ = 0⃗ al sistema Ux⃗ = 0⃗ precisamente sin alterar ninguna de las soluciones. Por tanto, el espacio nulo de A es el mismo que el de U , Ker(A) = Ker(U). De lasm aparentes restricciones impuestas por lasm ecuaciones Ax⃗ = 0⃗ sólo r son independientes, especificadas precisamente por las r filas de U distintas de cero. Aśı, el espacio nulo de A tiene dimensión n−r, que es el número de variables libres del sistema reducido Ux⃗ = 0⃗, correspondientes a las columnas de U sin pivotes. Para obtener una base, podemos dar el valor 1 a cada variable libre, cero a las restantes y resolver Ux⃗ = 0⃗ para las r variables básicas por sustitución regresiva. Los n− r vectores aśı producidos forman una base de Ker(A). 56 Ejemplo. Completamos a una base de R4 a partir de los vectores v⃗1 = (1, 1, 0, 1)T , v⃗2 = (1, 2, 2, 1)T , v⃗3 = (3, 0, 2, 3) T . Disponemos los vectores como las filas de una matriz y reducimos a forma escalonada. 1 1 0 11 2 2 1 3 0 2 3 →  1 1 0 10 1 2 0 0 −3 2 0 →  1 1 0 10 1 2 0 0 0 8 0  . Si añadimos una cuarta fila con un pivote, por ejemplo, (0, 0, 0, 1)T , tenemos que la dimensión del espacio fila de la matriz que forman los tres primeros vectores y este cuarto es cuatro, luego un vector que completa a una base es, por ejemplo, (0, 0, 0, 1)T . Para calcular las ecuaciones de un subespacio a partir de un sistema generador, se dispone el sistema generador como las filas de una matriz, y a ésta se añade una fila con un vector genérico. Se reduce la matriz aśı formada por eliminación gaussiana, obligando a que se anulen las últimas filas de la forma escalonada final. Ejemplo. Obtenemos las ecuaciones del subespacio generado por los vectores v⃗1 = (1, 0, 3) T , v⃗2 = (−2, 3,−1)T . Disponemos los vectores como las filas de una matriz, añadiendo una tercera fila con un vector genérico (x, y, z)T del subespacio y reducimos a forma escalonada: 1 0 3−2 3 −1 x y z →  1 0 30 3 5 0 y z − 3x →  1 0 30 3 5 0 0 z − 3x− (5/3)y  Como el vector (x, y, z)T está en el subespacio, la dimensión del espacio fila de la matriz ha de ser dos, luego la última fila de la forma escalonada tiene que ser nula. Por tanto, el subespacio es W = {(x, y, z)T /z − 3x− (5/3)y = 0}. Al revés, para dar un sistema generador a partir de las ecuaciones de un subespacio, basta con calcular una base del espacio nulo de la matriz del sistema de ecuaciones. 3.4. Operaciones con subespacios Una vez que sabemos determinar una base de un subespacio vectorial, nos queda operar con ellos. Básicamente, se pueden realizar dos operaciones con subespacios: intersecciones y sumas. 3.4.1. Intersección de subespacios Sea V un e. v. y W1,W2 subespacios vectoriales de V . La intersección W = W1 ∩ W2 es el conjunto de vectores de V que están a la vez en W1 y W2. No es dif́ıcil ver que W es un subespacio vectorial. Nótese que la intersección cualquiera es no vaćıa, pues al menos el vector nulo está en W . Para describir la intersección de subespacios, la manera más natural es poner cada subespacio en forma de un sistema de ecuaciones homogéneo. La intersección será aquel subespacio que verifique todas las restricciones a la vez. 59 Ejemplo. Para los subespacios W1 = {(x, y, z)T /x+ y + z = 0} W2 = {(x, y, z)T /x− z = 0} el subespacio W1 ∩W2 es W1 ∩W2 = {(x, y, z)T /x+ y + z = 0, x− z = 0} 3.4.2. Suma de subespacios Sea V un e. v. y W1,W2 subespacios vectoriales de V . Observemos que, en general, la unión de subespacios W1 ∪ W2 (el conjunto de vectores que están en algunos de los dos subespacios) no es un subespacio vectorial. Por ejemplo, si W1 es el subespacio de R2 generado por el vector w⃗1 = (1, 0) T y W2 es el subespacio generado por w⃗2 = (0, 1) T , naturalmente los vectores w⃗1 y w⃗2 están en W1 ∪W2, pero la suma w⃗1 + w⃗2 = (1, 1)T no está en W1 ∪W2. Se puede definir, sin embargo, la suma de subespacios W = W1 + W2 como el subespacio generador por la unión W = ⟨W1 ∪W2⟩. Contrariamente a la intersección, una manera sencilla de describir el subespacio suma con- siste en determinar un sistema generador o una base de cada subespacio y quedarse con los independientes, obteniéndose de esta manera una base del subespacio suma. Ejemplo. Obtenemos una base del subespacio suma W1 +W2 donde W1 = {(x, y, z)T /x+ y = 0, z = 0} W2 = {(x, y, z)T /z = 0}. Una base de W1 es w⃗1 = (1,−1, 0)T y de W2, w⃗2 = (1, 0, 0)T , w⃗3 = (0, 1, 0)T . Entonces, w⃗1, w⃗2 y w⃗3 forman un sistema generador de W1 + W2. Ahora, el vector w⃗1 depende de los otros dos, luego una base del subespacio suma está formado por w⃗2 = (1, 0, 0) T , w⃗3 = (0, 1, 0) T . Es decir, W1 +W2 = W2. La forma de determinar una base del subespacio suma muestra que todo vector w⃗ de W = W1 +W2 puede escribirse como suma w⃗ = w⃗1 + w⃗2 donde w⃗1 ∈ W1 y w⃗2 ∈ W2. Cuando los subespacios sólo tiene en común el vector nulo, W1∩W2 = {⃗0}, el subespacio suma se denomina suma directa de W1 y W2 y se denota por W = W1 ⊕W2. En este caso, los vectores componentes w⃗1, w⃗2 de la descomposición w⃗ = w⃗1 + w⃗2 de cualquier vector w⃗ de la suma que mencionábamos antes son únicos: los vectores de W sólo pueden descomponerse de una forma. Ejercicio. Determina una base del subespacio suma de W1 = {(x, y, z)T /x+ y = 0, z = 0} W2 = {(x, y, z)T /x = 0}, y escribe el vector w⃗ = (1, 1, 2)T como suma de un vector de W1 y otro de W2. Respecto a las dimensiones de los subespacios suma e intersección, se tiene el siguiente resul- tado: 60 Fórmula de las dimensiones. Si W1 y W2 son dos subespacios vectoriales de dimensión finita dim(W1 +W2) = dim(W1) + dim(W2)− dim(W1 ∩W2). En particular, si W1 ∩W2 = {⃗0}, dim(W1 ⊕W2) = dim(W1) + dim(W2). 3.5. Aplicaciones lineales Se pueden establecer relaciones entre espacios vectoriales, a través de las llamadas aplicaciones lineales. Antes de dar la definición formal, vamos a mostrar algunos ejemplos para intentar explicar qué significa que una aplicación entre espacios vectoriales sea lineal. En el plano R2 pueden darse varias transformaciones, con interpretación geométrica, entre vectores. Por ejemplo, se puede aumentar o reducir de tamaño un vector (homotecias).  v⃗ = (x, y)  T v⃗ = (12x, 1 2y)  T v⃗ = (2x, 2y) Desde el punto de vista algebraico, esto significa multiplicar cada componente del vector por una constante λ ∈ R. Si 0 < λ < 1, el vector se reduce de tamaño, si λ > 1, aumenta. En el caso de que λ < 0, el vector cambia además de sentido. Todo ello genera una transformación entre vectores (homotecia de centro el origen y razón λ), T : R2 → R2( x y ) 7−→ T (x, y) = ( λx λy ) . Éste es un primer ejemplo de una transformación lineal entre espacios vectoriales. Se dice que es lineal por lo siguiente: si uno toma una combinación de dos vectores cualesquiera y le aplica la homotecia, el vector resultante es el mismo que si aplicamos primero la homotecia a los vectores originales y luego hacemos la combinación lineal a los vectores transformados. Fijémonos por último en que la aplicación se puede escribir como el producto de una matriz por el vector genérico, en la forma ( x y ) 7−→ T (x, y) = ( λx λy ) = ( λ 0 0 λ )( x y ) . El siguiente ejemplo tiene también su interpretación geométrica. Se trata de girar los vectores del plano un ángulo determinado α. 61 3.5.2. Matriz de una aplicación lineal. Cambio de base En espacios de dimensión finita, para manejarse con aplicaciones lineales, es mejor utilizar coordenadas. Ello va a permitir relacionar las aplicaciones lineales con las matrices, lo que hace más sencillo el uso de las primeras. Sean U y V espacios vectoriales de dimensión finita sobre un mismo cuerpo K. Sean BU = {u⃗1, . . . , u⃗n}, BV = {v⃗1, . . . , v⃗m} bases en U y V respectivamente. Sea T : U → V una aplicación lineal. Se define la matriz de la aplicación lineal T en dichas bases como la matriz M(T,BU , BV ) ∈ Mm,n(K) cuyas columnas son las coordenadas de las imágenes por T de los vectores de la base de partida BU , expresadas en la base de llegada BV , esto es M(T,BU , BV ) = [M(T (u⃗1), BV ) · · ·M(T (u⃗n), BV )]. Ejemplos. [1] Para la aplicación lineal T : R4 → R3, T (x1, x2, x3, x4) = (x1+x2+x3, x2+x4, x1+x2+x3+x4), se tiene que, en las bases canónicas M(T,BcR4 , B c R3) =  1 1 1 00 1 0 1 1 1 1 1  . La razón es la siguiente: la primera columna de la matriz corresponde al vector imagen por T del primer vector de la base canónica en R4, escrito con respecto a la base canónica en R3, esto es T ((1, 0, 0, 0)T ) = (1, 0, 1)T , (imagen del vector de coordenadas x1 = 1, x2 = 0, x3 = 0, x4 = 0). Aśı, las otras columnas se obtienen como T ((0, 1, 0, 0)T ) = (1, 1, 1)T , T ((0, 0, 1, 0)T ) = (1, 0, 1)T , T ((0, 0, 0, 1)T ) = (0, 1, 1)T . [2] Para la aplicación lineal T : P4[X] → P3[X], T (p(x)) = p′(x) se tiene que en las bases canónicas BcP4[X] = {1, x, x 2, x3, x4}, BcP3[X] = {1, x, x 2, x3}, la matriz de T es M(T,BcP4[X], B c P3[X] ) =  0 1 0 0 0 0 0 2 0 0 0 0 0 3 0 0 0 0 0 4  . Veamos cómo se van generando las columnas. La primera es la imagen por T del primer vector, el polinomio p(x) = 1. Como p′(x) = 0, entonces T (p(x)) es el polinomio nulo, luego sus coordenadas son todas nulas en cualquier base. La segunda columna de la matriz es la imagen por T del polinomio p(x) = x. esto es T (p(x)) = p′(x) = 1 = 1 + 0x+ 0x2 + 0x3, 64 de coordenadas (1, 0, 0, 0) en la base canónica de P3[X]. Estas coordenadas forman la segunda columna de la matriz. Aśı sucesivamente, T (x2) = 2x = 0 · 1 + 2x+ 0x2 + 0x3 → (0, 2, 0, 0), T (x3) = 3x2 = 1 = 0 · 1 + 0x+ 3x2 + 0x3 → (0, 0, 3, 0), T (x4) = 4x3 = 0 · 1 + 0x+ 0x2 + 4x3 → (0, 0, 0, 4), vamos generando las columnas de la matriz. Hay que destacar tres cosas importantes: (i) La matriz de una aplicación M(T,BU , BV ) tiene tantas filas como la dimensión del espacio de llegada V y tantas columnas como la dimensión del espacio de partida U (véanse los ejemplos anteriores). (ii) La expresión de la matriz depende de las bases elegidas: si cambian las bases, cambia la matriz. Insistiremos más adelante sobre ello. (iii) En la práctica, fijadas bases en U y V , podemos expresar la aplicación lineal como un producto matriz por vector: si x⃗ = x1u⃗1 + · · ·+ xnu⃗n, siendo (x1, . . . , xn)T las coordenadas del vector x⃗ en la base BU , entonces, como T es lineal T (x⃗) = x1T (u⃗1) + · · ·+ xnT (u⃗n) = M(T,BU , BV )  x1 x2 ... xn  . Esto facilita el manejo de las aplicaciones lineales. Aśı, en el ejemplo [1] anterior T (x1, x2, x3, x4) =  1 1 1 00 1 0 1 1 1 1 1   x1 x2 x3 x4  , y en el ejemplo [2], si p(x) = a0 + a1x+ a2x 2 + a3x 3 + a4x 4, T (p(x)) =  0 1 0 0 0 0 0 2 0 0 0 0 0 3 0 0 0 0 0 4   a0 a1 a2 a3 a4  , que es el polinomio a1 + 2a2x+ 3a3x 2 + 4a4x 3. Cambio de base en las aplicaciones lineales Ya hemos comentado que al cambiar las bases en los espacios vectoriales cambia la matriz de la aplicación lineal. Veamos cómo afectan los cambios de base. Consideremos una aplicación lineal T : U → V de la que conocemos su matriz asociada M(T,BU , BV ) cuando fijamos las bases BU , BV . Imaginemos que cambiamos las bases a B ′ U , B ′ V y queremos determinar la matriz asociada a T en estas bases, M(T,B′U , B ′ V ). Planteamos el siguiente esquema 65 UBU 6 UB′U x⃗ VBV - VB′V 6 T (x⃗) - M(T,BU , BV ) M(T,B′U , B ′ V ) M(B′U , BU ) M(B ′ V , BV ) Las flechas a la izquierda y a la derecha son las que llevan, respectivamente, un vector escrito en la base B′U en el mismo vector expresado ahora en la base BU y cualquier vector escrito en la base B′V en el mismo vector expresado ahora en la base BV . Ambas transformaciones vienen entonces dadas por las correspondientes matrices de cambio de base M(B′U , BU ),M(B ′ V , BV ) de las que hablamos al principio de la lección (coordenadas de un vector respecto a una base y cambio de base). Aśı, por ejemplo, la flecha de la izquierda lleva un vector u⃗ ∈ U en M(B′U , BU )u⃗, y la flecha de la derecha lleva un vector v⃗ ∈ V en M(B′V , BV )v⃗. Por otro lado, las flechas de arriba y de abajo corresponden a la aplicación lineal T pero en bases distintas. Supongamos que conocemos la matriz asociada a T arriba, es decir M(T,BU , BV ), pero no la de abajo M(T,B′U , B ′ V ), que es la que queremos calcular. Fijémonos ahora en que tiene que ser igual llevar un vector x⃗ ∈ U desde la esquina inferior izquierda a su imagen T (x⃗) en la esquina superior derecha por los dos caminos siguientes: flecha izquierda + flecha arriba o bien flecha abajo + flecha derecha. En términos matriciales, el primer camino es M(T,BU , BV )M(B ′ U , BU )x⃗, y el segundo es M(B′V , BV )M(T,B ′ U , B ′ V )x⃗, 66 Ejercicio 7. En el espacio de los polinomios de grado menor o igual que 2 se considera el subespacio S generado por los polinomios 1 + 2x, 2 + x2, 3 + 2x + x2 y 4 + 4x + x2. Halla una base de S y da las coordenadas del polinomio 3x2 − 4x+ 4 en dicha base. Ejercicio 8. Halla una base de los subespacios generados por los conjuntos de vectores siguientes, y ampĺıa dichas bases hasta obtener una base del espacio R4: a) [2, 1, 3, 0]T , [−1, 0, 0, 2]T , [3, 1, 1, 1]T y [4, 1,−1, 2]T . b) [2, 0, 1, 3]T , [1, 1, 0,−1]T , [0,−2, 1, 5]T y [3,−1, 2, 7]T . Halla las coordenadas en las bases de R4 obtenidas en los apartados a) y b) del vector [1, 0, 2, 1]T . Ejercicio 9. Sea P4[X] el espacio vectorial de los polinomios de grado menor o igual que 4 con coeficientes reales. (1) Demuestra que B = {1, x, x(x− 1), x3, x4} es una base de P4[X]. Sea W el subconjunto de P4[X] definido por W = {p(x) ∈ P4[X]/p(1) = p(−1) = 0}. (2) Demuestra que W es un subespacio vectorial. (3) Encuentra la dimensión y una base de W . (4) Completa dicha base a una de P4[X], B‘. (5) Halla la matriz de cambio de base M(B‘, B). (6) Encuentra un subespacio V de P4[X] tal que P4[X] = W ⊕ V . Ejercicio 10. Se considera el polinomio P (x) = x4 + 2x3 − x2 + x− 1. a) Demuestra que los polinomios P (x), P ′(x), P ′′(x), P ′′′(x) y P ′′′′(x) forman una base del espacio vectorial de los polinomios de grado menor o igual que 4. b) Halla las coordenadas del polinomio 5x4 − 3x2 + 2x− 4 en dicha base. Ejercicio 11. Dado el subespacio S de R3 generado por los vectores (1, 0, 3)T , (−2, 3,−1)T , determina si el vector (0, 4, 6)T pertenece o no a este subespacio. Ejercicio 12. Halla la dimensión y una base de los cuatro subespacios fundamentales asociados a las matrices siguientes: A =  1 2 0 10 1 1 0 −2 −1 3 −2  , B =  1 2 0 2 1−1 −2 1 1 0 1 2 −3 −7 −2  , C =  i −i 01 1 0 0 0 1  . Ejercicio 13. a) Construye una matriz cuyo espacio nulo esté generado por (1, 0, 1)T . b) ¿ Existe una matriz cuyo espacio fila contenga al vector (1, 1, 1)T y cuyo espacio nulo contenga al vector (1, 0, 0)T . Ejercicio 14. Determina el rango de los siguientes conjuntos de polinomios de grado menor o igual que 3: p1(x) = 1 + x+ x 2 + 2x3, p2(x) = −2 + 3x+ 2x2 − x3, p3(x) = 1− 2x+ 2x3, p4(x) = 4x+ 6x2 + 6x3. Ejercicio 15. Sea T la aplicación de R4 en R3 definida por T ([x1, x2, x3, x4] T ) = [x1 − 2x2 + x3 − x4, 2x1 − x2 + x4, 3x2 − 2x3 + 3x4]T 69 a) Comprueba que T es una transformación lineal. b) Halla la dimensión y una base de Im(T ). c) Halla la dimensión y una base de Ker(T ). Ejercicio 16. Sea T la aplicación de R3 en R2 definida por T ((x, y, z)T ) = (2x+ y, y − z)T . a) Comprueba que T es una transformación lineal. b) Halla la dimensión y una base de Ker(T ) e Im(T ). c) Dadas las bases {(1, 1, 1)T , (0, 1, 2)T , (0, 2, 1)T } de R3 y {(2, 1)T , (1, 0)T } de R2, halla las cor- respondientes matrices de cambio de base y la matriz de la aplicación en estas nuevas bases. Ejercicio 17. Sea T la transformación lineal de R3 definida por T ([x1, x2, x3] T ) = [x1 − x2 + x3, 2x1 − 3x2 − x3,−x1 + 4x2 + 5x3]T . a) Halla la matriz de T en la base canónica de R3. b) Sean v⃗1 = [1, 1, 0] T , v⃗2 = [1, 3, 2] T y v⃗3 = [3, 1, 2] T . Halla la matriz de T en la nueva base B′ = {v⃗1, v⃗2, v⃗3}. c) Demuestra que T es invertible y da una expresión para T−1 como la que definió a T . Ejercicio 18. Determina una aplicación lineal T : R4 → R3 tal que Ker(T ) esté generado por los vectores (−1, 0, 0, 1)T y (1, 3, 2, 0)T y tal que Im(T ) esté generada por los vectores (1, 1, 1)T y (0,−2, 1)T . Ejercicio 19. Se considera la aplicación lineal de P4[X] en R2 dada por: T : P4[X] → R2 T (p) = (p(−1), p(1))T . a) Halla la matriz que representa a dicha aplicación lineal en las bases canónicas de ambos espacios. b) Halla una base de Ker(T ). c) Se consideran las bases B = {1, x− 1, x2 − 1, x(x2 − 1), x4} de P4[X] y B′ = {(1, 1)T , (2, 1)T } de R2. Halla M(T,B,B′). ALGUNOS EJERCICIOS RESUELTOS DEL TEMA 3 Ejercicio 3. (a) No es subespacio. (b) Subespacio de dimensión tres. Una base es, por ejemplo {(2, 1, 0, 0)T , (−4, 0, 1, 0)T , (1, 0, 0, 1)T }. (c) No es subespacio. Ejercicio 5. F = {(x, y, z, t)T /z−x = 0, 2x+ y+ t = 0}. dim(F ) = 2. Base: {(1, 1, 1,−3)T , (0,−5, 0, 5)T }. G = {(x, y, z, t)T /y − t = 0, 2y + 3t = 0}. dim(G) = 2. Base: {(1, 0, 0, 0)T , (0, 0, 1, 0)T }. 70 H = {(x, y, z, t)T /−x+z+t = 0}. dim(H) = 3. Base: {(0, 1, 0, 0)T , (1, 0,−1, 2)T , (2, 0, 0, 2)T }. F +G = R4, F +H = R4. F ∩H = {(x, y, z, t)T /t = 0, x = z, y = −2z}. dim(F ∩H) = 1. Base: {(1,−2, 1, 0)T }. Ejercicio 6. (a) Ligados para todo valor de a. (b) Libres si a ̸= 4. En otro caso, ligados. (c) Libres si a ̸= −1. Ejercicio 7. Una base de S está formada, por ejemplo, por los polinomios p1(x) = 1+2x, p2(x) = −4x+ x2. Buscamos ahora escribir el polinomio p(x) = 4− 4x+3x2 como combinación lineal de p1 y p2, es decir, p(x) = λ1p1(x) + λ2p2(x). En coordenadas, λ1 y λ2 deben satisfacer el sistema 1 02 −4 0 1 (λ1 λ2 ) =  4−4 3  , de donde las coordenadas son λ1 = 4, λ2 = 3. Ejercicio 8. a) Una base la forman, por ejemplo, los tres primeros vectores. Se puede ampliar esa base con, por ejemplo, el vector (0, 0, 0, 1)T . Las coordenadas de (1, 0, 2, 1)T en esa nueva base forman la solución del sistema  2 −1 3 0 1 0 1 0 3 0 1 0 0 2 1 1   x1 x2 x3 x4  =  1 0 2 1  , que es (x1, x2, x3, x4) T = (1,−2,−1, 6)T . b) Una base está formada por los vectores (1, 1, 0,−1)T , (0,−2, 1, 5)T . Se pueden completar a una base de R4 con, por ejemplo (0, 0, 1, 0)T , (0, 0, 0, 1)T . Las coordenadas de (1, 0, 2, 1)T en esa nueva base forman la solución del sistema 1 0 0 0 1 −2 0 0 0 1 1 0 −1 5 0 1   x1 x2 x3 x4  =  1 0 2 1  , que es (x1, x2, x3, x4) T = (1, 1/2, 3/2,−1/2)T . Ejercicio 9. (1) Los cinco polinomios son linealmente independientes y como dimP4[X] = 5, forman una base. (2) En términos de coordenadas en la base canónica de P4[X], W se puede describir como W = {p(x) = a0 + a1x+ a2x2 + a3x3 + a4x4/p(1) = a0 + a1 + a2 + a3 + a4 = 0, p(−1) = a0 − a1 + a2 − a3 + a4 = 0}, que es un sistema homogéneo de dos ecuaciones para cinco incógnitas, luego W es un subespacio vectorial. 71 Ejercicio 16. La matriz de T en las bases canónicas es A = ( 2 1 0 0 1 −1 ) . b) Ker(T ) = Ker(A) = ⟨(−1, 2, 2)T ⟩, Im(T ) = col(A) = ⟨(2, 0)T , (1, 1)T ⟩. c) la matriz de T en las nuevas bases es ( 0 −1 1 3 3 0 ) . Ejercicio 17. a) A = M(T,Bc, Bc) =  1 −1 12 −3 −1 −1 4 5  . b) M(T,B′, B′) = −7/2 −51/2 −17/21/2 3 2 1 15/2 7/2  . c) T es invertible si una matriz cualquiera asociada a T es invertible. Como por ejemplo det(A) = 3, entonces T es invertible. Además, M(T−1, Bc, Bc) = −11/3 3 4/3−3 2 1 5/3 −1 −1/3  . Nota: Para discutir si existe T−1 es necesario que T actúe entre espacios de la misma dimensión. Ejercicio 19. a) Si p(x) = a0 + a1x + a2x 2 + a3x 3 + a4x 4, entonces T (p) = (a0 − a1 + a2 − a3 + a4, a0 − a1 + a2 − a3 + a4)T = A  a0 a1 a2 a3 a4  donde A = ( 1 −1 1 −1 1 1 1 1 1 1 ) . b) dimKer(T ) = dimKer(A) = 3. Una base puede estar formada, por ejemplo, por los polinomios p1(x) = −1 + x2, p2(x) = −x+ x3, p3(x) = −1 + x4. c) M(T,B,B′) = ( 1 2 1 1 )−1 A  1 −1 −1 0 0 0 1 0 −1 0 0 0 1 0 0 0 0 0 1 0 0 0 0 0 1  = ( 1 2 0 0 1 0 −2 0 0 0 ) . 74 Tema 4 Espacios eucĺıdeos El objetivo de este tema es la resolución de ciertos problemas de aproximación en espacios vectoriales. Para ello necesitaremos utilizar la idea de ortogonalidad entre vectores. 4.1. Ejemplo introductorio. Volvemos al espacio vectorial R2. Aqúı, se puede decir que dos vectores son perpendiculares u ortogonales si forman ángulo recto. Podemos traducir esta condición en términos de coordenadas para una mejor manipulación en la práctica. Sean u⃗ = (u1, u2) T , v⃗ = (v1, v2) T dos vectores en R2 ortogonales. Esto significa que si, por ejemplo, giramos v⃗ un ángulo de noventa grados, el resultado es un vector que debe estar en la misma recta que u⃗, es decir, que debe ser proporcional a u⃗. Recordemos del tema anterior que un giro de noventa grados transforma v⃗ = (v1, v2) T en el vector ( 0 −1 1 0 )( v1 v2 ) = ( −v2 v1 ) . Si este vector es proporcional a u⃗ = (u1, u2) T , entonces es de la forma( −v2 v1 ) = λ ( u1 u2 ) , (4.1) para cierta constante λ ∈ R. Si u1 ̸= 0, u2 ̸= 0, esto significa que −v2 u1 = v1 u2 = λ. Entonces u1v1 + u2v2 = 0. Si u1 = 0, entonces de (4.1) también es v2 = 0 y se verifica u1v1 + u2v2 = 0. Análogamente, si es u2 = 0, entonces de (4.1) también es v1 = 0 y también se verifica u1v1 + u2v2 = 0. Luego la condición de ortogonalidad entre los vectores en términos de coordenadas es u⃗T v⃗ = (u1, u2) ( v1 v2 ) = u1v1 + u2v2 = 0. 75 La operación ⟨u⃗, v⃗⟩ = u⃗T v⃗ = (u1, u2) ( v1 v2 ) = u1v1 + u2v2, se llama producto escalar eucĺıdeo en R2. La importancia de la ortogonalidad entre vectores del plano aparece en muchos problemas, sobre todo geométricos. Algunos de ellos están relacionados con la proyección ortogonal de un vector sobre un subespacio. Por ejemplo, en la figura    *     P v⃗          v⃗ − P v⃗ A A A A AAKv⃗ se muestra el vector P v⃗ que es proyección ortogonal de un vector v⃗ sobre una recta que pasa por el origen. Tal proyección se determina obligando a que la diferencia entre los dos vectores v⃗ − P v⃗ sea perpendicular a la recta. Esta construcción proporciona además la distancia entre el punto v⃗ = (x, y) del plano y la recta, como el módulo del vector diferencia entre v⃗ y su proyección ortogonal. Fijémonos en que esta distancia es la mı́nima posible entre (x, y) y los puntos de la recta, y se determina a través de la proyección ortogonal. No parece dif́ıcil extender esta idea al espacio tridimensional, donde la ortogonalidad es tam- bién visualizable. El problema ahora es buscar la manera de hablar de ortogonalidad y proyección ortogonal en un espacio vectorial cualquiera. Necesitamos en principio definir algo que generalice el producto escalar eucĺıdeo de R2. 4.2. Producto escalar Sea V un espacio vectorial sobre K = R ó C. Un producto interno o producto escalar en V es toda aplicación ⟨·, ·⟩ : V × V → K, que debe verificar las siguientes propiedades: (1) ⟨u⃗1 + u⃗2, v⃗⟩ = ⟨u⃗1, v⃗⟩+ ⟨u⃗2, v⃗⟩. (2) ⟨λu⃗, v⃗⟩ = λ⟨u⃗, v⃗⟩. (3) ⟨u⃗, v⃗⟩ = ⟨v⃗, u⃗⟩. (4) ⟨u⃗, u⃗⟩ ≥ 0 y si ⟨u⃗, u⃗⟩ = 0 necesariamente u⃗ = 0⃗. 76 Esta fórmula es general: si (V, ⟨·, ·⟩) es un espacio vectorial eucĺıdeo, u⃗, v⃗ ∈ V , entonces el ángulo θ entre u⃗ y v⃗ viene dado por Re(⟨u⃗, v⃗⟩) = ||u⃗||||v⃗|| cos θ. (En el lado izquierdo se toma la parte real pues la fórmula es válida para cualquier producto interno, sea real o complejo). 4.3. Sistemas y bases ortogonales y ortonormales Esta idea de ortogonalidad es entonces la generalización a un espacio eucĺıdeo del concepto geométrico de vectores perpendiculares. Volviendo al ejemplo anterior de R2, los vectores u⃗ y v⃗ serán perpendiculares si forman un ángulo recto. Según (4.2), esto significa que ⟨u⃗, v⃗⟩ = 0 (recuérdese la introducción). Ello motiva la siguiente Definición. Sea (V, ⟨·, ·⟩) un espacio vectorial eucĺıdeo. Se dice que dos vectores u⃗ y v⃗ son orto- gonales cuando ⟨u⃗, v⃗⟩ = 0. Ejemplo 1. En Rn con el producto eucĺıdeo, la ortogonalidad significa que u1v1 + · · ·+ unvn = 0, o, en términos matriciales, u⃗T v⃗ = 0. por ejemplo, u⃗ = (0, 1, 0,−1)T y v⃗ = (1, 1, 1, 1)T son ortogonales para este producto interno. Ejemplo 2. Sea V = {f : [0, 2π] → C, f continua}. Se puede definir, ⟨f, g⟩ = ∫ 2π 0 f(x)g(x)dx, que es un producto interno sobre V . Las funciones f(x) = e3ix, g(x) = eix verifican ⟨f, g⟩ = ∫ 2π 0 e3ixe−ixdx = ∫ 2π 0 e2ixdx = e2ix 2i |2π0 = 0. Luego las funciones f y g son ortogonales para este producto interno. Se dice que un sistema de vectores no nulos {e⃗1, e⃗2, . . . , e⃗n} en V es Ortogonal si ⟨e⃗k, e⃗l⟩ = 0 para k ̸= l. Ortonormal si es ortogonal y además todos los vectores tienen norma uno, es decir ⟨e⃗k, e⃗l⟩ = 0, k ̸= l, ⟨e⃗k, e⃗k⟩ = 1, k = 1, . . . , n. Aśı, por ejemplo, los vectores e⃗1 = (1, 1) T , e⃗2 = (−1, 1)T forman un sistema ortogonal para el producto interno eucĺıdeo en R2 y los vectores e⃗1 = (1, 0)T , e⃗2 = (0, 1)T forman un sistema 79 ortonormal. La diferencia está en que los vectores ortonormales, además de ser ortogonales, han de tener norma uno. Aśı, un sistema ortonormal es siempre ortogonal. Por otro lado, si uno tiene un sistema {e⃗1, e⃗2, . . . , e⃗n} ortogonal de vectores no nulos, basta considerar el conjunto de vectores { e⃗1 ||e⃗1|| , e⃗2 ||e⃗2|| , . . . , e⃗n ||e⃗n|| } para obtener un sistema ortonormal. Por ejemplo, el sistema ortogonal anterior {e⃗1 = (1, 1)T , e⃗2 = (−1, 1)T } genera el sistema ortonormal { e⃗1||e⃗1|| = ( 1√ 2 , 1√ 2 )T , e⃗2||e⃗2|| = (− 1√ 2 , 1√ 2 )T }. Por último, un sistema ortogonal de vectores no nulos es siempre un conjunto linealmente independiente de vectores. En efecto, consideremos un sistema ortogonal {e⃗1, e⃗2, . . . , e⃗n} y una combinación nula cualquiera α1e⃗1 + α2e⃗2 + · · ·+ αne⃗n = 0⃗. Para comprobar que los vectores son independientes tenemos que llegar a que los coeficientes de la combinación son todos nulos. Si hacemos el producto interno de la combinación lineal con e⃗1, tenemos 0⃗ = ⟨⃗0, e⃗1⟩ = ⟨α1e⃗1 + α2e⃗2 + · · ·+ αne⃗n, e⃗1⟩ = α1⟨e⃗1, e⃗1⟩+ α2⟨e⃗2, e⃗1⟩+ · · ·+ αn⟨e⃗n, e⃗1⟩ = α1⟨e⃗1, e⃗1⟩ = α1||e⃗1||2, donde hemos utilizado la ortogonalidad de los vectores e⃗1, e⃗2, . . . , e⃗n. De aqúı, necesariamente α1 = 0. Este razonamiento puede repetirse con los vectores e⃗2, e⃗3 hasta e⃗n, concluyendo que α2 = α3 = · · · = αn = 0 y, por tanto, los vectores son independientes. Las bases que son ortogonales u ortonormales son muy útiles, entre otras cosas porque per- miten obtener de forma sencilla las coordenadas de un vector en ellas. Esto es lo que afirma el siguiente resultado. Teorema 2. Sea (V, ⟨·, ·⟩) un espacio vectorial eucĺıdeo y {e⃗1, e⃗2, . . . , e⃗m} un sistema ortogonal con espacio generado W . Si u⃗ ∈ W , entonces u⃗ = ⟨u⃗, e⃗1⟩ ||e⃗1||2 e⃗1 + ⟨u⃗, e⃗2⟩ ||e⃗2||2 e⃗2 + · · ·+ ⟨u⃗, e⃗m⟩ ||e⃗m||2 e⃗m. En particular, si {e⃗1, e⃗2, . . . , e⃗m} es ortonormal, entonces u⃗ = ⟨u⃗, e⃗1⟩e⃗1 + ⟨u⃗, e⃗2⟩e⃗2 + · · ·+ ⟨u⃗, e⃗m⟩e⃗m. Por ejemplo, el sistema B = {e⃗1, e⃗2, e⃗3} con e⃗1 = (1, 1,−1)T , e⃗2 = (−1, 1, 0)T , e⃗3 = (1, 1, 2)T , es un sistema ortogonal, y por tanto forma una base ortogonal, de R3 para el producto escalar eucĺıdeo. Si u⃗ = (3,−2, 4)T , podemos calcular las coordenadas de u⃗ con respecto a la base B de dos maneras: la primera, utilizando las fórmulas de cambio de base analizadas en el tema 2, es decir, si u⃗ = α1e⃗1 + α2e⃗2 + α3e⃗3, entonces las coordenadas α1, α2, α3 resuelven el sistema lineal 1 −1 11 1 1 −1 0 2 α1α2 α3  =  3−2 4  , 80 de donde α1 = −1, α2 = −5/2, α3 = 3/2. La segunda forma utiliza el teorema 2. Como la base es ortogonal, entonces u⃗ = α1e⃗1 + α2e⃗2 + α3e⃗3 = ⟨u⃗, e⃗1⟩ ||e⃗1||2 e⃗1 + ⟨u⃗, e⃗2⟩ ||e⃗2||2 e⃗2 + ⟨u⃗, e⃗3⟩ ||e⃗3||2 e⃗3. Calculando los productos internos, se tiene ⟨u⃗, e⃗1⟩ ||e⃗1||2 = −1, ⟨u⃗, e⃗2⟩ ||e⃗2||2 = −5 2 , ⟨u⃗, e⃗3⟩ ||e⃗3||2 = 9 6 , obteniéndose las mismas coordenadas que con la primera forma. La obtención de bases ortogonales y ortonormales será importante al tratar los problemas de aproximación en este tema. Por eso presentamos ahora un procedimiento para que, a partir de una base cualquiera, se pueda obtener una base ortogonal. 4.4. Método de ortogonalización de Gram-Schmidt Teorema 3 (Método de ortogonalización de Gram-Schmidt). Sea {v⃗1, v⃗2, . . . , v⃗m} un sistema libre de vectores en un espacio vectorial eucĺıdeo (V, ⟨·, ·⟩). Entonces, (a) Existe un nuevo sistema ortogonal y libre {e⃗1, e⃗2, . . . , e⃗m} tal que e⃗1 = v⃗1 y para k = 2, . . . ,m el vector e⃗k está determinado de forma única por la relación e⃗k = v⃗k − α1ke⃗1 − · · · − αk−1,ke⃗k−1, y las relaciones de ortogonalidad, ⟨e⃗k, e⃗l⟩ = 0, l = 1, . . . , k − 1. (b) El nuevo sistema genera el mismo espacio que el de partida. En particular, toda base de V se puede ortogonalizar. El procedimiento enunciado en el teorema es como sigue. Dados {v⃗1, v⃗2, . . . , v⃗m} linealmente independientes, el primer vector no cambia: e⃗1 = v⃗1. para obtener e⃗2, escribimos e⃗2 = v⃗2 − α12e⃗1 e imponemos la ortogonalidad entre e⃗1 y e⃗2, ⟨e⃗2, e⃗1⟩ = 0 ⇒ ⟨v⃗2, e⃗1⟩ − α12⟨e⃗1, e⃗1⟩ = 0 ⇒ α12 = ⟨v⃗2, e⃗1⟩ ||e⃗1||2 . Queda aśı determinado e⃗2 = v⃗2 − ⟨v⃗2, e⃗1⟩ ||e⃗1||2 e⃗1, 81 consideramos el subespacio W generado por el vector e⃗1 = (1, 0, 0) T . Según el apartado (i) del teorema 4, un vector v⃗ = (x, y, z)T está en W⊥ si es ortogonal a un sistema generador cualquiera de W ; como W está generado sólo por e⃗1 = (1, 0, 0) T entonces v⃗ ∈ W⊥ ⇔ ⟨v⃗, e⃗1⟩ = (x, y, z)  10 0  = x = 0. Esto nos proporciona las ecuaciones del ortogonal de W , W⊥ = {v⃗ = (x, y, z)T ∈ R3/x = 0}. Una base de W T es, por ejemplo {e⃗2 = (0, 1, 0)T , e⃗3 = (0, 0, 1)T }. Entonces, tenemos que {e⃗1, e⃗2, e⃗3} es una base de R3. Esto es lo que significa el apartado (ii) del teorema 4; en este caso R3 = W ⊕W⊥. Por otro lado, todo vector v⃗ = (x, y, z)T ∈ R3 se escribe como v⃗ = xe⃗1 + ye⃗2 + ze⃗3 = w⃗ + u⃗, donde w⃗ = xe⃗1 = (x, 0, 0) T ∈ W y u⃗ = ye⃗2 + ze⃗3 = (0, y, z)T ∈ W⊥. Esta es la descomposición deducida en (iii) para este caso. Por último, como dimW = 1, entonces dimW⊥ = dimR3 − dimW = 2, como ya hab́ıamos obtenido al deducir las ecuaciones del subespacio W⊥. Ejemplo 2. Sea A ∈ Mm,n(K). Entonces (Ker(A))⊥ = fil(A) (Ker(AT ))⊥ = col(A) En efecto, vamos a comprobar la primera igualdad. La segunda queda como ejercicio y es trivial a partir de la primera. Fijémonos en que si x⃗ es tal que Ax⃗ = 0⃗, este sistema de ecuaciones afirma que cada fila de A es ortogonal a cualquier vector x⃗ ∈ Ker(A). Luego fil(A) ⊂ (Ker(A))⊥. Como, por otra parte, ambos subespacios tienen la misma dimensión, ha de ser (Ker(A))⊥ = fil(A). Volvamos a la situación del teorema 4. El sumando w⃗ ∈ W de la descomposición v⃗ = w⃗ + u⃗ se llama proyección ortogonal de v⃗ sobre W y se denota por PW (v⃗). Teorema 5. En las condiciones del teorema 4, se tiene: (1) La proyección ortogonal PW (v⃗) ∈ W de v⃗ sobre W queda caracterizada por la condición v⃗ − PW (v⃗) es ortogonal a todo vector de W . (2) La proyección ortogonal PW (v⃗) de v⃗ sobre W es la mejor aproximación de v⃗ por elementos de W , en el sentido de que es el más próximo a v⃗ de entre todos los vectores de W , es decir: ||v⃗ − PW (v⃗)|| = mı́n{||v⃗ − w⃗|| : w⃗ ∈ W}. La relación del apartado (1) del teorema da un medio práctico para calcular PW (v⃗). Tomemos una base cualquiera {w⃗1, w⃗2, . . . , w⃗m} de W . Encontrar PW (v⃗) es encontrar escalares λ1, . . . , λm tales que PW (v⃗) = λ1w⃗1+ · · ·+λmw⃗m, puesto que la proyección ha de estar en W . Por otro lado, 84 para que se verifique la condición de (1) se necesita y basta que v⃗ − PW (v⃗) sea ortogonal a cada w⃗i. Por tanto, los λi quedan caracterizados por las m condiciones ⟨v⃗ − (λ1w⃗1 + · · ·+ λmw⃗m), w⃗1⟩ = 0 ⟨v⃗ − (λ1w⃗1 + · · ·+ λmw⃗m), w⃗2⟩ = 0 ... = ... ⟨v⃗ − (λ1w⃗1 + · · ·+ λmw⃗m), w⃗m⟩ = 0, es decir, λ1⟨w⃗1, w⃗1⟩+ · · ·+ λm⟨w⃗m, w⃗1⟩ = ⟨v⃗, w⃗1⟩ λ1⟨w⃗1, w⃗2⟩+ · · ·+ λm⟨w⃗m, w⃗2⟩ = ⟨v⃗, w⃗2⟩ (4.3) ... = ... λ1⟨w⃗1, w⃗m⟩+ · · ·+ λm⟨w⃗m, w⃗m⟩ = ⟨v⃗, w⃗m⟩ Las ecuaciones (4.3) se llaman ecuaciones normales del problema. Un caso particularmente sencillo es aquél en el que la base {w⃗1, w⃗2, . . . , w⃗m} es ortogonal. Entonces, el sistema (4.3) tiene la forma λ1||w⃗1||2 = ⟨v⃗, w⃗1⟩ ... = ... λm||w⃗m||2 = ⟨v⃗, w⃗m⟩ con lo que se obtiene la fórmula cerrada PW (v⃗) = ⟨v⃗, w⃗1⟩ ||w⃗1||2 w⃗1 + · · ·+ ⟨v⃗, w⃗m⟩ ||w⃗m||2 w⃗m. Hay que insistir en que esta fórmula sólo es válida cuando la base elegida en W , {w⃗1, w⃗2, . . . , w⃗m} es ortogonal. En caso contrario, hay que utilizar las ecuaciones normales para determinar la proyección ortogonal. Ejemplos. (1) Sea W = {(x, y, z, t)T /x + y − z = 0, x − t = 0}. Buscamos la proyección ortogonal de v⃗ = (1, 1, 1, 0)T sobre W . Primero obtenemos una base de W , que puede ser, por ejemplo, w⃗1 = (1, 0, 1, 1)T , w⃗2 = (0, 1, 1, 0) T . Ahora, la proyección ha de ser de la forma PW (v⃗) = λ1w⃗1 + λ2w⃗2. Para determinar las coordenadas λ1, λ2, debemos obligar a que el vector diferencia v⃗ − PW (v⃗) sea ortogonal al sistema generador de W . El planteamiento de las condiciones de ortogonalidad da lugar al sistema de ecuaciones normales 3λ1 + λ2 = 2 λ1 + 2λ2 = 2, de donde λ1 = 2/5, λ2 = 4/5. Entonces PW (v⃗) = 2 5 w⃗1 + 4 5 w⃗2 = (2/5, 4/5, 6/5, 2/5) T . 85 (2) Consideremos ahora el espacio V de funciones reales y acotadas, definidas en el intervalo [−1, 1] y dotado con el producto interno f, g ∈ V, ⟨f, g⟩ = ∫ 1 −1 f(x)g(x)dx. La función f : [−1, 1] → R dada por f(x) = { 1 si x ∈ [−1, 0] −1 si x ∈ (0, 1] está en V , aśı como los polinomios 1, x, x2. Vamos a buscar la proyección ortogonal de f sobre el subespacio de polinomios de grado menor o igual que dos y coeficientes reales W , generado por tanto por los polinomios 1, x, x2. Al tener que ser un elemento de W , la proyección tendrá la forma PW (f)(x) = α0 + α1x+ α2x 2. Para determinar los coeficientes de este polinomio, debemos obligar a que la función diferencia f − PW (f) sea ortogonal al sistema generador de W . Esto nos lleva al sistema de ecuaciones normales f − PW (f) ⊥ 1 ⇒ α0⟨1, 1⟩+ α1⟨x, 1⟩+ α2⟨x2, 1⟩ = ⟨f, 1⟩ f − PW (f) ⊥ x ⇒ α0⟨1, x⟩+ α1⟨x, x⟩+ α2⟨x2, x⟩ = ⟨f, x⟩ f − PW (f) ⊥ x2 ⇒ α0⟨1, x2⟩+ α1⟨x, x2⟩+ α2⟨x2, x2⟩ = ⟨f, x2⟩, que, utilizando la definición del producto interno, tiene la forma α0 (∫ 1 −1 1dx ) + α1 (∫ 1 −1 xdx ) + α2 (∫ 1 −1 x2dx ) = (∫ 1 −1 f(x)dx ) , α0 (∫ 1 −1 xdx ) + α1 (∫ 1 −1 x2dx ) + α2 (∫ 1 −1 x3dx ) = (∫ 1 −1 xf(x)dx ) , α0 (∫ 1 −1 x2dx ) + α1 (∫ 1 −1 x3dx ) + α2 (∫ 1 −1 x4dx ) = (∫ 1 −1 x2f(x)dx ) . Calculando las integrales, tenemos el sistema 2α0 + 2 3 α2 = 0, 2 3 α1 = −1, 2 3 α0 + 2 5 α2 = 0, de donde α0 = α2 = 0, α1 = −32 y, por tanto, la proyección ortogonal buscada es el polinomio PW (f)(x) = −32x. (3) Sea V = {f : [0, 2π] → R, f continua} con el producto interno ⟨f, g⟩ = ∫ 2π 0 f(x)g(x)dx. 86 −5 0 5 10 15 x 10 −4 −1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1 Figura 4.1: Función p(t). Para ilustrar esto matemáticamente, vamos a considerar una onda de sonido con forma de diente de sierra y frecuencia básica de 2000 ciclos por segundo. Tal onda es periódica en tiempo con peŕıodo T = 1/2000 = ,0005 segundos. La función p(t) que expresa dicha onda matemáticamente puede escribirse: p(t) = 2 T ( T 2 − t ) , para t ∈ [0, T ), repitiéndose periódicamente en intervalos de longitud T . El óıdo humano reconoce sólo ondas de sonido que son funciones trigonométricas del tiempo q(t) = a0 2 + n∑ k=1 (ak cos( 2πkt T ) + bk sin( 2πkt T )), a0 ∈ R, ak, bk ∈ R, 1 ≤ k ≤ n, donde ak, bk son las amplitudes de las componentes sinusoidales de la onda, mientras que las frecuencias k/T se truncan al entero n tal que n/T ≤ 20000. La función q(t) es también periódica de peŕıodo T . Sin embargo, mientras que q(t) es una suma finita de ondas sinusoidales, la función p(t) no lo es. Por tanto, la onda de sonido p(t) produce una respuesta del óıdo humano q(t) que es sólo una aproximación de la onda p(t), obtenida truncando las frecuencias mayores de n/T . El cálculo de la aproximación q(t) puede hacerse como una proyección ortogonal en un espacio apropiado. La función q(t) debe hacer mı́nima la ‘distancia’ entre p(t) y cualquier expresión combinación de funciones seno y coseno con frecuencias n/T ≤ 20000 (es decir, cualquier señal para el óıdo humano). Tal ‘distancia’ se expresa a través de la integral E = ∫ T 0 (p(t)− q(t))2dt, es decir, la función que buscamos debe aproximarse lo más posible al sonido original. 89 Vamos a resolver el problema en términos de una proyección ortogonal. Fijemos un número n con n/T ≤ 20000. Consideremos el espacio V de las funciones acotadas de [0, T ] en R con el producto interno ⟨f, g⟩ = ∫ T 0 f(x)g(x)dx aśı como el subespacio de los llamados polinomios trigonométricos de grado menor o igual que n Sn = { a0 2 + n∑ k=1 (ak cos( 2πkt T ) + bk sin( 2πkt T )), a0 ∈ R, ak, bk ∈ R, 1 ≤ k ≤ n, } . Esto es, el subespacio Sn es el conjunto de combinaciones lineales de las funciones {1, cos(2πt T ), sin( 2πt T ), cos( 4πt T ), sin( 4πt T ), . . . , cos( 2πnt T ), sin( 2πnt T )}. Teniendo en cuenta el producto interno definido en este espacio, la función q(t) que buscamos es la mejor aproximación a la función p(t) por elementos de Sn, es decir, la proyección ortogonal de p(t) sobre Sn. Observemos que las funciones anteriores que generan Sn son ortogonales para este producto interno, porque se verifica ⟨1, cos(2πkt T )⟩ = ∫ T 0 cos( 2πkt T )dt = T 2πk sin( 2πkt T ) ∣∣∣T 0 = 0, ⟨1, sin(2πkt T )⟩ = ∫ T 0 sin( 2πkt T )dt = − T 2πk cos( 2πkt T ) ∣∣∣T 0 = 0, ⟨sin(2πjt T ), cos( 2πkt T )⟩ = ∫ T 0 sin( 2πjt T ) cos( 2πkt T )dt = T 2πk 1 2 ( sin( 2π(j + k)t T ) + sin( 2π(j + k)t T ) ) ∣∣∣T 0 = 0. Por tanto, la proyección ortogonal puede calcularse usando la fórmula cerrada válida cuando la base es ortogonal. En este caso q(t) = a0 2 + n∑ k=1 (ak cos( 2πkt T ) + bk sin( 2πkt T )), a0 ∈ R, ak, bk ∈ R donde los coeficientes vienen dados por a0 = ⟨p(t), 1⟩ ⟨1, 1⟩ = ∫ T 0 p(t)dt∫ T 0 dt = 0, ak = ⟨p(t), cos(2πktT )⟩ ⟨cos(2πktT ), cos( 2πkt T )⟩ = ∫ T 0 p(t) cos( 2πkt T )dt∫ T 0 cos 2(2πktT )dt = 0, 1 ≤ k ≤ n, bk = ⟨p(t), sin(2πktT )⟩ ⟨sin(2πktT ), sin( 2πkt T )⟩ = ∫ T 0 p(t) sin( 2πkt T )dt∫ T 0 sin 2(2πktT )dt = 2 kπ , 1 ≤ k ≤ n. La figura 4.2 muestra la función p(t) y el polinomio q(t) con n = 10. Hay que observar cómo q(t) da una aceptable aproximación excepto en los extremos. 90 0 2 4 6 x 10 −4 −1.5 −1 −0.5 0 0.5 1 1.5 Figura 4.2: Función p(t) (ĺınea continua) y aproximación q(t) (ĺınea discontinua) con n = 10. 4.6.3. Ejemplo 3. Aproximación con polinomios Los dos ejemplos anteriores han pretendido ilustrar dos aplicaciones de una misma idea de aproximación por mı́nimos cuadrados. En el primer ejemplo, la aproximación es discreta, mientras que en el segundo se trata de una aproximación funcional. Es decir, cambia el espacio vectorial y el producto interno, pero no la necesidad de aproximar usando proyecciones ortogonales. Estas dos aplicaciones pueden hacer uso de una misma herramienta. Por ejemplo, los poli- nomios pueden servir, en este contexto, para ajustar datos o para aproximar funciones. Un problema de aproximación discreta por polinomios puede plantearse de la forma siguiente: dado un conjunto de n+ 1 datos (x1, y1), (x2, y2), . . . , (xn+1, yn+1), hay que encontrar un polinomio y = pm(x) de grado m < n que mejor se ajuste a los n+1 datos. Lo de mejor ajuste se entiende en el sentido de que el polinomio debe minimizar las distancias a los datos del problema: si x⃗ = (x1, . . . , xn+1), y⃗ = (y1, . . . , yn+1), entonces mı́n z⃗∈Rn+1 ||y⃗ − z⃗|| = n+1∑ j=1 (yj − pm(xj))2 1/2 . El origen del problema podŕıa ser el siguiente: normalmente los datos proceden de la medición de un determinado fenómeno. Si bien en la práctica (por ejemplo, al utilizar el ordenador) el uso directo de los datos no da ningún problema, si se quiere averiguar algo sobre el fenómeno, no hay más remedio que pasar de lo discreto a algo continuo, tratando de sustituir los datos por una función que los aproxime con suficiente precisión y que sea lo suficientemente manejable para que podamos representar el fenómeno a través de ella y aśı establecer conjeturas sobre el mismo. La elección primaria de los polinomios se debe a que son las funciones más simples de manipular. 91 −1 −0.5 0 0.5 1 0 0.5 1 1.5 −1 −0.5 0 0.5 1 0 0.5 1 1.5 −1 −0.5 0 0.5 1 0 0.5 1 1.5 −1 −0.5 0 0.5 1 −0.5 0 0.5 1 1.5 2 Figura 4.5: Gráfico aproximado de la función x(t) (izquierda) y polinomios de ajuste de grados 2 (derecha arriba) y 3 (derecha abajo). expĺıcita de x(t). Vamos entonces a buscar un polinomio que aproxime a x(t). La aproximación se realizará en el sentido mı́nimos cuadrados, de modo que, de entre todas las funciones reales continuas definidas en [−1, 1], sea el polinomio p(t) el que minimice la distancia con la función x(t). Tal distancia está referida al producto interno ⟨f, g⟩ = ∫ 1 −1 f(t)g(t)dt, de modo que si V es el espacio de funciones f : [−1, 1] → R continuas, entonces ||x− p|| = (∫ 1 −1 (x(t)− p(t))2dt )1/2 = mı́n f∈V ||x(t)− f(t)||. De este modo, si n es el grado del polinomio p(t), éste debe encontrarse como la proyección ortogonal de x(t) sobre el espacio de polinomios de grado menor o igual que n y coeficientes reales, con respecto al producto interno antes definido. Por ejemplo, si n = 2, p(t) = a0+a1t+a2t 2 debe verificar el sistema de ecuaciones normales x(t)− p(t) ⊥ 1 ⇒ a0⟨1, 1⟩+ a1⟨t, 1⟩+ a2⟨t2, 1⟩ = ⟨x(t), 1⟩ x(t)− p(t) ⊥ t ⇒ a0⟨1, t⟩+ a1⟨t, t⟩+ a2⟨t2, t⟩ = ⟨x(t), t⟩ x(t)− p(t) ⊥ t2 ⇒ a0⟨1, t2⟩+ a1⟨t, t2⟩+ a2⟨t2, t2⟩ = ⟨x(t), t2⟩, que en este caso tiene la forma 2a0 + 2 3 a2 = x(1) = ∫ 1 −1 e−x 2 dx, 2 3 a1 = 1 e , 94 2 3 a0 + 2 5 a2 = 1 3 x(1), de donde a0 = 1 2x(1), a1 = 3 4e + 3 8x(1), a2 = 0. La figura 4.5 muestra el gráfico aproximado de la función x(t) en el intervalo [−1, 1] y el de su polinomio de aproximación de grados 2 y 3. Hay que observar el buen ajuste de éste último con la función. EJERCICIOS DEL TEMA 4 Ejercicio 1. (a) ¿Qué pares de vectores son ortogonales? v1 = (1, 2,−2, 1)T , v2 = (4, 0, 4, 0)T , v3 = (1,−1,−1,−1)T . (b) Halla en R3 todos los vectores ortogonales a la vez a v1 = (1, 1, 1)T y v2 = (1,−1, 0)T . Ejercicio 2. Encuentra una base ortogonal de R3 partiendo del vector (1, 1,−1)T . Ejercicio 3. Dada la base B = {(1, 1, 0)T , (1, 0, 1)T , (0, 1, 1)T } (a) Construye una base ortonormal de R3 a partir de B. (b) Escribe el vector (2,−1, 3)T en términos de la base ortonormal antes obtenida. Ejercicio 4. Calcula una base ortonormal de R4 que incluya a los vectores ( 1√ 2 , 0, 1√ 2 , 0)T , (−1 2 , 1 2 , 1 2 ,−1 2 )T . Ejercicio 5. Halla una base ortonormal de los subespacios generados por los vectores siguientes: a) [1,−1, 1, 1]T , [0, 1, 1, 1]T y [3, 1, 1, 0]T , b) [1, 1, 1, 1]T , [1, 1, 2, 4]T y [1, 2,−1,−2]T . Ejercicio 6. Se considera la matriz A =  0 1 01 1 1 −1 1 0  . (i) Calcula una base ortonormal del subespacio columna col(A) utilizando el método de Gram- Schmidt. (ii) Llama Q a la matriz que tiene por columnas la base ortonormal obtenida en (i). Determina la relación entre las columnas de A y las de Q. (iii) Determina una matriz R de tres filas y tres columnas tal que A = QR. Esto es lo que se llama factorización QR de la matriz A. (iv) Repite el procedimiento con la matriz A =  1 1 2 0 1 0 1 1 1 0 1 2 1 1 0 1  . 95 Ejercicio 7. Se consideran los subespacios U, V y W de R4 dados por: U = {[x, y, z, t]T /x+y−z = 0, x−t = 0}, V = span([0, 1, 1,−1]T , [2, 0, 1, 1]T ),W = {[x, y, z, t]T /x+y = 0}. a) Da las ecuaciones que definen U⊥, V ⊥, W⊥. b) Halla bases ortonormales de U , U⊥, V , V ⊥, W y W⊥. Ejercicio 8. Dado el subespacio S = {(x, y, z)T ∈ R3 : 2x− y + 3z = 0} (a) Halla una base ortonormal de S. (b) Calcula la proyección ortogonal del vector v = (3,−2, 4)T sobre S. (c) Escribe v como suma de dos vectores, uno que esté en S y otro que sea ortogonal a todos los vectores de S. Ejercicio 9. Repite el ejercicio anterior para los siguientes subespacios y vectores: (a) S = {(x1, x2, x3, x4)T ∈ R3 : 2x1 − x2 + 3x3 − x4 = 0}, v = (1,−1, 2, 3)T . (b) S = {(x1, x2, x3, x4)T ∈ R3 : x1 = x2, 3x2 = x4}, v = (−1, 2, 3,−1)T . Ejercicio 10. Calcula la descomposición del vector v en suma de dos vectores, uno en el sube- spacio generado por los vectores wi que se indican y el otro ortogonal a dicho subespacio: (a) v = (5, 2,−2, 1)T , w1 = (2, 1, 1,−1)T , w2 = (1, 1, 3, 0)T . (b) v = (1, 0,−2,−1)T , w1 = (1,−1, 1, 1)T . Ejercicio 11. Halla la solución en el sentido mı́nimos cuadrados de los sistemas 1 0 1 1 1 3 1 4 (xy ) =  0 1 2 5  ,  −1 1 1 0 2 1 −1 3 2 −1 −1 1  xy z  =  1 0 1 1  . Ejercicio 12. Sea P3[X] el espacio de los polinomios reales de grado menor o igual a tres. Sea T : P3[X] → R2 la aplicación lineal que a cada polinomio p lo env́ıa al vector (p(−1), p(1))T . a) Calcula una base de Ker(T ). b) En el conjunto de las funciones reales definidas en (−1, 1), se considera el producto interno ⟨f, g⟩ = ∫ 1 −1 f(x)g(x)dx. Aproxima en el sentido mı́nimos cuadrados la función f dada por f(x) =  0 si −1 ≤ x < 0 1 si 0 ≤ x ≤ 1/2 0 si 1/2 < x ≤ 1 por elementos de Ker(T ). Ejercicio 13. ¿ Qué recta ajusta mejor los siguientes datos: y = 0 en x = 0, y = 0 en x = 1, y = 12 en x = 3 ?. 96
Docsity logo



Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved