Docsity
Docsity

Prepara tus exámenes
Prepara tus exámenes

Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity


Consigue puntos base para descargar
Consigue puntos base para descargar

Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium


Orientación Universidad
Orientación Universidad

Müller álgebra lineal, Apuntes de Álgebra Lineal

Libro completo Müller álgebra lineal formato pdf

Tipo: Apuntes

2018/2019

Subido el 24/06/2019

esmeralda-guevara-1
esmeralda-guevara-1 🇲🇽

5

(1)

2 documentos

Vista previa parcial del texto

¡Descarga Müller álgebra lineal y más Apuntes en PDF de Álgebra Lineal solo en Docsity! Universidad Mayor de San Simón Facultad de Ciencias y Tecnoloǵıa Carrera de Matemáticas Algebra Lineal Hans C. Müller Santa Cruz Cochabamba, . Prefacio El Algebra Lineal es una de las ramas fundamentales de las Matemáticas; por un lado, porque es herramienta de trabajo imprescindible en otras áreas de las matemáticas como el Análisis, la Geométŕıa, el Análisis Numérico, las Estad́ısticas y otras; por otro lado, las aplicaciones del Algebra Lineal en la solución de problemas de otras disciplinas y ciencias es moneda corriente. El texto de Algebra Lineal está inscrito dentro el desarrollo que pretende dar la Carrera de Matemáticas en su nueva formulación. Este texto contiene lo más importante dentro lo que es el Algebra Lineal, dando el vocabulario y conceptos de base para una buena utilización, presentando los razonamientos de manera rigurosa y en lo posible elegante, mostrando ejemplos donde el Algebra Lineal es un instrumento de solución a los problemas presentados. Para un buen asimilación de los conocimientos y razonamientos de este texto; las definiciones y conceptos más significativos están escritos en negrillas, estos deberán ser memorizados y manipulados fluidamente. Los resultados mas importantes están expresados en los teoremas, corolarios y proposiciones, estos deberán también ser memorizados para manejarlos de manera fluida. Las demostraciones de este texto deberán ser trabajadas, con la finalidad de adquirir las diferentes técnicas de demostración que se emplean en el Algebra Lineal. Con fines pedágogicos, en algunos paragrafos se presentan los resultados fundamentales que serán tratados en el paragrafo en cuestión, estos están escritos en carácteres itálicos. La práctica del curso, es una fuente para practicar los conocimientos adquiridos y aśı mismo como un medio de adquirir conocimientos adicionales. Por lo tanto, una resolución en gran número de estos ejercicios, podrá medir el grado de asimilación del estudiante. Caṕıtulo I Espacios Vectoriales y Aplicaciones Lineales I.1 Preliminares Cuerpos Conmutativos Tanto en el colegio, como en los primeros cursos universitarios, se ha tenido un contacto directo con: Q el conjunto de los números racionales = {n/m|n,m enteros, m 6= 0}; R el conjunto de los números reales; C el conjunto de los números complejos. Estos tres conjuntos están dotados de: una adición: α+ β una multiplicación: α · β que verifican las tres familias de axiomas: I. Adición i) la adición es conmutativa, α+ β = β + α. ii) la adición es asociativa, (α+ β) + γ = α+ (β + γ). iii) existe un elemento cero 0 tal que 0 + α = α+ 0 = α, ∀α. iv) ∀α existe un opuesto −α, tal que α+ (−α) = 0. II. Multiplicación i) la multiplicación es conmutativa, α · β = β · α. ii) la multiplicación es asociativa, (α · β) · γ = α · (β · γ). iii) existe el elemento uno 1, tal que 1 · α = α, ∀α. iv) ∀β 6= 0, β posee un inverso β−1 = 1/β, tal que β · β−1 = 1. III. Distributividad i) α · (β + γ) = α · β + α · γ. ii) (α+ β) · γ = α · γ + β · γ. Un conjunto K, provisto de una adición y de una multiplicación se llama cuerpo conmutativo, si satisface los tres grupos de axiomas mencionados más arriba. Remarca.- Un conjunto K provisto de una adición y de una multiplicación que satisface las tres familias de axiomas, quizás excepto el axioma II.i se llama cuerpo. Proposición I.1.1.- En un cuerpo conmutativo K, se tiene 1) El elemento 0 es único. 2) El opuesto de α es único. 3) El elemento 1, aśı como el inverso de β 6= 0 son únicos. 4) Se tiene α+ α = α ⇐⇒ α = 0. 2 I Espacios Vectoriales y Aplicaciones Lineales 5) Se tiene α · 0 = 0, ∀α. Demostración: 1.- Supóngase que 0 y 0′ son ceros, entonces 0′ = 0 + 0′ = 0′ + 0 = 0⇒ 0 = 0′. 2.- Sea α ∈ K, −α y −α′ opuestos de α. Se tiene −α = −α+ 0 = −α+ (α+ (−α′)) = (−α+ α) + (−α′) = 0 + α′ = α′. 3.- Ejercicio. 4.- ⇐ trivial, α+ α = α,⇒ (α+ α) + (−α) = α+ (−α), α+ (α+ (−α)) = 0, α+ 0 = 0 ⇒ α = 0. 5.- Utilizando el punto 4) de la proposición, se tiene α · 0 = α · (0 + 0), α · 0 = α · 0 + α · 0⇒ α · 0 = 0.  En lo que sigue del caṕıtulo K denotará un cuerpo conmutativo. Se convendrá α − β = α + (−β) y αβ = α · β. Espacios Vectoriales Un espacio vectorial sobre K, K-espacio vectorial, es un conjunto V provisto de dos operaciones: V × V → V (x, y) 7→ x+ y adición K× V → V (α, x) 7→ αx multiplicación por escalar que verifican los dos sistemas de axiomas: I Adición i) la adición es conmutativa x+ y = y + x, ∀x, y ∈ V . ii) la adición es asociativa (x+ y) + z = x+ (y + z), ∀x, y, z ∈ V . iii) existe un cero, 0 ∈ V tal que 0 + x = x, ∀x ∈ V . iv) Todo x ∈ V posee un opuesto −x, tal que x+ (−x) = 0. II Multiplicación por escalar i) α(βx) = (αβ)x, ∀α, β ∈ K, ∀x ∈ V . ii) (α+ β)x = αx+ βx, ∀α, β ∈ K, ∀x ∈ V . iii) α(x+ y) = αx+ αy, ∀αK, x, y ∈ V . Definición I.1.2.- Un subconjunto U 6= ∅ de V espacio vectorial, es un subespacio vectorial de V , si x, y ∈ U ⇒ αx+ βy ∈ U, ∀α, β ∈ K. Ejemplos I.1 Preliminares 5 10.- Ejercicio.- Mostrar que < {t→ ti}i≥0 >= P y Pn =< {t→ ti}ni=0 > 11.- Sean U1, U2, . . . , Un subespacios vectoriales de V , se denota U1 + U2 + · · ·+ Un el subespacio engendrado por n⋃ i=1 Ui. Ejercicio.- Mostrar que los elementos de n∑ i=1 son aquéllos de V que se escriben bajo la forma v = n∑ i=1 ui, ui ∈ U. Definición I.1.7.- Se dice que la familia {v1, . . . , vm} de V es linealmente dependiente si y solamente si existen α1, α2, . . . , αn ∈ K no todos nulos, tales que n∑ i=1 αivi = 0. Si {v1, . . . , vm} no es linealmente dependiente, se dice que es linealmente independiente; es decir, {v1, . . . , vm} es linealmente independiente si y solamente si n∑ i=1 αivi = 0⇒ α1 = α2 = · · · = αm = 0. Se dice que ∅ 6= A ⊂ V , no necesariamente finito, es linealmente dependiente, si existe {v1, . . . , vm} ⊂ A linealmente dependiente. Se dice que ∅ 6= A ⊂ V , no necesariamente finito, es linealmente independiente si toda familia finita {v1, . . . , vm} ⊂ A es linealmente independiente. Se conviene que ∅ es linealmente independiente. Ejemplos 12.- A = {0}, entonces A es linealmente dependiente. 13.- Los vectores ei, i = 1, . . . , n de Kn definidos en el ejemplo 9, forman una familia linealmente indepen- diente. 14.- Sea V 6= {0} un espacio vectorial, 0 6= x ∈ V , entonces {x} es linealmente independiente. En efecto, utilizando la proposición (I.1.3), punto 5, se tiene αx = 0⇒ α = 0. 15.- Sea P el espacio de las funciones polinomiales reales. Ejercicio.-Mostrar que el conjunto A = {t 7→ ti}i≥0 es una familia linealmente independiente de P. Definición I.1.8.- Se dice que B ⊂ V es una base de V espacio vectorial si y solamente si B es linealmente independiente y B engendra V . Ejemplos 16.- V = K, sea α ∈ K, con α 6= 0, entonces {α} es una base de K. 17.- V = Kn. El conjunto {e1, e2, . . . , en} es una base de Kn. 18.- {t 7→ ti}ni=0 es una base de Pn. 6 I Espacios Vectoriales y Aplicaciones Lineales Proposición I.1.9.- El subconjunto xii∈I del espacio vectorial V es una base de V , si y solamente si todo elemento v ∈ V se escribe de manera única bajo la forma v = ∑ sumafinita αivi, αi ∈ K. Demostración.- En los ejercicios propuestos de la práctica. Aplicación a los Sistemas Lineales    a11ξ1 + a12ξ2 + · · · + a1mξm = 0 ... ... an1ξ1 + an2ξ2 + · · · + anmξm = 0 (I.1.2) Planteando a1 =(a11, a21, . . . , an1) ∈ Kn, ... am =(a1m, a2m, . . . , anm) ∈ Kn, b =(b1, b2, . . . , bn) ∈ Kn. El sistema (I.1.2) es equivalente a resolver ξ1a1 + ξ2a2 + · · ·+ ξmam = b. Por consiguiente: i) El sistema (I.1.2) tiene una solución, si y solamente si b ∈< {a1, . . . , am} >. ii) Si {a1, . . . , am} es linealmente independiente y (I.1.2) tiene solución, entonces ésta es única. I.2 Espacios de Generación Finita 7 I.2 Espacios de Generación Finita Se dice que el espacio vectorial V es de generación finita si posee un sistema de generadores finito, es decir si existe v1, v2, . . . , vn ∈ V , tales que todo v ∈ V , se escribe como v = n∑ i=1 αivi, αi ∈ K. Ejemplos 1.- Kn es de generación finita, porque es engendrado por {e1, e2, . . . , en}. 2.- El espacio P de las funciones polinomiales no es de generación finita. Esto se verá más adelante. 3.- Ejercicio.- Si V y W son espacios vectoriales sobre K cuerpo, mostrar que V ×W es de generación finita. En este parágrafo se verá como resultado principal que los espacios vectoriales de generación finita tienen bases finitas, además que todas las bases de un espacio vectorial de generación finita tienen el mismo número de elementos. Teorema I.2.1.- Intercambio de Grassmann.- Sea V 6= {0} un espacio de generación finita. Sea Gr = {y1, y2, . . . , yr} un sistema de generadores de V . Sea L = {x1, . . . , xs} un subconjunto linealmente indepen- diente en V . Entonces: i) r ≥ s; ii) Existen (r − s) elementos yis+1 , yis+2 , . . . , yir de Gr tales que {x1, . . . , xs, yis+1 , yis+2 , . . . , yir} engendra V. Demostración.- Por inducción sobre s, donde s es el número de elementos de L. Para s = 0, el enunciado es cierto de manera trivial. Supongamos cierto el teorema para s− 1, con s > 0. A demostrar que el teorema es cierto para s. Se utiliza la hipótesis de inducción para L′ = {x1, x2, . . . , xs−1}, obteniendo: i) r ≥ (s− 1), ii) existen yis , yis+1 , . . . , yir en Gr tales que {x1, . . . , xs−1, yis , yis+1 , . . . , yir} engendra V. Si es necesario renumerar los yi, se puede suponer que yij = yj , es decir {x1, . . . , xs−1, ys, . . . , yr} engendra V . Por lo tanto, el elemento xs se puede escribir como combinación lineal de x1, . . . , xs−1, ys, . . . , yr xs = s−1∑ i=1 αixi + r∑ j=s βjyj , los βj no son todos nulos, sino L ′ seŕıa linealmente dependiente. De ah́ı, se deduce que r ≥ s, existe un j, con βj 6= 0. Si es necesario renumerar los yj , se puede suponer que βs 6= 0. De donde xs = s−1∑ i=1 αixi + βsys + r∑ j=s+1 βjyj . (I.2.1) El siguiente paso, es mostrar que {x1, . . . , xs, ys+1, . . . , yr} engendra V . Sea v ∈ V , por hipótesis de inducción, se puede escribir v = s−1∑ i=1 γixi + δsys + r∑ i=s+1 δjyj , (I.2.2) 10 I Espacios Vectoriales y Aplicaciones Lineales Proposición I.2.8.- Sea V de generación finita y U un subespacio de V . Entonces, U es de generación finita y se tiene dim(U) ≤ dim(V ). Además dim(U) = dim(V ) ⇐⇒ U = V. Demostración.- Se observa que un subconjunto linealmente independiente de U es también un subconjunto linealmente independiente de V . Los subconjuntos linealmente independientes de V , tienen a lo sumo dim(V ) elementos. Por lo tanto, los subconjuntos linealmente independientes de U son finitos con a lo más dim(V ) elementos. Se elige B = {u1, u2, . . . , un} un subconjunto linealmente independiente maximal; es decir, si B & B′ ⊂ U , entonces B′ es linealmente dependiente. Afirmamos que B es una base de U , con lo que estaŕıa demostrado que U es de generación finita y dim(U) ≤ dim(V ). En efecto, sea u ∈ U , a demostrar que existe α1, . . . , αn ∈ K, tales que u = n∑ i=1 αiui. Si u ∈ {u1, u2, . . . , un} está claro. Si u 6∈ {u1, u2, . . . , un}, se considera B′ = {u1, u2, . . . , un, u}, por maximilidad B′ es linealmente dependiente. Por consiguiente, existen β1, . . . , βn, β no todos nulos tales que 0 = n∑ i=1 βiui + βu. beta 6= 0, sino B seŕıa linealmente dependiente, entonces u = n∑ i=1 −βi β ui. Falta probar que dim(U) = dim(V ) ⇒ U = V . Sea B = {u1, . . . , un} una base de U, es por lo tanto un subconjunto linealmente independiente de U y por consiguiente de V , por la proposicion I.2.6 inciso iii), B es una base de V . La implicación del otro sentido es trivial  Proposición I.2.9.- (Fórmula de Dimensión).- Sea V de generación finita. P y Q subespacios de V . Entonces dim(P +Q) = dim(P ) + dim(Q)− dim(P ∩Q). Demostración.- En los ejercicios de la Práctica. Ejemplo 7.- La intersección de dos planos vectoriales diferentes en R3 es una recta vectorial. En efecto, se tiene: P +Q = R3, porque sino P = Q, aplicando la fórmula de dimensión de subespacios, se deduce que dim(P ∩Q) = 1. I.3 Aplicaciones Lineales 11 I.3 Aplicaciones Lineales Definición I.3.1.- Sean V y W dos espacios vectoriales. Se dice que la aplicación f : V →W es lineal, o homomorfismo de espacios vectoriales, si f(v1 + v2) = f(v1) + f(v2), ∀v1, v2 ∈ V ; f(αv) = αf(v), ∀α ∈ K, ∀v ∈ V. Remarca.- f(0) = 0, en efecto f(0) = f(0 + 0) = f(0) + f(0). Se denota por Hom(V,W ) el conjunto de las aplicaciones lineales de V en W . Proposición I.3.2.- Hom(V,W ) es un espacio vectorial para las operaciones definidas por: (f + g)(v) = f(v) + g(v), (αf)(v) = αf(v). Demostración.- Ejercicio. Definición I.3.3.- Una aplicación lineal biyectiva se llama isomorfismo, una aplicación lineal f : V → V se llama endomorfismo, End(V ) = Hom(V, V ). Un endomorfismo biyectivo se llama automorfismo, Gl(V ) = {automorfismos de V }. Ejemplos y/o Ejercicios 1.- Sea U un subespacio de V espacio vectorial, entonces la inclusión U → V u 7→ u es lineal. 2.- La aplicación definida por Kn → Kn (α1, . . . , αn) 7→ (α1, . . . , αp, 0, . . . , 0) p ≤ n es lineal. 3.- V = R2. Las siguientes aplicaciones, estudiadas en el curso de Geometŕıa, son lineales: rotación de centro O, simetŕıa de eje que pasa por 0, homotecia de centro 0. 4.- Si V = P espacio de las funciones polinomiales. Las siguientes aplicaciones son lineales: D : P → P p 7→ p′ Dn : P → P p 7→ p(n) 5.- Consideremos V = C0([0, 1],R) = {f : [0, 1]→ R continua}. Las siguientes aplicaciones son lineales: C0([0, 1],R)→ R f 7→ f(a), a ∈ [0, 1] f 7→ ∫ 1 0 f(t)dt. 12 I Espacios Vectoriales y Aplicaciones Lineales La aplicación f → max x∈[0,1] |f(x)| no es lineal. 6.- Consideremos el sistema    a11ξ1 + a12ξ2 + · · · + a1mξm = b1 ... ... an1ξ1 + an2ξ2 + · · · + anmξm = bn (I.3.1) Planteando a1 =(a11, a21, . . . , an1) ∈ Kn, ... am =(a1m, a2m, . . . , anm) ∈ Kn, b =(b1, b2, . . . , bn) ∈ Kn. La escritura vectorial de (I.3.1) está dada por ξ1a1 + ξ2a2 + · · ·+ ξmam = b. Se asocia a (I.3.1) la aplicación lineal a : Km → Km (ξ1, . . . , ξm) 7→ ξ1a1 + ξ2a2 + · · ·+ ξmam Resolver el sistema (I.3.1) es equivalente a encontrar ξ = (ξ1, . . . , ξm) ∈ Km tal que a(ξ) = b. 7.- Sea f : V →W un isomorfismo, entonces f−1 : W → V es lineal. En efecto f−1(w1 + w2) = f −1(f(v1) + f(v2)) = f −1(f(v1 + v2)) = v1 + v2 = f −1(w1) + f −1(w2), f−1(αw) = f−1(αf(v)) = f−1(f(αv)) = αv = αf−1(w). El resultado principal de este parágrafo, está dado por: ”Si V y W son espacios vectoriales, {v1, . . . , vn} una base de V , entonces para toda sucesión (w1, w2, . . . , wn) de elementos de W , existe exactamente una aplicación lineal f : V →W tal que f(vi) = wi, para i = 1, 2, . . . , n. Definición I.3.4.- Sean P y Q dos subespacios de V . Si P ∩Q = {0}, en lugar de P +Q, se escribe P ⊕Q suma directa de P y Q. Proposición I.3.5.- Si P ∩Q = {0}, la aplicación P ×Q→ P ⊕Q ⊂ V (x, y) 7→ x+ y es un isomorfismo. Demostración.- Ejercicio. Definición I.3.6.- Sean P y Q dos subespacios de V . Se dice que P y Q son suplementarios, o bien P es suplementario de Q, si V = P ⊕Q. Ejemplo 8.- Consideremos el espacio de las funciones f : R→ R. Sean P = {f |f(t) = f(−t)} Q = {f |f(−t) = −f(t)} I.3 Aplicaciones Lineales 15 es sobreyectiva, pero no inyectiva. Teorema I.3.13.- Fundamental.- Sea {v1, . . . , vn} una base de V espacio vectorial. Entonces, para toda sucesión w1, . . . , wn de elementos de W , existe exactamente una aplicación lineal f : V →W , tal que f(vi) = wi, i = 1, . . . , n. “Una aplicación lineal es enteramente determinada por el comportamiento de la imagen de su base”. Demostración.- a) Existencia. Para todo v ∈ V , se tiene una escritura única v = n∑ i=1 αivi, αi ∈ K. Se plantea f(v) = n∑ i=1 αiwi, función bien determinada por que los αi son únicos. Por construcción se tiene f(vi) = wi para i = 1, . . . , n. Falta ver que f es lineal, sean v y v′ dos elementos de V , entonces v = n∑ i=1 αivi, v ′ = n∑ i=1 α′ivi ⇒ v + v′ = n∑ i=1 (αi + α ′ i)vi. Por consiguiente: f(v) = n∑ i=1 αiwi f(v ′) = n∑ i=1 α′iwi f(v + v ′) = n∑ i=1 (αi + α ′ i)vi. Se constata que f(v + v′) = f(v) + f(v′), lo mismo para f(αv) = αf(v). b) Unicidad. Sean f y g aplicaciones lineales de V en W , tales que f(vi) = g(vi) para i = 1, . . . , n. Se tiene f(v) = f( n∑ i=1 αivi) = n∑ i=1 αif(vi) = n∑ i=1 αig(vi) = g( n∑ i=1 αivi) = g(v).  Proposición I.3.14.- Si V y W dos espacios de dimensión finita. Entonces, V y W son isomorfos, es decir existe un isomorfismo V →W , si y solamente si dimV = dimW . Demostración.- Si V y W son isomorfos, entonces dimV = dimW , caracteŕıstica de la fórmula de di- mensión. Si dimV = dimW , sean {v1, . . . , vn} y {w1, . . . , wn} bases de V y W respectivamente. Por el teorema fundamental existe f : V → W lineal tal que f(vi) = wi. Utilizando la demostración de la proposición fórmula de dimensión para aplicaciones lineales, se constata que Im f = W , por consiguiente la aplicación es biyectiva, consecuencia del corolario I.3.12. Proposición I.3.15.- Sea {v1, . . . , vn} una base de V , entonces la aplicación Hom(V,W ) ϕ−→W ×W × · · · ×W = Wn f 7→ (f(v1), f(v2), . . . , f(vn)) es un isomorfismo de espacios vectoriales. Demostración.- ϕ es lineal: ϕ(αf) = ((αf)(v1), . . . , (αf)(vn)) = α(f(v1), . . . , f(vn)) = αϕ(f), ϕ(f + g) = ((f + g)(v1), . . . , (f + g)(vn)) = (f(v1) + g(v1), . . . , f(vn) + g(vn)) = (f(v1), . . . , f(vn)) + (g(v1), . . . , g(vn)) = ϕ(f) + ϕ(g). 16 I Espacios Vectoriales y Aplicaciones Lineales El teorema fundamental indicará que ϕ es biyectiva.  Aplicación a los Sistemas Lineales Consideremos el sistema de n ecuaciones a n incognitas    a11ξ1 + a12ξ2 + · · · + a1nξn = b1 ... ... an1ξ1 + an2ξ2 + · · · + annξn = b2 (I.3.2) Proposición I.3.16.- Los enunciados siguientes son equivalentes para el sistema (I.3.2). i) ∀(bi) ∈ K, existe a lo más una solución del sistema (I.3.2). ii) ∀(bi) ∈ K, existe al menos una solución del sistema (I.3.2). iii) ∀(bi) ∈ K, existe exactamente una solución del sistema (I.3.2). iv) El sistema homogeneo asociado a (I.3.2) admite (ξi = 0) como única solución. Demostración.- Al sistema (I.3.2), se asocia la aplicación linel a, ver ejemplo 6 de este parágrafo. Por consiguiente Resolver (I.3.2) ⇐⇒ Encontrar todos los ξ ∈ Kn tal que a(ξ) = b. Es decir encontrar, a−1({b}). Los enunciados de la proposición se traducen i) ∀b ∈ Kn, a−1({b}) comporta a lo más un elemento ⇐⇒ a es inyectiva. ii) ∀b ∈ Kn, a−1({b}) comporta al menos un elemento ⇐⇒ a es sobreyectiva. iii) ∀b ∈ Kn, a−1({b}) comporta exactamente un elemento ⇐⇒ a es biyectiva. iv) a−1({0}) = {0} ⇐⇒ ker a = {0}. Ahora bien, los cuatro puntos han sido ya mostrados en el corolario (I.3.12)  I.4 Anillo de Homomorfismos 17 I.4 Anillo de Homomorfismos Proposición I.4.1.- Sean f ∈ Hom(U, V ) y g ∈ Hom(V,W ), entonces g ◦ f ∈ Hom(U,W ), donde U, V,W son espacios vectoriales. Demostración.- Se tiene: g ◦ f(u1 + u2) = g(f(u1 + u2)) = g(f(u1) + f(u2)) = g(f(u1)) + g((u2)) = f ◦ g(u1) + f ◦ g(u2), g ◦ f(αu) = g(f(αu)) = g(α(f(u)) = αg(f(u)) = αg ◦ f(u).  Sobre End(V ), se tiene una adicion (f + g)(v) = f(v) + g(v), y una “ multiplicación” que es la composición de aplicaciones (g ◦ f)(v) = g(f(v)). Estas dos leyes de composición interna o operaciones verifican los axiomas siguientes: I.- Adición i la adición es asociativa; ii la adición es conmutativa; iii existe un elemento cero 0 tal que 0 + f = f , para todo f ; iv Para todo f ∈ End(V ), existe un opuesto (−f), tal que f + (−f) = 0. II.- Multiplicación i la multiplicación es asociativa; ii existe un uno 1, tal que 1 ◦ f = f ◦ 1 = f , para todo f . 1 = id : V → V v 7→ v I.- Distributividad i f ◦ (g + h) = f ◦ g + f ◦ h; ii (f + g) ◦ h = f ◦ h+ g ◦ h. Un conjunto A con una adición y una multiplicación que satisface los tres sistemas de axiomas descritos, se llama anillo. Se dice que A es una anillo conmutativo, si A es una anillo cuya multiplicación es conmutativa. Por lo tanto, End(V ) con la adición y la composición de aplicaciones es un anillo. Ejemplos 1.- Z con la adición y la multiplicación usual es un anillo conmutativo. 2.- Un cuerpo (conmutativo) es un anillo (conmutativo). 3.- End(V ) no es un anillo conmutativo si dimV ≥ 2. En efecto, sea {v1, . . . , vn} una base de V y consideremos los endomorfismos definidos por: f : V →W v1 7→ αv1 v2 7→ βv2 vi 7→ vi, i ≥ 3; g : V →W v1 7→ v1 + v2 v2 7→ v2 vi 7→ vi, i ≥ 3; 20 I Espacios Vectoriales y Aplicaciones Lineales I.5 Matriz de una Aplicación Lineal Sea V un espacio vectorial y {v1, . . . , vn} una base de V , entonces existe un isomorfismo natural dado por ϕ : V → Kn vi 7→ ei, i = 1, . . . , n donde {e1, . . . , en} es la base canónica de Kn. Por consiguiente, si v = n∑ i=1 αivi, se tiene ϕ(v) = (α1, α2, . . . , αn) ∈ Kn. El elemento de K, αi, se llama la i-sima componente de v respecto a la base {v1, . . . , vn} y v ∈ V puede escribirse en forma de componentes respecto a la base {v1, . . . , vn} como v = (α1 α2 · · · αn ) o bien v =   α1 α2 ... αn   ; la segunda escritura en vector columna será muy util para lo que sigue en el curso. Una matriz A de n×m a coeficientes en K es un tablero de n filas y m columnas de elementos de K A =   a11 a12 · · · a1m a21 a2m ... ... an1 an2 · · · anm   . El conjunto de las matrices n×m a coeficientes en K, se lo denota por Mn,m(K). Sean V y W dos espacios de dimensión m y n respectivamente, {v1, . . . , vm} una base de V, {w1, . . . , wn} una base de W ; sea f : V →W lineal, se tiene para cada uno de los elementos de la base de V f(vj) = n∑ i=1 aijwi =   a1j ... anj   j = 1, . . . ,m; donde los aij ∈ K. Por consiguiente, se puede asociar a f y a las bases {v1, . . . , vm} y {w1, . . . , wn}, la matriz Mf =   a11 a12 · · · a1m a21 a2m ... ... an1 an2 · · · anm   ∈Mn,m(K) que se llama la matriz de f respecto a las bases {v1, . . . , vm} y {w1, . . . , wn}. Se observa inmediatamente que el número de filas es igual a la dimensión del espacio destino W para f y el número de columnas es igual a la dimensión del espacio fuente V para f . I.5 Matriz de una Aplicación Lineal 21 Receta.- Para construir la matriz de f respecto a las bases {vi} y {wj} disponer en vectores columnas las componentes de f(vj) respecto a la base {wj}. Remarca.- Mn,m(K) está en biyección con Knm, pero con las nociones de fila y columna. Proposición I.5.1.- Resultado principal.- Sea {vi}mi=1 una base de V y {wj}ni=1 una base deW . La aplicación Hom(V,W )→Mn,m(K) f 7→Mf respecto a las bases en cuestión, es biyectiva. Demostración.- Recordamos que Hom(V,W )→Wn f 7→ (f(v1), . . . , f(vn)) es un isomorfismo de espacios vectoriales y que W → Kn w = n∑ i=1 wi 7→   α1 ... αn   es otro isomorfismo. De esta manera Hom(V,W ) −→ Wn −→ Knm ∼= Mn,m(K) f 7→ (f(v1), . . . , f(vn)) 7→   a11 a12 · · · a1m a21 a2m ... ... an1 an2 · · · anm   es biyectiva.  Ejemplos 1.- Consideremos la proyección del plano R2 sobre el eje x. La matriz de la proyección respecto a la base canónica está dada por e1 → e1 e2 → e2 ⇒Mf = ( 1 0 0 0 ) 2.- Ejercicio.- Determinar las matrices respecto a la base canónica de las aplicaciones lineales del curso de Geometŕıa, es decir: rotaciones, homotecias, simetŕıas, similitudes, etc. Transcripción de las Operaciones Lineales en Términos de Matriz Una vez determinada la relación existente entre el conjunto de las matrices y el espacio de los homomorfismos es transcribir las operaciones de las aplicaciones lineales en términos de operaciones de matrices. Sean V espacio vectorial de base {v1, . . . , vm} y W espacio vectorial de base {w1, . . . , wn}. Consideremos las aplicaciones lineales f, g : V →W, cuyas matrices respecto a las bases en cuestión son A = (aij), B = (bij) matrices pertenecientes a Mnm(K). 22 I Espacios Vectoriales y Aplicaciones Lineales Proposición I.5.2.- Sea C = (cij) la matriz de f + g respecto a las mismas bases en cuestión, entonces C = A+B cij = aij + bij . Sea D la matriz de αf respecto a las bases {vi} y {wj}, entonces D = αA dij = αdij Demostración.- Ejercicio. Corolario I.5.3.- Se tiene Hom(V,W )→Mn,m(K) f 7→Mf respecto a las bases {vi} y {wj}, es un isomorfismo de espacios vectoriales, con la adición y la multiplicación por escalares. El siguiente paso es determinar la matriz de la composición de aplicaciones lineales. Sean: U espacio vectorial con {u1, . . . , ul} base; V espacio vectorial con {v1, . . . , vm} base; W espacio vectorial con {w1, . . . , wn} base; los homomorfismos: f : U → V g : V →W. ¿Cual es la matriz de g ◦ f : U →W respecto a las bases {ui} y {wj}.? Sean: A = (aik) la matriz de f respecto a las bases {ui} y {vk}; B = (bkj) la matriz de g respecto a las bases {vk} y {wj}; C = (cij) la matriz de g ◦ f respecto a las bases {ui} y {wj}. Por lo tanto g ◦ f(ui) = n∑ i=1 cjiwj || g(f(ui)) = g ( m∑ k=1 akivk ) = m∑ k=1 akig(vk) = m∑ k=1 aki   n∑ j=1 bjkwj   = n∑ j=1 ( m∑ k=1 bjkaki ) wj , =⇒ cji = m∑ k=1 bjkaki. Por consiguiente C es la matriz obtenida de multiplicar BA, es decir C = BA. Por el uso frecuente de algunas matrices, vale la pena citarlas: I = Ir =   1 0 · · · 0 0 1 0 . . . 0 1   ∈Mr,r(K) = Mr(K) I.6 Cambio de Base 25 por lo tanto M ′′ = M ′M .  Proposición I.6.2.- Sea A ∈ Mm,m(K), si existe B ∈ Mm,m(K) tal que AB = I o BA = I, entonces A es una matriz inversible de inversa B. Demostración.- Ejercicio. Proposición I.6.3.- Para las matrices de pasaje se tiene: a) Las matrices de pasaje son inversibles. b) N y M como antes, se tiene A(f) = N−1A′(f)M. Demostración.-a) Se utiliza la proposición I.6.1 con M ′ la matriz de pasaje de {v′i} a {vi}. obteniendo de esta manera M ′M = I, por la proposición I.6.2 se tiene que M es inversible. b) recordemos: vj = m∑ k=1 mkjv ′ k, w′j = n∑ i=1 ñijwi con (ñij) = N −1, f(vj) = n∑ i=1 aijwi con A(f) = (aij), f(v′j) = n∑ i=1 a′ijwi con A ′(f) = (a′ij). Para mostrar el punto b), es suficiente mostrar que aij = (N −1A′M)ij Se tiene: f(vj) = f ( ∑ k mkjv ′ k ) = ∑ k mkjf(v ′ k) = ∑ k mkj ( ∑ l a′lkw ′ l ) = ∑ l ( ∑ k a′lkmkj ) ︸ ︷︷ ︸ (AM)lj = clj w′l = ∑ l clj ( ∑ i ñilwi ) = ∑ i ( ∑ i ñilclj ) ︸ ︷︷ ︸ (N−1A′M)ij wi. Por lo tanto aij = (N −1A′M)ij .  Corolario I.6.4.- Sea V espacio vectorial con las bases {v1, . . . , vm} y {v′1, . . . , v′m}. Para f ∈ End(V ), se denota A(f), respectivamente A′(f), la matriz de f en la base {v1, . . . , vm}, respectivamente en la base {v′1, . . . , v′m}. Se denota M la matriz de pasaje de {vi} a {v′i}. Entonces A(f) = M−1A′(f)M. Aplicación al Rango de una Matriz Definición I.6.5.- Sea f →W lineal. Se llama rango de f la dimensión de Im(f). 26 I Espacios Vectoriales y Aplicaciones Lineales Proposición I.6.6.- Sea f : V → W lineal de rango r. Entonces existe una base {v1, . . . , vm} de V y una base {w1, . . . , wn} de W tales que f(vi) = wi para i = 1, . . . , r; f(vi) = 0 para i = r + 1, . . . ,m. Dicho de otra forma, la matriz de f respecto a {vi} y {wj} es de la forma ( Ir 0 0 0 ) . Demostración.- La fórmula de dimensión para aplicaciones lineales da dimV︸ ︷︷ ︸ m = dim Im(f)︸ ︷︷ ︸ r + dimker(f)︸ ︷︷ ︸ m−r . Se elije una base {vr+1, . . . , vm} base de ker(f), se completa en {v1, . . . , vr, vr+1, . . . , vm} base de V . Se toma como base de Im(f) {f(v1), . . . , f(vr)} y luego se completa esta base en una base de W .  Corolario I.6.7.- Sea B ∈Mn,m(K), entonces existe dos matrices N ∈ Gl(n,K) y M ∈ Gl(m,K), tales que N−1BM = ( Ir 0 0 0 ) . Demostración.- Se aplica la proposición I.6.6 a b : Km → Kn cuya matriz respecto a las bases canónicas es B. Por la proposició precedente, existen {v1, . . . , vm} y {w1, . . . , wn} bases de Km y Kn respecto a las cuales la matriz asociada a b es B′ = ( Ir 0 0 0 ) . Sea M la matriz de pasaje de {vi} a la base canónica en Km, N la matriz de pasaje de {wi} a la base canónica en Kn, entonces por la proposición I.6.3, se tiene B′ = N−1BM  Definición I.6.8.- Sea B ∈Mn,m(K) B =   b11 . . . b1m ... ... bn1 · · · bnm   Se considera las filas de B como elementos de Km y las columnas de B como elementos de Kn El rango fila (columna) de B es la dimensión del subespacio de Km (Kn) engendrado por las filas (colum- nas) de B. El rango columna de B es igual al rango de la aplicación b : Km → Kn cuya matriz respecto a las bases canónicas es B. En efecto, se tiene que b(ei) es la i-sima columna de la matriz B, la imagen de b esta engendrada por b(e1), . . . , b(em). Transpuesta de una Matriz Sea B ∈Mn,m(K). Se llama transpuesta deB y se la denota Bt la matriz de Mm,n(K) definida por (Bt)ij = Bji. I.6 Cambio de Base 27 De esta forma el rango fila de B es igual al rango columna de Bt. En efecto, el rango fila de B es igual al rango de la aplicación bt : Kn → Km, cuya matriz respecto a las bases canónicas es Bt. Proposición I.6.9.- La transpuesta verifica las siguientes propiedades: i) (Bt)t = B. ii (AB)t = BtAt. iii A ∈ Gl(n,K)⇒ At ∈ Gl(n,K) y (At)−1 = (A−1)t. Demostración.- i) y ii) ejercicio. Para el punto iii), se tiene At(A−1)t = (A−1A)t = It = I ⇒ (At)−1 = (A−1)t.  Proposición I.6.10.- El rango fila de B es igual al rango columna de B. Demostración.- Sea r = rango columna de B. Por el corolario 1.6.7, existen N ∈ Gl(n,K) y M ∈ Gl(m,K) tales que B = N−1 ( Ir 0 0 0 ) M. Se tiene aplicando las propiedades de la matriz transpuesta Bt = M t ( Ir 0 0 0 ) (M−1)t. Se interpreta las matrices como aplicaciones lineales (respecto a las bases canónicas); Bt bt : Kn → Km M t mt : Km → Km (N t)−1 (nt)−1 : Kn → Km ( Ir 0 0 0 ) ir : Kn → Km (x1, . . . , xn) 7→ (x1, . . . , xr, 0, . . . , 0). Se tiene bt = mtir(n t)−1, ver el diagrama Kn b t −→ Km (nt)−1 ↓ ↑ mt Kn ir−→ Km por lo tanto se tiene que rango(bt) = rango(ir) = r.  Definición I.6.11.- Sea B ∈Mn,m(K), el rango de de B es rangB = rango columna de B = rango fila deB. 30 I Espacios Vectoriales y Aplicaciones Lineales Sea B ∈ Mn,m(K) de rango r. Se va encontrar un procedimiento para explicitar las matrices N−1 ∈ Gl(n,K) y M ∈ Gl(m,K) tales que N−1BM = ( Ir 0 0 0 ) . Si B = 0, no hay nada que hacer. Si B 6= 0, entonces existe un coeficiente que no es nulo. Por consiguiente: i) Multiplicando a la izquierda y derecha por matrices de permutación, se lleva este coeficiente al lugar (1, 1). ii) Multiplicando por diag(b−111 , 1, . . . , 1) se va al caso b11 = 1. iii) Luego   1 0 · · · 0 −b21 ... −bn1 1 0 . . . 0 1     1 b12 · · · b1m b21 ... bn1 · · · bnm   =   1 b12 · · · b1m 0 ... 0 B′     1 b12 · · · b1m 0 ... 0 B′     1 −b12 · · · −b1m 0 ... 0 1 0 . . . 0 1   =   1 0 · · · 0 0 ... 0 B′′   . Ejemplo 1.- Consideremos la matriz B = ( 0 1 4 1 1 3 ) . Se tiene ( 0 1 1 0 ) B = ( 1 1 3 0 1 4 ) = B(1), ( 1 1 3 0 1 4 )  1 −1 −3 0 1 0 0 0 1   = ( 1 0 0 0 1 4 ) = B(2), ( 1 0 0 0 1 4 )  1 0 0 0 1 −4 0 0 1   = ( 1 0 0 0 1 0 ) . De donde M =   1 −1 −3 0 1 0 0 0 1     1 0 0 0 1 −4 0 0 1   y N−1 = ( 0 1 1 0 ) . Corolario I.7.4.- Una matriz A ∈ Gl(m,K) se escribe como producto de: i) matrices de permutación; ii) matrices diagonales inversibles; iii) matrices del tipo I +Li o I +Rj , donde Li es la matriz cuyos coeficientes son nulos, excepto quizás los lki con k > i; Hj es la matriz cuyos coeficientes son nulos, excepto quizás los hjk con k > j. Demostración.- Se aplica el procedimiento de antes a A inversible. Finalmente se obtiene que I = PAQ, donde P es producto de matrices del tipo i), ii), iii); lo mismo Q. Entonces A = P−1Q−1. Solo hay que mostrar que las inversas de i) ii) y iii) son del mismo tipo. Para i) y ii) no hay problema. Para iii) ejercicio 32 de la práctica.  I.7 Operaciones Elementales sobre las Matrices 31 Mejora del Resultado Definimos los siguientes subconjuntos de Gl(m,K): U− =      1 0 ∗ . . . ∗ ∗ 1   ∈ Gl(m,K)    matrices triangulares con 1 sobre la diagonal. B+      b11 ∗ ∗ 0 . . . ∗ 0 bmm   ∈ Gl(m,K)    matrices triangulares superiores. Para σ ∈ Sm se plantea U−M(σ)B+ = {XM(σ)Y |X ∈ U−, Y ∈ B+} . Proposición I.7.5.- Descomposición de Bruhat. Gl(m,K) es la reunión disjunta de subconjuntos U−M(σ)B+, σ ∈ Sm. Demostración.- i) Sea A ∈ Gl(m,K), se debe mostrar que existe X ∈ U−, Y ∈ B+ y σ ∈ Sm tales que A = XM(σ)Y. La demostración se la hará por inducción sobre m. El caso m = 1 es evidente. Supongamos cierto para m− 1, con m > 1. Sea A ∈ Gl(m,K), y sea ai,1 6= 0 el primer coeficiente no nulo de la primera columna de A. Se tiene:   0 0 A12 ai1 am1 A22   ︸ ︷︷ ︸ A diag(a−1i1 , 1, . . . , 1) =   0 0 A12 1 ãi+1,1 ãm1 A22   ;   1 0 . . . 1 −ãi+1,1 . . . −ãm,1 1     0 0 A12 1 ai2 · · · aim ãi+1,1 ãm1 A22     1 −ai2 · · · −aim 1 . . . 1   =   0 C11 C12 1 0 0 0 C21 C22   . Por hipótesis de inducción existen U ∈ Gl(m−1,K) triangular inferior con 1 en la diagonal y B ∈ Gl(m−1,K) triangular superior, τ ∈ Sm−1, tales que ( C11 C22 C21 C22 ) = UM(σ)B 32 I Espacios Vectoriales y Aplicaciones Lineales o todav́ıa U−1 ( C11 C22 C21 C22 ) B−1 = M(τ ) ( U11 0 U21 U22 )( C11 C22 C21 C22 )( B11 B21 0 B22 ) = ( T11 T12 T21 T22 ) . Por consiguiente A = Ũ   0 C11 C12 1 0 0 0 C21 C22   B̃   U11 0 0 0 1 0 U21 0 U22     0 C11 C12 1 0 0 0 C21 C22     1 0 0 0 B11 B12 0 0 B22   =   0 T11 T22 1 0 0 0 T21 T22   ︸ ︷︷ ︸ M(σ) . ii) A mostrar que si (U−M(σ)B+) ∩ (U−M(τ )B+)⇒ σ = τ , en clases.  40 I Espacios Vectoriales y Aplicaciones Lineales Proposición I.8.3.- Se tiene que Sm sg−→ {±1} es un homomorfismo de grupos. Demostración.-En efecto: ϕ(σ1σ2)(d) = (ϕ(σ1) ◦ ϕ(σ2))(d) = ϕ(σ1)(ϕ(σ2))(d)) = ϕ(σ1)(sg(σ2)d) = sg(σ2)ϕ(σ1)(d) = sg(σ2) sg(σ1), Por consiguiente sg(σ1σ2) = sg(σ1)sg(σ2).  Proposición I.8.4.- Sea τ una transposicion, entonces sg(τ ) = −1. Demostracion.- Sea τ = (a, b) con a < b, se tiene d = ∏ i<j (xi − xj) = (xa − xb) ∏ i<j i6=a,b j 6=a,b (xi − xj) ∏ i<j (xi − xa) ∏ a<j j 6=b (xa − xj) ∏ i<b i6=a (xi − xb) ∏ j>b (xb − xj) = (xa − xb) ∏ i<a [(xi − xa)(xi − xb)] ∏ a<i<b [(xa − xi)(xi − xb)] ∏ b<i [(xa − xi)(xb − xi)] ∏ i<j i6=a,b j 6=a,b (xi − xj); ϕ(σ)(d) = (xb − xa) ∏ i<a [(xi − xb)(xi − xa)] ∏ a<i<b [(xb − xi)(xi − xa)] ∏ b<i [(xb − xi)(xa − xi)] ∏ i<j i6=a,b j 6=a,b (xi − xj); ϕ(σ)(d) = −d.  Corolario I.8.5.- i) Si σ = τ1 · · · τp, con τi transposicion, entonces sg(σ) = (−1)p. ii) Sea σ = τ1 · · · τp = τ ′1 · · · τ ′p′ donde τi y τ ′i transposiciones, se tiene por i) sg(σ) = (−1)p = (−1)p ′ , entonces p y p′ tienen la misma paridad. Cálculo Práctico de sg(σ) Sea σ ∈ Sm, la permutacion cuyo representación es0B 1 2 i j m(1) j (i) i (j) m (m)1CA Para determinar el signo de la permutación, se debe contar el número de intersecciones de los segmentos que unen el elemento i en la fila de arriba, con el elemento i en la fila de abajo. Este número se lo denota por j(σ). I.8 Signo de las Permutaciones 41 Proposición I.8.6.- j(σ) es j(σ) = #{(i, j)| i < j y σ(i) > σ(j)} número de inversiones. Demostración Mostraremos que g(i) > g(j) ⇐⇒ hay intersección de los segmentos de extremidades σ(i) y σ(j). En efecto   σ(i) i σ(j) j σ(i) σ(j)   . Hay interseccion, el diagrama indicará que σ(i) > σ(j),   σ(j) i σ(i) j σ(i) σ(j)   .  Proposición I.8.7.- Se tiene sg(d) = (−1)j(σ). Demostración Se tiene que ϕ(σ)(d) = sg(d). Estudiemos la acción de ϕ(σ) sobre los factores de d, por consiguiente (xi − xj) 7→ (xσ(i) − xσ(j)) = { un factor de d si σ(i) < σ(j), (−1) · un factor de d si σ(i) > σ(j).  42 I Espacios Vectoriales y Aplicaciones Lineales I.9 Formas Multilineales Alternadas Definición I.9.1.- Sean V y W dos espacios vectoriales y m un entero positivo. Una aplicación F : V × V × · · · × V︸ ︷︷ ︸ m veces →W es mulitilineal, si F (v1, v2, . . . , α ′v′i + α ′′v′′i , . . . , vm) = α ′F (v1, . . . , v ′ i, . . . , vm) + α ′′F (v1, . . . , v ′′ i , . . . , vm), ∀i = 1, . . . ,m. Dicho de otra manera, se pide que F sea lineal en cada una de las variables separadamente. Ejemplos 1.- La siguiente aplicación es m-lineal K× · · · ×K︸ ︷︷ ︸ m → K (α1, . . . , αm) 7→ m∏ i=1 αi. 2.- Sea A ∈Mn,n(K) una matriz, la aplicación definida por K×K→ K (x, y) 7→ xtAy = (x1 · · · xn )   a11 · · · a1n ... ... an1 · · · ann     y1 ... yn   es bilineal. En particular R3 × R3 → R (x, y) 7→ xtIy = x1y1 + x2y2 + x3y3 producto escalar euclidiano en R3. 3.- El producto vectorial o cruz en R3, definido por R3 × R3 → R     x1 x2 x3   ,   y1 y2 y3     7→   x2y3 − x3y3 x3y1 − x1y3 x1y2 − x2y1   es bilineal. 4.- La aplicación Mn,n(K)×Mn,n(K)×Mn,n(K)→Mn,n(K) (A,B,C) 7→ ABC es trilineal. 5.- La aplicación End(V )× End(V )→ End(V ) (f, g) 7→ f ◦ g − g ◦ f es bilineal. I.9 Formas Multilineales Alternadas 45 se tiene α′v′j + α ′′v′′j = m∑ i=1 (a′i,j + a ′′ i,j)ej . Por lo tanto F (v1, . . . , α ′v′j + α ′′v′′j , . . . , vm) = ( ∑ σ∈Sm sg(σ)aσ(1),1 · · · (α′a′σ(j),j + α′′a′′σ(j),j) · · · aσ(m),m ) F (e1, . . . , em) = α′ ( ∑ σ∈Sm sg(σ)aσ(1),1 · · · a′σ(j),j · · · aσ(m),m ) F (e1, . . . , em) +α′′ ( ∑ σ∈Sm sg(σ)aσ(1),1 · · · a′′σ(j),j · · · aσ(m),m ) F (e1, . . . , em) = α′F (v1, . . . , v ′ j , . . . , vm) + α ′′F (v1, . . . , v ′′ j , . . . , vm). Mostremos que F es alternada. Sean vi = vj = m∑ k=1 ak,iek = m∑ k=1 ak,jek. Aplicando la fórmula (I.9.1), se tiene F (v1, . . . , vi, . . . , vj , . . . , vm) = ( ∑ σ∈Sm sg(σ)aσ(1),1 · · · aσ(m),m ) F (e1, . . . , em). Utilizando la proposición I.9.6 con τ = (i, j), podemos escribir F (v1, . . . , vi, . . . , vj , . . . , vm) = ( ∑ σ∈Am ♣ ) F (e1, . . . , em) + ( ( ∑ σ∈Amτ ♣ ) F (e1, . . . , em) = ( ∑ σ∈Am aσ(1),1 · · · aσ(i),i · · · aσ(j),j · · · aσ(m),m ) F (e1, . . . , em) − ( ∑ σ∈Am aστ(1),1 · · · aστ(i),i · · · aστ(j),j · · · aστ(m)m ) F (e1, . . . , em), = 0.  Proposición I.9.8.- Se escribe Altm(V,W ) el conjunto de las aplicaciones multilineales V × V × · · · × V︸ ︷︷ ︸ m veces → W . Entonces Altm(V,W ) es un K-espacio vectorial para (F +G)(v1, . . . , vm) = F (v1, . . . , vm) +G(v1, . . . , vm) (αF )(v1, . . . , vm) = α(F (v1, . . . , vm)) con F,G ∈ Altm(V,W ) y α ∈ K. Demostración.- Ejercicio. Corolario I.9.9.- Si dimV = m, entonces dim(Altm(V,W )) = dimW . Demostración.- Por el teorema precedente se tiene Altm(V,W )→W F 7→ F (e1, e2, . . . , em) 46 I Espacios Vectoriales y Aplicaciones Lineales es un isomorfismo de espacios vectoriales.  Proposición I.9.10.- Sea {x1, . . . , xm} una familia de elementos V , (dimV = m). Entonces {x1, . . . , xm} es una base de V ⇐⇒ F (x1, . . . , xn) 6= 0, ∀F 6= 0 ∈ Altm(V,W ). Demostración.- ⇒ {x1, . . . , xm} es una base de V y F 6= 0. Entonces existen v1, . . . , vm ∈ V , tales que F (v1, . . . , vm) 6= 0. Utilizando la fórmula (I.9.1) es necesario que F (x1, . . . , xn) 6= 0. ⇐ Se procede por contraposición, sea {x1, . . . , xm} una familia de V que no es base, entonces {x1, . . . , xm} es linealmente dependiente y por la proposición I.9.5 punto iii), se tiene F (x1, . . . , xn) = 0, ∀F ∈ Altm(V,W ).  I.10 Determinantes 47 I.10 Determinantes Sea f : V1 → V2 lineal. Entonces f induce una aplicación lineal definida por f∗ : Altm(V2,W )→ Altm(V1,W ) F 7→ ((v1, . . . , vm) 7→ F (f(v1), . . . , f(vm)). Analisemos el caso particular en el que V1 = V2 = V , con dimV = m y W = K. Por consiguiente f ∈ End(V ) induce f∗ : Altm(V,K)→ Altm(V,K). Por el teorema del paragrafo precedente, se tiene que dimAltm(V,K) = 1. De esta forma f∗ es una homotecia de Altm(V,K). La razón de la homotecia se llama determinante de f ∈ End(V ). Es decir f∗(D) = (det f)D para D ∈ Altm(V,K) D(f(v1), . . . , f(vm)) = (det f)D(v1, . . . , vm). Ejemplo 1.- Sea V = Km, recordamos ρ(σ) : Km → Km ei 7→ eσ(i) Se tiene que det(ρ(σ)) = sg(σ). En efecto D(ρ(σ)(e1), . . . , ρ(σ)(em)) = D(eσ(1), . . . , eσ(m)) = sgD(e1, . . . , em). Proposición I.10.1.- Se tiene: i) det(idV ) = 1. ii) det(f ◦ g) = det(f) det(g). iii) f ∈ End(V ), entonces f ∈ Gl(V ) ⇐⇒ det(f) 6= 0. Demostración.- i) Trivial ii) Se tiene (f ◦ g)∗D(v1, . . . , vm) = D(f ◦ g(v1), . . . , f ◦ g(vm)) = D(f(g(v1)), . . . , f(g(vm))) (det f)D(g(v1), . . . , g(vm)) (det f)(det g)D(v1, . . . , vm). iii) Si f es inversible, existe f−1 ∈ End(V ), tal que f ◦ f−1 = idV ; por los puntos ii) y i) se tiene (det f)(det f−1) = 1. ⇐ Se supone que det f 6= 0. Se elige una base {e1, . . . , em} de V . Sea D ∈ Altm(V,K), con D 6= 0; se tiene D(e1, . . . , em) 6= 0. Por otro lado D(f(e1), . . . , f(em)) = (f ∗D)(e1, . . . , em) = (det f)D(e1, . . . , em) 6= 0, de donde {f(e1), . . . , f(em)} es una base de V . Por consiguiente f es un isomorfismo. 50 I Espacios Vectoriales y Aplicaciones Lineales Esta aplicación es multilineal, de donde i); la aplicación es alternada, de donde ii) y iii).  Remarca.- Se tiene un enunciado análogo para filas. Ejemplos 4.- Se considera una matriz de 4 × 4, se calculará su determinante utilizando la fórmula de la proposición I.10.2 y las propiedades de determinante de la proposición precedente ∣∣∣∣∣∣∣ 1 0 0 −1 2 3 4 7 −3 4 5 9 −4 −5 6 1 ∣∣∣∣∣∣∣ = ∣∣∣∣∣∣∣ 1 0 0 0 2 3 4 9 −3 4 5 6 −4 −5 6 −3 ∣∣∣∣∣∣∣ . Se ha sumado una vez la primera columna a la cuarta columna. Aplicando la fórmula deducimos que ∣∣∣∣∣∣∣ 1 0 0 −1 2 3 4 7 −3 4 5 9 −4 −5 6 1 ∣∣∣∣∣∣∣ = ∣∣∣∣∣∣ 3 4 9 4 5 6 −5 6 −3 ∣∣∣∣∣∣ = 3 ∣∣∣∣∣∣ 3 4 3 4 5 2 −5 6 −1 ∣∣∣∣∣∣ . Se ha factorizado 3 de la última columna. Luego 3 ∣∣∣∣∣∣ 3 4 3 4 5 2 −5 6 −1 ∣∣∣∣∣∣ = 3 ∣∣∣∣∣∣ 3 4 0 4 5 −2 −5 6 4 ∣∣∣∣∣∣ = 6 ∣∣∣∣∣∣ 3 4 0 4 5 −1 −5 6 2 ∣∣∣∣∣∣ = 6 ∣∣∣∣∣∣ 3 4 0 4 5 −1 3 16 0 ∣∣∣∣∣∣ = −6 ∣∣∣∣∣∣ 3 4 0 3 16 0 4 5 −1 ∣∣∣∣∣∣ = 6 ∣∣∣∣ 3 4 3 16 ∣∣∣∣ = 6 · 3 · 4 ∣∣∣∣ 1 1 1 4 ∣∣∣∣ = 216. 5.- Determinante de Vandermonde. ∣∣∣∣∣∣∣∣ 1 a1 a 2 1 · · · am−11 1 a2 a 2 2 · · · am−13 ... 1 am a 2 m · · · am−1m ∣∣∣∣∣∣∣∣ = ∏ i>j (ai − aj) Ejercicio Mostrar este resultado. Proposición I.10.5.- Sean vj = m∑ i=1 aijei j = 1, . . . , r; r ≤ m elementos de Km. Entonces, {v1, . . . , vr} son linealmente independientes ⇐⇒ existen 1 ≤ i1 < i2 < · · · < ir ≤ m tales que ∣∣∣∣∣∣∣ ai1,1 · · · ai1,r ... ... air,1 · · · air,r ∣∣∣∣∣∣∣ 6= 0. Demostración.- Caso r = m. La proposición afirma que {v1, . . . , vm} es una base de Km ⇐⇒ si una aplicación lineal env́ıa una base sobre otra, es un isomorfismo ⇐⇒ la matriz (aij) es inversible ⇐⇒ det(aij) 6= 0. Caso general. Se escribe A =   a11 · · · a1r ... am1 · · · amn   . I.10 Determinantes 51 {v1, . . . , vr} linealmente independiente ⇐⇒ rango columna de A es igual a r ⇐⇒ rango fila de A es igual a r; es decir, el subespacio de Kr engendrado por las filas de A es Kr ⇐⇒ de las filas de A se puede extraer una base de Kr ⇐⇒ existe una sucesión 1 ≤ i1 < i2 < · · · < ir ≤ m tal que las filas de ı́ndice i1, . . . , ir constituyen una base de Kr ⇐⇒ ∣∣∣∣∣∣∣ ai1,1 · · · ai1,r ... ... air,1 · · · air,r ∣∣∣∣∣∣∣ 6= 0.  Corolario I.10.6.- Sea A ∈Mn,m(K). Entonces rang(A) = max { s ∣∣∣∣ existe una submatriz B de A con s filas y s columnas tal que detB 6= 0. } . Demostración.-Se plantea r =rang(A), p =max { s ∣∣∣∣∣ existe una submatriz B de A con s filas y s columnas tal que detB 6= 0. } . A de rango r ⇒ Existe r columnas de A que son linealmente independientes, si es necesario permutar las columnas, se puede suponer que son las primeras r columnas. La proposición indica que r ≤ p. Supongamos que existe una submatriz Bp×p de A con detB 6= 0. Si es necesario renumerar (permutar), se supone A = ( B ∗ ∗ ∗ ) lo que implica por la proposición precedente que las primeras p columnas son linealmente independientes, entonces p ≤ r.  52 I Espacios Vectoriales y Aplicaciones Lineales I.11 Matriz Adjunta En este paragrafo se formulará un método para calcular la inversa de una matriz inversible. Sea A = (aij) =   a11 · · · amm ... ... am1 · · · amm   ∈Mm,m(K). Se plantea Aij =   a11 · · · a1,j−1, a1,j+1 · · · a1m ... ... ... ... ai−1,1 ai−1,j−1 ai−1,j+1 ai−1,m ai+1,1 ai+1,j−1 ai+1,j+1 ai+1,m ... ... ... ... am1 · · · am,j−1, am,j+1 · · · amm   ∈Mm−1,m−1(K). Aij se obtiene de A suprimiendo la fila i-sima y la columna j-va. Se define Sij(A) =   a11 · · · a1,j−1, 0 a1,j+1 · · · a1m ... ... ... ai−1,1 ai−1,j−1 0 ai−1,j+1 ai−1,m 0 · · · 0 1 0 · · · 0 ai+1,1 ai+1,j−1 0 ai+1,j+1 ai+1,m ... ... ... am1 · · · am,j−1, 0 am,j+1 · · · amm   ∈Mm,m(K). Definición I.11.1.- La matriz adjunta de A, denotada por Adj(A), es la matriz definida por (Adj (A))ij = (−1)i+j det(Aji). Ejemplo 1.- Veamos el caso de m = 2. Adj ( a11 a12 a21 a22 ) = ( a22 −a12 −a21 a11 ) . Proposición I.11.2.- detSij(A) = (−1)i+jAij . Demostración.- Para demostrar esta proposicion, desarrollaremos el determinante de Sij utilizando propiedades de determinante, vistas en el paragrafo precedente. detSij(A) = ∣∣∣∣∣∣ α 0 β 0 1 0 γ 0 δ ∣∣∣∣∣∣ = sg(σ)︸ ︷︷ ︸ (−1)i−1 ∣∣∣∣∣∣ 0 1 0 α 0 β γ 0 δ ∣∣∣∣∣∣ = (−1)i−1+j−1 ∣∣∣∣∣∣ 1 0 0 0 α β 0 γ β ∣∣∣∣∣∣ .  Proposición I.11.3.- m∑ j=1 aji det(Sjk) = δik detA donde δik = { 0 si i 6= k, 1 si i = k. Caṕıtulo II Complemento II.1 Espacios Vectoriales Cocientes Sea E un conjunto, una relación x ∼ y entre elementos de E es una relación de equivalencia, si a) x ∼ x, para todo x ∈ E (reflexividad); b) x ∼ y ⇒ y ∼ x, (simetŕıa); c) x ∼ y, y ∼ z ⇒ x ∼ z, (transitividad). Un conjunto C ⊂ E es una clase de equivalencia si existe x ∈ E tal que C = {y ∈ E|y ∼ x}, C es la clase de x y se denota x̄. El conjunto de las clases se llama cociente de E respecto a la relación ∼ y se denota E/ ∼ . Por consiguiente, se dispone de una aplicación canónica E π−→ E/ ∼ x 7→ x̄ que es sobreyectiva. Sea V un espacio vectorial, U un subespacio vectorial de V . Se introduce una relación ≡ mod(U), definida por x ≡ ymod(U) ⇐⇒ x− y ∈ U. Proposición II.1.1.- ≡ mod(U) es una relación de equivalencia sobre E. Demostración.- i) Sea x ∈ V , x− x = 0 ∈ U , entoces x ∼ x. ii) x ∼ y ⇒ x− y ∈ U , por consiguiente (−1)(x− y) ∈ U , de donde y − x ∈ U , por lo tanto y ∼ x. iii) La transitividad la dejamos como ejercicio.  Ejemplo 1.- Consideremos V = R2 y U un subespacio de dimensión 1. En la figura puede verse las clases de 56 II Complemento equivalencia. U x+U =x − Proposición II.1.2.- Se tiene x1 ≡ y1 mod(U) x2 ≡ y2 mod(U) ⇒ x1 + x2 ≡ y1 + y2 mod(U) αx1 ≡ αx1 mod(U) . La adición y la multiplicación por los escalares son compatibles con la relación ≡ mod(U) Demostración.- Se tiene xi ≡ y1 mod(U) ⇐⇒ xi − yi ∈ U i = 1, 2. Por lo tanto (x1 − y1) + (x2 − y2) ∈ U ⇒ (x1 + x2)− (y1 + y2) ∈ U, ⇒ x1 + x2 ≡ y1 + y2 mod(U). La otra implicación ejercicio.  Introducimos una adición en V/U = V/ ∼, de la manera siguiente x̄1 + x̄2 = x1 + x2. Esta definición tiene sentido, si x̄1 = ȳ1 y x̄2 = ȳ2, por la proposición II.1.2, se obtiene x1 + x2 = y1 + y2. Se introduce una multiplicación por los elementos de K. αx̄ = αx. La proposición indica que esta definición tiene un sentido. Proposición II.1.3.- El conjunto V/U con estas dos operaciones es un espacio vectorial. Además π : V → V/U es lineal. Demostración.- I. Adición. Se tiene x̄1 + (x̄2 + x̄3) = x̄1 + x2 + x3i) = x1 + (x2 + x3) = (x1 + x2) + x3 = x1 + x2 + x̄3 = (x̄1 + x̄2) + x̄3; x̄+ ȳ = x+ y = y + x+ ȳ + x̄;ii) II.1 Espacios Vectoriales Cocientes 57 iii) el cero de V/U es 0̄; iv) el opuesto de x̄ es −x. Se tiene π(x+ y) = x+ y = x̄+ ȳ = π(x) + π(x). II. Multiplicación. Lo mismo que para la adición, ejercicio.  Proposición II.1.4.- Sea f : V → W una aplicación lineal. Sea U un subespacio vectorial de V con U ⊂ ker(f). Entonces existe una y una sola aplicación lineal f̄ : V/U →W tal que el diagrama conmuta V f−→ W πց րf̄ V/U es decir f = f̄ ◦ π. Demostración.- a) Existencia de f̄ . Se plantea f̄(x̄) = f(x). Hay que verificar que si x̄ = ȳ, entonces f(x) = f(y). En efecto, x̄ = ȳ, se tiene x − y ∈ U ⊂ ker(f), por consiguiente f(x− y) = 0 y por lo tanto f(x) = f(y). Por construcción f ◦ π = f . f̄ es lineal, en efecto f̄(x̄+ ȳ) = f̄(x+ y) = f(x+ y) = f(x) + f(y) = f̄(x̄) + f̄(ȳ). De la misma manera se tiene f̄(αx̄) = αf̄(x̄). b) Unicidad. Supongamos que existen f̄1 y f̄2 tales que f̄1 ◦ π = f̄2 ◦ π = f, por lo tanto f̄1(x̄) = f(x) = f̄2(x̄), ∀x̄ ∈ V/U.  Proposición II.1.5.- Si V es de generación finita, entonces V/U lo es también. Además dimV/U = dimV − dimU. Demostración.- π : V → V/U es sobreyectiva. Si V es de generación finita, entonces π(V ) es de generación finita. La fórmula de dimensión para aplicaciones lineales da dimV = dimV/U + dimU.  II.2 Dual de un Espacio Vectorial 63 Por consiguiente, es suficiente mostrar que f 7→ f t es inyectiva. Supongamos que f t = 0, entonces f t : W ∗ → V ∗ η 7→ 0. Esto significa que f t(η) = η ◦ f = 0 ∀η ∈W ∗, entonces Im(f) ⊂ ker(eta) ∀η ∈W ∗. Utilizando el inciso iii) de la proposición II.2.1, se tiene que Im(f) = {0}, por consiguiente f = 0.  Proposición II.2.3.- Sean f : U → V y g : V →W lineales, entonces (g ◦ f)t = f t ◦ gt. En diagrama U f−→ V g−→ W U∗ ft←− V ∗ g t ←− W ∗. Demostración.- Sea η ∈W ∗, se tiene (g ◦ f)t(η) = η ◦ (g ◦ f) = (η ◦ g) ◦ f = gt(η) ◦ f = f t(gt(η)) = f t ◦ gt(η).  Proposición II.2.4.- Si V y W son de dimensión finita. Entonces, se tiene rang(f) = rang(f t), donde f : V →W lineal. Demostración.- Recordemos que rang(f) = dim Im(f). Elegimos una base {v1, . . . , vm} de V y otra {w1, . . . , wn} de W de tal manera que la matriz de f respecto a {vi} y {wj} sea ( Ir 0 0 0 ) , rang(f) = r. Por otro lado, Im(f t) = {ε ∈ V ∗|∃η ∈W ∗ con ε = η ◦ f}. La matriz de η : W → K respecto a {wj} y {1} es de la forma ( η1 · · · ηn ) . La matriz de η ◦ f : V → K respecto a {vi} y {1} es ( η1 · · · ηn ) ( Ir 0 0 0 ) = ( η1 · · · ηr 0 · · · 0 ) , de donde Im(f t) = {( η1 · · · ηr 0 · · · 0 )} es de dimensión r.  64 II Complemento Proposición II.2.5.- Sean {x1, . . . , xm} una base de V y {y1, . . . , yn} una base de W . {ξ1, . . . , ξm} base de V ∗ dual de {x1, . . . , xm} y {η1, . . . , ηn} base de W ∗ dual de {y1, . . . , yn}. Sea f : V →W lineal, se donota A la matriz de f respecto a las bases {xi} y {yj}. f t : W ∗ → V ∗, A∗ la matriz de f t respecto a las bases {ηj} y {ξi}, entonces A∗ = At. Demostración.- Se tiene A = (aij) con n∑ i=1 aijyi. A ∗ = (a∗kl) con f t(ηl) = m∑ k=1 a∗klξk. Por consiguiente, de un lado se obtiene f(ηl)(xj) = ( m∑ k=1 a∗klξk ) (xj) = a ∗ jl; del otro lado f(ηl)(xj) = ηl ◦ f(xj) = ηl ( n∑ i=1 aijyi ) = n∑ i=1 ηl(yj) = alj .  Corolario II.2.6.- Sea A ∈Mm,n(K), entonces rango fila de A = rango columna de A. II.3 Formas Bilineales Simétricas 65 II.3 Formas Bilineales Simétricas Sea V un espacio vectorial. Una forma bilineal simétrica sobre V es una aplicación f : V × V → K tal que f es bilineal y además f es simétrica. Se denota Sym2(V,K) el conjunto de las formas bilineales simétricas sobre V . En el ejercicio 50 de la practica se muestra que Sym2(V,K) es un espacio vectorial para las operaciones (f + g)(v1, v2) = f(v1, v2) + g(v1, v2) (αf)(v1, v2) = αf(v1, v2). Sea {e1, . . . , em} una base de V . La matriz de f respecto a la base {e1, . . . , em} es la matriz A(f) = (f(ei, ej))i,j con i, j = 1, . . . ,m; A(f) es una matriz simétrica; es decir A(f) = At(f). Proposición II.3.1.- La aplicación ϕ : Sym2(V,K)→ { Matrices simétricas m ×m a coe- ficientes en K. } f 7→ A(f) es un isomorfismo de espacios vectoriales. Demostración.- i) ϕ es lineal, ejercicio. ii) ϕ es inyectiva, si A(f) = 0, se tiene f(ei, ej) = 0, de donde f(x, y) = f( ∑ xiei, ∑ yjej) = ∑ ij xiyjf(ei, ej) = 0, por lo tanto f = 0. iii) ϕ es sobreyectiva. Sea A = (aij) una matriz simétrica. Planteamos f(x, y) = ∑ i,j xiyjaij , se puede ver que f es bilineal y simétrica, de matriz A.  Corolario II.3.2.- Si dimV = m, se tiene dim Sym2(V,K) = m(m+ 1) 2 . Demostración.- Ejercicio Proposición II.3.3.- Resultado Principal.- Sea f ∈ Sym2(V,K), supongamos que la caracteŕıstica de K es diferente a 2. Entonces existe una base de V respecto a la cual, la matriz de f es diagonal. 68 II Complemento Se observa que ei ∈ V0 para i > p; en efecto, para i > p se tiene f(ei, ek) = 0 ∀k. Sea x = m∑ i=1 xiei ∈ V0, por definición f(x, ek) = 0, para todo k. Ahora bien m∑ i=1 xif(ei, ek) = { xk para k ≤ p, 0 para k > p. Por lo tanto, x pertenece al subespacio generado por ep+1, . . . , em. Por consiguiente dimV0 = q = m− p. De la misma manera se hace el mismo razonamiento con la base {e′1, . . . , e′m} obteniendo dimV0 = q′. De donde p = p′ y q = q′.  Corolario II.3.5.- Supongamos K = R, entonces existe una base de V respecto a la cual la matriz de f es diag(1, . . . , 1︸ ︷︷ ︸ r ,−1, . . . ,−1︸ ︷︷ ︸ s , 0, . . . , 0︸ ︷︷ ︸ t ). Además los enteros r, s y t están únicamente determinados por f . Demostración.- De la proposición II.3.3, existe una base {e1, . . . , em} de V respecto a la cual, la matriz de f es diag(a1, . . . , am), ai ∈ R. Se introduce la base e′i =    ei si ai = 0, ei√ ai si ai > 0, ei√−ai si ai < 0. Como en la demostración del corolario precedente, se muestra f(e′i, e ′ i) =    0 si ai = 0, 1 si ai > 0, −1 si ai < 0, y f(e′i, e ′ j) = 0 si i 6= j. Para la segunda parte del corolario consideramos las bases {ei} y {e′i} respecto a las cuales, la matriz de f es A(f) = diag(1, . . . , 1︸ ︷︷ ︸ r ,−1, . . . ,−1︸ ︷︷ ︸ s , 0, . . . , 0︸ ︷︷ ︸ t ), A′(f) = diag(1, . . . , 1︸ ︷︷ ︸ r′ ,−1, . . . ,−1︸ ︷︷ ︸ s′ , 0, . . . , 0︸ ︷︷ ︸ t′ ). Introduciendo V0 = {x ∈ V |f(x, y) = 0 ∀y ∈ V }, mostramos al igual que en el corolario II.3.4 que t = t′. Afirmamos que e1, . . . , er, s′+t︷ ︸︸ ︷ er′+1, . . . , e ′ m es una familia de elementos de V linealmente independiente. Si esto es cierto, se tiene r + s′ + t ≤ m = r′ + s′ + t′, de donde r ≤ r′. Pro razonamiento simétrico, se tiene r′ ≤ r, por lo tanto r′ = r y s′ = s. II.3 Formas Bilineales Simétricas 69 Mostremos la afirmación, elegimos una combinación lineal tal que 0 = r∑ i=1 xiei + r′+s′∑ j=r′+1 yje ′ j + m∑ k=r′+s′+1 zke ′ k. Plantemos v = r∑ i=1 xiei, de donde por un lado f(v, v) = f ( r∑ i=1 xiei, r∑ i=1 xiei ) = 2∑ i=1 x2i , y del otro f(v, v) = f  − r′+s′∑ j=r′+1 yje ′ j − m∑ k=r′+s′+1 zke ′ k,− r′+s′∑ j=r′+1 yje ′ j − m∑ k=r′+s′+1 zke ′ k   = − r′+s′∑ j=r′+1 y2j . Deducimos inmediatamente que xi = 0 para i = 1, . . . , r; yj = 0 para j = r ′ + 1, . . . , r′ + s′. Puesto que {e′j} es una base, se tiene que zk = 0 para k = r ′ + s′ + 1, . . . ,m.  Proposición II.3.6.- Sea f ∈ Sym2(V,K). Sean {e1, . . . , em} y {e′1, . . . , e′m} dos bases de V . Se denota por A la matriz de f respecto a la base {e1, . . . , em} y A′ la matriz de f respecto a la base {e′1, . . . , e′m}. Entonces A = P tA′P, donde P es la matriz de pasaje de {e1, . . . , em} a {e′1, . . . , e′m}. Demostración.- Se tiene por definición (A)ij = f(ei, ej), (A′)ij = f(e ′ i, e ′ j), ej = m∑ i=1 pije ′ i. Por consiguiente f(ei, ej) = f ( m∑ k=1 pkje ′ k, m∑ l=1 plje ′ l ) = m∑ k,l=1 pkif(e ′ k, e ′ l)plj = m∑ k,l=1 (P t)ik(A ′)kl(P )lj = (P tA′P )ij .  Corolario II.3.7.- Supongamos K de caracteŕıstica diferente a 2. Sea A′ una matriz simétrica de orden m, entonces existe P ∈ Gl(m,K) tal que P tAP es una matriz diagonal. Demostración.- Ejercicio. 70 II Complemento II.4 Espacios Euclidianos En este paragrafo el cuerpo de base es R. Sea E un espacio vectorial. Un producto escalar sobre E es una forma bilineal E × E → R (x, y) 7→ 〈x, y〉 que es definida positiva; es decir 〈x, x〉 ≥ 0 ∀x ∈ E, 〈x, x〉 = 0 ⇐⇒ x = 0. Definimos la norma de x, como ‖x‖ = √ 〈x, x〉. Un espacio vectorial provisto de un producto escalar se llama espacio euclidiano. Ejemplos 1.- E = Rn es un espacio euclidiano provisto de 〈x, y〉 = n∑ i=1 xiyi producto escalar estandar. 2.- El espacio de las funciones reales indefinidamente derivables definidas sobre el intervalo [a, b], C∞([a, b],R), es un espacio euclidiano con el producto escalar 〈f, g〉 = ∫ b a f(t)g(t)dt. Noción de Isomorfismo de Espacios Vectoriales Sean E1, 〈 , 〉1 y E2, 〈 , 〉2 dos espacios euclidianos. Se dice que E1 y E2 son isomorfos, si existe ϕ : E → E lineal biyectiva, tal que 〈ϕ(x), ϕ(y)〉2 = 〈x, y〉1, ∀x, y ∈ E. El resultado principal de este paragrafo es, Si E es un espacio euclidiano de dimensión n. Entonces E es isomorfo a Rn dotado del producto escalar estandar. En lo que sigue E es de dimensión finita. Se dice que x, y ∈ E son ortogonales si 〈x, y〉 = 0. Se dice que la familia {v1, . . . , vm} es ortogonal si 〈vi, vj〉 cuando i 6= j. Se dice que {v1, . . . , vm} es ortonormal si {v1, . . . , vm} es una familia ortogonal y 〈vi, vi〉 = 1 para i = 1, . . . ,m. Proposición II.4.1.- Sea E un espacio euclidiano, entonces existen bases ortonormales; es decir, existen bases respecto a las cuales, la matriz del producto escalar es I. Demostración.- Una demostración de esta proposición, puede realizarse utilizando el corolario II.3.5, el cual asegura que existe una base respecto a la cual, la matriz del producto escalar es de la forma diag(1, . . . , 1︸ ︷︷ ︸ r ,−1, . . . ,−1︸ ︷︷ ︸ s , 0, . . . , 0︸ ︷︷ ︸ t ). II.4 Espacios Euclidianos 73 Por lo tanto a ∈ O(E) ⇐⇒ n∑ k=1 akiakj = δij ⇐⇒ (AtA)ij = Iij .  Definición II.4.7.- Una matriz A ∈Mn,n(R) es ortogonal si AtA = I. Corolario II.4.8.- El conjunto O(n,R) de las matrices ortogonales es un subgrupo de Gl(n,R) isomorfo a O(E). Proposición II.4.9.- Descomposicion de Iwasawa de Gl(m,R).- Sea A ∈ Gl(m,R). Entonces A se escribe de manera única bajo la forma A = QT donde Q ∈ O(m,R), T ∈ T+(m,R) con T+(m,R) =      t11 ∗ t22 ∗ . . . 0 tnn   ∣∣∣∣∣∣∣∣ tii > 0    . Demostración.- a) Existencia. Se considera Rm con el producto escalar estandar, {e1, . . . , em} la base canónica de Rm. Se tiene que {Ae1, . . . , Aem} es una base de Rm. Sea {f1, . . . , fm} la base ortonormal obtenida de {Ae1, . . . , Aem} por el procedimiento de Gramm-Schmidt. La matriz de pasaje de {Ae1, . . . , Aem} a {e1, . . . , em} es A. La matriz de pasaje de {f1, . . . , fm} a {Ae1, . . . , Aem} es T ∈ T+(m,R), repasar la demostración donde se utiliza el procedimiento de Gramm-Schmidt. La matriz de pasaje de {f1, . . . , fm} a {e1, . . . , em} es Q ∈ O(m,R). Por consiguiente, se tiene que A = QR. b) Unicidad. Se supone que A = Q1T1 = Q2T2 con Qi ∈ O(m,R) y Ti ∈ T+(m,R) para i = 1, 2. Ahora bien, como ejercicio mostrar que T+(m,R) es un subgrupo de Gl(m,R). De donde Q2Q −1 1 = T2T −1 1 ∈ O(m,R) ∩ T+(m,R). Afirmamos que O(m,R) ∩ T+(m,R) = {I}. Si esto es cierto, se tiene que Q2Q−11 = T2T−11 = I, de donde Q1 = Q2 y T1 = T2. Probemos la afirmación; sea T ∈ O(m,R) ∩ T+(m,R), entonces T =   t11 ∗ t22 ∗ . . . 0 tnn   y T tT = I. Una verificación dará que T = I.  Sea F ⊂ E un subespacio vectorial, se plantea F⊥ = {x ∈ E|〈x, y〉 = 0, ∀y ∈ F} . Se prueba que F⊥ es un subespacio vectorial y se llama el subespacio ortogonal de E. Proposición II.4.10.- Se tiene i) E = F ⊕ F⊥; 74 II Complemento ii) ( F⊥ )⊥ = F . Demostración.- i) Se elige una base ortonormal {f1, . . . , fm} de F . Se considera la aplicación ϕ : E → F x 7→ m∑ i=1 〈x, fi〉fi. Esta aplicación es lineal y sobreyectiva, por que los fk pertenecen a la imagen. Se tiene F ⊥ = kerϕ; en efecto, x ∈ F⊥, se tiene ϕ(x) = 0; x ∈ kerϕ, 〈x, fk〉 para k = 1, . . . , k, por lo tanto x ∈ F⊥. La formula de dimensión da dimE = dimF + dimF⊥, por consiguiente solo falta mostrar que F ∩ F⊥ = {0}. Esto es cierto, por que x ∈ F ∩ F⊥, implica que 〈x, x〉 = 0 y por lo tanto x = 0. ii) Ejercicio.  Proposición II.4.11.- La aplicación ϕ : E → E∗ = Hom(E,R) y 7→ ϕ(y) : E → R x 7→ 〈x, y〉. es un isomorfismo Demostración.- Como dimE = dimE∗, es suficiente ver que kerϕ = {0}. Sea y ∈ kerϕ, se tiene 〈x, y〉 = 0, para todo x ∈ E, en particular para x = y, por lo tanto 〈y, y〉 = 0 implica que y = 0.  Comentario.- En el caso euclidiano, se acaba de mostrar que se tiene un isomorfismo canónico entre E y E∗. II.5 Formas Herḿıticas, Espacios Unitarios 75 II.5 Formas Hermı́ticas, Espacios Unitarios El cuerpo de base en este paragrafo es C. Recordemos, la conjugación de números complejos es la aplicación definida por C→ C z 7→ z̄ x+ iy 7→ x− iy. Sea V un espacio vectorial. Una forma sesquilineal sobre V es una aplicación V × V f−→ C, tal que f(α1x1 + α2x2, y) = α1f(x1, y) + α2f(x2, y), f(x, β1y1 + β2y2) = β̄1f(x, y1) + β2f(x, y2). Se dice que f sesquilineal es hermı́tica si f(x, y) = f(y, x), ∀x, y ∈ V. Proposición II.5.1.- Herm(V,C), el conjunto de los f hermı́ticas sobre V es un espacio vectorial sobre R. Demostración.- Ejercicio. Sea f ∈ Herm(V,C) y {e1, . . . , em} una base de V , la matriz de f respecto a {e1, . . . , em} es la matriz (A(f))ij = f(ei, ej). Si f es hermı́tica, se tiene f(ei, ej) = f(ej , ei), obteniendo A(f) t = A(f). Se dice que la matriz B ∈ Mm,m(C) es hermı́tica si B̄t = B y el conjunto de tales matrices, se denota Herm(m,C) y es un espacio vectorial real. Proposición II.5.2.- La aplicaciones Herm(V,C)→ Herm(m,C) f 7→ A(f) g ← B donde g(x, y) = m∑ i,j=1 xibij ȳj . son isomorfismos de espacios vectoriales reales y son inversas entre si. Además Herm(m,C) es de dimensión m2. Demostración.- Ejercicio. Ejemplo 1.- La aplicación dada por Cm × Cm → C (x, y) 7→ m∑ i=1 xiȳi es una forma hermı́tica. Caṕıtulo III Formas Normales III.1 Vectores y Valores Propios Sea V un espacio vectorial de dimensión n. Sea f ∈ End(V ) y {v1, . . . , vn}, {v′1, . . . , v′n} dos bases de V . Recordando el primer caṕıtulo, se denota A la matriz de f respecto a {vi}, A′ la matriz de f respecto a {v′i}, M la matriz de pasaje de {vi} a {v′i}. Se tiene A′ = MAM−1. Definición III.1.1.- Sean A,B ∈ Mn,n(K). Se dice que A y B son conjugadas o semejantes, si existe M ∈ Gl(n,K) tal que B = MAM−1. Ejercicio.- Mostrar que la semejanza de matrices es una relación de equivalencia sobre Mn,n(K). La interpretación geométrica que se puede dar: Si A es la matriz de f respecto a la base {vi}, la clase de conjugación de A, es decir el conjunto de las matrices MAM−1, coincide con el conjunto de las matrices de f respecto a las bases de V . Definición III.1.2.- Se dice que f, g ∈ End(V ) son semejantes o conjugados si existe h ∈ Gl(V ) tal que g = h ◦ f ◦ h−1. Definición III.1.3.- Sea f ∈ End(V ), se considera ker(f − λid) con λ ∈ K. Si ker(f − λid) 6= {0}, se dice que λ ∈ K es un valor propio de f . El subespacio ker(f − λid) 6= {0} se llama subespacio propio de f respecto al valor propio λ. dimker(f − λid) se la llama la multiplicidad geométrica del valor propio λ. Un elemento no nulo de ker(f − λid) se llama vector propio de f respecto a λ. Por consiguiente, dicho de otra manera λ ∈ K valor propio de f ⇐⇒ existe x ∈ V, x 6= 0 tal que f(x) = λx; x ∈ V es vector propio de f ⇐⇒ x 6= 0 y existe λ ∈ K tal que f(x) = λx. Sea A ∈ Mn,n(K), se denota por ρ(A) : Kn → Kn la aplicación lineal cuya matriz respecto a la base canonica es A. Definición III.1.4.- Se dice que λ es un valor propio de A, si λ es valor propio de ρ(A). Se dice que x ∈ Kn es un vector propio de A, si x es valor propio de ρ(A). Ejemplo 1.- Consideremos la matriz identidad I, entonces todo x 6= 0 ∈ Kn es vector propio respecto a λ = 1. Proposición III.1.5.- Sean f, g ∈ End(V ), se supone que f y g son conjugados; entonces: i) λ es un valor propio de f ⇐⇒ λ es un valor propio de f . 82 III Formas Normales ii) Si g = hfh−1, se tiene x es vector propio de f ⇐⇒ h(x) es vector propio de g. Demostración. Se tiene que λ es valor propio de f , si y solamente si existe x 6= 0 ∈ V tal que f(x) = λx, si y solamente si existe y = h(x) 6= 0 ∈ V tal que g(y) = hf(x) = λh(x) = λy.  Proposición III.1.6.- Sean λ1, . . . , λp valores propios distintos de f . Se plantea Kj = ker(f − λjid). Entonces los Kj son linealmente independientes. (Se dice que los Kj son son linealmente independientes, si xj ∈ Kj y p∑ j=1 xj = 0⇒ xj = 0 para j = 1, . . . , p). Demostración.- Por inducción sobre p. Para p = 1 evidente. Se supone cierto la proposición para p− 1 con p > 1. Mostremos que la proposición es cierta para p. Sea p∑ j=1 xj = 0 con xj ∈ Kj , se tiene f( p∑ i=1 xj) = 0 = p∑ i=1 λjxj , ahora bien, p∑ j=1 λ1xj − p∑ j=1 λjxj = p∑ j=2 (λ1 − λj)xj = 0, por hipótesis de inducción (λ1 − λj)xj = 0 para j = 2, . . . , p, por lo tanto xj = 0 para j = 2, . . . , p y por consiguiente x1 = 0.  Corolario III.1.7.- Mismas hipótesis que la proposición precedente. Entonces la aplicación K1 ×K2 × · · ·Kp ϕ−→ V (x1, x2, . . . , xp) 7→ x1 + x2 + · · ·+ xp es inyectiva. En este caso la imagen de ϕ es p⊕ j=1 Kj . Demostración.- Ejercicio. Proposición III.1.8.- Sea f ∈ End(V ). Se supone que f posee m = dimV valores propios diferentes λ1, . . . , λm. Se elige vi un vector propio respecto a λi para i = 1, . . . ,m. Entonces: i) ker(f − λjid) es de dimensión igual a 1, para j = 1, . . . ,m. ii) {v1, . . . , vm} es una base de V . iii) La matriz de f respecto a {v1, . . . , vm} es diag(λ1, . . . , λm). Demostración.- Utilizando la notación de la proposición III.1.6, Kj = ker(f − λjid) 6= {0}, j = 1, . . . ,m. Por el corolario III.1.7, la aplicación K1 ×K2 × · · ·Km ϕ−→ V (x1, x2, . . . , xm) 7→ x1 + x2 + · · ·+ xm es inyectiva. Por lo tanto se tiene m ≤ ∑ dim(Kj)︸ ︷︷ ︸ ≥1 ≤ dimV = m; III.1 Vectores y Valores Propios 83 ϕ es por consiguiente un isomorfismo, V = p⊕ j=1 Kj . Sea vj ∈ Kj con vj 6= 0, entonces {(v1, 0, . . . , 0), . . . , (0, . . . , 0, vm)} es una base de K1 ×K2 × · · ·Km, de donde via el isomorfismo {v1, . . . , vm} es una base de V . La matriz de f respecto a {v} es una matriz diagonal.  Polinomio Caracteŕıstico de una Matriz Sea A ∈Mm,m(K), se plantea PA(x) = det(xI −A) = ∣∣∣∣∣∣∣∣ x− a11 −a12 · · · −a1m −a21 x− a22 ... . . . −am1 · · · −am,m−1 x− amm ∣∣∣∣∣∣∣∣ ∈ K[x] polinomio de grado n y coeficiente dominante igual a 1. PA(x) es el polinomio caracteŕıstico de A. Proposición III.1.9.- Si A y B son semejantes, entonces PA(x) = PB(x). Demostración.- Por hipótesis, existe M ∈ Gl(m,K) tal que A = MBM−1, calculando los polinomios caracteŕısticos se tiene PA(x) = det(xI −A) = det(xMIM−1 −MBM−1) = det(M(xI −B)M−1) = detM det(xI −B) detM−1 = det(xI −B) = PB(x).  Sea f ∈ End(V ). Sea {v1, . . . , vm} una base de V . Se nota A la matriz de f respecto a {vi}. Por la proposición precedente, el polinomio PA no depende de la elección de la base, solamente de f . Se plantea Pf (x) = PA(x) el polinomio caracteŕıstico de f . Definición III.1.10.- Se dice que un cuerpo K es algebraicamente cerrado si todo polinomio p(x) ∈ K[x] no constante posee al menos una raiz. Es decir, si todo polinomio no constante a coeficientes en K se puede factorizar en polinomios de grado igual a 1. Ejemplo 2.- C es un cuerpo algebraicamente cerrado. Teorema III.1.11.- Sea f ∈ End(V ), las raices del polinomio caracteŕıstico de f son exactamente los valores propios de f . En particular, si K es algebraicamente cerrado, el endomorfismo f posee al menos un valor propio y un vector propio. Demostración.- Sea λ ∈ K, A matriz de f respecto a una base de V . Se tiene Pf (λ) = 0 ⇐⇒ PA(λI −A) = 0 ⇐⇒ ker(λI − f) 6= {0} ⇐⇒ λ es un valor propio de f.  Definición III.1.12.- Sea λ un valor propio de f , la multiplicidad algebraica de λ es la multiplicidad de la raiz de Pf . 86 III Formas Normales III.2 Triangularización y Diagonalización Sea A = (aij) ∈Mm,m(K), se dice que A es triangular superior si aij = 0 para i > j. A =   a11 an1 a22 . . . 0 ann   Sea f ∈ End(V ). Se dice que f es triangularizable si existe una base de V respecto a la cual la matriz de f es triangular superior. Remarca.- Se A es la matriz respecto a {v1, . . . , vm}, la matriz de f respecto a {vm, . . . , v1} es A′ =   amm · · · am1 ... ... a1m · · · a11   . Si A es triangular superior, A′ es triangular inferior o viceversa. Por consiguiente la definición de triangu- larizable puede remplazarse por inferior o superior. Sea A ∈ Mm,m(K). Se dice que A estriangularizable si existe M ∈ Gl(m,K) tal que MAM−1 sea triangular superior o inferior. Proposición III.2.1.- Sea f ∈ End(V ), entonces f es triangularizable ⇐⇒ el polinomio caracteŕıstico de f es producto de polinomios de grado 1. Demostración.-⇒ B es triangularizable, existe M inversible tal que MBM−1 =   a11 an1 a22 . . . 0 ann   y por lo tanto PB(x) = PA(x) = m∏ i=1 (x− a11). ⇐ por inducción sobre m. m = 1 nada que hacer. Supongamos cierta la proposición para m− 1, con m > 1. Sea λ1 valor propio de f y v1 un vector propio asociado a λ1, se tiene f(v1) = λ1v1 y v1 6= 0. Se elige v2, . . . , vm de manera que {v1, . . . , vm} sea una base de V . La matriz de f respecto a {v1, . . . , vm} es de la forma A = ( λ1 ∗ ∗ ∗∗ 0 A′ ) ; se tiene PA(x) = (x− λ1)PA′(x). Aplicando la hipótesis de inducción a A′. Por consiguiente, existe M ′ ∈ Gl(m− 1,K) tal que M ′AM ′−1 es triangular. Se tiene ( 1 0 0 M ′ )( λ1 ∗ ∗ ∗∗ 0 A′ )( 1 0 0 M ′−1 ) =   λ1 ∗ ∗ λ2 . . . 0 λn    III.2 Triangularización y Diagonalización 87 Proposición III.2.2.- Si K es algebraicamente cerrado, entonces todo endomorfismo es triangularizable. Ejemplo 1.- Una rotación de R2 no es triangularizable. Definición III.2.3.- f ∈ End(V ) es diagonalizable si existe una base {v1, . . . , vm} de V respecto a la cual la matriz de f es una matriz diagonal. Dicho de otra manera: f es diagonalizable si existe una base de V formada de vectores propios de f . A ∈Mm,m(K) es diagonalizable, si existe M ∈ Gl(m,K) tal que MAM−1 es una matriz diagonal. Ejemplo 2.- A = ( 0 1 0 0 ) no es diagonalizable, sino existiŕıa una base v1 y v2 de K2 respecto a la cual, la matriz de ρ(A) es la matriz nula, pero esto es imposible. Proposición III.2.4.- Sea f ∈ End(V ). Entonces f es diagonalizable ⇐⇒    1) Pf = ∏ j=1,...,r (x− λj)mj λi 6= λj para i 6= j y ∑ 1,...,r mj = m = dimV . 2) dim ker(f − λjid) = mj para j = 1, . . . , r. Demostración.- ⇒ Supongamos que existe una base {v1, . . . , vm} con f(v1) = aivi, por lo tanto Pf (x) = m∏ i=1 (x− ai) = m∏ i=1 (x− λj)mj . Si es necesario renumerar los vi, la matriz de f respecto a {vi} es diag(λ1, . . . , λ1︸ ︷︷ ︸ m1 , . . . , λr, . . . , λr︸ ︷︷ ︸ mr ). Por lo tanto ker(f − λ1id) admite como base {v1, . . . , vm1 y aśı sucesivamente. Se plantea Kj = ker(f − λjid). Por la proposición III.1.6, los Kj son linealmente independientes y por el corolario III.1.7 K1 ×K2 × · · ·Kr ϕ−→ V (v1, v2, . . . , vr) 7→ v1 + v2 + · · ·+ vr es un isomorfismo, consiguientemente V = ⊕ Kj . Sea Bj una base de KJ , de donde B = ∪rj=1 es una base de V. La matriz de f respecto a B es diagonal.  88 III Formas Normales III.3 Endomorfismos Normales de un Espacio Unitario Recordemos que E es un espacio unitario de dimensión m sobre el cuerpo C, si está provisto de un producto escalar hermı́tico. E × E → C (x, y) 7→ 〈x, y〉 sesquilineal y definido positivo. Aśı mismo se dispone de una biyección ϕ : E → E∗ = Hom(E,C) y 7→ ϕ(y) : E → C x 7→ 〈x, y〉. Esta aplicación es semilineal en el sentido que sigue ϕ(y1 + y2) = ϕ(y1) + ϕ(y2), ϕ(αy) = ᾱϕ(y). Sea a ∈ End(E). Porque ϕ es biyectiva, entonces existe una única aplicación ã : E → E que vuelve el siguiente diagrama conmutativo E a←− 99K ã E ϕ↓ ↑ ϕ−1 E∗ −→ at E∗ es decir, ã = ϕ−1atϕ. Proposición III.3.1.- ã es lineal y se llama la adjunta de a. Remarca.- No confundir con la matriz adjunta, diferente contexto. Demostración.- Por la adición no hay problema; en efecto, ϕ, at y ϕ−1 son isomorfismos de grupo para la adición. Para la multiplicación, tenemos ã(x) = ϕ−1(atϕ(αx)) = ϕ−1(ᾱatϕ(x)) = ᾱϕ−1(atϕ(x)) = αã(x).  Proposición III.3.2.- Sea a ∈ End(E), para todo x, y ∈ E se tiene la siguiente fórmula 〈a(x), y〉 = 〈x, ã(y)〉. Es decir, el producto escalar de la imagen de x con y es el mismo que producto escalar de x con la imagen de la adjunta de y. Demostración.- Por definición de ã, se tiene at ◦ ϕ = ϕ ◦ ã. Por lo tanto: 〈a(x), y〉 = ϕ(y)(a(x)) = at ◦ ϕ(y)(x) = ϕ(ã(y))(x) = 〈x, ã(y)〉.  III.3 Endomorfismos Normales de un Espacio Unitario 91 Proposición III.3.8.- Sea F un subespacio de E invariante por a. Entonces F⊥ = {x ∈ E|〈x, y〉 = 0 ∀y ∈ F} es invariante por ã. Demostración.- Sea x ∈ F⊥ e y ∈ F , se tiene 〈ã(x), y〉 = 〈x, ã(y)〉 = 0.  Proposición III.3.9.- Sea V un espacio vectorial sobre un cuerpo K algebraicamente cerrado. Sean ϕ, ψ ∈ End(V ) tales que ϕψ = ψϕ. Entonces existe un vector propio común a ϕ y ψ. Demostración.- Sea λ valor propio de ϕ. Esto significa que W = ker(ϕ− λid) 6= {0}. Se observa que W es invariante por ψ. En efecto, ψ(w) ∈W ⇐⇒ ϕ(ψ(w)) = λ(ψ(w)). Esto sucede por que ϕ(ψ(w)) = ψ(ϕ(w)) = ψ(λw) = λψ(w). Por que K es algebraicamente cerrado, el endomorfismo ψ|W de W posee un vector propio, es decir existe v ∈W con ψ(v) = µv. Por otro lado, por definición de W , se tiene ϕ(v) = λv.  Proposición III.3.10.- Se tiene: i) a ∈ End(E) es normal ⇐⇒ existe una base ortonormal de E dada de vectores propios de a. ii) Sea {f1, . . . , fm} una base ortonormal de E tal que a(fj) = λjfj , λj ∈ C. Entonces ã(fj) = λ̄jfj ;1) a es autoadjunto ⇐⇒ λj ∈ R;2) a es positivo ⇐⇒ λj ∈ R y λj > 0;3) a es antiautoadjunto ⇐⇒ λj ∈ iR; 4) a es unitario ⇐⇒ |λj | = 1.5) Demostración.- i) ⇐ Sea {f1, . . . , fm} una base ortonormal formada de vectores propios para a. Se tiene a(fj) = λjfj . La matriz A de a respecto a esta base es diag(λ1, . . . , λm). La matriz à de ã respecto a esta base es diag(λ̄1, . . . , λ̄m). Se tiene Aà = ÃA, es decir aã = ãa, a es normal. Observar que ii) 1) ha sido demostrado. ⇒ Se demuestra por inducción sobre m = dimE que existe una base ortonormal de E formada de vectores propios comunes a a y ã. Para m = 1, trivial. Suponemos cierto para dimE < m. Por la proposicion III.3.9 existe f1 ∈ E con 〈f1, f1〉 = 1 y f1 vector propio de a y ã. Se denota F1 el espacio engendrado por f1. Por la proposicion III.3.8, se tiene a(F1) ⊂ F1 → ã(F⊥1 ) ⊂ F⊥1 ã(F1) ⊂ F1 → a(F⊥1 ) ⊂ F⊥1 lo que implica que F⊥1 es invariante por a y ã. 92 III Formas Normales Por hipótesis de inducción, existe una base ortonormal {f2, . . . , fm} de F⊥1 , de vectores propios de a y ã. Entonces {f1, f2, . . . , fm} es una base ortonormal de E formada de vectores propios para a y ã. ii) 2,3,4 ejercicio.  Corolario III.3.11.- Sea A ∈ Mm,m(C) una matriz normal, respectivamente unitaria, hermı́tica, anti- hermı́tica, positiva. Entonces existe U ∈ U(m,C) tal que UAU−1 = diag(λ1, . . . , λm) donde λj ∈ C, respectivamente |λj | = 1, λj ∈ R, λj ∈ iR, λj ≥ 0. Demostración.- Se interpreta A como la matriz de un endomorfismo normal de Cm, la proposición III.3.10 indica que existe una base ortonormal {f1, . . . , fm} de Cm formada de vectores propios de A. Se introduce la matriz de pasaje U de {e1, . . . , em} a {f1, . . . , fm}, entonces U ∈ U(m,C) y UAU−1 = diag(λ1, . . . , λm)  Dos Aplicaciones a las Matrices a Coeficientes Reales Proposición III.3.12.- Sea A ∈ Mm,m(R) una matriz simétrica. Los valores propios de A son reales. Además existe Q ∈ O(m,R) tal que QAQt = diag(λ1, . . . , λm). Demostración.- Se tiene Mm,m(R) ⊂ Mm,m(C), A es por consiguiente hermı́tica. Por el corolario prece- dente, los valores propios de A son reales. Aśı mismo A es diagonalizable en Mm,m(C). Se tiene que C = ⊕ λ ker(A−λI), suma sobre los diferentes subespacios propios. Afirmamos que para la estructura estandar de espacio unitario los subespacios Vλ son ortogonales dos a dos, donde Vλ = ker(A−λI). En efecto, se tiene λ〈vλ, vµ〉 = 〈λvλ, vµ〉 = 〈Avλ, vµ〉 = 〈vλ, Avµ〉 = µ̄〈vλ, vµ〉 = µ〈vλ, vµ〉. de donde 〈vλ, vµ〉 = 0 si λ 6= µ. Sea w = (w1, . . . , wm) ∈ Cm, se plantea w̄ = (w̄1, . . . , w̄m). Sea W ⊂ Cm un subespacio vectorial, se plante W̄ = {w̄|w ∈W}. Ejercicio.- Si W = W̄ , existe una base ortonormal de W compuesta de elementos de Rm ⊂ Cm. Se tiene Vλ = V̄λ. En efecto v ∈ Vλ ⇐⇒ Av = λv ⇐⇒ Av = λv ⇐⇒ Av̄ = λv̄ ⇐⇒ v̄ ∈ Vλ. Utilizando el ejercicio, se elige una base ortonormal de Vλ constituida de elementos de Rm que la denotamos Bλ. Planteamos B = ∪Bλ, B es una base ortonormal de Cm formada de elementos de Rm, por consiguiente B también es una base ortonormal de Rm formada de vectores propios de A. Se introduce Q la matriz de pasaje de la base canónica a B. Se tiene QAQt = diag(λ1, . . . , λm).  Ejercicio.-Estudiar en R2 la ecuación ax2 + 2bxy + cy2 = 1. III.3 Endomorfismos Normales de un Espacio Unitario 93 Sea E = Rm, el espacio euclidiano estandar. Sea ϕ ∈ O(E). Entonces existe una base ortonormal de E respecto a la cual la matriz de ϕ es de la forma Θ =   cosα − sinα sinα cosα 0 · · · 0 0 cosβ − sinβ sin β cosβ . . . 0 · · · 0 cosω − sinω sinω cosω ±1 . . . ±1   La versión matricial: Sea Φ ∈ O(m,R), entonces existe Q ∈ O(m,R) tal que QΦQt = Θ. Demostración.- Consideremos el diagrama siguiente E = Rm →֒ Cm ϕ y y ϕC Rm →֒ CM Sea Φ la matriz de ϕ respecto a la base canónica. ϕC la aplicación lineal de Φ respecto a la base canónica. Por consiguiente ϕC es una transformación unitaria de Cm. Dicho de otra manera Φ ∈ O(m,R) ⊂ U(m,C). Por la proposición III.3.10 ϕC es diagonalizable y sus valores propios son módulo igual a 1. Por con- siguiente Cm = ⊕ Kλ Kλ = ker(ϕC − λid). Se observa que los Kλ son ortogonales dos a dos; en efecto λ〈vλ, vµ〉 = 〈ϕCvλ, vµ〉 = 〈vλ, ϕ̃Cvµ〉 = 〈 vλ, ϕ −1 C vµ 〉 = µ̄−1〈vλ, vµ〉 = µ〈vλ, vµ〉 = 0. lo que implica que vλ ⊥ vµ si λ 6= µ. Se observa que K̄λ = Kλ̄. Verificar como ejercicio. Ahora bien, si λ ∈ R, se tiene que λ = 1 o λ = −1, por lo tanto K̄λ = K̄λ̄ = Kλ, por lo tanto exist una base Bλ de Kλ ortogonal y formada de elementos de Rm. Si λ 6∈ R, se considera Kλ ⊕Kλ̄ = Kλ ⊕Kλ̄. Sea {v1, . . . , vmλ} una base ortonormal deKλ, entonces {v̄1, . . . , v̄mλ} es una base ortonormal deKλ̄. Mostrar esta afirmación como ejercicio. Se plantea: b2j−1 = 1√ 2 (vj + v̄j) ∈ Rm, j = 1, . . . ,mλ; b2j = 1√ 2 i(vj − v̄j) ∈ Rmm, j = 1, . . . ,mλ. Ahora bien {b1, . . . , b2mλ} = Bλ es una base ortonormal de Kλ ⊕ Kλ̄ formada de vectores de Rm. La verificación de esta afirmación la dejamos como ejercicio. Se considera B = ∪Bλ es una base ortonormal de Cm formada de elementos de Rm, entonces base de Rm. El ultimo paso es verificar que la matriz de ϕC es de la forma de Φ.  96 III Formas Normales y f es diagonalizable. ii) Pf (x) = (x− λ)2, se tiene V = ker(f − λid)2, lo que implica que f = λid︸︷︷︸ homotecia + (f − λid)︸ ︷︷ ︸ nilpotente . Conservando la notación y las hipótesis del teorema, se introduce fd : ⊕Vj = V → V∑ vj∈Vj vj 7→ ∑ λjvj . Dicho de otra manera fd(Vj) ⊂ Vj y fd|Vj es una homotecia de razon λj . Por construcción fd es diagonalizable y además Pfd(x) = ∏ (x− λj)mj = Pf (x). Se puede observar que V = ⊕Vj es la descomposición de V en suma directa de subespacios propios para fd. Se plantea fn = f − dd. Proposición III.4.4.- Mismas hipótesis y notación del teorema III.4.3. Entonces se tiene: i) f = fd + fn donde fd es diagonalizable, fn es nilpotente y que satisfacen fnfd = fdfn. Además Pf (x) = ffd(x). ii) Si f ′d diagonalizable y f ′ n nilpotente como en i), entonces f ′ d = fd y f ′ n = fn¿ Demostración i) Se tiene f = fd + fn por definición. Sea vj ∈ Vj , entonces fd(vj) = λjvj ∈ Vj . Ahora bien, fd(f(vj)︸ ︷︷ ︸ ∈Vj = λjf(vj), f(fd(vj)) = f(λvj) = λjf(vj), de donde ffd = fdf , lo que un cálculo simple dará fnfd = fdfn. fd es diagonalizable por construcción. Veamos que fn es nilpotente, sea vj ∈ Vj , se tiene fmjn (vj) = (f − fd)mj (vj) = (f − λjid)mj (vj) = 0, porque Vj = ker(f − λjid)mj . Sea M = max{mj}, entonces se tiene fMn ( ∑ vj) = ∑ fMn (vj) = 0 y fn es nilpotente. Pf = Pfd por construcción. ii) Sean f ′d diagonalizable y f ′ n nilpotentes, tales que f = f ′d + f ′ n, f ′ df ′ n = f ′ nf ′ d. Por el teorema III.4.3 aplicado a f ′d, se tiene que V = ⊕ V ′j , Pf ′d(x) = ∏ (x− λ′j)nj , V ′j = ker(f ′d − λ′jid)nj y f ′d(V ′j ) ⊂ V ′j . Deber observarse que V ′j = ker(f ′ d − λ′jid) por que f ′d es diagonalizable. Mostremos que f ′n(Vj) ⊂ Vj ; en efecto, se tiene v′j ∈ Vj ⇐⇒ f ′d(vj) = λ′j(v′j). Ahora bien f ′n(f ′ d − λ′jid)(v′j) = f ′nf ′d(vj)− λ′jf ′n(v′j) = 0, ⇒ f ′d(f ′n) = λ′jfn(v′j). III.4 Descomposición Canónica 97 De la misma manera se muestra que f(V ′j ) ⊂ V ′j . Utilizando la proposición III.3.9 para f , f ′n y f ′d restringidos en V ′j , deducimos que λ ′ j = λk, para algún k, la verificación la dejamos como un simple ejercicio. En resumen todo valor propio de f ′d es valor propio de f . El siguiente paso es mostrar que f ′n(Vj) ⊂ Vj , para todo j. Se tiene que f ′n(vj) = (fn + fd − f ′d)(vj) = fn(vj) + (λj − βj)vj ∈ Vj , por que vj ∈ V ′k para algún k. Además fd(f ′ n(vj)) = λjf ′ n(vj) = f ′ n(λjvj) = f ′ n(fd(vj)), de donde fdf ′ n = f ′ nfd sobre Vj y por consiguiente sobre V . Por simples cálculos es facil ver también que f ′nfn = fnf ′ n. Ejercicio.-Mostrar que fn − f ′n es nilpotente. Por último mostremos que f ′d = fd, sea 0 6= v ∈ V , αv = fd(v) = f ′ d(v) + (f ′ n − fn)(v) = βv + (f ′n − fn)(v), de donde v es vector propio de f ′n−fn y como este endomorfismo es nilpotente deducimos que f ′n(v) = fn(v) y f ′d(v) = fd(v).  98 III Formas Normales III.5 Teorema de Hamilton Cayley Teorema III.5.1.- Hamilton-Cayley. Se tiene: i) Sea f ∈ End(V ), entonces Pf (f) = 0. ii) Sea A ∈Mm,m(K), entonces PA(A) = 0. Demostración.- Debe constatarse que i) y ii) son enunciados equivalentes. Como preliminar a la de- mostración debe recordarse que todo cuerpo K es subcuerpo de un cuerpo K̄ algebraicamente cerrado. Por ejemplo R ⊂ C. La demostración se la realiza en dos etapas. 1.-K cuerpo de base arbitrario. Ejercicios de la Práctica. 2.-K cuerpo de base algebraicamente cerrado. Se tiene por consiguiente Pf (x) = ∏ (x− λj)mj , V = ⊕ Vj , donde Vj = ker(f − λjid)mj . Se tiene Pf (f) = ∏ j (f − λjid)mj , producto en cualquier orden. Sea vk ∈ Vk, se tiene por consiguiente Pf (f)(vk) = Pf (f) = ∏ j (f − λjid)mj (vk) = ∏ j 6=k (f − λjid)mj (f − λkid)mk(vk)︸ ︷︷ ︸ =0 . De donde Pf (f) = 0.  Consideremos la aplicación ϕfK[x]→ End(V ) P 7→ P (f) Se puede ver que ϕf es un homorfismo de espacios vectoriales y de anillos. Si la dimensión de V es m, se tiene dimEnd(V ) = m2 y por otro lado dim K[x] es infinita. Por lo tanto ϕf no es inyectiva, lo que significa que kerϕf 6= {0}. Como ϕf es un homomorfismo de anillos, se tiene que kerϕf es un ideal, resultado que será visto en otro curso. El teorema de Hamilton Cayley afirma que Pf ∈ kerϕf y se mostrará en otro curso de Algebra que kerϕf = Mf K[x] = {MfP |P ∈ K[x]}. Mf es un polinomio de coeficiente dominante 1 y se conoce como el polinomio minimal de f ∈ End(V ). Por consiguiente se tiene que Mf divide Pf . Ejemplos 1.- Sea A = ( a11 a12 a21 a22 ) , el polinomio caracteŕıstico de A está dado por PA(x) = x 2 − (a11 + a22)x+ (a11a22 − a12a21), de donde PA(A) = A 2 − (a11 + a22)A+ (a11a22 − a12a21)I = ( 0 0 0 0 ) . III.6 Endomorfismos Nilpotentes 101 ii) Se mostrará por inducción sobre el ı́ndice q de g la existencia de un suplementario W de V1 que es estable por g. Si q = 1, entonces g = 0 y no hay nada que hacer. Se supone cierta la aserción para los endomorfismos nilpotentes de ı́ndice < q. Se introduce R = Im(g) ⊂ V , R es un subespacio de V y se tiene que g(R) ⊂ R y el ı́ndice de g|R es q − 1. La verificación de que el ı́ndice de g|R la dejamos como ejercicio. Se puede aplicar la hipótesis de inducción a R, g|R, g(v1) y R1, donde R1 es el subespacio de R engendrado por {g(v1), . . . , gq−1(v1)}. Entonces existe un subespacio S de R tal que R = R1⊕S y g(S) ⊂ S. Via V → R = Img v 7→ g(v) se introduce S′ = {v ∈ V |g(v) ∈ S}. Afirmamos que V = V1 + S ′. En efecto, sea v ∈ V , se escribe g(v) = r1 + s, existe x1 ∈ V1 tal que g(x1) = r1. Ahora bien g(v − x1) = g(v)− g(s1) = s ∈ S, por lo tanto v − x1 ∈ S′ y más todav́ıa v = x1 + s′ con x1 ∈ V1 y s′ ∈ S′. Observamos que g(S′) ⊂ S′, en efecto, sea s′ ∈ S′ g(s′) ∈ S′ ⇐⇒ g(g(s′)) ∈ S, esto es cierto por que g(S) ⊂ S por hipótesis de inducción. V1 ∩ S′ 6= {0}. En realidad V1 ∩ S′ es de dimensión 1 engendrado por gp−1(v1). En efecto, 0 6= gp−1(v1) ∈ V1 por definición, 0 6= gp−1(v1) ∈ S′ por que g(gp−1(v1)) = 0 ∈ S. Rećıprocamente, sea v ∈ V1 ∩ S′, se tiene g(v) ∈ V1 ∩ Im(g) = R1 g(v) ∈ S } ⇒ g(v) ∈ S ∩R1 = {0}; g(v) = 0, de donde v ∈ V1 ∩ ker(g). Se utiliza finalmente que V1 ∩ ker(g) es engendrado por gp−1(v1). V1 ∩ S = {0}; en efecto V1 ∩ S = V1 ∩ (S ∩R) = V1 ∩R ∩ S = R1 ∩ S = {0}. Se considera por consiguiente el subespacio de S′ dado por S ⊕ (S′ ∩ V1), se elige un suplementario S′ = S ⊕ (S′ ∩ V1)⊕ S′′, se plantea W = S ⊕ S′′. El subespacio W satisface las condiciones de la proposición, es decir: a) g(W ) ⊂W ; en efecto, w ∈W , se tiene g(w) ∈ S ⊂W . b) V1 ∩W = {0}; en efecto, V1 ∩W = V1 ∩ (W ∩ S′) = (V1 ∩ S′) ∩W = {0}, por construcción de W . c) V1 +W = V ; en efecto, V = V1 + S ′ = V1 + (W + V1 ∩ S′) = V1 +W.  102 III Formas Normales Sea g ∈ End(V ) un endomorfismo nilpotente. Se dice que un subespacio V1 de V es un subespacio ćıclico respecto a g, si existe v1 ∈ V y n > 0 tal que v1, g(v1), . . . , g n−1(v1) es una base de V1 y g n(v1) = 0. En la proposición precedente se ha mostrado la existencia de subespacios ćıclicos. Teorema III.6.3.- Sea g ∈ End(V ) nilpotente. Entonces existe una descomposición V = k⊕ j=1 Vj , (III.6.1) donde cada uno de los Vj es ćıclico respecto a g. El entero k y los enteros qj = dimVj dependen solamente de g y no aśı de la descomposición particular (III.6.1). Demostración.- Se elige v1 ∈ V como en la proposición (III.6.2), después V1 el subespacio engendrado por {v1, g(v1), . . . , gq−1(v1)}. El subespacio V1 es ćıclico respecto a g. Además existe una descomposición V = V1 ⊕W donde g(W ) ⊂W . Se recomienza el razonamiento sobre W y se llega paso a paso a la existencia de la descomposición (III.6.1). Mostremos la unicidad de k y los qj . Para un entero n, se plantea e(n) = #{j| dimVj = n}. e(n) depende solamente de g y no de la descomposición particular en subespacios ćıclicos. En efecto la fórmula e(n) = rang(gn−1)− 2rang(gn) + rang(gn+1) depende solamente de g. Mostremos esta última fórmula. Consideremos Vj , la base es vj , g(vj), . . . , g qj−1(vj) y gqj (vj) = 0. Se tiene rang(g|Vj ) = qj − 1 rang(g2|Vj ) = qj − 2 ...    ⇒ rang(gn|Vj ) = max{0, qj − n}, entonces rang(gn) = k∑ j=1 rang(gn|Vj ). Por lo tanto rang(gn−1) = e(n) + 2e(n+ 1) + 3e(n+ 2) + · · ·+ (l + 1)e(n+ l) rang(gn) = e(n+ 1) + 2e(n+ 2) + · · ·+ l e(n) rang(gn+1) = e(n+ 2) + · · ·+ (l − 1)e(n+ l)  Proposición III.6.4.- i) Sea g ∈ End(V ) un endomorfismo nilpotente. Entonces existe una base de V respecto a la cual la matriz es de la forma normal de Jordan   0 ν1 0 ν2 . . . . . . 0 νn−1 0   con νi = 0 o νi = 1. III.6 Endomorfismos Nilpotentes 103 ii) Sea A ∈Mm,m(K) nilpotente. Entonces existe M ∈ Gl(m,K) tal que MAM−1 sea de la forma de Jordan. Demostración.- Se recuerda el teorema precedente. Existe V = k⊕ j=1 Vj donde los Vj son ćıclicos respecto a g. Es decir existe vj ∈ Vj tal que {vj , g(vj), . . . , gqj−1(vj)} es una base de Vj y gqj (vj) = 0, con qj = dimVj . Se toma por base de Vj , Bj = {gqj−1(vj), . . . , g(vj), vj}, la matriz de g|Vj respecto a Bj es   0 1 . . . . . . 0 1 0   . Juntando los Bj se obtiene la base buscada.  La descomposición V = k⊕ j=1 Vj respecto a g no es única, pero si son enteramente determinados por g los enteros k y qj . Se llama partición del entero m ≥ 1, una descomposición de m en m = q1 + q2 + · · ·+ qk, con q1 ≥ q2 ≥ · · · ≥ qk > 0. Ejemplo 1.- Las particiones del entero 4 son: 4 = 4, 4 = 3 + 1, 4 = 2 + 2, 4 = 2 + 1 + 1, 4 = 1 + 1 + 1 + 1; en total 5 particiones de 4. A g ∈ End(V ) nilpotente se le asocia la partición m = k∑ j=1 qj . Proposición III.6.5.- Sean g, g′ ∈ End(V ) nilpotentes. Entonces g y g′ son conjugados ⇐⇒ las particiones asociadas a g y g′ son las mismas. Demostración.- ⇒ Por hipótesis, existe un automorfismo h de V , h ∈ Gl(V ), tal que g′ = hgh−1. Se toma una descomposición en espacios ćıclicos respecto a g V = ⊕Vj . Afirmamos que V = ⊕h(Vj) es una descomposición en subespacios ćıclicos respecto a g′, con lo que la primera implicación estaŕıa demostrada. En efecto, por hipótesis existe vj ∈ Vj tal que {vj , g(vj), . . . , gqj−1(vj)} es base de Vj , gqj (vj) = 0, qj = dimVj .
Docsity logo



Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved