Docsity
Docsity

Prépare tes examens
Prépare tes examens

Étudies grâce aux nombreuses ressources disponibles sur Docsity


Obtiens des points à télécharger
Obtiens des points à télécharger

Gagnz des points en aidant d'autres étudiants ou achete-les avec un plan Premium


Guides et conseils
Guides et conseils

Espaces vectoriels, Dissertation de Physique

Tout élément x 2 E admet un symétrique (forcément unique) pour +, noté ¡x. (L'unicité du symétrique provient de ce que si x admet deux symétriques y et z ...

Typologie: Dissertation

2021/2022

Téléchargé le 26/04/2022

DanieleFR
DanieleFR 🇫🇷

4.8

(36)

98 documents

1 / 17

Toggle sidebar

Documents connexés


Aperçu partiel du texte

Télécharge Espaces vectoriels et plus Dissertation au format PDF de Physique sur Docsity uniquement! Espaces vectoriels Dans ce chapitre, on désignera par K le corps des réels R ou bien celui des complexes C, mais la théorie s'appli- querait aussi à tout sous-corps de C tel que, par exemple, le corps des rationnels Q. 1 Espaces vectoriels (rappels) Définition 1. On rappelle qu'un espace vectoriel sur le corps K est un ensemble E muni d'une loi de composition interne notée additivement + ainsi que d'une loi de composition externe :KE!E telles que :  8(x; y)2E2; x+ y= y+ x (+ est commutative)  8(x; y; z)2E3; x+(y+ z)= (x+ y)+ z (+ est associative)  E dispose d'un neutre 0E pour + c'est-à-dire tel que 8x2E; 0E+x(=x+0E)= x  Tout élément x2E admet un symétrique (forcément unique) pour +, noté ¡x. (L'unicité du symétrique provient de ce que si x admet deux symétriques y et z pour +, alors y+x+ z=(y+x)+ z=0E+ z= z et de même y+x+ z= y+(x+ z)= y+0E= y et ainsi on a bien y= z.)  8(; )2K2, 8(x; y)2E2, i.   (x+ y)= x+  y ii. (+ ) x= x+  x iii.   ( x)= () x iv. 1 x=x Remarque 2. Si on omet les propriétés relatives à la multiplication externe, les propriétés évoquées ci-dessus font de (E;+) un groupe que l'on peut préciser commutatif (car + est commutative) et on parle aussi dans ce cas de groupe abélien. L'étude des groupes n'est pas au programme de la PC, mais on verra au long de l'année quelques exemples de groupes. Proposition 3. Soit (E;+; ) un K-espace vectoriel, et soient 2K et x2E, alors  x=0E si et seulement si (=0 ou x=0E) De plus ¡x, le symétrique de x pour + dans E s'écrit aussi ¡1 x (où ¡12K bien sûr) Définition 4. Soit (E;+; ) un K-espace vectoriel et F E, alors on dit que F est un sous-espace vectoriel de E si et seulement si F =/ ? et 8(; )2K2, 8(x; y)2F 2,  x+   y 2F. Proposition 5. Soit (E;+; ) un K-espace vectoriel et F un sous-espace vectoriel de E, alors OE 2F. Exemple 6.  Dans l'espace des suites F(N;K), l'ensemble des suites convergentes, l'ensemble des suites bornées, l'ensemble des suites à support fini (c'est-à-dire qui sont identiquement nulles à partir d'un certain rang) forment des sous-espaces vectoriels de F(N;K).  Dans l'espace des fonctions F(I ;K), l'ensemble des fonctions continues, l'ensemble des fonctions dérivables, celles de classe Cn sont des sous-espaces vectoriels, comme l'ensemble des fonctions bornées, celles qui s'annulent en un certain x02 I ... 1 Remarque 7. Il est judicieux lorsqu'on se pose des questions générales sur les espaces vectoriels de faire un dessin, et pour représenter un espace vectoriel, on décide d'une origine qui va désigner le vecteur nul, et grâce à cette origine chaque vecteur peut alors être désigné par son extrémité, autrement dit un point. Ainsi sur le schéma qui suit, deux droites vectorielles F et G sont représentées, chaque  point  de F ou de G désignant donc un vecteur, celui issu de l'origine O et d'extrémité le point choisi : x y x+ y F G 0 1.1 Espaces vectoriels engendrés Proposition 8. Soit (Fi)i2I une famille de sous-espaces vectoriels d'un K¡espace vectorielE, alors \i2IFi est un sous-espace vectoriel de E. Définition 9. (et proposition) Soient E un K-espace vectoriel et AE, alors T F sevdeE AF F est un sous-espace vectoriel de E, le plus petit pour l'inclusion contenant A. On appelle celui-ci l'espace vectoriel engendré par F et on le note Vect(A). Définition 10. Soit (E;+; ) un K-espace vectoriel, n2N et (xi)16i6n une famille d'éléments de E, alors on dit de x2E qu'il est une combinaison linéaire des xi si et seulement si il existe (i)16i6n une famille de K telle que x= P i=1 n i xi. Proposition 11. Soit (E;+; ) un K-espace vectoriel, n 2N et (xi)16i6n une famille d'éléments de E, alors Vect(x1;   ; xn) est l'ensemble f1 x1+   +n xnj(1;   ; n)2Kng des combinaisons linéaires des xi. Remarque 12. Le résultat se généraliserait à vrai dire à une partie quelconque de E, mais parler de familles infinies et de leurs combinaisons linéaires ne respecterait guère le programme officiel... 1.2 Familles libres, génératrices, bases Définition 13. On dit de la famille (xi)16i6n qu'elle est libre si et seulement si pour toute famille (i)16i6n de K, P i=1 n i xi=0E)8i2 J1; nK; i=0. On dit qu'elle est génératrice de E si et seulement si tout élément de E est combinaison linéaire des (xi)16i6n, enfin (xi)16i6n est appelée base de E si et seulement si elle est à la fois libre et génératrice de E. Proposition 14. (caractérisation d'une base) Soit E un K-espace vectoriel et (e1;   ; en) une famille de E, alors (e1;   ; en) est une base de E si et seulement si 8x2E;9!(1;   ; n)2Kn; x=1 x1+   +n xn. Définition 15. D'un espace vectoriel E sur le corps K, on dit qu'il est de dimension finie si et seulement si il admet une famille génératrice finie. On rappelle encore : 2  F1;   ; Fn sont en somme directe si, et seulement si (f1;1;   ; f1;p1;   ; fn;1;   ; fn;pn) est  Ainsi E=F1    Fn si et seulement si (f1;1;   ; f1;p1;   ; fn;1;   ; fn;pn) est Remarque 29. Si E=F1    Fn alors la base de E formée de la réunion d'une base de F1, de F2 jusqu'à une base de Fn est ce qu'on appelle une base adaptée à la décomposition E=16i6nFi Proposition 30. Soient E un K-espace vectoriel de dimension finie, et F1;   ; Fn des sous-espaces vectoriels de E, alors dim P Fi6 P dimFi et, de plus, il y a égalité des dimensions si et seulement si la somme P Fi est directe. Proposition 31. Soit E un K-espace vectoriel, F et G deux sous-espaces vectoriels de E de dimension finie, alors dim (F +G)=dimF + dimG¡ dim (F \G) 1.4 Produit d'espaces vectoriels Définition 32. Soient E et F deux K-espaces vectoriels, alors le produit cartésien E F est naturellement muni d'une structure de K-espace vectoriel pour la somme + définie par 8(x; y)2E F ;8(x0; y 0)2E F ; (x; y)+ (x0; y 0)= (x+ x0; y+ y 0) et le produit externe  défini par 82K; 8(x; y)2E F ;   (x; y)= ( x;   y) De même, si E1;  ;En sont des K-espaces vectoriels, E1  En est lui aussi muni d'une structure de K-espace vectoriel pour les lois + et : définies par 8(x1;   ; xn)2E1    En; 8(y1;   ; yn)2E1    En; (x1;   ; xn)+ (y1;   ; yn)= (x1+ y1;   ; xn+ yn) 82K; 8(x1;   ; xn)2E1    En;   (x1;   ; xn)= ( x1;   ;  xn) Proposition 33. Si E et F sont de dimensions finies respectives n et p, et munis de bases respectives (e1; ; en) et (f1;   ; fp) alors EF est de dimension finie et admet pour base 2 Applications linéaires Définition 34. Soient E et F deux K-espaces vectoriels, alors on dit d'une application f :E!F qu'elle est un morphisme de K-espaces vectoriels ou encore une application linéaire si et seulement si 8(; )2K2; 8(x; y)2E2; f( x+   y)=  f(x)+   f(y) Si tel est le cas, on appelle image de f et on note Im f l'ensemble f(E)=ff(x)jx2Eg et noyau de f qu'on note Ker f l'ensemble f¡1(f0F g)= fx2E jf(x)= 0F g. Proposition 35. Soit f :E!F une application linéaire, alors  f(0E)= 0F  Si H est un sous-espace vectoriel de E, alors f(H) est un sous-espace vectoriel de F  Si H 0 est un sous-espace vectoriel de F, alors f¡1(H 0) est un sous-espace vectoriel de E  En particulier, Im f est un sous-espace vectoriel de F et Ker f un sous-espace vectoriel de E. 5 Proposition 36. Une application linéaire f :E! F est surjective si et seulement si Im f = F et injective si et seulement si Ker f = f0Eg. Définition 37. Si f :E!F est une application linéaire bijective, on dit qu'il s'agit d'un isomorphisme, et que les espaces vectoriels E et F sont isomorphes. Si f :E!E est une application linéaire, on dit qu'il s'agit d'un endomorphisme de E, et si elle est de plus bijective, on dit que f est un automorphisme de E. L'ensemble des automorphismes de E est noté GLK(E), et cet ensemble muni de la loi de composition des appli- cations  forme un groupe nommé groupe linéaire de E. (Ceci indique donc que  forme une loi de composition interne associative de GLK(E), qu'il y a un neutre qu'on devine être IdE et que tout élément de GLK(E) est symétrisable pour . Bien sûr, le symétrique de f Proposition 38. Soit f :E! F une application linéaire bijective (autrement dit un isomorphisme), alors f¡1 : F!E est une application linéaire à son tour, appelée isomorphisme réciproque de f. Notation 39. L'ensemble des automorphismes de E est noté GLK(E), et cet ensemble muni de la loi de compo- sition des applications  forme un groupe nommé groupe linéaire de E. (Ceci indique donc que  forme une loi de composition interne associative de GLK(E), qu'il y a un neutre qu'on devine être IdE et que tout élément de GLK(E) est symétrisable pour . Bien sûr, étant donné f 2GLK(E), alors le symétrique de f pour  n'est autre que f¡1.) 2.1 Applications linéaires et bases Lemme 40. Soit u :E!F et soit (x1;   ; xp)2Ep, alors u(Vect(x1;   ; xp))=Vect(u(x1);   ; u(xp)) Proposition 41. Soit u :E!F une application linéaire et on suppose que (e1;   ; ep) forme une base de E, alors  u est injective si et seulement si (u(e1);   ; u(ep)) est  u est surjective si et seulement si (u(e1);   ; u(ep)) est  u est un isomorphisme si et seulement si (u(e1);   ; u(ep)) est Théorème 42. Soit u :E!F une application linéaire  Si E est de dimension finie et u est surjective, alors F est de dimension finie et dimF 6 dimE. De plus, en cas d'égalité des dimensions, alors u est un isomorphisme.  Si F est de dimension finie et u est injective, alors E est de dimension finie et dimE6dimF. De plus, en cas d'égalité des dimensions, alors u est un isomorphisme.  Si u est un isomorphisme et si E ou F est de dimension finie, alors les deux le sont et dimE=dimF. Corollaire 43. Soit E un K-espace vectoriel de dimension finie, et soit u un endomorphisme de E, alors il y a équivalence entre les assertions : i. u est injective ii. u est surjective iii. u est bijective Théorème 44. Soit E un K-espace vectoriel de dimension finie muni d'une base (e1;   ; ep), et soit F un K- espace vectoriel et soit (y1;   ; yp)2F p, alors il existe une et une seule application linéaire u :E!F telle que pour tout j 2 J1; pK, u(ej)= yj. 6 Remarque 45. Le théorème précédent est très important : il sert à la fois à reconnaître une application linéaire, ou montrer que deux applications linéaires sont identiques car elles ont la même action sur une base de E (on cite d'ailleurs souvent ce théorème en indiquant qu'une application linéaire est caractérisée par son action sur une base). Il sert également à construire des applications linéaires : connaissant deux espaces vectoriels E et F , et une base (e1;  ; ep) du premier, alors pour choisir une application linéaire de E dans F , il suffit de choisir pour chaque élément de la base (e1;   ; ep) de E un élément de F . En s'appuyant également sur le résultat précédent, on voit que pour construire un isomorphisme de E dans F , il suffit de choisir une base de E et une base de F (lesquelles devront manifestement compter le même nombre d'éléments) et d'envoyer les vecteurs de la première sur ceux de la seconde. De ce fait, on voit bien que dès lors que deux espaces vectoriels sont de même dimension finie, alors ils sont isomorphes. Définition 46. Etant donnée u :E!F une application linéaire, E étant supposé de dimension finie, alors Imu est de dimension finie au plus égale à dimE. On appelle rang de u et on note rgu la dimension de Imu. Lemme 47. Soit u :E!F une application linéaire, et on suppose que E 0 est un sous-espace vectoriel supplémentaire à Keru dans E, alors u réalise un isomorphisme de E 0 dans Imu. Théorème 48. (du rang) Soit u : E! F une application linéaire, E étant supposé de dimension finie, alors dimE= rg u+ dimKeru Exercice 2. Soit u :E!F une application linéaire, et soit G un sous-espace vectoriel de E de dimension finie. Montrez que dimu(G)6dimG. Quand y a-t-il égalité ? Proposition 49. Soient E; F ; G des K-espaces vectoriels de dimensions finies et u : E! F et v : F !G des applications linéaires, alors rg (v u)6min (rg u; rg v). Proposition 50. Soient u et v deux endormophismes d'un même espace vectoriel E et on suppose que uv=v u, alors l'image et le noyau de u sont stables par v. Proposition 51. Soit f :E!F une application linéaire, et soit u :F!G un isomorphisme, alors rg(u f)= rg f De même, si u :G!E est un isomorphisme, alors rg(f u)= rg f. 2.2 Projecteurs, symétries, homothéties d'un K-espace vectoriel Définition 52. Soit E un K-espace vectoriel. On appelle projecteur de E tout endomorphisme p de E tel que p  p= p. On appelle symétrie de E tout endomorphisme s de E tel que s  s= IdE. On appelle homothétie de E de rapport  l'application   IdE. Proposition 53. Soit p un projecteur de E, alors E= Im pKer p et, de plus, étant donnés x2E, (y; z)2F G tels que x= y+ z, alors y= p(x). On dit de Im p et Ker p qu'ils sont les espaces caractéristiques de p, et on remarque que Im p=fx2E jp(x)=xg. Proposition 54. Soient E un K-espace vectoriel, F et G deux sous-espaces vectoriels supplémentaires de E, alors pour tout x2E, il existe (y; z)2F G unique tel que x= y+ z. Cela permet de définir l'application p qui à x2E associe sa composante (ici notée y) selon F de cette unique décomposition. p est alors un projecteur, d'image F (qu'on peut nommer support de p) et de noyau G (qu'on nomme direction de p) 7 3.3 Transposée Définition 63. Soit A=(ai;j)2Mn;p(K), alors on appelle transposée de A et on note At ou encore AT la matrice de p lignes et n colonnes dont le coefficient de ligne i et colonne j vaut aj;i. En pratique, les lignes de A deviennent donc les colonnes de At tout comme les colonnes de A deviennent les lignes de At . Proposition 64. Soient A2Mn;p(K) et B 2Mp;q(K), alors t(AB)= Bt At 3.4 Matrices carrées Soit n2N, on désigne par Mn(K) pour abréger (plutôt que Mn;n(K)) l'ensemble des matrices de n lignes et n colonnes à coefficients dansK. D'après la règle donnée, deux matrices éléments deMn(K) peuvent être multipliées, et leur produit est encore une matrice de n lignes et n colonnes. Le produit matriciel est associatif (on peut le vérifier à la main, mais c'est lourd, ou bien le déduire de l'interprétation matricielle de la composée d'endomorphismes d'un K-espace vectoriel de dimension n) et on connaît un élément neutre de Mn(K) pour le produit : la matrice In= 0BBBB@ 1 0    0 0             0 0    0 1 1CCCCA (dont on peut remarquer qu'elle est la matrice de IdE selon n'importe quelle base B d'un K- espace vectoriel E de dimension finie n) 3.4.1 Matrices de forme particulière (symétrique, diagonale, triangulaire) Définition 65. A=(ai;j)2Mn(K) est dite diagonale si, et seulement si 8(i; j)2 J1; nK2, i=/ j) ai;j=0. A est dite triangulaire supérieure si, et seulement si 8(i; j)2 J1; nK2, i > j) ai;j=0. A est dite triangulaire inférieure si, et seulement si 8(i; j)2 J1; nK2, i < j) ai;j=0. Proposition 66. Toute combinaison linéaire, produit de matrices diagonales (resp. triangulaires supérieures, resp. triangulaires inférieures) d'ordre n est une matrice diagonale (resp. une matrice triangulaire supérieure, resp. une matrice triangulaire inférieure) Définition 67. A=(ai;j)2Mn(K) est dite  symétrique si, et seulement si At =A  antisymétrique si, et seulement si At =¡A On désigne par Sn(K) l'ensemble des matrices symétriques d'ordre n et par An(K) l'ensemble des matrices anti- symétriques d'ordre n. Proposition 68. Sn(K) et An(K) sont deux espaces supplémentaires deMn(K), ainsi toute matrice carrée d'ordre n se décompose uniquement en la somme d'une matrice symétrique et d'une matrice antisymétrique. 3.4.2 Matrices inversibles Définition 69. A=(ai;j) est dite inversible si, et seulement si, il existe B 2Mn(K) telle que AB=BA= In. Une telle matrice B est alors unique, c'est l'inverse de A et elle est notée A¡1. L'ensemble des matrices inversibles d'ordre n est noté GLn(K) 10 Remarque 70. Comme la notation l'indique (GL sont les initiales de  groupe linéaire ) l'ensemble des matrices inversibles d'ordre n forme un groupe pour la multiplication matricielle : en d'autres termes, la multiplication est une loi interne à GLn(K) : le produit de deux matrices inversibles est une matrice inversible. Le produit matriciel est une loi associative (on le savait déjà), il y a un neutre pour  dans GLn(K) (il s'agit bien sûr de In) et enfin tout élément de GLn(K) est symétrisable.. . (Bien sûr, le symétrique de A2GLn(K) n'est autre que sa matrice inverse A¡1) Proposition 71. Soit A=(ai;j)2Mn(K) de vecteurs lignes L1;   ; Ln, de vecteurs colonnes C1;   ; Cn, alors les assertions suivantes sont équivalentes : i. A est inversible ii. (C1;   ; Cn) forme une base de Kn iii. (L1;   ; Ln) forme une base de Kn iv. l'endomorphisme de Kn canoniquement associé à A est bijectif v. At est inversible vi. il existe B 2Mn(K) telle que AB= In vii. il existe B 2Mn(K) telle que BA= In 3.4.3 Matrices de transvection, permutation, dilatation Définition 72. Soient n2N, i=/ j éléments de J1; nK et 2K, alors on note Ti;j()= In+ Ei;j appelée matrice de transvection. Exemple 73. Si n=4, T2;3(4)= 0BBB@ 1 0 0 0 0 1 4 0 0 0 1 0 0 0 0 1 1CCCA Proposition 74.  Soit A2Mn;p(K), alors Ti;j()A est la matrice obtenue à partir de A et de l'opération élémentaire Li Li+ Lj  Soit A2Mm;n(K), alors ATi;j() est la matrice obtenue à partir de A et de l'opération élémentaire Cj Cj+ Ci.  Ti;j() est inversible d'inverse Ti;j(). Définition 75. Soient n2N, i=/ j éléments de J1; nK, alors on note Pi;j = P k2/fi;jgEk;k+Ei;j +Ej ;i appelée matrice de permutation. Exemple 76. Exemple si n=4, P2;3=P3;2= 0BBB@ 1 0 0 0 0 0 1 0 0 1 0 0 0 0 0 1 1CCCA Proposition 77.  Soit A2Mn;p(K), alors Pi;jA est la matrice obtenue à partir de A et de l'opération élémentaire Li$Lj  Soit A2Mm;n(K), alors APi;j est la matrice obtenue à partir de A et de l'opération élémentaire Ci$Cj  Pi;j est inversible d'inverse elle-même. 11 Définition 78. Soient n2N, i2 J1; nK et 2K, alors on note Di()= Ei;i+ P j=/ i Ej;j, appelée matrice de dilatation. Exemple 79. Exemple si n=4, D2( 2 p )= 0BBB@ 1 0 0 0 0 2 p 0 0 0 0 1 0 0 0 0 1 1CCCA Proposition 80.  Soit A2Mn;p(K), alors Di()A est la matrice obtenue à partir de A et de l'opération élémentaire Li  Li  Soit A2Mm;n(K), alors ADi() est la matrice obtenue à partir de A et de l'opération élémentaire Ci  Ci  Di() est inversible d'inverse Di  1   . Théorème 81. Soit A2Mn(K), alors  A est inversible si et seulement si il existe p2N et M1;   ;Mp des matrices élémentaires de transvection, permutation, dilatation telles que Mp   M1A= In  A est inversible si et seulement si il existe m2N et N1;   ;Nm des matrices élémentaires de transvection, permutation, dilatation telles que AN1   Nm= In. Corollaire 82. Soit A 2GLn(K), alors A s'écrit comme un produit de matrices élémentaires de transvection, permutation, dilatation. 3.4.4 Matrices de passage, formules de changement de base Définition 83. Soit E un K-espace vectoriel de dimension finie, et soient B et B 0 deux bases de E. On appelle matrice de passage de B à B 0 la matrice de la famille B 0 selon la base B (nouvelle base selon l'ancienne). On pourra noter PB!B 0 cette matrice. (Une autre notation possible : PB B 0) Proposition 84. Soient E un K-espace vectoriel de dimension finie n, B ;B 0 et B 00 des bases de E : i. PB!B= In ii. PB!B 0=MatB 0;B(IdE) iii. PB!B 0PB 0!B 00=PB!B 00 iv. PB!B 0 est inversible d'inverse PB 0!B Théorème 85. (formule de changement de base pour un vecteur) Soit E un K-espace vectoriel muni de deux bases B et B 0 et soit x2E de coordonnées X = 0B@ x1  xn 1CA selon B et X 0= 0B@ x1 0  xn 0 1CA selon B 0, alors X =PB!B 0X 0 Proposition 86. (extension à une famille de vecteurs) Soit E un K-espace vectoriel muni de deux bases B et B 0 et soit (x1;   ; xp) de matrice M selon la base B et M 0 selon la base B 0, alors M =PB!B 0M 0 Théorème 87. (formule de changement de bases pour une application linéaire) Soient E et F deux K-espaces vectoriels de dimension finie et u :E!F une application linéaire. On suppose que BE et BE0 sont des bases de E et BF et BF0 des bases de F, et soient M =MatBE;BF(u) et M 0=MatBE0 ;BF0 (u), alors M 0=PBF0!BF MPBE!BE0 12 Il n'y a pas de raison de s'arrêter à des découpages de matrices en 4 blocs, et la règle de produit par blocs introduite ci-dessus s'étend elle aussi à des blocs plus nombreux pourvu que les découpages soient compatibles : pour que le calcul par blocs de AB soit possible, il faut déjà bien sûr que A compte autant de colonnes que B compte de lignes, mais il faut de plus que le découpage en blocs verticaux soit en nombre et en tailles égaux au découpage de B en blocs horizontaux. A partir de là, la même règle s'applique pour le produit par blocs : à savoir tout simplement la règle LICOL généralisée à des blocs... (Attention toutefois, s'agissant de blocs matriciels, on ne peut intervertir les blocs dans les produits...) Remarque 101. On suppose que E est un K-espace vectoriel de dimension finie, et que E1;   ;Em sont des sous- espaces vectoriels de E munis de bases respectives (e1;1;   ; e1;p1);   ; (em;1;   ; em;pm) et soit u un endomorphisme de E. Si E1;  ;Em sont stables par u, alors la matrice selon la base B=(e1;1;  ; e1;p1;  ; em;1;  ; em;pm) prend la forme M = 0BBBB@ A1 0    0 0           0 0    0 Am 1CCCCA où pour tout i, Ai est une matrice carrée d'ordre pi. On dit de M qu'elle est diagonale par blocs. Bien sûr, pour tout i, on note que Ai est la matrice selon (ei;1;   ; ei;pi) de l'endomorphisme de Ei qu'induit u. Exercice 3. On garde les mêmes notations que la remarque précédente (E; E1;    ; En, la base B et u) A quelle condition, nécessaire et suffisante la matrice M de u selon B est-elle triangulaire supérieure ? Triangulaire inférieure ? 3.7 Matrices semblables Définition 102. Soient A et B des matrices carrées d'ordre n. On dit que A et B sont semblables si, et seulement si, il existe P 2GLn(K) telle que B=P ¡1AP. Remarque 103. La relation précédente ressemble beaucoup à la formule de changement de base pour un endo- morphisme de E, et ceci indique que si u est un endomorphisme de E et qu'on écrit sa matrice M selon une base B de E, puis sa matrice M 0 selon une autre base B 0 de E, alors M et M 0 sont semblables. 3.8 Trace d'une matrice, d'un endomorphisme Définition 104. Soit A=(ai;j) une matrice carrée d'ordre n, alors on appelle trace de A, et on note Tr(A) (ou bien tr(A)) le scalaire P i=1 n ai;i (la somme des coefficients diagonaux donc) Proposition 105. Tr :Mn(K)!K est linéaire (on dit qu'il s'agit d'une forme linéaire) Pour tout A2Mn(K), Tr(At )=Tr(A) Soient A2Mn;p(K) et B 2Mp;n(K), alors Tr(AB)=Tr(BA) Soient A et B deux matrices carrées d'ordre n semblables, alors Tr(A)=Tr(B) Corollaire 106. (et définition) Soit u un endomorphisme de E un K-espace vectoriel de dimension finie, alors le scalaire Tr(MatB(u)) ne dépend pas du choix d'une base B de E. Il est appelé trace de u et est noté Tr(u). Exercice 4. Soit E un K-espace vectoriel de dimension finie. 1. On suppose que p est un projecteur de E, de rang r. Que vaut sa trace ? 2. On suppose que F et G sont deux sous-espaces vectoriels supplémentaires de E, de dimensions respectives p et q, et soit s la symétrie d'axe F et de direction G. Que vaut la trace de s ? 15 4 Déterminants Définition 107. Soit n2N, alors il existe une unique application det :Mn(K)!K telle que i. det est linéaire par rapport à chacune des colonnes de sa variable ii. det est antisymétrique par rapport aux colonnes de sa variable iii. det(In)= 1 La linéarité suivant la colonne d'indice j exprime que : a1;1     a1;j+ a1;j 0    a1;n    ai;1     ai;j+ ai;j 0    ai;n    an;1     an;j+ an;j 0    an;n = a1;1    a1;j    a1;n    ai;1    ai;j    ai;n    an;1    an;j    an;n +  a1;1    a1;j 0    a1;n    ai;1    ai;j 0    ai;n    an;1    an;j0    an;n L'antisymétrie exprime que si A0 est la matrice obtenue à partir de A en échangeant deux de ses colonnes, alors detA0=¡detA. Proposition 108. Si la matrice A a deux colonnes égales, alors detA=0. Plus généralement, si la famille des vecteurs colonnes de A est liée, alors detA=0. En d'autres termes, si A n'est pas inversible, on a donc detA=0. Théorème 109. Soient A et B deux matrices carrées d'ordre n, alors det(AB)= detAdetB Théorème 110. Soit A2Mn(K), alors A est inversible si, et seulement si detA=/ 0. Proposition 111. Soit A2Mn(K), alors detA=det At . Définition 112. Soit E un K-espace vectoriel muni d'une base B=(e1;   ; en) et soit (x1;   ; xn) une famille de E, alors on appelle déterminant de (x1;   ; xn) selon la base B le déterminant de la matrice MatB(x1;   ; xn). On notera celui-ci detB(x1;   ; xn). Proposition 113. Avec les notations précédentes, (x1; ; xn) est une base de E si et seulement si son déterminant selon B (ou selon toute autre base de E) est non nul. Définition 114. (et proposition) Soit E un K-espace vectoriel de dimension finie n, et soit f 2LK(E), alors le déterminant detMatB(f) ne dépend pas du choix d'une base B de E, il est appelé déterminant de f et est noté det(f). On a donc, pour toute base B=(e1;   ; en) de E, det(f)= detB(f(e1);   ; f(en)). Remarque 115. Contrairement au déterminant d'une famille de vecteurs de E, il n'est donc pas nécessaire (et il serait même absurde de le faire) de préciser une base pour noter le déterminant d'un endomorphisme f de E. 4.1 Calcul de déterminants par blocs Lemme 116. Soit A2Mp(K), B 2Mp;q(K) et soient M et N les matrices définies par blocs : M = A 0 0 Iq ! et N = A B 0 Iq ! alors detM =detN =detA. 16 Proposition 117. Soit M la matrice définie par blocs par M =  A B 0 C  où A 2Mp(K) et C 2Mq(K), alors detM =detA detC. Remarque 118. On généralise (on le justifierait par récurrence) que si M prend la forme 0BBBB@ A1      0            0    0 An 1CCCCA où A1;   ; An sont des matrices carrées que detM =detA1    detAn. Il en va de même bien sûr si M prend une forme triangulaire inférieure avec des blocs diagonaux carrés. Bien sûr, rien n'interdit que les blocs diagonaux soient réduits à de simples coefficients, et ainsi on obtient ainsi que siM est triangulaire alors son déterminant est le produit des termes diagonaux. (Bien sûr, on pouvait l'établir directement avec les propriétés du déterminant et des opérations élémentaires.) 4.2 Développement d'un déterminant suivant une ligne ou une colonne Définition 119. Soit A=(aij)2Mn(K) une matrice carrée et (i; j)2 J1; nK2. i. On appelle mineur relatif à aij de A le déterminant ij de la matrice extraite de A en retirant la ligne i et la colonne j : ij= a11 : : : a1j¡1 j a1j+1 : : : a1n   j   ai¡11 : : : ai¡1j¡1 j ai¡1j+1 : : : ai¡1n ¡¡ ¡ ¡¡¡ + ¡¡¡ ¡ ¡¡ ai+11 : : : ai+1j¡1 j ai+1j+1 : : : ai+1n   j   an1 : : : anj¡1 j anj+1 : : : ann . ii. On appelle cofacteur relatif à aij de A le réel (¡1)i+jij. (On le note souvent Ai;j) Remarque 120. Le signe (¡1)i+j de la définition du cofacteur change à chaque fois que l'on se déplace d'une position vers la droite ou la gauche, vers le haut ou le bas, et il est positif pour tous les coefficients diagonaux de la matrice M , donc par exemple pour une matrice d'ordre 4 , la  règle des signes  est + ¡ + ¡ ¡ + ¡ + + ¡ + ¡ ¡ + ¡ + . On notera que relativement aux coefficients diagonaux, le signe est toujours +. Théorème 121. (développement suivant une ligne ou une colonne) Soit A=(ai;j)2Mn(K), alors  développement suivant une colonne : 8j 2 J1; nK; detA= X i=1 n aij (¡1)i+jij  développement suivant une ligne : 8i2 J1; nK; detA= X j=1 n aij (¡1)i+jij 4.3 Déterminants de Vandermonde Proposition 122. Pour tout (a0;   ; an)2Kn+1 Vn(a0;   ; an)= 1 1       1 a0 a1       an a0 2 a1 2       an2    a0 n a1 n       ann = Y i<j (aj¡ ai) 17
Docsity logo


Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved