Docsity
Docsity

Prepare for your exams
Prepare for your exams

Study with the several resources on Docsity


Earn points to download
Earn points to download

Earn points by helping other students or get them with a premium plan


Guidelines and tips
Guidelines and tips

Algebra Lineare e Geometria by Francesco Bottacin, Study notes of Italian

Algebra Lineare e Geometria by Francesco Bottacin

Typology: Study notes

2020/2021

Uploaded on 11/22/2022

Doa.ygn
Doa.ygn 🇹🇷

4.3

(3)

3 documents

1 / 216

Toggle sidebar

Often downloaded together


Related documents


Partial preview of the text

Download Algebra Lineare e Geometria by Francesco Bottacin and more Study notes Italian in PDF only on Docsity! Ses Ga ALGEBRA LINEARE E GEOMETRIA Francesco Bottacin Padova, 2009 Indice 1 Spazi Vettoriali 1 1.1 Sistemi di equazioni lineari . . . . . . . . . . . . . . . . . . . . . 1 1.2 Vettori geometrici . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1.3 Spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 1.3.1 Sottospazi vettoriali . . . . . . . . . . . . . . . . . . . . . 11 1.3.2 Insiemi di generatori e basi . . . . . . . . . . . . . . . . . 15 1.3.3 Spazi vettoriali finitamente generati . . . . . . . . . . . . 18 2 Applicazioni Lineari e Matrici 27 2.1 Applicazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . . 27 2.1.1 Nucleo e immagine . . . . . . . . . . . . . . . . . . . . . . 29 2.1.2 Applicazioni lineari e basi . . . . . . . . . . . . . . . . . . 32 2.2 Matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 2.2.1 Matrici quadrate . . . . . . . . . . . . . . . . . . . . . . . 43 2.2.2 Cambiamenti di base . . . . . . . . . . . . . . . . . . . . . 46 2.3 Sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 2.3.1 Risoluzione di un sistema lineare: il metodo dell’elimina- zione (o metodo di Gauss) . . . . . . . . . . . . . . . . . . 53 2.3.2 Calcolo del rango di una matrice . . . . . . . . . . . . . . 58 2.3.3 Calcolo dell’inversa di una matrice . . . . . . . . . . . . . 60 3 Determinanti 65 3.1 Permutazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 3.1.1 Cicli e trasposizioni . . . . . . . . . . . . . . . . . . . . . 68 3.2 Il determinante di una matrice quadrata . . . . . . . . . . . . . . 71 3.2.1 Calcolo del determinante di una matrice mediante l’elimi- nazione di Gauss . . . . . . . . . . . . . . . . . . . . . . . 86 3.2.2 Il determinante di un endomorfismo . . . . . . . . . . . . 89 3.3 Determinanti e rango . . . . . . . . . . . . . . . . . . . . . . . . . 90 3.4 Orientamenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 4 Diagonalizzazione degli Endomorfismi 98 4.1 Autovalori e autovettori . . . . . . . . . . . . . . . . . . . . . . . 98 4.2 La forma canonica di Jordan . . . . . . . . . . . . . . . . . . . . 105 5 Spazi Vettoriali Euclidei 120 5.1 Lunghezze e angoli . . . . . . . . . . . . . . . . . . . . . . . . . . 120 5.1.1 Lunghezza di un vettore . . . . . . . . . . . . . . . . . . . 120 5.1.2 Angoli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122 i Capitolo 1 Spazi Vettoriali 2 che soddisfano contemporaneamente tutte le equazioni di S. Se tutti i termini noti sono nulli il sistema è detto omogeneo. Descriveremo ora il metodo più semplice che si possa immaginare per risol- vere un generico sistema di m equazioni lineari in n incognite. Questo metodo, noto come il “metodo della sostituzione,” può essere sommariamente descritto come segue: Passo 1. Dato il sistema lineare S, scegliamo una qualunque delle sue equazioni, ad esempio la i-esima, ai1x1 + ai2x2 + · · ·+ aijxj + · · ·+ ainxn = bi e scegliamo una delle incognite xj che compaiono effettivamente in tale equa- zione. Ricaviamo xj in funzione delle incognite rimanenti: xj = bi − ai1x1 − · · · − ainxn aij . Passo 2. Sostituiamo l’espressione trovata per xj nelle rimanenti m− 1 equa- zioni, ottenendo cos̀ı un nuovo sistema S′ composto da m− 1 equazioni in n− 1 incognite. Passo 3. Se il sistema S′ contiene ancora delle incognite, ritorniamo al Passo 1 con S′ al posto di S. In caso contrario le soluzioni del sistema, qualora esista- no, possono essere ottenute con una semplice sostituzione all’indietro, partendo dall’ultima incognita che è stata determinata. Vediamo ora di chiarire l’algoritmo appena descritto analizzando in dettaglio tre esempi concreti, che rappresentano le tre situazioni tipiche che si possono presentare. Esempio 1. (Sistema privo di soluzioni) Consideriamo il seguente sistema di equazioni lineari, a coefficienti nel campo Q: S :  2x1 − x2 = 1 x1 + 4x2 = −2 3x1 − 2x2 = 3 Scegliamo la seconda equazione e da questa ricaviamo x1, ottenendo x1 = −2 − 4x2. Sostituiamo questa espressione nella prima e nella terza equazione, ottenendo il sistema S′ : { −9x2 = 5 −14x2 = 9 Consideriamo ora il sistema S′ e ricaviamo x2 dalla prima equazione: x2 = −5/9. Sostituendo questo valore nella terza equazione si ottiene l’uguaglianza −14 (−5/9) = 9, che non è verificata. Da ciò si deduce che il sistema S non ammette soluzioni. Esempio 2. (Sistema che ammette un’unica soluzione) Consideriamo ora il seguente sistema lineare, a coefficienti in Q: S : { 3x1 − x2 = 2 2x1 + 5x2 = −3 Capitolo 1 Spazi Vettoriali 3 Dalla prima equazione ricaviamo x2 = 3x1 − 2. Se sostituiamo questa espres- sione nella seconda equazione otteniamo il “sistema” (che consiste di una sola equazione) S′ : 17x1 = 7. Da questa equazione si ottiene x1 = 7/17. Ora non resta che “sostituire all’indie- tro” il valore di x1 appena trovato nella precedente espressione per x2, ottenendo x2 = −13/17. Si conclude pertanto che il sistema S ammette un’unica soluzione data da x1 = 7/17, x2 = −13/17. Esempio 3. (Sistema con infinite soluzioni) Consideriamo il seguente sistema di equazioni lineari, a coefficienti nel campo Q: S : { 3x1 + 2x2 − x3 + x4 = 2 2x1 + 2x3 − 3x4 = 0 Dalla prima equazione ricaviamo x3 = 3x1 + 2x2 + x4 − 2. Sostituiamo questa espressione nella seconda equazione ottenendo il “sistema” S′ : 8x1 + 4x2 − x4 = 4. Da questa equazione possiamo ricavare, ad esempio, x4 = 8x1+4x2−4. Arrivati a questo punto ci dobbiamo arrestare, dato che non ci sono altre equazioni che possano essere utilizzate. Abbiamo pertanto determinato il valore di x4 in funzione delle incognite x1 e x2 che rimangono libere di assumere qualsiasi valore. Sostituendo all’indietro l’espressione di x4 nella precedente espressione per l’incognita x3, otteniamo x3 = 11x1 + 6x2 − 6. In conclusione, possiamo affermare che il sistema S ammette infinite solu- zioni, le quali dipendono da due parametri1 liberi di variare: x1 qualsiasi x2 qualsiasi x3 = 11x1 + 6x2 − 6 x4 = 8x1 + 4x2 − 4 Naturalmente avremmo potuto seguire una strada diversa e ricavare, ad esempio, le incognite x1 e x2 in funzione di x3 e x4. In questo modo avremmo ottenuto una diversa espressione per le soluzioni del sistema S. Ovviamente tutte le possibili espressioni per le soluzioni di uno stesso sistema sono tra loro equivalenti. Esercizi Esercizio 1.1.1. Risolvere il seguente sistema a coefficienti in Q:{ 3x− 2y = 1 2x+ 5y = −1. 1Questo fatto viene a volte espresso affermando che il sistema ammette ∞2 soluzioni. Capitolo 1 Spazi Vettoriali 4 Esercizio 1.1.2. Risolvere il seguente sistema a coefficienti in Q: 2x+ 3y + 4z = 3 4x− y − 2z = 1 5x− 3y + z = −2. Esercizio 1.1.3. Risolvere il seguente sistema a coefficienti in Q:{ 5x− 2y + z = 1 3x− 4y − 2z = 3. Esercizio 1.1.4. Risolvere il seguente sistema a coefficienti in Z/2Z: x+ y + z = 0 x+ z = 1 x+ y = 1. Esercizio 1.1.5. Risolvere il seguente sistema a coefficienti in Z/5Z: x+ 3y + 2z = 3 2x+ z = 2 3x+ y + 4z = 3. Esercizio 1.1.6. Risolvere il seguente sistema a coefficienti in Z/11Z: 5x+ y + 2z + 3w = 1 2x+ 7y + z + 5w = 4 8x+ 2y + 3z + w = 7. Esercizio 1.1.7. Risolvere e discutere in funzione dei valori di m ∈ Q il seguente sistema: { x+ (m+ 1)y = m+ 2 mx+ (m+ 4)y = 3. Esercizio 1.1.8. Risolvere e discutere in funzione dei valori di m ∈ R il seguente sistema: { mx+ (m− 1)y = m+ 2 (m+ 1)x−my = 5m+ 3. Esercizio 1.1.9. Risolvere e discutere in funzione dei valori di a ∈ R il seguente sistema:  x+ (a− 1)y + (2− a)z = a+ 5 x+ ay + 2z = 4 x+ (a− 2)y + (2− 2a2)z = 6. Esercizio 1.1.10. Al variare di λ ∈ Q si dica quante soluzioni vi sono per il seguente sistema di equazioni lineari: (λ− 1)x1 + 2x2 + 3x4 = 0 λx2 + (λ+ 1)x4 = 1 x1 + λx3 + x4 = 0 (λ− 1)x1 + x4 = 0. Esercizio 1.1.11. Dato il sistema di equazioni lineari λx− µy − µz = µ µx− λy = λ x− y − z = 0 si dica per quali valori di λ, µ ∈ R esso è risolubile e per quali la soluzione è unica. Capitolo 1 Spazi Vettoriali 7 Y X v vx vy Figura 1.1: Decomposizione di un vettore nelle sue componenti (vx, vy) è data da u+ v = (ux + vx, uy + vy), mentre il prodotto di un numero reale λ per il vettore v = (vx, vy) è dato da λv = (λvx, λvy). Usando queste formule è ora immediato verificare che la somma di vettori gode delle proprietà associativa e commutativa. Esiste poi un elemento neutro per la somma, il vettore nullo, le cui componenti sono tutte nulle, e che indicheremo con 0 = (0, 0). Inoltre, per ogni vettore v = (vx, vy) esiste il suo opposto −v = (−vx,−vy), tale che v + (−v) = 0. Tutto ciò si può riassumere dicendo che l’insieme dei vettori, con l’operazione di somma, forma un gruppo abeliano. Consideriamo ora l’operazione di prodotto tra un numero reale e un vettore. È immediato verificare che questa operazione soddisfa le seguenti proprietà: (i) (λµ)v = λ(µv), (ii) λ(u+ v) = λu+ λv, (iii) (λ+ µ)v = λv + µv, (iv) 1v = v, per ogni λ, µ ∈ R e per ogni coppia di vettori u e v. L’insieme dei vettori ha quindi una struttura più ricca di quella di un sem- plice gruppo abeliano. A questo tipo di struttura daremo il nome di spazio vettoriale. Prima di concludere osserviamo che delle considerazioni del tutto analoghe si possono fare per vettori nell’usuale spazio tridimensionale. Ad ogni tale vettore v si può associare una terna di numeri (vx, vy, vz) ∈ R3, i quali rappresentano le proiezioni di v sui tre assi coordinati di un opportuno sistema di riferimento OXY Z fissato, come mostrato nella figura 1.2. Si ottiene in questo modo un’identificazione tra vettori dello spazio tridimen- sionale e terne di numeri reali, in termini della quale la somma di due vettori u = (ux, uy, uz) e v = (vx, vy, vz) è data da u+ v = (ux + vx, uy + vy, uz + vz), e il prodotto di un numero reale λ per un vettore v = (vx, vy, vz) è dato da λv = (λvx, λvy, λvz). Capitolo 1 Spazi Vettoriali 8 X Y Z v vx vy vz Figura 1.2: Decomposizione di un vettore nelle sue componenti Osservazione 1.2.4. Prendendo spunto dalle considerazioni precedenti possiamo definire dei vettori a n componenti (vettori di uno spazio n-dimensionale) sem- plicemente identificandoli con delle n-uple di numeri reali, v = (a1, a2, . . . , an) ∈ Rn. Le operazioni di somma di due vettori e di prodotto di un numero reale per un vettore saranno definite in modo analogo a quanto abbiamo già visto nel caso di R2 e di R3: (a1, a2, . . . , an) + (b1, b2, . . . , bn) = (a1 + b1, a2 + b2, . . . , an + bn) e λ (a1, a2, . . . , an) = (λa1, λa2, . . . , λan). Questa costruzione verrà ampiamente studiata (e opportunamente generalizza- ta) nelle prossime sezioni. 1.3 Spazi vettoriali Nella sezione precedente abbiamo visto che i vettori sono degli “oggetti” che possono essere sommati tra loro e possono anche essere moltiplicati per dei numeri, in modo tale che le operazioni cos̀ı definite soddisfino tutta una serie di proprietà, essenzialmente analoghe alle usuali proprietà che valgono per la somma e il prodotto tra numeri. Se ora concentriamo la nostra attenzione non tanto sulla natura di tali “og- getti” (definiti in precedenza come classi di equipollenza di segmenti orientati), quanto piuttosto sull’esistenza di determinate operazioni tra di essi e sulle pro- prietà che, ragionevolmente, dovrebbero essere soddisfatte da queste operazioni, possiamo fornire una definizione astratta di “insieme di vettori” come un qual- che insieme nel quale sono definite un’operazione di somma tra i suoi elementi e un’operazione di prodotto tra un elemento di tale insieme e un numero, in modo tale che siano soddisfatte delle proprietà analoghe a quelle elencate nella sezione precedente. Capitolo 1 Spazi Vettoriali 9 Cerchiamo ora di rendere precise le idee espresse fin’ora. Sia K un campo2 (tanto per fissare le idee, si può supporre che K sia il campo Q dei numeri razionali, oppure il campo R dei numeri reali, oppure ancora il campo C dei numeri complessi). Definizione 1.3.1. Uno spazio vettoriale su K è un insieme non vuoto V dotato di un’operazione +V , detta somma, +V : V × V → V, (v1, v2) 7→ v1 +V v2, e di un’operazione ·V ·V : K × V → V, (λ, v) 7→ λ ·V v, detta prodotto per uno scalare, che soddisfano le seguenti proprietà: per ogni λ, λ1, λ2 ∈ K e ogni v, v1, v2 ∈ V si ha: (1) (v1 +V v2) +V v3 = v1 +V (v2 +V v3); (2) v1 +V v2 = v2 +V v1; (3) esiste un elemento 0V ∈ V tale che v +V 0V = 0V +V v = v; (4) per ogni v ∈ V esiste un elemento v′ ∈ V tale che v+V v ′ = v′+V v = 0V . Tale elemento v′ viene indicato con −v e detto l’opposto di v; (5) λ ·V (v1 +V v2) = (λ ·V v1) +V (λ ·V v2); (6) (λ1 + λ2) ·V v = (λ1 ·V v) +V (λ2 ·V v); (7) (λ1λ2) ·V v = λ1 ·V (λ2 ·V v); (8) 1 ·V v = v. Gli elementi di uno spazio vettoriale V sono detti vettori. Gli elementi del campo K sono detti scalari. Osservazione 1.3.2. Dalle proprietà sopra elencate segue che, in ogni spazio vettoriale V , si ha 0 ·V v = 0V , per ogni v ∈ V . Infatti si ha: v + 0 ·V v = 1 ·V v + 0 ·V v = (1 + 0) ·V v = v. Sommando ad ambo i membri di questa uguaglianza l’opposto di v, si ottiene −v + v + 0 ·V v = −v + v = 0V , da cui segue 0 ·V v = 0V . Da ciò possiamo ora dedurre che (−1) ·V v = −v. Infatti, si ha: 0V = 0 ·V v = (1− 1) ·V v = 1 ·V v + (−1) ·V v = v + (−1) ·V v, da cui segue che il vettore (−1) ·V v è l’opposto di v. D’ora in poi l’operazione di somma in uno spazio vettoriale V sarà indicata semplicemente con + mentre il simbolo del prodotto per uno scalare sarà omesso: si scriverà quindi v1 + v2 al posto di v1 +V v2 e λv al posto di λ ·V v. 2Ricordiamo che un campo è un insieme dotato di due operazioni, che indicheremo con + e ·, le quali soddisfano delle proprietà del tutto analoghe a quelle della somma e del prodotto di numeri razionali. Più precisamente, un campo è un anello commutativo con unità in cui ogni elemento diverso da 0 ammette un inverso moltiplicativo. Capitolo 1 Spazi Vettoriali 12 Dimostrazione. È immediato verificare che, sotto questa ipotesi, le operazioni di somma di vettori e di prodotto di un vettore per uno scalare definite in V rendono W un sottospazio vettoriale. Osservazione 1.3.12. Ogni spazio vettoriale V è, naturalmente, un sottospazio vettoriale di sé stesso. Inoltre {0V } è banalmente un sottospazio vettoriale di V , detto il sottospazio nullo. A volte scriveremo semplicemente 0 per indicare il sottospazio {0V } (il significato sarà chiaro dal contesto). Esempio 1.3.13. Sia V = Kn e sia W l’insieme dei vettori w = (x1, x2, . . . , xn) che sono soluzioni di un’equazione lineare del tipo a1x1 + a2x2 + · · ·+ anxn = 0, con a1, . . . , an ∈ K fissati. È immediato verificare che una combinazione lineare di due elementi di W fornisce ancora una soluzione della precedente equazione, quindi appartiene a W . Ciò significa che W è un sottospazio vettoriale di V . Al contrario, l’insieme delle soluzioni di un’equazione del tipo a1x1 + a2x2 + · · ·+ anxn = k, con k 6= 0, non è un sottospazio vettoriale di V , dato che non contiene il vettore nullo 0. Proposizione 1.3.14. Se {Wi}i∈I è una famiglia di sottospazi vettoriali di uno spazio vettoriale V , allora anche la loro intersezione W W = ⋂ i∈I Wi è un sottospazio vettoriale di V . Dimostrazione. Siano λ1, λ2 ∈ K e w1, w2 ∈ W . Allora w1, w2 ∈ Wi, per ogni i ∈ I, quindi anche λ1w1 + λ2w2 ∈Wi, dato che Wi è un sottospazio vettoriale di V . Da ciò segue che λ1w1 + λ2w2 ∈W . Osservazione 1.3.15. Una proprietà analoga non vale invece per l’unione: se W1 e W2 sono due sottospazi vettoriali di V , la loro unione W1 ∪W2 non è, in generale, un sottospazio vettoriale di V . A titolo di esempio, consideriamo lo spazio vettoriale V = K2. Poniamo W1 = {(a, 0) | a ∈ K} e W2 = {(0, b) | b ∈ K}. È immediato verificare che essi sono due sottospazi vettoriali di V . Si ha (1, 0) ∈ W1 e (0, 1) ∈ W2, tuttavia la loro somma (1, 1) non appartiene né a W1 né a W2. Ciò dimostra che l’insieme W1 ∪ W2 non è chiuso per l’operazione di somma, quindi non può essere un sottospazio vettoriale. Definizione 1.3.16. Sia S un sottoinsieme di uno spazio vettoriale V . Il sot- tospazio vettoriale generato da S, che indicheremo con L(S), è il più piccolo3 sottospazio vettoriale di V contenente S (se S è vuoto si ha L(S) = {0}). 3Più piccolo, inteso rispetto alla relazione d’ordine data dall’inclusione. Capitolo 1 Spazi Vettoriali 13 Dato che l’intersezione di una famiglia di sottospazi vettoriali di V è un sotto- spazio vettoriale di V , è immediato verificare che L(S) coincide con l’intersezione di tutti i sottospazi vettoriali di V che contengono S. Un’altra descrizione, ancora più esplicita, di L(S) è data dalla seguente proposizione. Proposizione 1.3.17. Il sottospazio vettoriale L(S) generato da S è l’insieme di tutte le combinazioni lineari finite di elementi di S, cioè L(S) = { n∑ i=1 λivi |n ∈ N, λi ∈ K, vi ∈ S } , dove si intende che la combinazione lineare di zero elementi di S è il vettore nullo 0 ∈ V . Dimostrazione. Poniamo Λ(S) = { n∑ i=1 λivi |n ∈ N, λi ∈ K, vi ∈ S } . Ovviamente S ⊆ Λ(S). Notiamo che ogni sottospazio vettoriale di V contenente S contiene anche tutte le combinazioni lineari finite di elementi di S, quindi contiene Λ(S). Da ciò segue che Λ(S) è contenuto nell’intersezione di tutti i sottospazi vettoriali di V che contengono S, quindi Λ(S) ⊆ L(S). D’altra parte è evidente che Λ(S) è anch’esso un sottospazio vettoriale di V : infatti la combinazione lineare di due combinazioni lineari finite di elementi di S è essa stessa una combinazione lineare finita di elementi di S. Poiché L(S) è il più piccolo sottospazio vettoriale di V contenente S, si ha dunque L(S) ⊆ Λ(S), da cui segue che L(S) = Λ(S). Osservazione 1.3.18. Se S = {v1, v2, . . . , vn}, il sottospazio vettoriale L(S) viene anche indicato con 〈v1, v2, . . . , vn〉. Come abbiamo già osservato, nel contesto degli spazi vettoriali l’operazio- ne di unione di due sottospazi non ha delle buone proprietà: infatti l’unione di due sottospazi vettoriali non è, in generale, un sottospazio vettoriale (vedi l’Osservazione 1.3.15). Tale operazione viene quindi sostituita dall’operazione di somma: Definizione 1.3.19. Se W1 e W2 sono sottospazi vettoriali di V , la loro somma W1 + W2 è il sottospazio vettoriale L(W1 ∪W2) generato da W1 ∪W2. Tale definizione si generalizza, in modo ovvio, al caso della somma di una famiglia qualsiasi (anche infinita) di sottospazi di V . Una descrizione esplicita della somma di due sottospazi vettoriali è fornita dalla seguente proposizione: Proposizione 1.3.20. Si ha W1 +W2 = {w1 + w2 |w1 ∈W1, w2 ∈W2}. Dimostrazione. È immediato verificare che l’insieme {w1 + w2 |w1 ∈W1, w2 ∈W2} Capitolo 1 Spazi Vettoriali 14 è un sottospazio vettoriale di V che contiene W1 e W2, quindi contiene anche la loro unione. Poiché W1 + W2 è, per definizione, il più piccolo sottospazio vettoriale di V contenente W1 ∪W2, si ha l’inclusione W1 +W2 ⊆ {w1 + w2 |w1 ∈W1, w2 ∈W2}. D’altra parte, ogni vettore del tipo w1 +w2 appartiene necessariamente a W1 + W2. Questo dimostra che vale anche l’inclusione opposta e quindi l’uguaglianza. Osservazione 1.3.21. Un risultato del tutto analogo vale anche per la somma di una famiglia finita di sottospazi vettoriali di V . Si ha cioè W1 + · · ·+Wn = {w1 + · · ·+ wn |wi ∈Wi, per i = 1, . . . , n}. Nel caso invece di una famiglia infinita {Wi}i∈I di sottospazi vettoriali, è facile verificare che la somma ∑ i∈I Wi coincide con l’insieme di tutte le somme finite di vettori wi ∈Wi. Definizione 1.3.22. La somma di due sottospazi vettoriali W1 e W2 di V si dice diretta, e si indica con W1 ⊕W2, se W1 ∩W2 = {0}. Più in generale, la somma di una famiglia qualsiasi {Wi}i∈I di sottospazi vettoriali di V si dice diretta se Wi ∩Wj = {0}, per ogni i, j ∈ I con i 6= j. La somma diretta di una famiglia {Wi}i∈I di sottospazi di V si indica con⊕ i∈I Wi. Proposizione 1.3.23. Ogni vettore v ∈W1⊕W2 si scrive in modo unico nella forma v = w1 + w2, per qualche w1 ∈ W1 e qualche w2 ∈ W2 (un risultato analogo vale anche per una somma diretta di un numero qualunque di sottospazi di V ). Dimostrazione. Nella proposizione precedente abbiamo visto che ogni v ∈W1⊕ W2 si può scrivere nella forma v = w1 + w2, per qualche w1 ∈ W1 e qualche w2 ∈W2. Dobbiamo solo dimostrare che tale scrittura è unica. Supponiamo che si abbia v = w1 + w2 = w′1 + w′2, con w1, w ′ 1 ∈W1 e w2, w ′ 2 ∈W2. Allora si ha w1 − w′1 = w′2 − w2 ∈W1 ∩W2. Poiché la somma di W1 e W2 è diretta, si ha W1 ∩W2 = {0}, quindi w1−w′1 = w′2 − w2 = 0, da cui si deduce che w1 = w′1 e w2 = w′2. Osservazione 1.3.24. La somma diretta di due sottospazi di uno spazio vettoriale V , definita in precedenza, è anche detta somma diretta interna. Ora vedremo come sia possibile definire anche la somma diretta di due spazi vettoriali V e W qualunque, in modo tale che V e W si possano poi identificare con due sottospazi vettoriali di V ⊕W . Una tale somma è detta somma diretta esterna. Capitolo 1 Spazi Vettoriali 17 Allora si ha α1v1 + · · ·+ αi−1vi−1 − vi + αi+1vi+1 + · · ·+ αnvn = 0, il che dimostra che i vettori v1, . . . , vn sono linearmente dipendenti. Osservazione 1.3.30. Notiamo che la dimostrazione della proposizione preceden- te dipende in modo essenziale dalla possibilità di poter dividere per un elemento non nullo λi ∈ K; è pertanto indispensabile che K sia un campo. Nel caso in cui V sia un modulo su un anello un analogo risultato non vale, come illustrato dal seguente esempio. Sia K = Z e V = Z2. Consideriamo i tre elementi u = (1, 2), v = (2, 1) e w = (3, 4). Essi sono linearmente dipendenti, infatti 5 (1, 2) + 2 (2, 1)− 3 (3, 4) = 0, tuttavia è facile verificare che nessuno di essi può essere espresso come combi- nazione lineare degli altri due. Dimostriamo ora che, se un vettore si può scrivere come combinazione lineare di un insieme di vettori linearmente indipendenti, tale espressione è unica. Proposizione 1.3.31. Siano v1, v2, . . . , vn ∈ V dei vettori linearmente in- dipendenti. Se v ∈ V si può scrivere come combinazione lineare dei vettori v1, v2, . . . , vn, v = λ1v1 + λ2v2 + · · ·+ λnvn, allora gli scalari λ1, λ2, . . . , λn sono determinati in modo unico. Dimostrazione. Supponiamo che sia possibile scrivere v in due modi, come v = λ1v1 + λ2v2 + · · ·+ λnvn, e come v = µ1v1 + µ2v2 + · · ·+ µnvn. Allora si ha λ1v1 + λ2v2 + · · ·+ λnvn = µ1v1 + µ2v2 + · · ·+ µnvn, che si può riscrivere come (λ1 − µ1)v1 + (λ2 − µ2)v2 + · · ·+ (λn − µn)vn = 0. Poiché i vettori v1, v2, . . . , vn sono linearmente indipendenti, si ha dunque λ1 − µ1 = 0, λ2 − µ2 = 0, . . . , λn − µn = 0, il che dimostra che λi = µi, per ogni i = 1, . . . , n. Dalla proposizione appena dimostrata discende quindi che, se consideriamo un insieme di generatori S di V con la proprietà aggiuntiva che i vettori di S siano linearmente indipendenti, allora ogni vettore di V si può scrivere, in modo unico, come combinazione lineare finita di elementi di S. Definizione 1.3.32. Un insieme libero di generatori di uno spazio vettoriale V è detto una base di V . In altri termini, una base di V è un insieme di vettori linearmente indipendenti i quali generano l’intero spazio V . Capitolo 1 Spazi Vettoriali 18 Osservazione 1.3.33. Solitamente una base di uno spazio vettoriale V viene intesa come un insieme ordinato di generatori linearmente indipendenti di V . Ciò significa, ad esempio, che se l’insieme costituito dai vettori v1 e v2 è una base di uno spazio vettoriale V , allora v = {v1, v2} e v′ = {v2, v1} sono due basi diverse di V . Da quanto visto in precedenza, si deduce il seguente risultato: Corollario 1.3.34. Sia S una base di V . Ogni vettore v ∈ V si può scrivere, in modo unico, come combinazione lineare finita di elementi di S. Osservazione 1.3.35. Supponiamo che S = {v1, v2, . . . , vn} sia una base di uno spazio vettoriale V . Allora, per ogni v ∈ V , si ha v = λ1v1 + λ2v2 + · · ·+ λnvn, e gli scalari λi ∈ K sono unicamente determinati da v. Tali scalari sono anche detti le coordinate del vettore v rispetto alla base v1, v2, . . . , vn fissata. 1.3.3 Spazi vettoriali finitamente generati Nella sezione precedente non abbiamo fatto nessuna ipotesi sul numero di gene- ratori di uno spazio vettoriale. Ora ci occuperemo in dettaglio del caso in cui tale numero è finito. Definizione 1.3.36. Uno spazio vettoriale V è detto finitamente generato se esiste un insieme finito di generatori di V . Cominciamo col dimostrare che ogni spazio vettoriale V finitamente generato ammette una base. Più precisamente, dimostreremo che da ogni insieme di generatori di V si può estrarre una base. Proposizione 1.3.37. Sia S = {v1, v2, . . . , vn} un insieme di generatori di V . Allora S contiene dei vettori vi1 , vi2 , . . . , vir , per qualche r ≤ n, che formano una base di V . Dimostrazione. Se i vettori v1, v2, . . . , vn sono linearmente indipendenti, essi sono una base di V e la dimostrazione è cos̀ı terminata. Se invece essi sono li- nearmente dipendenti, uno di essi può essere espresso come combinazione lineare dei rimanenti. A meno di rinominarli, possiamo supporre che questo vettore sia vn. Possiamo quindi scrivere vn = λ1v1 + λ2v2 + · · ·+ λn−1vn−1. Da ciò segue che i vettori v1, v2, . . . , vn−1 generano lo spazio vettoriale V ; infatti ogni vettore che si scrive come combinazione lineare dei vettori v1, v2, . . . , vn si può anche scrivere come combinazione lineare dei soli vettori v1, v2, . . . , vn−1. Ora, se i vettori v1, v2, . . . , vn−1 sono linearmente indipendenti, essi sono una base di V e la dimostrazione è terminata. In caso contrario uno di essi può essere espresso come combinazione lineare dei rimanenti. Anche in questo caso, a meno di riordinare i vettori, possiamo supporre che sia vn−1 a potersi scrivere come combinazione lineare dei vettori v1, v2, . . . , vn−2. Ma ciò significa che i vettori v1, v2, . . . , vn−2 sono un insieme di generatori di V . Ripetendo il ragionamento sopra descritto si arriverà, prima o poi, a un insieme di vettori v1, v2, . . . , vr, per qualche r ≤ n, che generano tutto lo spazio V e sono linearmente indipendenti. Essi costituiscono quindi una base di V . Capitolo 1 Spazi Vettoriali 19 Il seguente risultato chiarisce le relazioni che esistono tra insiemi di vettori linearmente indipendenti, basi e insiemi di generatori. Proposizione 1.3.38. Sia V uno spazio vettoriale finitamente generato. Con- sideriamo un insieme {v1, v2, . . . , vn} di generatori di V e siano w1, w2, . . . , wr dei vettori linearmente indipendenti. Allora r ≤ n. Dimostrazione. Poiché i vettori v1, v2, . . . , vn generano V , il vettore w1 si può scrivere come una loro combinazione lineare, w1 = λ1v1 + λ2v2 + · · ·+ λnvn. Dato che w1 6= 0, gli scalari λ1, . . . , λn non possono essere tutti nulli, quindi esiste un indice i tale che λi 6= 0. Da ciò si deduce che il vettore vi può essere espresso come combinazione lineare dei vettori w1, v1, . . . , vi−1, vi+1, . . . , vn. A meno di rinominare i vettori vj , possiamo supporre che sia i = n, cioè che vn si possa scrivere come combinazione lineare dei vettori w1, v1, . . . , vn−1; ma ciò significa che anche {w1, v1, . . . , vn−1} è un insieme di generatori di V . Il vettore w2 si può quindi scrivere come combinazione lineare dei vettori w1, v1, . . . , vn−1: w2 = α1w1 + λ1v1 + · · ·+ λn−1vn−1, e gli scalari λ1, . . . , λn−1 non possono essere tutti nulli, perché altrimenti i vettori w1 e w2 sarebbero linearmente dipendenti, contro l’ipotesi. Esiste quindi un indice i per il quale λi 6= 0 e, ancora una volta, possia- mo supporre che sia i = n − 1 (a meno di riordinare i vettori vj). Da ciò segue che il vettore vn−1 si può scrivere come combinazione lineare dei vet- tori w1, w2, v1, . . . , vn−2, quindi anche {w1, w2, v1, . . . , vn−2} è un insieme di generatori di V . Continuando in questo modo, si dimostra che tutti gli insiemi {w1, w2, . . . , wh, v1, . . . , vn−h} sono insiemi di generatori di V . Se, per assurdo, fosse n < r, ponendo h = n si avrebbe che i vettori w1, w2, . . . , wn generano tutto lo spazio V , quindi il vettore wn+1 si potrebbe scrivere come combinazione lineare dei vettori w1, w2, . . . , wn, il che contraddice l’ipotesi che i vettori w1, w2, . . . , wr siano linearmente indipendenti. Deve quindi essere r ≤ n. Corollario 1.3.39. Sia V uno spazio vettoriale finitamente generato e sia {v1, v2, . . . , vn} una base di V . Allora, per ogni insieme di vettori linearmente indipendenti {w1, w2, . . . , wr}, si ha r ≤ n e, per ogni insieme {u1, u2, . . . , us} di generatori di V , si ha s ≥ n. Dimostrazione. Questo risultato è una conseguenza immediata della proposi- zione precedente; basta ricordare che i vettori v1, v2, . . . , vn sono linearmente indipendenti e sono anche un insieme di generatori di V . Corollario 1.3.40. Due basi qualunque di uno spazio vettoriale V (finitamente generato) hanno lo stesso numero di elementi. Capitolo 1 Spazi Vettoriali 22 Corollario 1.3.47. Sia V uno spazio vettoriale finitamente generato e sia W ⊂ V un suo sottospazio proprio. Allora dimW < dimV . Dimostrazione. Nel Corollario 1.3.44 abbiamo dimostrato che si ha dimW ≤ dimV . Supponiamo, per assurdo, che si abbia dimW = dimV = n. Con- sideriamo quindi una base w1, . . . , wn di W . Dato che questi sono n vettori linearmente indipendenti di V , e dato che n è proprio la dimensione di V , per il punto (i) della proposizione precedente essi sono una base di V . Ma da ciò segue che W = V , contro l’ipotesi che W sia un sottospazio proprio di V . Osservazione 1.3.48. SeK ⊂ L è una estensione4 di campi, ogni spazio vettoriale V sul campo L può essere anche considerato come spazio vettoriale sul campo K. Se {v1, . . . , vn} è una base di V in quanto K-spazio vettoriale, questi stessi vettori generano V anche in quanto spazio vettoriale su L, tuttavia, in questo caso, essi potrebbero non essere più linearmente indipendenti, come vedremo nel successivo esempio. In generale, possiamo pertanto affermare che la dimensione di V in quanto L-spazio vettoriale è minore o uguale alla dimensione di V considerato come spazio vettoriale su K, cioè dimL V ≤ dimK V. Illustriamo quanto appena affermato con un esempio concreto. Sia K = R il campo dei numeri reali e L = C il campo dei numeri complessi. L’insieme C è identificato in modo naturale con l’insieme R2, associando ad ogni numero complesso z = x+ iy la coppia di numeri reali (x, y). Poniamo quindi V = C ∼= R2. Lo spazio vettoriale V = C, in quanto spazio vettoriale sul campo C, ha naturalmente dimensione 1, e una sua base è costituita dal vettore v = 1. Se invece consideriamo C in quanto spazio vettoriale su R, esso ha dimensione 2. Una sua base è infatti costituita dai vettori v1 = 1 e v2 = i, i quali corrispondono, nell’identificazione C ∼= R2 descritta in precedenza, ai due vettori (1, 0) e (0, 1) della base canonica di R2. Notiamo che i vettori v1 = 1 e v2 = i sono linearmente indipendenti sul campo R dei numeri reali; infatti se αv1 + βv2 = α + iβ = 0, con α, β ∈ R, si deve necessariamente avere α = β = 0. Essi sono invece linearmente dipendenti sul campo C: si ha infatti v1 + iv2 = 1 + i2 = 1− 1 = 0. Più in generale, se V = Cn, si ha dimC V = n e dimR V = 2n. Terminiamo questa sezione dimostrando un risultato che mette in relazione le dimensioni di due sottospazi vettoriali di V con le dimensioni della loro somma e della loro intersezione: Proposizione 1.3.49 (Formula di Grassmann). Siano W1 e W2 due sotto- spazi vettoriali di uno spazio vettoriale finitamente generato V . Si ha: dim(W1 +W2) = dimW1 + dimW2 − dim(W1 ∩W2). Dimostrazione. Poniamo r = dimW1, s = dimW2, t = dim(W1 ∩W2). 4Ciò significa semplicemente che L è un campo e K è un suo sottocampo. Capitolo 1 Spazi Vettoriali 23 Consideriamo una base {v1, . . . , vt} di W1 ∩W2. Per il Corollario 1.3.45, que- sto insieme di vettori può essere completato, tramite aggiunta di altri vetto- ri, in modo da ottenere una base {v1, . . . , vt, vt+1, . . . , vr} di W1 e una base {v1, . . . , vt, v ′ t+1, . . . , v ′ s} di W2. Dato che ogni vettore diW1+W2 può essere scritto come somma di un vettore di W1 e di uno di W2, esso può quindi essere espresso come combinazione linea- re dei vettori v1, . . . , vt, vt+1, . . . , vr, v ′ t+1, . . . , v ′ s. Vogliamo ora dimostrare che questi vettori, oltre a essere dei generatori di W1 +W2, sono anche linearmente indipendenti. Supponiamo quindi che sia α1v1 + · · ·+ αtvt + β1vt+1 + · · ·+ βr−tvr + γ1v ′ t+1 + · · ·+ γs−tv ′ s = 0. Da ciò segue che α1v1 + · · ·+ αtvt + β1vt+1 + · · ·+ βr−tvr = −(γ1v ′ t+1 + · · ·+ γs−tv ′ s). Se chiamiamo w il vettore precedente, si ha che w ∈W1∩W2. Poiché {v1, . . . , vt} è una base di W1 ∩W2, il vettore w si può scrivere, in modo unico, nella forma w = λ1v1 + · · ·+ λtvt. Si hanno quindi le seguenti uguaglianze: λ1v1 + · · ·+ λtvt = α1v1 + · · ·+ αtvt + β1vt+1 + · · ·+ βr−tvr e λ1v1 + · · ·+ λtvt = −(γ1v ′ t+1 + · · ·+ γs−tv ′ s). Poiché, per ipotesi, i vettori v1, . . . , vt, vt+1, . . . , vr sono una base di W1 e i vettori v1, . . . , vt, v ′ t+1, . . . , v ′ s sono una base di W2, dalle uguaglianze precedenti segue che λ1 = · · · = λt = 0, β1 = · · · = βr−t = 0, α1 = · · · = αt = 0, γ1 = · · · = γs−t = 0. Abbiamo cos̀ı dimostrato che l’insieme dei vettori {v1, . . . , vt, vt+1, . . . , vr, v ′ t+1, . . . , v ′ s} è una base di W1 +W2. Si ha pertanto dim(W1 +W2) = r + s− t = dimW1 + dimW2 − dim(W1 ∩W2). Osservazione 1.3.50. Sia V uno spazio vettoriale finitamente generato. Notiamo che, per ogni sottospazio W ⊆ V , è possibile trovare un sottospazio W ′ di V tale che V = W ⊕W ′, cioè tale che si abbia V = W +W ′ e W ∩W ′ = {0}. Un tale W ′ è detto un sottospazio complementare di W . A tal fine, è sufficiente considerare una base {w1, . . . , wr} di W e completarla a una base {w1, . . . , wr, vr+1, . . . , vn} di V (cf. Corollario 1.3.45). Il sottospazio W ′ = 〈vr+1, . . . , vn〉, generato dai vettori vr+1, . . . , vn, è il sottospazio cercato. Notiamo infine che un tale sottospazio W ′ non è unico. Ad esempio, se V = K2 e se W è il sottospazio generato dal vettore (1, 0), qualunque vettore (a, b), con b 6= 0, genera un sottospazio W ′ tale che V = W ⊕W ′. Capitolo 1 Spazi Vettoriali 24 Esercizi Esercizio 1.3.1. Si dica se gli insiemi seguenti sono degli spazi vettoriali: (1) L’insieme delle funzioni reali definite nell’intervallo [0, 1], continue, positive o nulle, per le operazioni di addizione e di prodotto per un numero reale. (2) L’insieme delle funzioni reali f definite in R, tali che lim x→+∞ f(x) = 0, per le operazioni di addizione e di prodotto per un numero reale. (3) L’insieme A = {x ∈ R |x > 0}, per le operazioni di somma e di prodotto per uno scalare definite rispettivamente da x⊕ y = xy, ∀x, y ∈ A λ · x = xλ, ∀x ∈ A, λ ∈ R. (4) L’insieme delle funzioni da R in R che si annullano in 1 oppure in 4. (5) L’insieme dei polinomi di grado uguale a n (n intero positivo). (6) L’insieme delle funzioni da R in R, di classe C2, tali che f ′′ + ω2f = 0, con ω ∈ R. (7) L’insieme delle funzioni reali f(x) definite nell’intervallo [0, 1], continue, tali che∫ 1 0 f(x) sinx dx = 0. Esercizio 1.3.2. Sia V lo spazio vettoriale dei polinomi, a coefficienti reali nell’in- determinata x, di grado ≤ 3. Si verifichi che gli insiemi seguenti sono delle basi di V : (1) {1, x, x2, x3}; (2) {1, 1− x, x− x2, x2 − x3}; (3) {1, 1 + x, 1 + x+ x2, 1 + x+ x2 + x3}. Esercizio 1.3.3. Nello spazio vettoriale V dei polinomi di grado ≤ 2 si considerino i polinomi p1(x) = x2 + x(1− x) + (1− x)2 p2(x) = x2 + (1− x)2 p3(x) = x2 + 1 + (1− x)2 p4(x) = x(1− x). È possibile estrarre da {p1(x), p2(x), p3(x), p4(x)} delle basi di V ? In caso affermativo, trovarle tutte. Esercizio 1.3.4. Nello spazio vettoriale delle funzioni continue da R in R, si con- siderino le funzioni f1(x) = sinx, f2(x) = sin 2x e f3(x) = sin 3x. Si dica se queste funzioni sono linearmente indipendenti. Esercizio 1.3.5. Si dica se, nei casi seguenti, i vettori v1, v2 e v3 costituiscono una base di R3. In caso negativo si descriva il sottospazio da essi generato. (1) v1 = (1, 1, 1), v2 = (3, 0,−1), v3 = (−1, 1,−1); (2) v1 = (1, 2, 3), v2 = (3, 0,−1), v3 = (1, 8, 13); (3) v1 = (1, 2,−3), v2 = (1, 0,−1), v3 = (1, 10,−11). Capitolo 2 Applicazioni Lineari e Matrici In questo capitolo svilupperemo la teoria delle funzioni lineari tra due spazi vettoriali. Introdurremo il concetto di matrice, descriveremo il legame esistente tra matrici e funzioni lineari e dimostreremo i principali risultati della teoria delle matrici. Infine, utilizzeremo i risultati cos̀ı ottenuti per descrivere la teoria dei sistemi di equazioni lineari. 2.1 Applicazioni lineari In questo capitolo ci occuperemo dello studio delle funzioni, definite tra due spazi vettoriali, che “rispettano” la struttura di spazio vettoriale, cioè che sono compatibili con le operazioni di somma di vettori e di prodotto di un vettore per uno scalare. Definizione 2.1.1. Siano V e W due spazi vettoriali su un campo K. Una funzione f : V →W è detta additiva se f(v1 + v2) = f(v1) + f(v2), per ogni v1, v2 ∈ V . Una tale funzione è detta K-lineare (o, più semplicemente, lineare) se, oltre ad essere additiva, essa soddisfa la seguente uguaglianza: f(λv) = λf(v), per ogni v ∈ V e ogni λ ∈ K. Una funzione lineare tra due spazi vettoriali è anche detta un omomorfismo di spazi vettoriali. Osservazione 2.1.2. Supponiamo che f sia una funzione additiva tra due spazi vettoriali V e W definiti sul campo K, e supponiamo che Q ⊆ K. Per ogni 27 Capitolo 2 Applicazioni Lineari e Matrici 28 intero positivo n ed ogni v ∈ V , si ha f(nv) = f(v + v + · · ·+ v︸ ︷︷ ︸ n ) = f(v) + f(v) + · · ·+ f(v)︸ ︷︷ ︸ n = nf(v). Si ha inoltre f(0V ) = 0W : infatti dall’additività di f si deduce che f(v) = f(v + 0V ) = f(v) + f(0V ), da cui, sommando ad ambo i membri il vettore −f(v), si conclude. Utilizzando questo risultato si può dimostrare che f(−v) = −f(v): si ha infatti 0W = f(0V ) = f(v + (−v)) = f(v) + f(−v), da cui segue che f(−v) è l’opposto di f(v). Combinando questi risultati, si conclude che l’uguaglianza f(nv) = nf(v) vale per ogni vettore v ∈ V ed ogni n ∈ Z: una funzione additiva è quindi automaticamente Z-lineare. In effetti una funzione additiva è anche Q-lineare. Infatti, per ogni n 6= 0, si ha f(v) = f(n 1 n v) = nf( 1 n v), da cui segue che f( 1 nv) = 1 nf(v). Infine, per ogni mn ∈ Q, si ha f(mn v) = mf( 1 n v) = m n f(v). Tuttavia, se K contiene propriamente Q, dall’additività di una funzione non si può dedurre, in generale, la sua K-linearità. Ad esempio, dimostreremo in seguito (vedi Esempio 2.1.19) che esistono delle funzioni additive (e quindi Q-lineari) che non sono R-lineari! Veniamo ora alla definizione di isomorfismo di spazi vettoriali. Definizione 2.1.3. Sia f : V → W un omomorfismo di spazi vettoriali. f è un isomorfismo se esiste un omomorfismo g : W → V tale che g ◦ f = idV e f ◦ g = idW . In altre parole, dire che f è un isomorfismo di spazi vettoriali equivale a dire che f è un omomorfismo invertibile e che la sua funzione inversa è lineare. Due spazi vettoriali V e W su K si dicono isomorfi se esiste un isomorfismo f : V →W . Quando vorremo indicare che V e W sono isomorfi senza specificare quale sia l’isomorfismo, scriveremo semplicemente V ∼= W . Dalla definizione data segue che un isomorfismo di spazi vettoriali è una funzione biiettiva. Dimostriamo ora il viceversa: Proposizione 2.1.4. Sia f : V → W un omomorfismo di spazi vettoriali. Se la funzione f è biiettiva essa è un isomorfismo. Dimostrazione. Poiché f è biiettiva essa è invertibile. Rimane quindi solo da dimostrare che la funzione inversa f−1 : W → V è lineare. Siano dunque w1, w2 ∈ W e poniamo v1 = f−1(w1) e v2 = f−1(w2). Dal- l’additività di f si deduce che f(v1 + v2) = f(v1) + f(v2) = w1 + w2, da cui segue che f−1(w1 + w2) = v1 + v2 = f−1(w1) + f−1(w2); ciò dimostra che f−1 è additiva. Consideriamo ora uno scalare λ ∈ K. Dalla linearità di f segue che f(λv1) = λf(v1) = λw1, da cui si deduce che f−1(λw1) = λv1 = λf−1(w1). Abbiamo cos̀ı dimostrato che f−1 è lineare. Capitolo 2 Applicazioni Lineari e Matrici 29 Osservazione 2.1.5. Un omomorfismo iniettivo di spazi vettoriali è anche detto un monomorfismo, mentre un omomorfismo suriettivo è chiamato epimorfismo. Un monomorfismo che sia anche epimorfismo è dunque un omomorfismo biiettivo e quindi, in base alla proposizione precedente, è un isomorfismo. L’importanza della nozione di isomorfismo è data dal fatto che esso permette di “identificare” spazi vettoriali diversi, a patto che siano isomorfi. Si può cos̀ı arrivare a una classificazione degli spazi vettoriali, come descritto nel seguente risultato: Proposizione 2.1.6. Sia V uno spazio vettoriale di dimensione n sul campo K. Allora V è isomorfo (non canonicamente) allo spazio vettoriale Kn. Dimostrazione. Fissiamo una base {v1, v2, . . . , vn} di V . Facciamo notare che ciò è sempre possibile, anche se non c’è, in generale, nessuna scelta “canonica” per una tale base. Ora possiamo definire una funzione f : V → Kn la quale associa a un vettore v ∈ V l’unica n-upla (λ1, . . . , λn) ∈ Kn per cui si ha v = λ1v1 + · · ·+ λnvn. È immediato verificare che la funzione f è lineare. Essa è inoltre biiettiva, dato che {v1, v2, . . . , vn} è una base di V . Dalla Proposizione 2.1.4 si deduce quindi che f è un isomorfismo. Vogliamo far notare che la funzione f dipende dalla base di V che è stata scelta. La non esistenza, in generale, di una base canonica ha quindi come conseguenza la non esistenza di una scelta canonica di un isomorfismo tra V e Kn. Corollario 2.1.7. Due spazi vettoriali di dimensione finita sul campo K sono isomorfi (non in modo canonico) se e solo se hanno la stessa dimensione. 2.1.1 Nucleo e immagine Introduciamo ora due sottospazi vettoriali particolarmente importanti associati a una funzione lineare: Definizione 2.1.8. Sia f : V →W una funzione lineare tra due spazi vettoriali. Il nucleo di f è l’insieme Ker(f) = {v ∈ V | f(v) = 0}. L’immagine di f è l’insieme Im(f) = {w ∈W |w = f(v), per qualche v ∈ V }. Proposizione 2.1.9. Il nucleo di una funzione lineare f : V → W è un sot- tospazio vettoriale di V , mentre l’immagine di f è un sottospazio vettoriale di W . Dimostrazione. Siano v1, v2 ∈ Ker(f) e consideriamo una combinazione lineare λ1v1 + λ2v2, con λ1, λ2 ∈ K. Dalla linearità di f segue che f(λ1v1 + λ2v2) = λ1f(v1) + λ2f(v2) = 0, Capitolo 2 Applicazioni Lineari e Matrici 32 Osservazione 2.1.14. Siano V e W due spazi vettoriali su K e indichiamo con Hom(V,W ) l’insieme delle applicazioni lineari da V a W . Definiamo la somma di due applicazioni lineari f, g ∈ Hom(V,W ) ponendo (f + g)(v) = f(v) + g(v), per ogni v ∈ V ; essa è ancora una funzione lineare. Definiamo poi il prodotto di uno scalare λ ∈ K per una funzione lineare f ∈ Hom(V,W ) ponendo (λf)(v) = λ(f(v)), per ogni v ∈ V . Si verifica facilmente che l’insieme Hom(V,W ), dotato delle due operazioni appena definite, è uno spazio vettoriale su K. Notiamo infine che, se W = V , la composizione di due applicazioni lineari f, g : V → V è ancora una funzione lineare, cioè g ◦ f ∈ Hom(V, V ), per ogni f, g ∈ Hom(V, V ). L’insieme Hom(V, V ), dotato dell’operazione di somma e dell’operazione di composizione, risulta essere un anello (unitario) non commu- tativo. Se, in aggiunta a queste due operazioni, consideriamo anche il prodotto di una funzione lineare per uno scalare λ ∈ K, si ottiene una struttura nota con il nome di K-algebra. Osservazione 2.1.15. Un omomorfismo di uno spazio vettoriale V in sé stesso, f : V → V , è anche detto endomorfismo. Se esso è invertibile, si parla allora di automorfismo. L’insieme degli endomorfismi di uno spazio vettoriale V è indicato con End(V ) e il sottoinsieme costituito dagli automorfismi è indicato con Aut(V ). Osservazione 2.1.16. Un diagramma costituito da spazi vettoriali e omomorfi- smi tra di essi è detto commutativo se, per ogni coppia di spazi vettoriali, tutte le funzioni tra di essi che si possono ottenere come composizione di omomorfi- smi del diagramma, sono uguali. A titolo di esempio, consideriamo il seguente diagramma: V1 f1 // f3  f4 A AA AA AA V2 f5  f2 // V3 f6  V4 f7 // V5 f8 // V6 Dire che esso è commutativo significa che f5◦f1 = f4, f7◦f3 = f4, f6◦f2 = f8◦f5, etc. 2.1.2 Applicazioni lineari e basi Ci proponiamo ora di studiare le proprietà di una funzione lineare f : V →W , in relazione alla scelta di basi per gli spazi vettoriali V e W . Iniziamo col dimostrare che una funzione lineare f : V → W è completa- mente determinata dalla conoscenza delle immagini dei vettori di una base di V , le quali possono essere scelte arbitrariamente in W . Proposizione 2.1.17. Siano V e W due spazi vettoriali sul campo K e sia {vi}i∈I una base (non necessariamente finita) di V . (i) Un omomorfismo f : V → W è determinato, in modo unico, dalle imma- gini dei vettori vi, per ogni i ∈ I. (ii) Scelti arbitrariamente dei vettori {wi}i∈I in W , esiste un unico omomor- fismo f : V →W tale che f(vi) = wi, per ogni i ∈ I. Capitolo 2 Applicazioni Lineari e Matrici 33 Dimostrazione. (i) Sia f : V →W una funzione lineare e supponiamo di cono- scere f(vi), per ogni i ∈ I. Poiché {vi}i∈I è una base di V , ogni vettore v ∈ V si può scrivere, in modo unico, come combinazione lineare finita dei vettori vi: v = λ1vi1 + λ2vi2 + · · ·+ λnvin . Dalla linearità di f segue che f(v) = λ1f(vi1) + λ2f(vi2) + · · ·+ λnf(vin), (2.1.1) il che dimostra che la conoscenza di f(vi), per ogni i ∈ I, determina, in modo unico, f(v), per ogni v ∈ V . In altre parole, se g : V → W è un omomorfismo tale che g(vi) = f(vi), per ogni i ∈ I, da (2.1.1) segue che g(v) = f(v), per ogni v ∈ V . (ii) Per ogni i ∈ I scegliamo arbitrariamente un vettore wi ∈W . Definiamo una funzione f : V → W ponendo f(vi) = wi, per ogni i ∈ I, ed estendendo f per linearità a tutto V , cioè ponendo f(v) = λ1f(vi1) + λ2f(vi2) + · · ·+ λnf(vin), se v = λ1vi1 + λ2vi2 + · · ·+ λnvin . Si verifica immediatamente che f è ben definita ed è lineare. L’unicità di una tale f discende dal punto (i). Corollario 2.1.18. Siano V e W due spazi vettoriali sul campo K, sia {vi}i∈I una base (non necessariamente finita) di V e sia f : V → W un’applicazione lineare. (i) f è iniettiva se e solo se {f(vi)}i∈I è un insieme libero; (ii) f è suriettiva se e solo se {f(vi)}i∈I è un insieme di generatori di W ; (iii) f è un isomorfismo se e solo se {f(vi)}i∈I è una base di W . Dimostrazione. (i) Ricordiamo, dalla Proposizione 2.1.10, che f è iniettiva se e solo se Ker(f) = {0}. Dimostriamo quindi l’implicazione Ker(f) = {0} ⇒ {f(vi)}i∈I è un insieme libero. Consideriamo una combinazione lineare λ1f(vi1) + λ2f(vi2) + · · ·+ λnf(vin) = 0. Si ha λ1f(vi1) + λ2f(vi2) + · · ·+ λnf(vin) = f(λ1vi1 + λ2vi2 + · · ·+ λnvin), da cui segue λ1vi1 + λ2vi2 + · · ·+ λnvin ∈ Ker(f). Dato che, per ipotesi, Ker(f) = {0}, si ha λ1vi1 + λ2vi2 + · · ·+ λnvin = 0, da cui segue λ1 = λ2 = · · · = λn = 0, perché i vettori {vi}i∈I sono una base di V . Dimostriamo ora l’implicazione opposta. Sia v ∈ Ker(f) e scriviamo v = λ1vi1 + λ2vi2 + · · ·+ λnvin , Capitolo 2 Applicazioni Lineari e Matrici 34 per qualche n e qualche λ1, . . . , λn ∈ K. Poiché f(v) = 0, dalla linearità di f si deduce che λ1f(vi1) + λ2f(vi2) + · · ·+ λnf(vin) = 0. Poiché, per ipotesi, l’insieme {f(vi)}i∈I è libero, si ha λ1 = λ2 = · · · = λn = 0 e dunque v = 0, il che dimostra che Ker(f) = {0}. (ii) Ricordiamo che affermare che f è suriettiva equivale a dire che Im(f) = W . Osserviamo inoltre che Im(f) è generata dai vettori f(vi), al variare di i ∈ I. Infatti, per ogni w ∈ Im(f) esiste un vettore v ∈ V tale che w = f(v). Poiché {vi}i∈I è una base di V , è possibile esprimere v come combinazione lineare di un numero finito di vi, v = λ1vi1 + λ2vi2 + · · ·+ λnvin . Si ha dunque w = f(v) = λ1f(vi1) + λ2f(vi2) + · · ·+ λnf(vin), il che dimostra che l’insieme dei vettori {f(vi)}i∈I genera l’immagine di f . Da quanto detto segue quindi che Im(f) = W se e solo se {f(vi)}i∈I è un insieme di generatori di W . (iii) Poiché f è un isomorfismo se e solo se essa è biiettiva (vedi Proposizio- ne 2.1.4), dai punti (i) e (ii) segue che f è un isomorfismo se e solo se {f(vi)}i∈I è un insieme libero di generatori di W , cioè una base di W . Esempio 2.1.19. In questo esempio vedremo come si possa costruire una funzione additiva f : R→ R che non sia R-lineare. Consideriamo R come spazio vettoriale sul campo Q. I due “vettori” v1 = 1 e v2 = π sono linearmente indipendenti su Q (ciò deriva dal fatto che π è irrazionale), quindi esiste una base {vi}i∈I di R su Q che contiene i numeri 1 e π (osserviamo che una base di R su Q non può essere numerabile). Per la Proposizione 2.1.17 è possibile definire una funzione Q-lineare f : R→ R fissando arbitrariamente i valori di f(vi), per ogni i ∈ I. Se poniamo f(1) = 1 e f(π) = 2 (e fissiamo arbitrariamente i rimanenti f(vi) ∈ R), otteniamo una funzione additiva (e quindi Q-lineare) la quale non è R-lineare. Se lo fosse si avrebbe infatti f(π) = f(π 1) = πf(1) = π, contro l’ipotesi che f(π) = 2. Esercizi Esercizio 2.1.1. Si dica se sono lineari le seguenti funzioni: (1) f : R2 → R3, (x, y) 7→ (x− y, x+ y + 1, 0); (2) f : R2 → R2, (x, y) 7→ (2x, x+ y); (3) f : R2 → R, (x, y) 7→ sin(x− y). Esercizio 2.1.2. Si dica per quali valori di t ∈ R è lineare la seguente funzione: f : R3 → R2, (x, y, z) 7→ (x+ ty, tyz). Esercizio 2.1.3. Si consideri la funzione tra C-spazi vettoriali f : C2 → C data da f(x, y) = x+ ȳ, ove ȳ indica il numero complesso coniugato di y. Si dica se f è lineare (cioè C-lineare). Capitolo 2 Applicazioni Lineari e Matrici 37 conseguenza del fatto che ogni matrice A = (aij) si scrive, in modo unico, come segue: A = ∑ i,j aijEij . Possiamo riassumere quanto appena visto nel seguente risultato: Proposizione 2.2.6. Mm,n(K) è uno spazio vettoriale di dimensione mn su K. Se V e W sono due K-spazi vettoriali di dimensioni n e m rispettivamente, vi è un isomorfismo Hom(V,W ) ∼= Mm,n(K). Tale isomorfismo non è canonico, in quanto dipende dalla scelta di una base di V e di una base di W . In particolare, se V = W e quindi m = n, lo spazio vettoriale End(V ) = Hom(V, V ) è isomorfo a Mn(K) = Mn,n(K) e ha dimensione n2. Vediamo ora quale operazione tra matrici corrisponde alla composizione di due funzioni lineari. A tal fine consideriamo tre spazi vettoriali U , V e W , di dimensioni rispettivamente r, n e m, e fissiamo delle loro basi {u1, . . . , ur}, {v1, . . . , vn} e {w1, . . . , wm}. Siano f : V → W e g : U → V due applicazioni lineari e indichiamo con A la matrice di f , con B la matrice di g e con C la matrice di f ◦ g : U → W , rispetto alle basi indicate. Ricordiamo che A è una matrice m× n, B è una matrice n× r, mentre C è una matrice m× r. Per ogni vettore uj della base di U si ha: (f ◦ g)(uj) = f(g(uj)) = f ( n∑ h=1 bhjvh ) = n∑ h=1 bhjf(vh) = n∑ h=1 bhj ( m∑ i=1 aihwi ) = m∑ i=1 ( n∑ h=1 aihbhj ) wi. Poiché C = (cij) è la matrice di f ◦ g, si ha anche (f ◦ g)(uj) = m∑ i=1 cijwi. Dall’uguaglianza di queste due ultime espressioni (e dal fatto che i vettori {w1, . . . , wm} sono una base di W ) segue che cij = n∑ h=1 aihbhj , per ogni i = 1, . . . ,m e j = 1, . . . , r. Utilizzeremo dunque questa formula per de- finire un prodotto di matrici, in modo che il prodotto delle matrici A e B associa- te agli omomorfismi f e g fornisca proprio la matrice associata all’omomorfismo composto f ◦ g. Definizione 2.2.7. Date due matrici A ∈ Mm,n(K) e B ∈ Mn,r(K), il loro prodotto è la matrice C ∈Mm,r(K) i cui coefficienti sono dati da cij = n∑ h=1 aihbhj , (2.2.1) Capitolo 2 Applicazioni Lineari e Matrici 38 per ogni i = 1, . . . ,m e j = 1, . . . , r. Questo prodotto di matrici è anche detto prodotto righe per colonne. Vediamo più in dettaglio come si calcola un tale prodotto di matrici. Siano A e B due matrici come sopra e vogliamo determinare il loro prodotto C = AB. Per calcolare l’elemento cij , che si trova sulla i-esima riga e sulla j-esima colonna della matrice C, dobbiamo selezionare la i-esima riga della matrice A e la j-esima colonna della matrice B: (ai1, ai2, . . . , ain)  b1j b2j ... bnj  dopodiché dobbiamo “moltiplicare” questa riga per questa colonna nel modo indicato dalla formula (2.2.1), cioè dobbiamo effettuare la somma dei prodotti componente per componente dei due vettori indicati: cij = ai1b1j + ai2b2j + · · ·+ ainbnj . Osserviamo che per fare ciò è indispensabile che la lunghezza delle righe di A coincida con la lunghezza delle colonne di B. La matrice risultante dal prodotto di A per B avrà un numero di righe pari a quello della matrice A e un numero di colonne pari a quello della matrice B. Un caso particolare di prodotto tra matrici si ha quando la matrice B ha una sola colonna, cioè quando B si riduce a un vettore (scritto in colonna): si ottiene in questo modo il prodotto di una matrice per un vettore, il cui risultato è ancora un vettore. Più precisamente, data una matrice A ∈ Mm,n(K) e un vettore v = (x1, x2, . . . , xn) ∈ Kn (che scriveremo in colonna), il prodotto Av è un vettore w = (y1, y2, . . . , ym) ∈ Km dato da y1 y2 ... ym  =  a11 a12 . . . a1n a21 a22 . . . a2n ... ... . . . ... am1 am2 . . . amn   x1 x2 ... xn  Si ottiene in questo modo un’applicazione lineare FA : Kn → Km, v 7→ w = FA(v) = Av. La matrice associata a questa applicazione lineare (rispetto alle basi canoniche di Kn e Km) è proprio la matrice A. Osservazione 2.2.8. In modo del tutto equivalente si può considerare il caso particolare del prodotto di A per B, quando la matrice A si riduce a un vettore (questa volta scritto in riga). Consideriamo dunque una matrice B ∈ Mn,r(K) e un vettore v = (x1, x2, . . . , xn) ∈ Kn (che scriveremo in riga). Il prodotto vB è un vettore w = (y1, y2, . . . , yr) ∈ Kr dato da (y1, y2, . . . , yr) = (x1, x2, . . . , xn)  b11 b12 . . . b1r b21 b22 . . . b2r ... ... . . . ... bn1 bn2 . . . bnr  Capitolo 2 Applicazioni Lineari e Matrici 39 Anche in questo caso si ottiene un’applicazione lineare GB : Kn → Kr, v 7→ w = GB(v) = vB. Si conclude pertanto che un omomorfismo tra due spazi vettoriali quali Kn e Km può essere descritto sia dal prodotto di un vettore riga per una certa matrice, sia dal prodotto di un’altra matrice per un vettore colonna. Naturalmente si passa da una descrizione all’altra semplicemente scambiando tra loro i ruoli delle righe con quelli delle colonne. L’operazione che trasforma una matrice m × n in una matrice n ×m scambiando tra di loro le righe con le colonne si chiama trasposizione. Definizione 2.2.9. Sia A = (aij) ∈Mm,n(K). La trasposta di A è la matrice tA ∈Mn,m(K) il cui coefficiente di posto (i, j) è aji, cioè è il coefficiente di posto (j, i) della matrice A. Il trasposto di un vettore scritto in colonna è dunque un vettore scritto in riga, e viceversa. Per comodità di notazione, d’ora in poi i vettori di Kn verranno sempre pensati come vettori colonna: v =  x1 x2 ... xn  Per indicare invece un analogo vettore pensato come vettore riga, scriveremo quindi tv: tv = (x1, x2, . . . , xn). Come ultimo caso particolare del prodotto di due matrici, vediamo cosa succede quando sia A che B si riducono a dei vettori (scritti il primo in riga e il secondo in colonna). In questo caso il risultato del prodotto è uno scalare, cioè un elemento di K: (a1, a2, . . . , an)  b1 b2 ... bn  = a1b1 + a2b2 + · · ·+ anbn ∈ K. Si ottiene in questo modo la definizione di un prodotto tra due vettori di Kn, il cui risultato è uno scalare: questo è il cosiddetto prodotto scalare di due vettori. Definizione 2.2.10. Siano v = t(x1, x2, . . . , xn) e w = t(y1, y2, . . . , yn) due elementi di Kn. Il loro prodotto scalare, che indicheremo con v · w (o, a volte, con 〈v, w〉) è definito da v · w = tvw = n∑ i=1 xiyi. Di questa nozione di prodotto scalare, e delle sue generalizzazioni, ci occuperemo in seguito. Vediamo ora alcune proprietà dell’operazione di trasposizione. Proposizione 2.2.11. Siano A,B ∈Mm,n(K) e sia λ ∈ K. Si ha: Capitolo 2 Applicazioni Lineari e Matrici 42 Poniamo µi = n∑ j=1 aijλj , (2.2.4) per i = 1, . . . ,m, in modo che si abbia f(v) = m∑ i=1 µiwi. La m-upla (µ1, . . . , µm) rappresenta le coordinate del vettore f(v) rispetto al- la base w e si ha pertanto βw(f(v)) = t(µ1, . . . , µm). A questo punto ba- sta osservare che l’espressione di µi in (2.2.4) coincide con l’espressione (2.2.3) per la i-esima componente del vettore F (αv(v)). Abbiamo cos̀ı dimostrato che F (αv(v)) = βw(f(v)), per ogni v ∈ V . Osservazione 2.2.14. Questo risultato fornisce un metodo diretto per calcolare l’immagine tramite f : V → W di un qualsiasi vettore v ∈ V , nota la matrice di f rispetto a delle basi prefissate dei due spazi vettoriali V e W . Dapprima si determinano le coordinate (λ1, . . . , λn) del vettore v rispetto alla base di V , poi si moltiplica la matrice A associata a f per il vettore (λ1, . . . , λn), scritto in colonna. Il vettore risultante è costituito dalle coordinate di f(v) rispetto alla base di W . Dal diagramma commutativo (2.2.2) segue che il nucleo di f e il nucleo di F sono tra loro isomorfi, essendo tale isomorfismo indotto dall’isomorfismo αv. Analogamente, l’isomorfismo βw induce un isomorfismo tra Im(f) e Im(F ). In particolare questi spazi vettoriali hanno la stessa dimensione. Si ha pertanto null(f) = null(F ) e rk(f) = rk(F ). Dato che l’applicazione lineare F : Kn → Km è data dalla moltiplicazione per la matrice A, diamo la seguente definizione: Definizione 2.2.15. Sia A una matrice m×n a coefficienti in K e sia F : Kn → Km l’applicazione lineare data dalla moltiplicazione di un vettore (colonna) per la matrice A (a sinistra). Definiamo il rango e la nullità della matrice A ponendo rk(A) = rk(F ) = dim Im(F ), null(A) = null(F ) = dim Ker(F ). Osserviamo che il sottospazio Im(F ) di Km è generato dalle colonne di A (pos- siamo anche osservare che nell’isomorfismo βw : W ∼→ Km le colonne della matrice A corrispondono alle immagini, tramite f : V → W , dei vettori della base di V , le quali generano il sottospazio Im(f) di W ). Pertanto la dimen- sione di Im(F ), cioè il rango di F , coincide con il massimo numero di colonne linearmente indipendenti della matrice A. Abbiamo cos̀ı dimostrato il seguente risultato: Proposizione 2.2.16. Il rango di una matrice A è il massimo numero di colonne linearmente indipendenti di A. Capitolo 2 Applicazioni Lineari e Matrici 43 Osservazione 2.2.17. Il risultato della proposizione precedente viene spesso usa- to come definizione del rango di una matrice. Si parla allora di rango per colonne, per distinguerlo da un analogo rango per righe, definito come il massimo numero di righe linearmente indipendenti. Vedremo in seguito che, in effetti, queste due nozioni di rango coincidono sempre, cioè in ogni matrice il massimo numero di colonne linearmente indipendenti è sempre uguale al massimo numero di righe linearmente indipendenti. 2.2.1 Matrici quadrate Abbiamo visto che il prodotto di due matrici (cos̀ı come la composizione di due applicazioni) non è sempre definito: affinché il prodotto AB sia definito è necessario (e sufficiente) che il numero di colonne della matrice A sia uguale al numero di righe di B. Se ci restringiamo a considerare solo matrici di tipo n×n, questi problemi scompaiono e il prodotto di due matrici è sempre definito. Definizione 2.2.18. Una matrice a coefficienti in K si dice quadrata di ordine n se essa ha n righe e n colonne. L’insieme delle matrici quadrate di ordine n è indicato semplicemente con Mn(K), al posto di Mn,n(K). Osservazione 2.2.19. Se V è uno spazio vettoriale di dimensione n su K, e se è stata fissata una base {v1, . . . , vn} di V , ad ogni endomorfismo f : V → V cor- risponde una matrice quadrata A ∈ Mn(K). Questa corrispondenza stabilisce una biiezione tra End(V ) e Mn(K). Poiché End(V ), con le operazioni di somma di funzioni, di prodotto di una funzione per uno scalare e di composizione di due funzioni, è una K-algebra, lo stesso vale per l’insieme delle matrici quadrate Mn(K). Proposizione 2.2.20. L’insieme Mn(K) delle matrici quadrate di ordine n a coefficienti in K, dotato delle operazioni di somma e di prodotto di matrici e dell’operazione di prodotto di una matrice per un elemento di K, è una K- algebra. Facciamo notare che l’elemento neutro per l’operazione di somma è la matrice nulla 0 = 0n =  0 0 · · · 0 0 0 · · · 0 ... ... . . . ... 0 0 · · · 0  (la quale corrisponde all’applicazione nulla f : V → V , f(v) = 0, per ogni v ∈ V ), mentre l’elemento neutro per l’operazione di prodotto di matrici è la matrice identica, definita da 1 = 1n =  1 0 · · · 0 0 1 · · · 0 ... ... . . . ... 0 0 · · · 1  (che corrisponde all’identità id : V → V ), cioè la matrice avente tutti i coefficien- ti sulla cosiddetta diagonale principale pari a 1, mentre tutti gli altri coefficienti Capitolo 2 Applicazioni Lineari e Matrici 44 sono nulli. Infatti è immediato verificare che, per ogni matrice A ∈ Mn(K), si ha 1nA = A1n = A. Infine notiamo che il prodotto di matrici non gode della proprietà commutativa: se A e B sono due matrici in Mn(K) si ha, in generale, AB 6= BA. Ciò non deve stupire in quanto riflette semplicemente il fatto che la composizione di due funzioni lineari f, g : V → V non è, in generale, commutativa, cioè f ◦ g 6= g ◦ f . Una matrice del tipo λ1n, cioè λ 0 · · · 0 0 λ · · · 0 ... ... . . . ... 0 0 · · · λ  con λ ∈ K, è detta matrice scalare. Essa corrisponde all’omomorfismo f : V → V definito da f(v) = λv. È immediato verificare che una matrice scalare commuta con ogni altra matrice, cioè (λ1n)A = A(λ1n), per ogni A ∈Mn(K). Più in generale, una matrice del tipo λ1 0 · · · 0 0 λ2 · · · 0 ... ... . . . ... 0 0 · · · λn  cioè una matrice in cui tutti i coefficienti sono nulli, tranne al più quelli sulla diagonale principale, è detta matrice diagonale. Si noti che, in generale, una matrice diagonale non commuta con un’altra matrice qualsiasi. Tuttavia le matrici diagonali commutano tra loro. Una matrice triangolare superiore è una matrice in cui tutti i coefficienti che si trovano al di sotto della diagonale principale sono nulli, cioè una matrice del tipo  a11 a12 a13 · · · a1n 0 a22 a23 · · · a2n 0 0 a33 · · · a3n ... ... ... . . . ... 0 0 0 · · · ann  Analogamente si definisce una matrice triangolare inferiore come una matrice in cui tutti i coefficienti che si trovano al di sopra della diagonale principale sono Capitolo 2 Applicazioni Lineari e Matrici 47 Facciamo notare che le due matrici P e Q sono invertibili, dato che le corrispon- denti applicazioni lineari FP e FQ sono degli isomorfismi. Vediamo ora di ottenere una descrizione più esplicita delle matrici P e Q. Cominciamo dalla matrice P , la quale corrisponde all’isomorfismo FP : Kn ∼→ Kn. Abbiamo già osservato che le colonne di P sono date dalle immagini dei vettori della base canonica di Kn. Sia ej = t(0, . . . , 0, 1, 0, . . . , 0) il j-esimo vettore della base canonica di Kn (tutte le coordinate sono nulle tranne la j-esima che è uguale a 1). Tramite l’isomorfismo αv, il vettore ej ∈ Kn corrisponde al j-esimo vettore vj della base v di V . Si ha quindi FP (ej) = αv′(α−1 v (ej)) = αv′(vj), dove ricordiamo che αv′(vj) ∈ Kn è il vettore costituito dalle coordinate del vettore vj calcolate rispetto alla base v′; questo vettore è la j-esima colonna di P . In conclusione, possiamo affermare che le colonne della matrice P non sono altro che le coordinate dei vettori v1, . . . , vn della base v di V calcolate rispetto alla seconda base v′. Con un analogo ragionamento, scambiando i ruoli delle due basi, si potrebbe dimostrare che le colonne della matrice inversa P−1 sono precisamente le coordinate dei vettori v′1, . . . , v ′ n della base v′ di V calcolate rispetto alla prima base v. In modo del tutto analogo si dimostra che la j-esima colonna della matrice Q è costituita dal vettore delle coordinate del j-esimo vettore wj della base w calcolate rispetto alla base w′. In altre parole, la matrice Q è la matrice le cui colonne sono date dalle coordinate dei vettori w1, . . . , wm della base w di W calcolate rispetto alla seconda base w′. Analogamente si dimostra che le colonne della matrice inversa Q−1 sono le coordinate dei vettori w′1, . . . , w ′ m della base w′ di W calcolate rispetto alla prima base w. Ricordando il risultato enunciato nella Proposizione 2.2.13, possiamo rias- sumere quanto detto finora nel seguente diagramma commutativo Kn FA // FP o  Km FQo  V f // αv aaCCCCCCCC αv′}}|| || || || W βw <<zzzzzzzz βw′ ""D DD DD DD D Kn FA′ // Km ove FA e FA′ sono le applicazioni lineari date dalla moltiplicazione per A e per A′, rispettivamente. Dalla commutatività di questo diagramma si deduce che FA′ ◦ FP = FQ ◦ FA, che equivale alla seguente uguaglianza tra matrici A′P = QA. Capitolo 2 Applicazioni Lineari e Matrici 48 Da ciò segue che A′ = QAP−1 e A = Q−1A′P. (2.2.5) Queste due espressioni equivalenti permettono di determinare la matrice A′ di un’applicazione lineare f : V →W rispetto alle basi v′ di V e w′ di W quando è nota la matrice A di f rispetto a delle basi v e w e quando sono note le matrici di cambiamento di base P e Q. Nel caso particolare in cui W = V , cioè quando f è un endomorfismo di uno spazio vettoriale V , il diagramma commutativo precedente si riduce al seguente Kn FA // FP o  Kn FPo  V f // αv aaCCCCCCCC αv′}}|| || || || V αv ==|||||||| αv′ !!C CC CC CC C Kn FA′ // Kn e le uguaglianze (2.2.5) diventano A′ = PAP−1 e A = P−1A′P. (2.2.6) Diamo ora la seguente definizione: Definizione 2.2.22. Due matrici quadrate A e A′ di ordine n a coefficienti in K si dicono simili se esiste una matrice invertibile P ∈Mn(K) (cioè P ∈ GLn(K)) tale che A′ = PAP−1 o, equivalentemente, A = P−1A′P. Da quanto sopra detto si deduce il seguente risultato: Corollario 2.2.23. Due matrici A,A′ ∈ Mn(K) rappresentano lo stesso en- domorfismo f di uno spazio vettoriale V di dimensione n su K, rispetto a basi diverse, se e solo se sono simili. Osservazione 2.2.24. Si noti che la relazione di similitudine è una relazione di equivalenza sull’insieme Mn(K) delle matrici quadrate di ordine n a coefficienti in K. Esercizi Esercizio 2.2.1. Sia f : V → W un’applicazione lineare tra due spazi vettoriali. Siano {v1, v2, v3} una base di V e {w1, w2, w3, w4} una base di W , e f sia data da f(v1) = 2w1 − 3w2 + w4, f(v2) = w2 − 2w3 + 3w4 e f(v3) = w1 + w2 + w3 − 3w4. Si scriva la matrice di f nelle basi date. Esercizio 2.2.2. Siano V e W due spazi vettoriali di basi rispettivamente {v1, v2, v3} e {w1, w2}, e sia f : V →W un’applicazione lineare di matrice (rispetto alle basi date) A = ( 2 −1 1 3 2 −3 ) Capitolo 2 Applicazioni Lineari e Matrici 49 (1) Si prenda per V la nuova base v′1 = v2 + v3, v′2 = v1 + v3, v′3 = v1 + v2. Qual è la nuova matrice A′ di f rispetto alle basi {v′1, v′2, v′3} e {w1, w2}? (2) Si prenda per W la nuova base w′1 = 1 2 (w1 +w2) e w′2 = 1 2 (w1 −w2). Qual è la matrice A′′ di f rispetto alle basi {v′1, v′2, v′3} e {w′1, w′2}? Esercizio 2.2.3. Si consideri il sottospazio V di C∞(R) generato dalle funzioni f1(x) = e2x + cosx, f2(x) = cosx + sinx e f3(x) = sinx. Si dimostri che f1, f2 e f3 sono linearmente indipendenti e si determini la matrice (rispetto alla base {f1, f2, f3}) dell’endomorfismo di V che a una funzione associa la sua derivata. Esercizio 2.2.4. Si determinino le matrici, rispetto alle basi canoniche, di tutte le applicazioni lineari f : R3 → R4 tali che f(1, 2,−1) = (0, 1, 0, 1), f(3,−1, 2) = (1, 2, 0,−1) e f(−1, 5,−4) = (2, 0, 3, 2). Esercizio 2.2.5. Si determinino le matrici, rispetto alle basi canoniche, di tutte le applicazioni lineari f : R3 → R2 tali che f(0,−2, 1) = (3,−1), f(1, 1,−2) = (1, 2) e f(2,−4,−1) = (11, 1). Esercizio 2.2.6. Sia V l’insieme delle funzioni polinomiali a coefficienti reali di grado ≤ 4 che si annullano in 0 e 1, e sia W l’insieme delle funzioni polinomiali a coefficienti reali di grado ≤ 3 tali che il loro integrale tra 0 e 1 è nullo. (1) Si dimostri che V e W sono due spazi vettoriali e se ne determinino delle basi. (2) Sia D : V →W l’applicazione lineare che associa a una funzione la sua derivata. Si dimostri che D è ben definita e si determini una sua matrice rispetto alle basi precedentemente trovate. Esercizio 2.2.7. Sia φλ : R3 → R4 l’omomorfismo di matrice (rispetto alle basi canoniche) Aλ =  1 λ 0 0 λ 0 1 0 1 0 0 0  (1) È vero o falso che, per ogni λ ∈ R, esiste un omomorfismo ψ : R4 → R3 tale che ψ ◦ φλ sia suriettivo? (2) Per quali valori di λ esistono x, y, z ∈ R tali che, posto B =  1 x 0 0 0 y 0 0 −1 z 1 0  si abbia BAλ = 1? Esercizio 2.2.8. Siano V e W due spazi vettoriali, con basi rispettivamente date da {v1, v2, v3, v4} e {w1, w2, w3}. Si determini la matrice, rispetto alle basi date, dell’applicazione lineare φ : V → W definita da φ(v1) = w1 − w2, φ(v2) = 2w2 − 6w3, φ(v3) = −2w1 +2w2, φ(v4) = w2−3w3. Si determinino inoltre le dimensioni di Kerφ e di Imφ e si scrivano delle basi di tali sottospazi. Si dica inoltre se w1+w2+w3 ∈ Imφ. Esercizio 2.2.9. Si dica se l’endomorfismo di R3 definito da f(x, y, z) = (x+ 2y, y + z, 2z − x) è iniettivo o suriettivo. Si determinino delle basi di Ker f e di Im f e si dica se la somma del nucleo e dell’immagine di f è diretta. Capitolo 2 Applicazioni Lineari e Matrici 52 Dimostrazione. È sufficiente osservare che l’insieme delle soluzioni di un sistema del tipo AX = 0 non è altro che il nucleo della funzione lineare FA : Kn → Km, il quale è un sottospazio vettoriale di Kn (vedi Proposizione 2.1.9). Possiamo tuttavia fornire anche una dimostrazione diretta. Siano X1 e X2 due soluzioni del sistema AX = 0. Per ogni λ1, λ2 ∈ K, si ha A(λ1X1 + λ2X2) = λ1AX1 + λ2AX2 = λ10 + λ20 = 0, quindi anche λ1X1+λ2X2 è una soluzione del sistema in questione. Ciò significa precisamente che l’insieme delle soluzioni del sistema AX = 0 è un sottospazio vettoriale di Kn. Nel caso di sistemi non omogenei, si ha: Proposizione 2.3.3. Ogni soluzione del sistema lineare non omogeneo S : AX = B può essere espressa come somma di una soluzione particolare di S con una soluzione del sistema omogeneo associato. In altri termini, se indichiamo con ΣB l’insieme delle soluzioni di S e con Σ0 l’insieme delle soluzioni del sistema omogeneo associato AX = 0, si ha ΣB = ∅ (se S non ammette soluzioni), oppure ΣB = X + Σ0 = {X + Y |Y ∈ Σ0}, (2.3.1) ove X è una qualsiasi soluzione di S. Dimostrazione. Sia FA : Kn → Km l’applicazione lineare di matrice A (rispetto alle basi canoniche di Kn e Km). Allora si ha ΣB = F−1 A (B) e Σ0 = F−1 A (0) = KerFA. L’uguaglianza (2.3.1) discende allora dalla Proposizione 2.1.11. Siamo ora in grado di determinare delle condizioni che garantiscono l’esi- stenza di soluzioni di un sistema di equazioni lineari. Proposizione 2.3.4. Sia S : AX = B un sistema di m equazioni lineari in n incognite. Sia FA : Kn → Km la funzione lineare data da FA(X) = AX, per ogni X ∈ Kn. Le condizioni seguenti sono equivalenti: (i) Il sistema S ammette soluzioni; (ii) B ∈ Im(FA); (iii) Il vettore B è combinazione lineare delle colonne di A; (iv) Il rango della matrice A è uguale al rango della matrice completa1 (A|B), ove quest’ultima è la matrice ottenuta aggiungendo ad A la colonna B dei termini noti. Dimostrazione. Dato che l’insieme delle soluzioni di S coincide con F−1 A (B), l’equivalenza di (i) e (ii) discende dal fatto che F−1 A (B) 6= ∅ se e solo se B ∈ Im(FA). 1La matrice A è spesso chiamata la matrice incompleta del sistema lineare, mentre la matrice (A|B) ottenuta aggiungendo alla matrice A la colonna B dei termini noti è detta la matrice completa del sistema. Capitolo 2 Applicazioni Lineari e Matrici 53 Per dimostrare l’equivalenza di (ii) e (iii) è sufficiente ricordare che il sot- tospazio Im(FA) di Km è generato dalle colonne di A. Pertanto B ∈ Im(FA) se e solo se B è combinazione lineare delle colonne di A. Dimostriamo ora che (iii)⇒ (iv). A tal fine basta ricordare che il rango della matrice A (che coincide con la dimensione di Im(FA)) è il numero massimo di colonne linearmente indipendenti di A. Pertanto, se la colonnaB è combinazione lineare delle colonne di A, l’aggiunta di B alla matrice A non ne altera il rango. Si ha quindi rk(A) = rk(A|B). Viceversa, il fatto che le matrici A e (A|B) abbiano lo stesso rango significa che l’aggiunta della colonna B alla matrice A non ne ha modificato il rango, quindi B deve essere combinazione lineare delle colonne di A. Ciò dimostra che (iv)⇒ (iii). Quanto visto finora ci consente di dimostrare il seguente teorema: Teorema 2.3.5 (Teorema di Rouché–Capelli). Sia S : AX = B un si- stema di m equazioni lineari in n incognite. S ammette soluzioni se e solo se rk(A) = rk(A|B). In tal caso, se indichiamo con r il valore comune dei ranghi delle due matrici, si ha: (i) se r = n il sistema ammette un’unica soluzione; (ii) se r < n il sistema ammette infinite soluzioni, le quali dipendono da n− r parametri liberi di variare (si suole anche dire che S ammette ∞n−r soluzioni). Dimostrazione. Che l’uguaglianza tra i ranghi delle matrici A e (A|B) sia una condizione necessaria e sufficiente per la risolubilità del sistema S è stato dimo- strato nella proposizione precedente. Inoltre, nella Proposizione 2.3.3 abbiamo visto che l’insieme delle soluzioni di S è dato da X + Σ0 = {X + Y |Y ∈ Σ0}, ove X è una soluzione particolare di S e Σ0 è l’insieme delle soluzioni del sistema omogeneo AX = 0, associato a S. Si ha dunque Σ0 = Ker(FA), ove FA : Kn → Km è la funzione lineare definita da FA(X) = AX. Poiché r = rk(A) = dim(ImFA), dalla Proposizione 2.1.12 segue che dim Σ0 = n− r. Se r = n si ha dunque Σ0 = {0}, quindi S possiede l’unica soluzione X. Se invece r < n, il sottospazio vettoriale Σ0 ha dimensione positiva, pari a n−r. Ciò significa che i suoi elementi possono essere descritti come combinazioni lineari di n − r vettori di base. In una tale combinazione lineare compaiono quindi n− r coefficienti i quali possono assumere qualunque valore nel campo K. 2.3.1 Risoluzione di un sistema lineare: il metodo dell’elimi- nazione (o metodo di Gauss) Il metodo di risoluzione di un sistema lineare che ora descriveremo, noto co- me metodo dell’eliminazione di Gauss, si basa sull’osservazione che determinate manipolazioni algebriche, quali scambiare tra loro due equazioni, moltiplicare Capitolo 2 Applicazioni Lineari e Matrici 54 entrambi i membri di un’equazione per una stessa costante diversa da zero, som- mare o sottrarre membro a membro due equazioni o, più in generale, sommare a un’equazione un multiplo di un’altra, trasformano un dato sistema lineare in uno ad esso equivalente, cioè in un nuovo sistema avente le stesse soluzioni di quello precedente. L’idea è dunque quella di utilizzare le operazioni sopra descritte (note an- che col nome di operazioni elementari) per trasformare un sistema di equa- zioni lineari in sistemi, via via più semplici, ad esso equivalenti. Cercheremo ora di descrivere sommariamente come questa idea possa essere effettivamente realizzata. Consideriamo un sistema di m equazioni lineari in n incognite S :  a11x1 + a12x2 + · · ·+ a1nxn = b1 a21x1 + a22x2 + · · ·+ a2nxn = b2 · · · · · · · · · am1x1 + am2x2 + · · ·+ amnxn = bm Indichiamo con A = (aij) la matrice dei coefficienti e con (A|B) la matrice completa del sistema, ottenuta aggiungendo ad A la colonna B dei termini noti. Se la prima colonna della matrice A è interamente nulla, l’incognita x1 non compare effettivamente nel sistema S. In tal caso passiamo alla colonna (cioè all’incognita) successiva. In caso contrario scegliamo una riga di A in cui il coefficiente dell’incognita x1 sia diverso da zero. Supponiamo si tratti della riga i-esima: si ha dunque ai1 6= 0. Possiamo quindi dividere ambo i membri della i-esima equazione per ai1, e successivamente scambiare la i-esima equazione con la prima. Si ottiene cos̀ı un nuovo sistema, equivalente a quello dato, in cui la matrice completa è del tipo 1 a′12 . . . a′1n b′1 a′21 a′22 . . . a′2n b′2 ... ... . . . ... ... a′m1 a′m2 . . . a′mn b′m  A questo punto, per ogni i ≥ 2, sostituiamo la i-esima riga di questa matrice (cioè la i-esima equazione del sistema) con la somma della riga in questione e della prima riga moltiplicata per −a′i1, ottenendo cos̀ı un nuovo sistema la cui matrice completa è del tipo 1 a′12 . . . a′1n b′1 0 a′′22 . . . a′′2n b′′2 ... ... . . . ... ... 0 a′′m2 . . . a′′mn b′′m  Indichiamo con S′ il sottosistema ottenuto trascurando la prima equazione. Nel sistema S′ non compare più l’incognita x1. Ora possiamo ripetere la procedura sopra descritta al sistema S′. Alla fine di questo procedimento otterremo un sistema, equivalente a quello iniziale, la cui matrice completa è nella cosiddetta “forma a scala,” cioè in una forma in cui, in ciascuna riga, il primo coefficiente diverso da zero (nel Capitolo 2 Applicazioni Lineari e Matrici 57 Questa matrice è nella forma che vogliamo. Essa corrisponde al sistema S′ :  x1 − 2x2 + 4x3 = −1 x2 + 3x3 = 1/2 x3 = −1 0 = 0 il quale è equivalente al sistema originario. La soluzione di questo sistema si può ottenere facilmente, partendo dall’ultima equazione, tramite una sostitu- zione all’indietro: dalla terza equazione ricaviamo x3 = −1 che, sostituito nella seconda, fornisce x2 = 1/2−3x3 = 7/2. Infine, sostituendo nella prima equazio- ne i valori appena trovati, si ottiene x1 = −1 + 2x2 − 4x3 = 10. In conclusione, il sistema dato ammette un’unica soluzione: x1 = 10 x2 = 7/2 x3 = −1 Esempio 3. (Sistema che ammette infinite soluzioni) Consideriamo il seguente sistema di equazioni lineari, a coefficienti nel campo Q. S :  2x1 + 5x3 = 1 4x1 − 3x2 + 4x3 = 5 2x1 − x2 + 3x3 = 2 La matrice completa di questo sistema è2 0 5 1 4 −3 4 5 2 −1 3 2  Dividiamo la prima riga per 2:1 0 5/2 1/2 4 −3 4 5 2 −1 3 2  Alla seconda riga sommiamo la prima moltiplicata per −4 e alla terza riga sommiamo la prima moltiplicata per −2:1 0 5/2 1/2 0 −3 −6 3 0 −1 −2 1  Ora dividiamo la seconda riga per −3:1 0 5/2 1/2 0 1 2 −1 0 −1 −2 1  Infine, sommando alla terza riga la seconda, si ottiene:1 0 5/2 1/2 0 1 2 −1 0 0 0 0  Capitolo 2 Applicazioni Lineari e Matrici 58 Questa matrice è nella forma che vogliamo. Essa corrisponde al sistema S′ :  x1 + 5x3/2 = 1/2 x2 + 2x3 = −1 0 = 0 il quale è equivalente al sistema originario. Si può cos̀ı notare che il sistema am- mette infinite soluzioni. Infatti, dalla seconda equazione si ricava x2 = −1−2x3 mentre dalla prima si ottiene x1 = 1 2− 5 2x3. L’incognita x3 rimane indeterminata e può dunque assumere qualsiasi valore. In conclusione, il sistema dato ammet- te infinite soluzioni, dipendenti da un parametro (∞1 soluzioni), che possono essere espresse nella forma  x1 = 1/2− 5x3/2 x2 = −1− 2x3 x3 qualsiasi. 2.3.2 Calcolo del rango di una matrice Sia A una matrice m×n a coefficienti nel campo K. Ricordiamo che il rango di A è stato definito come il massimo numero di colonne linearmente indipendenti della matrice A (vedi Definizione 2.2.15). Tale numero coincide con la dimensio- ne dell’immagine della funzione lineare FA : Kn → Km la cui matrice, rispetto alle basi canoniche di Kn e Km, è A. In modo del tutto analogo, possiamo definire il rango per righe di A, come il massimo numero di righe linearmente indipendenti, cioè come la dimensione del sottospazio vettoriale di Kn generato dalle righe di A. A prima vista potrebbe sembrare che non vi sia alcun motivo per cui il rango per colonne di una ma- trice debba coincidere con il suo rango per righe. Tuttavia questi due numeri risultano essere sempre uguali, come dimostreremo in seguito (vedi Capitolo 3, Teorema 3.3.1). Vedremo ora come il metodo di eliminazione di Gauss fornisca uno strumento molto utile per il calcolo del rango per righe di una matrice. Ciò discende dal fatto che le operazioni elementari sulle righe di una matrice utilizzate nel metodo di Gauss non alterano il numero di righe linearmente indipendenti. Di conseguenza, se applichiamo l’eliminazione di Gauss per trasformare una matrice A in una matrice A′ che si trovi nella forma a scala, il rango per righe di A′ sarà necessariamente uguale al rango per righe di A. Arrivati a questo punto, il calcolo del rango è immediato. Infatti vale il seguente risultato: Proposizione 2.3.6. Se una matrice A è nella forma a scala, il suo rango per righe coincide con il numero di righe non nulle. Dimostrazione. Supponiamo che la matrice A abbia m righe, di cui le prime r sono non nulle. Indichiamo con v1, v2, . . . , vr i vettori riga non nulli di A, ove vi = (ai1, ai2, . . . , ain). Poiché A è nella forma a scala, il primo coefficiente non nullo di ciascuna riga vi si trova alla destra del primo coefficiente non nullo della riga precedente vi−1. Pertanto, se indichiamo con a1h1 il primo coefficiente non nullo della riga v1, tutti gli altri elementi della colonna h1 della matrice A, cioè gli elementi ajh1 con j ≥ 2, sono nulli. Consideriamo ora una combinazione Capitolo 2 Applicazioni Lineari e Matrici 59 lineare dei vettori v1, v2, . . . , vr: λ1v1 + λ2v2 + · · ·+ λrvr = 0. Se concentriamo la nostra attenzione sulle componenti di posto h1, si trova λ1a1h1 + λ20 + · · ·+ λr0 = 0 da cui segue λ1 = 0. In modo analogo, indichiamo con a2h2 il primo coefficiente non nullo della riga v2. Allora tutti gli elementi della colonna h2, dalla terza riga in poi, cioè gli elementi ajh2 con j ≥ 3, sono nulli. Dall’uguaglianza λ2v2 + · · ·+ λrvr = 0 si ottiene, considerando solo le componenti di posto h2, λ2a2h2 + λ30 + · · ·+ λr0 = 0 da cui segue λ2 = 0. Ripetendo il ragionamento sopra descritto si dimostra cos̀ı che tutti i coef- ficienti λ1, λ2, . . . , λr sono nulli. Questo prova che i vettori v1, v2, . . . , vr sono linearmente indipendenti, quindi il numero r di righe non nulle della matrice A coincide con il numero di righe linearmente indipendenti, cioè con il rango per righe di A. Esempio 2.3.7. Illustriamo su un esempio concreto il metodo appena descritto. Vogliamo calcolare il rango (per righe) della seguente matrice: A =  0 2 −1 6 1 3 −4 14 3 2 1 −2 5 3 3 1 0 4 3 0  Scambiamo la prima riga con la terza: 1 −2 5 3 3 3 −4 14 3 2 0 2 −1 6 1 1 0 4 3 0  Alla seconda riga sommiamo la prima moltiplicata per −3 e alla quarta riga sottraiamo la prima:  1 −2 5 3 3 0 2 −1 −6 −7 0 2 −1 6 1 0 2 −1 0 −3  Alla terza riga sottraiamo la seconda e alla quarta riga sottraiamo la seconda: 1 −2 5 3 3 0 2 −1 −6 −7 0 0 0 12 8 0 0 0 6 4  Capitolo 2 Applicazioni Lineari e Matrici 62 Si ha pertanto S(i, j;α)S(i, j;−α) = 1, quindi le matrici S(i, j;α) sono invertibili. Una successione di operazioni elementari sulle righe di una matrice A equi- vale dunque a una successione di moltiplicazioni, a sinistra, per delle matrici invertibili del tipo descritto in precedenza. Poiché il prodotto di un numero qualsiasi di matrici invertibili è ancora una matrice invertibile, concludiamo che l’effetto di un numero qualunque di operazioni elementari sulle righe di una ma- trice A può essere ottenuto semplicemente moltiplicando la matrice A, a sinistra, per un’opportuna matrice invertibile. Osservazione 2.3.9. Si verifica facilmente che moltiplicare una matrice A a de- stra per le matrici P (i, j), M(i;λ) e S(i, j;α) descritte in precedenza equivale ad effettuare delle operazioni elementari sulle colonne di A. Più precisamen- te, se poniamo A′ = AP (i, j), la matrice A′ è ottenuta scambiando tra loro la i-esima e la j-esima colonna di A, se A′ = AM(i;λ) allora A′ è ottenuta moltiplicando per λ la i-esima colonna di A, e se A′ = AS(i, j;α) allora A′ è ottenuta dalla matrice A sommando alla i-esima colonna la j-esima colonna moltiplicata per α. Pertanto, l’effetto di un numero qualunque di operazioni elementari sulle colonne di A può essere ottenuto moltiplicando la matrice A, a destra, per un’opportuna matrice invertibile. Supponiamo ora che la matrice quadrata A, di ordine n, sia invertibile. Tra- mite operazioni elementari sulle righe è possibile trasformare A in una matrice nella forma a scala, in cui il primo coefficiente non nullo di ciascuna riga può essere reso uguale a 1. Poiché A è invertibile, il suo rango deve essere n,2 quindi nella forma a scala non ci devono essere righe interamente nulle. Poiché A è una matrice quadrata di ordine n ciò equivale a dire che la forma a scala che otte- niamo dopo l’applicazione dell’algoritmo di eliminazione di Gauss è una matrice A′, triangolare superiore, con tutti gli elementi sulla diagonale principale uguali a 1. Arrivati a questo punto è facile convincersi che, mediante opportune opera- zioni elementari sulle righe della matrice A′, è possibile trasformare quest’ultima nella matrice identica 1. Se indichiamo con B la matrice che rappresenta l’effetto di tutte le operazioni elementari sulle righe che abbiamo eseguito per trasfor- mare la matrice A nella matrice identica, si ha dunque BA = 1. La matrice B è pertanto l’inversa della matrice A. Essa può quindi essere determinata te- nendo scrupolosamente conto di tutte le matrici corrispondenti alle operazioni elementari sulle righe che sono state effettuate. Un metodo molto più efficace per determinare la matrice B è il seguente. Scriviamo a fianco della matrice A la matrice identica 1, in modo da ottenere una matrice con n righe e 2n colonne che indicheremo con (A |1). In questo modo tutte le operazioni che eseguiremo sulle righe di A dovranno essere effettuate anche sulle righe della matrice 1. L’effetto di queste operazioni elementari è equivalente alla moltiplicazione a sinistra per la matrice (incognita) B. Si ha pertanto: B(A |1) = (BA |B1) = (1 |B). 2Dire che A è invertibile equivale a dire che la corrispondente applicazione lineare FA : Kn → Kn è un isomorfismo, il che significa che ImFA = Kn, cioè che rk(A) = rk(FA) = n. Capitolo 2 Applicazioni Lineari e Matrici 63 Ciò significa che quando avremo trasformato la matrice A nella matrice identica, la matrice 1 scritta a destra di A sarà stata automaticamente trasformata nella matrice B, la quale non è altro che l’inversa di A. A titolo di esempio, applichiamo l’algoritmo appena descritto per determi- nare l’inversa della matrice A = 1 2 1 1 3 0 1 2 2  Per prima cosa affianchiamo alla matrice A la matrice identica, ottenendo1 2 1 1 0 0 1 3 0 0 1 0 1 2 2 0 0 1  A questo punto, utilizzando operazioni elementari sulle righe, cerchiamo di tra- sformare la matrice A nella matrice identica. Se riusciamo a fare ciò, la matrice che troveremo a destra sarà la matrice inversa di A. In dettaglio le operazioni da fare sono, ad esempio, le seguenti: sottraiamo alla seconda riga la prima, e alla terza riga la prima, ottenendo1 2 1 1 0 0 0 1 −1 −1 1 0 0 0 1 −1 0 1  Ora sommiamo alla seconda riga la terza, mentre alla prima sottraiamo la terza, ottenendo 1 2 0 2 0 −1 0 1 0 −2 1 1 0 0 1 −1 0 1  Ora sommiamo alla prima riga la seconda moltiplicata per −2, ottenendo1 0 0 6 −2 −3 0 1 0 −2 1 1 0 0 1 −1 0 1  Si ha pertanto A−1 =  6 −2 −3 −2 1 1 −1 0 1  Come esercizio si verifichi che la matrice appena trovata è effettivamente l’in- versa di A, cioè che AA−1 = 1. Osservazione 2.3.10. Se la matrice A di cui si cerca l’inversa non fosse invertibile essa avrebbe rango strettamente minore di n, quindi la sua forma a scala A′, ottenuta nella prima parte dell’algoritmo precedentemente descritto, avrebbe almeno una riga interamente nulla. A questo punto sapremmo che A non è invertibile. Capitolo 2 Applicazioni Lineari e Matrici 64 Esercizi Esercizio 2.3.1. Si risolvano gli esercizi proposti alla fine della Sezione 1.1 del Cap. 1 utilizzando il metodo dell’eliminazione di Gauss. Esercizio 2.3.2. Si calcoli l’inversa della matrice A = 2 −3 −1 2 −1 −3 1 −3 −1  Capitolo 3 Determinanti 67 Ad esempio, se n = 4 si ha P = (x1 − x2)(x1 − x3)(x1 − x4)(x2 − x3)(x2 − x4)(x3 − x4). La permutazione σ = ( 1 2 3 4 2 4 3 1 ) trasforma P nel polinomio σ(P ) = (x2 − x4)(x2 − x3)(x2 − x1)(x4 − x3)(x4 − x1)(x3 − x1). Poiché in P compaiono tutti i fattori del tipo xi−xj , per ogni i < j, e poiché una permutazione σ scambia le indeterminate xi tra loro, ogni fattore xi − xj viene trasformato in xσ(i)−xσ(j) il quale coincide, a meno del segno, con uno dei fattori presenti in P . Più precisamente, se σ(i) < σ(j), il fattore xσ(i) − xσ(j) compare in P , se invece σ(i) > σ(j) allora è il fattore xσ(j) − xσ(i) = −(xσ(i) − xσ(j)) che compare in P . Si conclude pertanto che, per ogni permutazione σ, si ha σ(P ) = ±P . Più precisamente, quanto sopra detto mostra che ogni inversione presente in σ corrisponde a un fattore −1 che moltiplica P , quindi si ha σ(P ) = (−1)i(σ)P, ove i(σ) denota, come sopra detto, il numero di inversioni presenti in σ. Poiché (−1)i(σ) è precisamente il segno di σ, si ha: σ(P ) = sgn(σ)P. (3.1.1) Siamo ora in grado di dimostrare il seguente risultato: Proposizione 3.1.5. Siano σ, τ ∈ Sn e consideriamo la loro composizione σ ◦ τ . Si ha sgn(σ ◦ τ) = sgn(σ) sgn(τ). Si ha inoltre sgn(σ−1) = sgn(σ), per ogni σ ∈ Sn. Dimostrazione. Applichiamo prima la permutazione τ e poi σ al polinomio P . Si ottiene: τ(P ) = ∏ 1≤i<j≤n (xτ(i) − xτ(j)), quindi σ(τ(P )) = ∏ 1≤i<j≤n (xσ(τ(i)) − xσ(τ(j))) = ∏ 1≤i<j≤n (x(σ◦τ)(i) − x(σ◦τ)(j)) = (σ ◦ τ)(P ). Dalla formula (3.1.1) segue che sgn(σ ◦ τ)P = (σ ◦ τ)(P ) = σ(τ(P )) = sgn(σ) sgn(τ)P, da cui si deduce che sgn(σ ◦ τ) = sgn(σ) sgn(τ). Capitolo 3 Determinanti 68 Dato che σ−1 ◦ σ è la permutazione identica, il cui segno è 1, si ha sgn(σ−1) sgn(σ) = 1, e pertanto sgn(σ−1) = sgn(σ)−1 = sgn(σ). 3.1.1 Cicli e trasposizioni Definizione 3.1.6. Consideriamo r elementi i1, i2, . . . , ir ∈ {1, 2, . . . , n}. Una permutazione σ ∈ Sn tale che σ(i1) = i2, σ(i2) = i3, . . . , σ(ir−1) = ir, σ(ir) = i1, e σ(h) = h se h 6= i1, i2, . . . , ir, è detta un ciclo di lunghezza r, o r-ciclo; essa permuta ciclicamente gli elementi i1, i2, . . . , ir e lascia fissi tutti gli altri. Questa permutazione verrà indicata nel modo seguente: σ = (i1 i2 . . . ir). Due cicli sono detti disgiunti se nella loro rappresentazione non compaiono simboli comuni. Ad esempio, i cicli (1 4 2) e (3 5) sono disgiunti, mentre non lo sono i cicli (2 1 3) e (1 4). È un fatto del tutto elementare che ogni permutazione σ ∈ Sn può essere scritta come prodotto (cioè come composizione) di un numero finito di cicli disgiunti. Ad esempio, la permutazione σ = ( 1 2 3 4 5 6 7 8 5 6 8 4 3 7 2 1 ) si scrive come segue: σ = (1 5 3 8)(2 6 7)(4). Per esprimere una data permutazione σ come prodotto di cicli disgiunti basta vedere dove σ manda il numero 1, poi dove manda i1 = σ(1), poi dove manda i2 = σ(i1), etc. Si noti che un ciclo di lunghezza 1 (come il (4) nell’esempio precedente) corrisponde alla permutazione identica, quindi può essere omesso. Si conclude quindi che ogni permutazione può essere scritta come prodotto di cicli disgiunti di lunghezza ≥ 2. Definizione 3.1.7. Un ciclo di lunghezza 2 (o 2-ciclo) è detto una trasposizione. Si verifica facilmente che ogni r-ciclo può essere scritto (non necessariamente in modo unico) come prodotto di r − 1 trasposizioni. Si ha infatti (i1 i2 . . . ir) = (i1 ir)(i1 ir−1) · · · (i1 i3)(i1 i2), (3.1.2) oppure anche (i1 i2 . . . ir) = (ir−1 ir)(ir−2 ir) · · · (i2 ir)(i1 ir). (3.1.3) Conviene qui ricordare che, nel prodotto di composizione di due o più permu- tazioni si usa la seguente convenzione: (σ ◦ τ)(i) = σ(τ(i)). Dato che ogni permutazione è prodotto di un numero finito di cicli disgiun- ti, e poiché ogni ciclo è un prodotto finito di trasposizioni, ne segue che ogni Capitolo 3 Determinanti 69 permutazione può sempre essere scritta come prodotto di un numero finito di trasposizioni. Consideriamo ora una trasposizione σ = (i j) ∈ Sn, con i < j. Si verifica facilmente che in questa permutazione sono presenti 2(j− i)−1 inversioni (farlo per esercizio), quindi il suo segno è sgn(σ) = (−1)2(j−i)−1 = −1. Ogni trasposizione ha dunque segno −1, pertanto se una permutazione si espri- me come prodotto di r trasposizioni, il suo segno è (−1)r. Dalle formule (3.1.2) e (3.1.3) deriva quindi il seguente risultato: Proposizione 3.1.8. Se σ è un r-ciclo, si ha sgn(σ) = (−1)r−1. Dimostrazione. Abbiamo visto infatti che un r-ciclo (i1 i2 . . . ir) si può scrivere come prodotto di r − 1 trasposizioni. Corollario 3.1.9. Se una permutazione σ si scrive come prodotto di s cicli disgiunti di lunghezze rispettivamente r1, r2, . . . , rs, il suo segno è dato da sgn(σ) = (−1)r1+r2+···+rs−s. Dimostrazione. Poiché il segno di un ciclo di lunghezza r è (−1)r−1, il segno di σ è dato dal seguente prodotto: (−1)r1−1(−1)r2−1 · · · (−1)rs−1 = (−1)r1+r2+···+rs−s. Esempio 3.1.10. Consideriamo la seguente permutazione ξ ∈ Sn: ξ = ( 1 2 3 . . . h h+ 1 . . . n h 1 2 . . . h− 1 h+ 1 . . . n ) Questa permutazione è un ciclo di lunghezza h, infatti si ha ξ = (h h− 1 h− 2 . . . 2 1), da cui segue che sgn(ξ) = (−1)h−1. Consideriamo ora un particolare tipo di trasposizioni. Definizione 3.1.11. Diremo che una permutazione σ ∈ Sn è uno scambio di elementi contigui se si ha σ(i) = i+1 e σ(i+1) = i per qualche i = 1, . . . , n−1, mentre σ(j) = j, per ogni j 6= i, i+ 1. Una tale permutazione scambia tra loro due elementi contigui e lascia fissi tutti gli altri. Concludiamo questa sezione dimostrando il seguente risultato: Proposizione 3.1.12. Ogni permutazione σ ∈ Sn può essere ottenuta come composizione di un numero finito (eventualmente nullo) di scambi di elementi contigui. Dimostrazione. Sia σ la permutazione σ = ( 1 2 . . . n− 1 n j1 j2 . . . jn−1 jn ) Capitolo 3 Determinanti 72 Osservazione 3.2.3. Un metodo pratico per ricordare la formula precedente per il calcolo del determinante di una matrice di ordine 3 è la cosiddetta regola di Sarrus. Si tratta di ricopiare, a destra dell’ultima colonna della matrice A, le sue prime due colonne, come qui indicato:a11 a12 a13 a11 a12 a21 a22 a23 a21 a22 a31 a32 a33 a31 a32  Ora bisogna considerare la somma dei prodotti degli elementi situati lungo le tre diagonali orientate da nord-ovest a sud-est a11a22a33 + a12a23a31 + a13a21a32 e a questa sottrarre la somma dei prodotti degli elementi situati lungo le tre diagonali orientate da nord-est a sud-ovest a13a22a31 + a11a23a32 + a12a21a33. Si ottiene cos̀ı a11a22a33 + a12a23a31 + a13a21a32 − a13a22a31 − a11a23a32 − a12a21a33, che è proprio il determinante di A. Conviene far notare che non esiste un analogo della regola di Sarrus per il calcolo del determinante di una matrice di ordine maggiore di 3. In generale, ricordando che le permutazioni di n elementi sono n!, il calcolo del determinante di una matrice quadrata A di ordine n consiste in una somma di n! addendi, ciascuno dei quali è un prodotto di n elementi di A, presi uno per ogni riga e ogni colonna, con un segno dato dal segno della permutazione corrispondente. Esempio 3.2.4. Cerchiamo di determinare quante “operazioni” sono necessarie per calcolare il determinante di una matrice di ordine 50. Lo sviluppo di un tale determinante consiste in una somma di 50! addendi, ciascuno dei quali è un prodotto di 50 elementi della matrice (preso con il segno opportuno). Ci sono pertanto 50 × 50! prodotti, seguiti da 50! somme, per un totale di 50×50!+50! = 50! (50+1) = 51! “operazioni” (e dove abbiamo trascurato tutte le operazioni necessarie a determinare il segno di ciascuna delle 50! permutazioni). Notiamo che 51! ≈ 1.55× 1066. Se disponessimo di un calcolatore in grado di effettuare mille miliardi di tali “operazioni” al secondo, il tempo necessario a calcolare un tale determinante sarebbe all’incirca 1.55 × 1054 secondi, che equivale a circa 4.9 × 1046 anni, il che corrisponde a più di 3× 1036 volte la vita dell’universo! Nel caso di una matrice di ordine 30, lo stesso ragionamento porta a un tempo necessario per il calcolo del determinante pari a circa 17300 volte la vita dell’universo attuale. Questo esempio mostra come la formula usata per definire il determinan- te sia sostanzialmente inutilizzabile per il calcolo effettivo, tranne nei casi in cui n è molto piccolo. Tuttavia ciò non significa affatto che una tale formula sia “inutile.” Essa permette infatti di dimostrare molte proprietà notevoli dei determinanti. Capitolo 3 Determinanti 73 Proposizione 3.2.5. Sia A =  a11 0 0 . . . 0 0 a22 0 . . . 0 0 0 a33 . . . 0 ... ... ... . . . ... 0 0 0 . . . ann  una matrice diagonale. Si ha detA = a11a22 · · · ann. Dimostrazione. Poiché tutti gli elementi al di fuori della diagonale principale di A sono nulli l’unico prodotto non nullo che si trova nello sviluppo del deter- minante è a11a22 · · · ann, il quale corrisponde alla permutazione identica che ha segno 1. Più in generale, vale il seguente risultato: Proposizione 3.2.6. Sia A =  a11 a12 a13 . . . a1n 0 a22 a23 . . . a2n 0 0 a33 . . . a3n ... ... ... . . . ... 0 0 0 . . . ann  una matrice triangolare superiore. Si ha detA = a11a22 · · · ann. Dimostrazione. Dato che A = (aij) è una matrice triangolare superiore, si ha aij = 0 se i > j. Osserviamo che per ogni permutazione σ di {1, 2, . . . , n}, diversa dalla permutazione identica, esiste almeno un indice i tale che i > σ(i). Il prodotto a1σ(1)a2σ(2) · · · anσ(n) è quindi nullo, dato che almeno uno dei suoi fattori è zero. Pertanto l’unica permutazione che fornisce un contributo non nullo al calcolo del determinante è la permutazione identica, quindi si ha detA = a11a22 · · · ann. Naturalmente un risultato analogo (con un’analoga dimostrazione) vale an- che per matrici triangolari inferiori. Ciò deriva anche dal risultato seguente: Proposizione 3.2.7. Sia A ∈Mn(K) e sia tA la sua trasposta. Si ha det(tA) = det(A). Dimostrazione. Sia σ ∈ Sn e sia σ−1 la sua inversa. Notiamo che quando σ varia tra tutti gli elementi di Sn lo stesso accade anche per la sua inversa. Indichiamo con aij gli elementi della matrice A e con ãij gli elementi di tA. Ricordiamo che ãij = aji. Dalla definizione di determinante, si ha det(tA) = ∑ σ∈Sn sgn(σ) ã1σ(1)ã2σ(2) · · · ãnσ(n) = ∑ σ∈Sn sgn(σ) aσ(1)1aσ(2)2 · · · aσ(n)n. Capitolo 3 Determinanti 74 Ora osserviamo che in ciascun prodotto aσ(1)1aσ(2)2 · · · aσ(n)n compaiono n ele- menti, presi uno per ciascuna riga e per ciascuna colonna di A. Da ciò segue che tale prodotto si può anche scrivere nella forma a1σ−1(1)a2σ−1(2) · · · anσ−1(n), cioè si ha aσ(1)1aσ(2)2 · · · aσ(n)n = a1σ−1(1)a2σ−1(2) · · · anσ−1(n), per ogni σ ∈ Sn. Un esempio può servire a chiarire quanto appena affermato. Sia n = 4 e consideriamo la permutazione σ = ( 1 2 3 4 3 1 4 2 ) la cui inversa è σ−1 = ( 1 2 3 4 2 4 1 3 ) Allora si ha aσ(1)1aσ(2)2aσ(3)3aσ(4)4 = a31a12a43a24 e a1σ−1(1)a2σ−1(2)a3σ−1(3)a4σ−1(4) = a12a24a31a43 i quali sono evidentemente uguali. Se ricordiamo inoltre che sgn(σ−1) = sgn(σ), possiamo scrivere: det(tA) = ∑ σ∈Sn sgn(σ) aσ(1)1aσ(2)2 · · · aσ(n)n = ∑ σ∈Sn sgn(σ) a1σ−1(1)a2σ−1(2) · · · anσ−1(n) = ∑ σ∈Sn sgn(σ−1) a1σ−1(1)a2σ−1(2) · · · anσ−1(n) = ∑ τ∈Sn sgn(τ) a1τ(1)a2τ(2) · · · anτ(n) = detA, ove abbiamo posto τ = σ−1. Data una matrice A ∈ Mn(K) indicheremo con A(1), A(2), . . . , A(n) le sue righe A(i) = (ai1, ai2, . . . , ain), e con A(1), A(2), . . . , A(n) le sue colonne A(j) =  a1j a2j ... anj  Potremo quindi scrivere A = (A(1), A(2), . . . , A(n)) =  A(1) A(2) ... A(n)  Possiamo ora enunciare e dimostrare la seguente proprietà: Capitolo 3 Determinanti 77 Dimostrazione. Basta ricordare che ogni permutazione si può scrivere come prodotto di un numero finito di trasposizioni e che, se σ è un prodotto di r trasposizioni, si ha sgn(σ) = (−1)r. Corollario 3.2.12. Se una matrice quadrata A ha due righe (oppure due co- lonne) uguali, allora detA = 0. Dimostrazione. Scambiando tra loro le due righe uguali (oppure le due colonne uguali) la matrice A non viene alterata, ma il suo determinante deve cambiare di segno. Si ha pertanto detA = −detA, cioè 2 detA = 0. Se la caratteristica del campo K è diversa da 2, si conclude che detA = 0, come volevasi dimostrare. Per trattare il caso in cui K è un campo di caratteristica 2, utilizziamo la definizione di determinante. Supponiamo dunque che le righe h-esima e k-esima di A siano uguali, cioè che ahj = akj per j = 1, . . . , n. Poiché char (K) = 2, si ha sgn(σ) = 1 per ogni σ ∈ Sn, quindi detA = ∑ σ∈Sn a1σ(1) · · · ahσ(h) · · · akσ(k) · · · anσ(n). Per ogni permutazione σ ∈ Sn indichiamo con σ′ la composizione di σ con la trasposizione che scambia tra loro h e k. Nello sviluppo del determinante di A, l’addendo relativo a σ′ coincide con quello corrispondente a σ, infatti: a1σ′(1) · · · ahσ′(h) · · · akσ′(k) · · · anσ′(n) = a1σ(1) · · · ahσ(k) · · · akσ(h) · · · anσ(n) = a1σ(1) · · · akσ(k) · · · ahσ(h) · · · anσ(n) ove nell’ultima uguaglianza abbiamo usato il fatto che le righe di indici h e k sono uguali. Ciò significa che gli addendi che compaiono nella sommatoria su tutte le permutazioni σ ∈ Sn sono a due a due uguali. Poiché la caratteristica di K è 2, ciò implica che detA = 0. Osservazione 3.2.13. Abbiamo già osservato che il determinante può essere pen- sato come un’applicazione multilineare alternante delle righe o delle colonne di una matrice quadrata. In realtà si tratta proprio dell’unica applicazione mul- tilineare alternante che, valutata sulla matrice identica, è uguale a 1. Infatti supponiamo che F : Kn × · · · ×Kn → K sia un’applicazione multilineare alternante tale che F (e1, e2, . . . , en) = 1, ove e1, e2, . . . , en sono i vettori della base canonica di Kn. Sia A = (aij) una matrice quadrata di ordine n e siano A(1), . . . , A(n) le sue righe. Per ogni i = 1, . . . , n, il vettore A(i) ∈ Kn si può scrivere come combinazione lineare dei vettori della base canonica come segue: A(i) = ai1e1 + ai2e2 + · · ·+ ainen. Capitolo 3 Determinanti 78 Dato che F è multilineare alternante, si ha: F (A(1), . . . , A(n)) = F ( n∑ j1=1 a1j1ej1 , . . . , n∑ jn=1 anjnejn ) = ∑ j1,...,jn a1j1 · · · anjn F (ej1 , . . . , ejn) = ∑ σ∈Sn a1σ(1) · · · anσ(n) F (eσ(1), . . . , eσ(n)) = ∑ σ∈Sn sgn(σ) a1σ(1) · · · anσ(n) F (e1, . . . , en) = ∑ σ∈Sn sgn(σ) a1σ(1) · · · anσ(n) = detA. Proposizione 3.2.14. Se una matrice A ∈ Mn(K) ha una riga (oppure una colonna) nulla, il suo determinante è nullo. Dimostrazione. Dato che det(A) = det(tA), è sufficiente considerare il caso in cui A ha una riga nulla. Supponiamo dunque che la i-esima riga di A sia nulla, cioè che aij = 0 per j = 1, . . . , n. Per ogni permutazione σ ∈ Sn, nel prodotto a1σ(1) · · · aiσ(i) · · · anσ(n) compare il fattore aiσ(i) = 0, quindi tale prodotto è nullo. Dalla definizione di determinante, segue che detA = 0. Proposizione 3.2.15. Il determinante di una matrice A ∈Mn(K) non cambia se a una riga (risp. a una colonna) di A si somma una combinazione lineare delle righe (risp. delle colonne) rimanenti. Dimostrazione. Anche in questo caso è sufficiente dimostrare l’affermazione ri- guardante le righe. Sia dunque B la matrice ottenuta da A sostituendo la sua i-esima riga A(i) con la riga B(i) = A(i) + ∑ j 6=i αjA (j), con αj ∈ K. Ricordando la multilinearità del determinante si ha: detB = det  A(1) ... A(i−1) A(i) A(i+1) ... A(n)  + ∑ j 6=i αj det  A(1) ... A(i−1) A(j) A(i+1) ... A(n)  Capitolo 3 Determinanti 79 Poiché j è diverso da i, nella matrice A(1) ... A(i−1) A(j) A(i+1) ... A(n)  ci sono due righe uguali, quindi il determinante di tale matrice è nullo. Si ha pertanto detB = detA. Proposizione 3.2.16. Se A ∈Mn(K) e α ∈ K, si ha det(αA) = αn det(A). Dimostrazione. Dalla multilinearità del determinante segue che det(αA) = det  αA(1) αA(2) ... αA(n)  = α det  A(1) αA(2) ... αA(n)  = · · · = αn det  A(1) A(2) ... A(n)  = αn detA. Siamo ora in grado di dimostrare il seguente risultato: Teorema 3.2.17 (Teorema di Binet). Date due matrici A,B ∈ Mn(K), si ha: det(AB) = det(A) det(B). Dimostrazione. Siano A = (aij) e B = (bij) e scriviamo B come segue: B = B (1) ... B(n)  Sviluppando il prodotto righe per colonne di A per B, si ottiene det(AB) = det  a11B (1) + · · ·+ a1nB (n) a21B (1) + · · ·+ a2nB (n) ... an1B (1) + · · ·+ annB (n)  Ricordando ora la multilinearità del determinante, si ha det(AB) = ∑ j1 ∑ j2 · · · ∑ jn a1j1a2j2 · · · anjn det B (j1) ... B(jn)  Capitolo 3 Determinanti 82 Si conclude pertanto che detA = (−1)i−1 detA′ = n∑ h=1 (−1)i+h aih |Aih|, che è precisamente lo sviluppo del determinante di A secondo la i-esima riga. Non rimane altro che dimostrare la formula (3.2.1) nel caso in cui i = 1. Dobbiamo quindi dimostrare che detA = n∑ h=1 (−1)1+h a1h |A1h|. Notiamo che A1h è la seguente matrice quadrata di ordine n− 1 A1h =  a21 . . . a2,h−1 a2,h+1 . . . a2n a31 . . . a3,h−1 a3,h+1 . . . a3n ... ... ... ... an1 . . . an,h−1 an,h+1 . . . ann  Dalla definizione di determinante, si ha |A1h| = ∑ τ∈S (h) n−1 sgn(τ) a2,τ(1) · · · ah,τ(h−1)ah+1,τ(h+1) · · · an,τ(n), ove la sommatoria è estesa a tutte le permutazioni τ dell’insieme di n−1 elementi {1, 2, . . . , h− 1, h+ 1, . . . , n} (il simbolo S (h) n−1 indica proprio l’insieme di tali permutazioni). Si ottiene cos̀ı la seguente espressione: detA = n∑ h=1 (−1)1+ha1h ∑ τ∈S (h) n−1 sgn(τ) a2,τ(1) · · · ah,τ(h−1)ah+1,τ(h+1) · · · an,τ(n) = n∑ h=1 ∑ τ∈S (h) n−1 (−1)1+h sgn(τ) a1ha2,τ(1) · · · ah,τ(h−1)ah+1,τ(h+1) · · · an,τ(n). Ora alla permutazione τ ∈ S (h) n−1 τ = ( 1 2 . . . h− 1 h+ 1 . . . n τ(1) τ(2) . . . τ(h− 1) τ(h+ 1) . . . τ(n) ) associamo la permutazione σ ∈ Sn definita da σ = ( 1 2 . . . h− 1 h h+ 1 . . . n h τ(1) . . . τ(h− 2) τ(h− 1) τ(h+ 1) . . . τ(n) ) Precisamente, σ è definita ponendo: σ(1) = h e σ(k) = { τ(k − 1) se 2 ≤ k ≤ h, τ(k) se k > h. Capitolo 3 Determinanti 83 Osserviamo che, al variare dell’indice h da 1 a n e di τ nell’insieme S (h) n−1, le corrispondenti permutazioni σ descrivono tutto l’insieme Sn delle permutazioni degli n elementi {1, 2, . . . , n}. L’ultima cosa che rimane da capire a questo punto è quale sia la relazione tra il segno di τ e quello della corrispondente permutazione σ. Possiamo notare che σ è ottenuta componendo la permutazione ξ = ( 1 2 3 . . . h h+ 1 . . . n h 1 2 . . . h− 1 h+ 1 . . . n ) con la permutazione τ ′ definita da τ ′ = ( 1 2 . . . h− 1 h h+ 1 . . . n τ(1) τ(2) . . . τ(h− 1) h τ(h+ 1) . . . τ(n) ) Si ha infatti σ = τ ′ ◦ ξ, come si può facilmente verificare. Da ciò segue che sgn(σ) = sgn(τ ′) sgn(ξ). Ora osserviamo che le due permutazioni τ e τ ′ hanno la stessa rappresentazione come prodotto di cicli disgiunti (nella rappresentazione di τ ′ comparirebbe il ciclo di lunghezza uno (h) la cui presenza è irrilevante, dato che esso rappresenta la permutazione identica), quindi sgn(τ) = sgn(τ ′). Si ha poi sgn(ξ) = (−1)h−1 = (−1)h+1, come già visto nell’Esempio 3.1.10. Si ottiene cos̀ı sgn(σ) = (−1)h+1 sgn(τ) e lo sviluppo di Laplace può dunque essere riscritto come segue: detA = n∑ h=1 ∑ τ∈S (h) n−1 (−1)1+h sgn(τ) a1ha2,τ(1) · · · ah,τ(h−1)ah+1,τ(h+1) · · · an,τ(n) = ∑ σ∈Sn sgn(σ) a1σ(1)a2σ(2) · · · ahσ(h)ah+1,σ(h+1) · · · anσ(n). Ma quest’ultima è precisamente la definizione del determinante di A. Esempio 3.2.21. Utilizziamo la formula di Laplace per calcolare il determinante della seguente matrice: A =  2 0 1 1 −1 3 0 2 0 2 −3 0 1 4 −1 0  Possiamo sviluppare questo determinante secondo una riga o una colonna qual- siasi ma, ovviamente, converrà scegliere una riga (o una colonna) tra quelle che contengono il maggior numero di zeri. Scegliendo, ad esempio, la terza riga, si ottiene: detA = −2 ∣∣∣∣∣∣ 2 1 1 −1 0 2 1 −1 0 ∣∣∣∣∣∣− 3 ∣∣∣∣∣∣ 2 0 1 −1 3 2 1 4 0 ∣∣∣∣∣∣ Consideriamo il primo di questi due determinanti di ordine tre e sviluppiamolo secondo la seconda colonna:∣∣∣∣∣∣ 2 1 1 −1 0 2 1 −1 0 ∣∣∣∣∣∣ = − ∣∣∣∣−1 2 1 0 ∣∣∣∣+ ∣∣∣∣ 2 1 −1 2 ∣∣∣∣ = −(−2) + 5 = 7. Capitolo 3 Determinanti 84 Consideriamo ora il secondo determinante di ordine tre e sviluppiamolo secondo la prima riga:∣∣∣∣∣∣ 2 0 1 −1 3 2 1 4 0 ∣∣∣∣∣∣ = 2 ∣∣∣∣3 2 4 0 ∣∣∣∣+ ∣∣∣∣−1 3 1 4 ∣∣∣∣ = −16− 7 = −23. In conclusione, si trova detA = −14 + 69 = 55. Come corollario del Teorema di Laplace otteniamo il seguente utile risultato, che fornisce una formula esplicita per calcolare l’inversa di una matrice quadrata. Corollario 3.2.22. Sia A ∈ Mn(K) e indichiamo con A∗ la matrice aggiunta di A. Sussiste la seguente identità: AA∗ = det(A) 1n. Di conseguenza, se det(A) è invertibile, si ha A−1 = (detA)−1A∗. Dimostrazione. L’identità AA∗ = det(A) 1n equivale alle seguenti uguaglianze: n∑ h=1 (−1)j+h aih |Ajh| = { detA se i = j, 0 se i 6= j. Se i = j, l’espressione precedente si riduce a n∑ h=1 (−1)i+h aih |Aih|, la quale non è altro che lo sviluppo di detA secondo la i-esima riga di A. Consideriamo ora il caso i 6= j. L’espressione n∑ h=1 (−1)j+h aih |Ajh| può ora essere interpretata come lo sviluppo, secondo la j-esima riga, del deter- minante della matrice B ottenuta da A sostituendo la sua j-esima riga con una copia della i-esima: B =  a11 a12 . . . a1n ... ... ... ai1 ai2 . . . ain ... ... ... aj−1,1 aj−1,2 . . . aj−1,n ai1 ai2 . . . ain aj+1,1 aj+1,2 . . . aj+1,n ... ... ... an1 an2 . . . ann  Capitolo 3 Determinanti 87 quadrata di ordine n. Gli elementi al di sotto della diagonale principale sono 1 + 2 + · · ·+ (n− 1) = (n− 1)n 2 e tutti questi devono essere trasformati in zeri. La produzione di uno di questi zeri avviene sommando a una riga un multiplo di un’altra riga, e la somma di due vettori riga equivale a n somme di numeri (in realtà, più si avanza nell’algoritmo, meno somme sono necessarie, perché molti elementi delle righe da sommare sono degli zeri). Pertanto il numero di “operazioni” necessarie (trascurando eventuali scambi di righe) è circa pari a n (n− 1)n 2 = n3 − n2 2 . Poiché, per n grande, il numero n3−n2 2 è molto più piccolo di n!, questo algorit- mo per il calcolo del determinante risulta di gran lunga più efficiente di quelli descritti in precedenza. Esempio 3.2.25. Descriviamo ora il calcolo del determinante della seguente matrice utilizzando il metodo dell’eliminazione di Gauss. A =  2 1 −1 3 −1 3 1 2 2 −1 4 1 3 −2 1 4  Scambiando la prima con la seconda riga, si ha: detA = − ∣∣∣∣∣∣∣∣ −1 3 1 2 2 1 −1 3 2 −1 4 1 3 −2 1 4 ∣∣∣∣∣∣∣∣ Ora alla seconda riga sommiamo il doppio della prima, alla terza riga sommiamo il doppio della prima e alla quarta riga sommiamo la prima moltiplicata per 3: detA = − ∣∣∣∣∣∣∣∣ −1 3 1 2 0 7 1 7 0 5 6 5 0 7 4 10 ∣∣∣∣∣∣∣∣ Ora scambiamo la seconda e la terza colonna, ottenendo: detA = ∣∣∣∣∣∣∣∣ −1 1 3 2 0 1 7 7 0 6 5 5 0 4 7 10 ∣∣∣∣∣∣∣∣ A questo punto, alla terza riga sommiamo la seconda moltiplicata per −6 e alla quarta riga sommiamo la seconda moltiplicata per −4: detA = ∣∣∣∣∣∣∣∣ −1 1 3 2 0 1 7 7 0 0 −37 −37 0 0 −21 −18 ∣∣∣∣∣∣∣∣ Capitolo 3 Determinanti 88 Ora raccogliamo −37 dalla terza riga: detA = −37 ∣∣∣∣∣∣∣∣ −1 1 3 2 0 1 7 7 0 0 1 1 0 0 −21 −18 ∣∣∣∣∣∣∣∣ Infine, alla quarta riga sommiamo la terza moltiplicata per 21: detA = −37 ∣∣∣∣∣∣∣∣ −1 1 3 2 0 1 7 7 0 0 1 1 0 0 0 3 ∣∣∣∣∣∣∣∣ Si ottiene cos̀ı detA = −37 · (−3) = 111. Esempio 3.2.26 (Il determinante di Vandermonde). Siano x1, . . . , xn ∈ K, con n ≥ 2, e consideriamo la seguente matrice, detta matrice di Vandermonde: 1 1 . . . 1 x1 x2 . . . xn x2 1 x2 2 . . . x2 n ... ... ... xn−1 1 xn−1 2 . . . xn−1 n  Il determinante di questa matrice è detto determinante di Vandermonde e verrà indicato con V (x1, x2, . . . , xn). Vogliamo dimostrare che si ha V (x1, x2, . . . , xn) = ∏ 1≤i<j≤n (xj − xi). (3.2.3) Procediamo per induzione su n. Per n = 2 si ha V (x1, x2) = ∣∣∣∣ 1 1 x1 x2 ∣∣∣∣ = x2 − x1. Supponiamo dunque che sia n > 2 e che la formula (3.2.3) valga per n− 1. Per calcolare V (x1, x2, . . . , xn) effettuiamo le seguenti operazioni elementari sulle righe della matrice di Vandermonde: alla n-esima riga sottraiamo la (n − 1)- esima moltiplicata per x1, alla (n − 1)-esima riga sottraiamo la (n − 2)-esima moltiplicata per x1, . . . , alla seconda riga sottraiamo la prima moltiplicata per x1. Si ottiene dunque V (x1, . . . , xn) = ∣∣∣∣∣∣∣∣∣∣∣ 1 1 1 . . . 1 0 x2 − x1 x3 − x1 . . . xn − x1 0 x2(x2 − x1) x3(x3 − x1) . . . xn(xn − x1) ... ... ... ... 0 xn−2 2 (x2 − x1) xn−2 3 (x3 − x1) . . . xn−2 n (xn − x1) ∣∣∣∣∣∣∣∣∣∣∣ = ∣∣∣∣∣∣∣∣∣ x2 − x1 x3 − x1 . . . xn − x1 x2(x2 − x1) x3(x3 − x1) . . . xn(xn − x1) ... ... ... xn−2 2 (x2 − x1) xn−2 3 (x3 − x1) . . . xn−2 n (xn − x1) ∣∣∣∣∣∣∣∣∣ Capitolo 3 Determinanti 89 Ora dalla prima colonna possiamo raccogliere il termine x2−x1, dalla seconda il termine x3−x1, . . . , dall’ultima colonna possiamo raccogliere xn−x1, ottenendo cos̀ı V (x1, . . . , xn) = (x2 − x1)(x3 − x1) · · · (xn − x1) ∣∣∣∣∣∣∣∣∣ 1 1 . . . 1 x2 x3 . . . xn ... ... ... xn−2 2 xn−2 3 . . . xn−2 n ∣∣∣∣∣∣∣∣∣ Quest’ultimo determinante non è altro che il determinante di Vandermonde V (x2, . . . , xn) che, per ipotesi induttiva, è uguale a ∏ 2≤i<j≤n(xj − xi). Sosti- tuendo nella formula precedente si ottiene V (x1, x2, . . . , xn) = ∏ 1≤i<j≤n (xj − xi). 3.2.2 Il determinante di un endomorfismo Sia f un endomorfismo di uno spazio vettoriale V di dimensione finita su K. Fissando una base di V , è possibile associare a f una matrice A ∈Mn(K), ove n = dimV . Naturalmente, a basi diverse di V corrispondono matrici diverse di f , tuttavia tutte queste matrici sono simili tra loro. Proposizione 3.2.27. Matrici simili hanno lo stesso determinante. Dimostrazione. Due matrici A,A′ ∈ Mn(K) sono simili se e solo se esiste una matrice invertibile P tale che A′ = PAP−1. Dal Teorema di Binet si deduce che detA′ = (detP )(detA)(detP−1) = (detP )(detA)(detP )−1 = detA. Questo risultato ci permette di definire il determinante di un endomorfismo f come il determinante di una matrice A associata a f tramite la scelta di una base di V , in quanto tale determinante non dipende dalla base scelta. Definizione 3.2.28. Sia f un endomorfismo di V . Il determinante di f è il determinante di una matrice di f rispetto a una qualche base di V . Una conseguenza immediata del Teorema di Binet è la seguente: Proposizione 3.2.29. Siano f e g due endomorfismi di V . Allora det(g ◦ f) = (det g)(det f). Se f è invertibile, si ha det(f−1) = (det f)−1. Vale inoltre il seguente risultato: Proposizione 3.2.30. Un endomorfismo f di uno spazio vettoriale V di di- mensione finita su K è un isomorfismo se e solo se det f 6= 0. Dimostrazione. Sia A la matrice di f rispetto a una qualche base di V . Allora f è un isomorfismo se e solo se A è invertibile ma, per il Corollario 3.2.22, A è invertibile se e solo se detA = det f 6= 0. Capitolo 3 Determinanti 92 ove ej è il j-esimo vettore della base canonica di Kn. Se poniamo B = (bij), le equazioni (3.3.3) possono essere riscritte come segue: AB = 1n, da cui segue che A è invertibile. Sia A ∈ Mm,n(K) una matrice con m righe e n colonne. Fissiamo degli indici di riga 1 ≤ i1 < i2 < · · · < ip ≤ m e degli indici di colonna 1 ≤ j1 < j2 < · · · < jq ≤ n e poniamo I = {i1, i2, . . . , ip} e J = {j1, j2, . . . , jq}. Indicheremo con AIJ la sottomatrice p× q di A costituita dagli elementi comuni alle p righe e alle q colonne determinate dagli indici degli insiemi I e J rispettivamente. Proposizione 3.3.6. Se B è una sottomatrice della matrice A, allora rk(B) ≤ rk(A). Dimostrazione. Siano A ∈ Mm,n(K), I = {i1, i2, . . . , ip} e J = {j1, j2, . . . , jq} due insiemi di indici fissati e poniamo B = AIJ . Consideriamo la sottomatrice C = AIN , ove N = {1, 2, . . . , n}. Se interpretiamo il rango come rango per righe (cioè come massimo numero di righe linearmente indipendenti), allora la relazione rk(C) ≤ rk(A) è ovvia. D’altra parte, B è anche una sottomatrice di C e se, questa volta, interpretiamo il rango come rango per colonne, allora la relazione rk(B) ≤ rk(C) è ovvia. Da queste due disuguaglianze segue che rk(B) ≤ rk(A). Siamo ora in grado di dimostrare il seguente teorema, il quale mette in relazione la nozione di rango con quella di determinante. Teorema 3.3.7. Il rango di una matrice A a coefficienti in un campo è uguale al massimo degli ordini delle sue sottomatrici quadrate invertibili, cioè al massimo degli ordini dei minori non nulli di A. Dimostrazione. Sia ρ il massimo degli ordini delle sottomatrici quadrate inver- tibili di A. Dal Teorema 3.3.5 e dalla Proposizione 3.3.6 segue che ρ ≤ rk(A). D’altra parte, posto r = rk(A), siano A(i1), A(i2), . . . , A(ir) r righe linearmente indipendenti di A. Allora la sottomatrice AIN di A (ove I = {i1, i2, . . . , ir} e N = {1, 2, . . . , n}) ha rango r, quindi possiede r colonne, di indici, j1, j2, . . . , jr, che sono linearmente indipendenti. Posto J = {j1, j2, . . . , jr}, ciò significa che la sottomatrice quadrata di ordine r AIJ ha rango r, pertanto è invertibile. Da ciò segue che ρ ≥ r = rk(A). Si conclude dunque che deve essere ρ = rk(A). Osservazione 3.3.8. In base a questo risultato, il rango di una matrice A può anche essere definito come il massimo ordine dei minori non nulli di A. Utiliz- zando quest’ultima come definizione del rango di una matrice, e ricordando che il determinante di una matrice coincide con quello della sua trasposta, il fatto che il rango di una matrice coincida con il rango della sua trasposta risulta del tutto ovvio. Da quest’ultimo teorema si deduce immediatamente il seguente criterio per stabilire se n vettori di Kn formano una base: Capitolo 3 Determinanti 93 Corollario 3.3.9. I vettori v1, v2, . . . , vn ∈ Kn formano una base se e solo se il determinante della matrice che ha come righe (o come colonne) i vettori dati è diverso da zero. Il principio dei minori orlati Sia data una matrice A ∈Mm,n(K) e supponiamo di volerne calcolare il rango cercando di determinare il massimo ordine dei minori non nulli di A. Supponiamo che A non sia la matrice nulla e quindi che il suo rango sia ≥ 1. Dovremo quindi calcolare i minori di ordine via via crescente, a partire da quelli di ordine 2. Quando per un certo r si sarà trovato un minore di ordine r non nullo, mentre tutti i minori di ordine r + 1 sono nulli (oppure non esistono, nel caso in cui r = min(m,n)), si concluderà che rk(A) = r. Infatti dall’annullarsi di tutti i minori di ordine r+1 segue l’annullarsi di ogni minore di ordine superiore: ciò si dimostra facilmente per induzione su s, sviluppando un minore di ordine s > r + 1 secondo una sua riga o una sua colonna. In realtà, nella situazione appena descritta non è necessario verificare che tutti i minori di ordine r + 1 siano nulli; basta limitarsi a quei minori di ordine r + 1 che contengono la sottomatrice quadrata di ordine r con determinante diverso da zero che abbiamo considerato. Vale infatti il seguente risultato: Teorema 3.3.10 (Teorema dei Minori Orlati). Sia A ∈ Mm,n(K) e sia B = AIJ una sottomatrice quadrata di ordine r di A tale che detB 6= 0. Sup- poniamo che ogni sottomatrice quadrata di ordine r + 1 di A ottenuta aggiun- gendo a B una riga e una colonna di A (i cosiddetti minori orlati di B) abbia determinante nullo. Allora A ha rango r. Dimostrazione. Sia B = AIJ con I = {i1, i2, . . . , ir} e J = {j1, j2, . . . , jr}. Dal- l’ipotesi detB 6= 0 discende che le colonne di indici j1, . . . , jr di A sono linear- mente indipendenti. La condizione sull’annullamento dei determinanti di tutti i minori orlati di B implica allora che ogni altra colonna di A è combinazione lineare delle colonne di indici j1, . . . , jr. Quindi A ha rango r. 3.4 Orientamenti In questa sezione supporremo che K sia un campo ordinato; ad esempio K = R, con la relazione d’ordine usuale. Tutti gli spazi vettoriali che considereremo saranno sempre finitamente generati. Sia dunque V uno spazio vettoriale su K e siano v = {v1, v2, . . . , vn} e w = {w1, w2, . . . , wn} due basi di V . Indichiamo con P = ( pij ) la matrice di cambiamento di base, dalla base v alla base w. Si ha dunque wj = n∑ i=1 pijvi, per ogni j = 1, . . . , n. Definizione 3.4.1. Le basi v e w di V si dicono equiorientate se det(P ) > 0. È immediato verificare che l’equiorientazione è una relazione di equivalenza sull’insieme B di tutte le basi di V . Diamo quindi la seguente definizione: Capitolo 3 Determinanti 94 Definizione 3.4.2. Un orientamento di uno spazio vettoriale V (finitamente generato su un campo ordinato K) è una classe di equivalenza per la relazione di equiorientazione. Uno spazio vettoriale orientato è uno spazio vettoriale in cui è stato scelto un orientamento. Dato che, per una matrice P di cambiamento di base, si può solo avere det(P ) > 0 oppure det(P ) < 0, la relazione di equiorientazione ha solo due classi di equivalenza. Ciò significa che uno spazio vettoriale ammette solo due orien- tamenti. Fissare un orientamento di uno spazio vettoriale V equivale dunque a fissare una base di V , con la convenzione che due basi equiorientate definiscono lo stesso orientamento. I due possibili orientamenti di uno spazio vettoriale sono detti l’opposto uno dell’altro. Esempio 3.4.3. Sia V = R2. Nella figura seguente le basi {v1, v2} e {w1, w2} sono equiorientate, mentre le basi {v1, v2} e {u1, u2} non sono equiorientate. v1 v2 w1 w2 v1 v2 u1 u2 Siano V e W due spazi vettoriali sul campo K. Se f : V →W è un isomorfismo, l’immagine f(v) = {f(v1), . . . , f(vn)} di una base v = {v1, . . . , vn} di V è una base di W . L’orientamento di W definito dalla base f(v) risulta essere indipendente dalla scelta della base v all’interno della sua classe di equivalenza. Si ha infatti: Lemma 3.4.4. Sia f : V → W un isomorfismo di spazi vettoriali e siano v = {v1, . . . , vn} e v′ = {v′1, . . . , v′n} due basi di V . Allora le basi f(v) = {f(v1), . . . , f(vn)} e f(v′) = {f(v′1), . . . , f(v′n)} di W sono equiorientate se e solo se lo sono le basi v e v′. Dimostrazione. Sia P = ( pij ) la matrice di cambiamento di base, dalla base v alla base v′. Si ha dunque v′j = n∑ i=1 pijvi, per ogni j = 1, . . . , n. Dalla linearità di f segue che f(v′j) = f ( n∑ i=1 pijvi ) = n∑ i=1 pijf(vi), il che dimostra che P è anche la matrice di cambiamento di base dalla base f(v) alla base f(v′). Il risultato precedente ci permette di dare la seguente definizione: Definizione 3.4.5. Siano V e W due spazi vettoriali orientati, di dimensione n, sul campo K e siano v = {v1, . . . , vn} e w = {w1, . . . , wn} due basi che rappresentano gli orientamenti fissati di V e W rispettivamente. Diremo che un isomorfismo f : V →W è compatibile con gli orientamenti di V e W , o che f è un isomorfismo di spazi vettoriali orientati, se le basi f(v) = {f(v1), . . . , f(vn)} e w = {w1, . . . , wn} di W sono equiorientate.
Docsity logo



Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved