Docsity
Docsity

Prepara i tuoi esami
Prepara i tuoi esami

Studia grazie alle numerose risorse presenti su Docsity


Ottieni i punti per scaricare
Ottieni i punti per scaricare

Guadagna punti aiutando altri studenti oppure acquistali con un piano Premium


Guide e consigli
Guide e consigli

Applicazioni di matrici e spazi vettoriali in algebra lineare, Appunti di Algebra Lineare e Geometria Analitica

Il documento tratta argomenti di algebra lineare, tra cui spazi vettoriali, matrici e applicazioni lineari. Viene definita la somma e il prodotto per scalare su un prodotto cartesiano di spazi vettoriali e vengono forniti esempi di sistemi lineari scritti come prodotti fra matrici. Si discute inoltre del determinante di una matrice e della traccia di un endomorfismo, nonché della riflessione e della rotazione in relazione a basi e vettori ortogonali. Vengono inoltre presentate formule per il calcolo della distanza fra due rette e della distanza fra un punto e una retta in uno spazio euclideo.

Tipologia: Appunti

2020/2021

Caricato il 11/02/2024

dickson-popo
dickson-popo 🇮🇹

3 documenti

1 / 449

Toggle sidebar

Documenti correlati


Anteprima parziale del testo

Scarica Applicazioni di matrici e spazi vettoriali in algebra lineare e più Appunti in PDF di Algebra Lineare e Geometria Analitica solo su Docsity! Geometria e algebra lineare Bruno Martelli Bruno Martelli Dipartimento di matematica Università di Pisa people.dm.unipi.it/martelli Versione 3, agosto 2023 Indice Introduzione 1 Capitolo 1. Nozioni preliminari 3 1.1. Gli insiemi 4 1.2. Funzioni 12 1.3. Polinomi 21 1.4. Numeri complessi 25 1.5. Strutture algebriche 34 Esercizi 36 Complementi 38 1.I. Infiniti numerabili e non numerabili 38 1.II. Costruzione dei numeri reali 40 Capitolo 2. Spazi vettoriali 43 2.1. Lo spazio euclideo 43 2.2. Spazi vettoriali 46 2.3. Dimensione 60 Esercizi 75 Capitolo 3. Sistemi lineari 79 3.1. Algoritmi di risoluzione 79 3.2. Teorema di Rouché - Capelli 85 3.3. Determinante 93 3.4. Algebra delle matrici 104 Esercizi 111 Capitolo 4. Applicazioni lineari 115 4.1. Introduzione 115 4.2. Nucleo e immagine 123 4.3. Matrice associata 130 4.4. Endomorfismi 137 Esercizi 146 Complementi 147 4.I. Spazio duale 147 Capitolo 5. Autovettori e autovalori 151 v vi INDICE 5.1. Definizioni 151 5.2. Teorema di diagonalizzabilità 163 Esercizi 170 Capitolo 6. Forma di Jordan 173 6.1. Forma di Jordan 173 6.2. Teorema di Cayley – Hamilton 186 6.3. Polinomio minimo 190 Esercizi 195 Complementi 196 6.I. Forma di Jordan reale 196 Capitolo 7. Prodotti scalari 199 7.1. Introduzione 199 7.2. Matrice associata 210 7.3. Sottospazio ortogonale 213 7.4. Classificazione dei prodotti scalari 219 7.5. Isometrie 227 Esercizi 231 Complementi 233 7.I. Tensori 233 Capitolo 8. Prodotti scalari definiti positivi 239 8.1. Nozioni geometriche 239 8.2. Isometrie 253 Esercizi 261 Complementi 264 8.I. Angoli fra tre vettori nello spazio 264 Capitolo 9. Lo spazio euclideo 267 9.1. Prodotto vettoriale 267 9.2. Sottospazi affini 272 9.3. Affinità 291 Esercizi 307 Capitolo 10. Poligoni e poliedri 311 10.1. Poligoni 311 10.2. Poliedri 332 Esercizi 341 Complementi 342 10.I. Coordinate baricentriche 342 Capitolo 11. Teorema spettrale 347 11.1. Prodotti hermitiani 347 11.2. Endomorfismi autoaggiunti 350 11.3. Il teorema 352 INDICE vii Esercizi 355 Complementi 356 11.I. Dimostrazione del criterio di Cartesio 356 Capitolo 12. Geometria proiettiva 359 12.1. Lo spazio proiettivo 359 12.2. Completamento proiettivo 367 12.3. Proiettività 372 Esercizi 377 Complementi 377 12.I. I Teoremi di Desargues e di Pappo 377 12.II. Dualità 380 Capitolo 13. Quadriche 383 13.1. Introduzione 383 13.2. Coniche 389 13.3. Quadriche proiettive 409 13.4. Quadriche in R3 418 Esercizi 427 Complementi 429 13.I. Il Teorema di Pascal 429 Soluzioni di alcuni esercizi 431 Indice analitico 439 2 INTRODUZIONE cui si può dare contemporaneamente una valenza geometrica (un punto nel piano o una freccia) ed algebrica (una sequenza di numeri). I vettori giocano un ruolo centrale in questo testo. La suddivisione in capitoli del libro rispecchia la struttura di un inse- gnamento standard di geometria e algebra lineare. Iniziamo revisionando alcuni preliminari algebrici (insiemi, polinomi, funzioni, eccetera) e quindi passiamo a definire la nozione di spazio vettoriale che è fondamentale in tutta la trattazione. Impariamo come risolvere i sistemi di equazioni lineari e introduciamo alcune funzioni particolari dette applicazioni lineari. Questo ci porta naturalmente allo studio di autovalori e autovettori. Il Capitolo 6 sulla forma di Jordan è opzionale e può essere saltato (come del resto tutti gli argomenti presentati come complementi alla fine dei capitoli). Passiamo quindi a studiare i prodotti scalari ed infine applichiamo tutti gli strumenti costruiti nei capitoli precedenti per studiare più approfondi- tamente la geometria euclidea con i suoi protagonisti: punti, rette, piani, poligoni, poliedri, coniche e quadriche. Un ruolo a parte è giocato dal teo- rema spettrale, un risultato profondo di algebra lineare che ha applicazioni in vari ambiti della matematica e della scienza. Nell’ultima parte del libro introduciamo una geometria non euclidea, detta geometria proiettiva, ot- tenuta aggiungendo i punti all’infinito allo spazio euclideo. Il Capitolo 10 è dedicato a poligoni e poliedri e contiene numerosi teoremi di geometria pia- na e solida. I Capitoli 12 e 13 riguardanti geometria proiettiva e quadriche sono entrambi opzionali e in buona parte indipendenti l’uno dall’altro. Il libro contiene vari esercizi, alcuni posizionati lungo la trattazione ed altri alla fine dei capitoli. Teoria ed esercizi sono entrambi essenziali per una piena comprensione del testo. Nella scrittura mi sono posto due obiettivi, a volte non semplici da conciliare: descrivere in modo trasparente e rigoroso i passaggi logici che formano il corpo di ogni tipo di ragionamento astratto, con un particolare accento sulle motivazioni che hanno portato i matematici a seguire una strada invece che un’altra, e fornire una notevole quantità di esempi e di strumenti utili ad applicare proficuamente queste nozioni per affrontare problemi concreti in vari ambiti della scienza. Bruno Martelli CAPITOLO 1 Nozioni preliminari L’aspetto che caratterizza maggiormente una teoria matematica è l’approccio assiomatico-deduttivo: si parte da alcuni concetti primitivi che non vengono definiti, si fissano degli assiomi, cioè dei fatti che vengono supposti veri a priori, e quindi sulla base di questi si sviluppano dei teoremi. Nella geometria euclidea i concetti primitivi sono alcune nozioni geo- metriche basilari come quella di punto, retta e piano. Gli assiomi sono quelli formulati da Euclide nei suoi Elementi tra il IV e il III secolo a.C., perfezionati poi da Hilbert nel 1899. Nella geometria analitica che seguiamo in questo libro, i concetti pri- mitivi e gli assiomi da cui partiamo sono invece quelli della teoria degli insiemi. Partiamo con gli insiemi numerici Z, Q e R formati dai numeri interi, razionali e reali. Interpretiamo quindi R come una retta e definiamo il piano e lo spazio cartesiano come gli insiemi R2 e R3 formati da coppie (x, y) e triple (x, y , z) di numeri reali. Questo approccio più astratto ci permette di definire subito lo spazio n-dimensionale Rn per qualsiasi n. Con la teoria degli insiemi e l’algebra possiamo definire e studiare rigorosamente oggetti pluridimensionali che la nostra intuizione non può afferrare. In questo primo capitolo introduciamo alcune nozioni preliminari che saranno usate in tutto il libro. Supponiamo che la lettrice abbia già dime- stichezza con gli insiemi e con l’algebra che viene insegnata nelle scuole superiori. Più raramente useremo alcuni teoremi di analisi. Iniziamo richiamando la teoria degli insiemi, quindi passiamo alle fun- zioni, che hanno un ruolo fondamentale in tutta la matematica moderna. Fra le funzioni, spiccano per semplicità i polinomi. Lo studio delle radici dei polinomi ci porta quindi ad allargare l’insieme R dei numeri reali a quello C dei numeri complessi. Infine, tutti questi insiemi numerici hanno delle operazioni (somma e prodotto) che soddisfano alcune proprietà algebriche (commutativa, associativa, eccetera). Studieremo più in astratto gli in- siemi dotati di operazioni di questo tipo e ciò ci porterà a definire delle strutture algebriche note come gruppi, anelli e campi. I complementi contengono un paio di approfondimenti: una discussio- ne sugli insiemi infiniti, in cui mostriamo che i numeri reali sono “di più” degli interi e dei razionali (pur essendo infiniti sia gli uni che gli altri) e la loro costruzione rigorosa. 3 4 1. NOZIONI PRELIMINARI 1.1. Gli insiemi La teoria degli insiemi è alla base di tutta la matematica moderna. 1.1.1. Gli insiemi numerici. Un insieme è generalmente indicato con due parentesi graffe {}, all’interno delle quali sono descritti tutti i suoi elementi. A volte si descrivono solo alcuni elementi e si usano dei puntini . . . per indicare il resto. Ad esempio, questo è l’insieme dei numeri naturali : N = {0, 1, 2, 3, . . .} L’insieme N contiene infiniti elementi. Se aggiungiamo i numeri negativi otteniamo l’insieme dei numeri interi Z = {. . . ,−2,−1, 0, 1, 2, . . .}. Se oltre ai numeri interi consideriamo tutti i numeri esprimibili come frazioni a b , otteniamo l’insieme dei numeri razionali Q = { . . . ,−2 5 , . . . , 1 8 , . . . , 9 4 , . . . } . Sappiamo inoltre che in aritmetica esiste un insieme ancora più grande, chiamato R, formato da tutti i numeri reali. Questi insiemi numerici dovrebbero già essere familiari fin delle scuole superiori. Da un punto di vista più rigoroso, l’insieme N è un concetto primitivo, mentre gli insiemi Z, Q e R sono costruiti ciascuno a partire dal precedente in un modo opportuno. La costruzione dell’insieme R dei numeri reali è abbastanza complessa ed è descritta nella Sezione 1.II. 1.1.2. Dimostrazione per assurdo. Possiamo subito convincerci del fatto che molti numeri reali che ci sono familiari non sono razionali. Quella che segue è la prima proposizione del libro ed è illuminante perché contiene un esempio di dimostrazione per assurdo. Proposizione 1.1.1. Il numero √ 2 non è razionale. Dimostrazione. Supponiamo per assurdo che √ 2 sia razionale. Allora√ 2 = a b , dove a b è una frazione. Elevando al quadrato e moltiplicando per b2 entrambi i membri otteniamo a2 = 2b2. Questa uguaglianza però non è possibile: il doppio di un quadrato non è mai un quadrato (esercizio: usare la decomposizione in fattori primi).  In una dimostrazione per assurdo, si nega la tesi e si dimostra che questo porta ad un assurdo. Ne deduciamo che la tesi non può essere falsa, e quindi è vera per esclusione. 1.1. GLI INSIEMI 7 Analogamente, l’insieme dei numeri dispari è D = {2n + 1 | n ∈ N} = {1, 3, 5, . . .}. Infine, l’insieme dei quadrati è Q = {n2 | n ∈ N} = {0, 1, 4, 9, 16, . . .}. Un numero pari generico si scrive come 2n, mentre un numero dispari gene- rico si scrive come 2n+ 1. Usando questa notazione si possono dimostrare agevolmente dei teoremi, ad esempio questo: Proposizione 1.1.3. Ogni numero dispari è differenza di due quadrati. Dimostrazione. Un generico numero dispari si scrive come 2n + 1, per qualche n ∈ N. Questo è effettivamente la differenza di due quadrati successivi: 2n + 1 = (n + 1)2 − n2. La dimostrazione è conclusa.  1.1.6. Quantificatori. Due simboli che giocano un ruolo fondamen- tale in matematica sono i quantificatori : ∀ ∃ I simboli sono una A ed una E rovesciate ed indicano le espressioni per ogni (for All) e esiste (Exists). I quantificatori sono essenziali nella formulazione dei teoremi, e più in generale di affermazioni matematiche che possono essere vere o false. Ad esempio, l’espressione ∀x ∈ R ∃y ∈ R : 2y = x dice che qualsiasi numero reale x può essere diviso per due, ed è un’affer- mazione vera. I due punti “:” sono sinonimo di “tale che”. D’altro canto, la stessa espressione con Z al posto di R: ∀x ∈ Z ∃y ∈ Z : 2y = x è falsa perché se x = 1 non esiste nessun y ∈ Z tale che 2y = 1. Il simbolo ∃! indica l’espressione esiste ed è unico. L’affermazione ∀x ∈ R ∃!y ∈ R : 2y = x continua ad essere vera: ogni numero reale è il doppio di un unico numero reale. Invece l’affermazione ∀x ∈ R : x > 0 ∃!y ∈ R : y 2 = x è falsa: ogni numero reale positivo x ha effettivamente una radice quadrata reale y , però questa non è unica perché le radici di x sono sempre due ±y . 8 1. NOZIONI PRELIMINARI 1.1.7. Dimostrazioni. Come facciamo a capire se una data afferma- zione matematica sia vera o falsa? Non c’è una regola generale, ma ci sono alcune indicazioni importanti: una affermazione del tipo Per ogni x in un insieme A vale una certa proprietà P può essere vera o falsa. Per dimostrare che è vera, serve una dimostrazione che mostri che la proprietà P è verificata da tutti gli elementi x nell’insieme A. Per dimostrare che è falsa, è invece sufficiente esibire un singolo x ∈ A per cui P non sia soddisfatta. Ad esempio, l’affermazione ∀x ∈ N, x2 ≥ 0 è vera, perché i quadrati sono sempre positivi. L’affermazione ∀x ∈ N, x2 ≥ 5 non è vera, perché non è soddisfatta ad esempio dal valore x = 1. 1.1.8. Prodotto cartesiano. Il prodotto cartesiano di due insiemi A e B è un nuovo insieme A × B i cui elementi sono tutte le coppie (a, b) dove a è un elemento qualsiasi di A e b è un elemento qualsiasi di B. Più brevemente: A× B = {(a, b) | a ∈ A, b ∈ B}. Ad esempio, se A = {1, 2} e B = {−1, 3, 4}, allora A× B = {(1,−1), (1, 3), (1, 4), (2,−1), (2, 3), (2, 4)}. Più in generale, se A e B sono insiemi finiti con m e n elementi rispettiva- mente, allora il prodotto cartesiano A× B contiene mn elementi. Il prodotto A × A è anche indicato con A2. Il caso A = R è partico- larmente interessante perché ha una forte valenza geometrica. L’insieme R dei numeri reali può essere interpretato come una retta. Il prodotto cartesiano R2 = R× R è l’insieme R2 = {(x, y) | x ∈ R, y ∈ R} formato da tutte le coppie (x, y) di numeri reali. In altre parole, R2 non è nient’altro che il piano cartesiano già studiato alle superiori: un elemento di R2 è un punto identificato dalla coppia (x, y). Possiamo definire in modo analogo il prodotto di un numero arbitrario di insiemi. Il prodotto cartesiano di k insiemi A1, . . . , Ak è l’insieme A1 × · · · × Ak i cui elementi sono le sequenze (a1, . . . , ak) di k elementi in cui ciascun ai è un elemento dell’insieme Ai , per ogni i = 1, . . . , k. Possiamo scrivere: A1 × · · · × Ak = { (a1, . . . , ak) ∣∣ ai ∈ Ai ∀i}. Se k = 2 ritroviamo il prodotto cartesiano di due insiemi già definito sopra. Se tutti gli insiemi coincidono, il prodotto A × · · · × A può essere 1.1. GLI INSIEMI 9 indicato semplicemente come Ak . Come sopra, il caso geometricamente interessante è quello in cui A = R e quindi Rk è l’insieme Rk = { (x1, . . . , xk) ∣∣ xi ∈ R∀i } . Ad esempio, se k = 3 otteniamo R3 = {(x, y , z) | x, y , z ∈ R}. Questo insieme è l’analogo tridimensionale del piano cartesiano e può es- sere chiamato lo spazio cartesiano. Possiamo pensare ad ogni punto di R3 come ad un punto dello spazio con tre coordinate x, y , z . 1.1.9. Ragionamento per induzione. Uno degli strumenti più raffi- nati della matematica è il ragionamento per induzione, con il quale è possi- bile dimostrare in poche righe teoremi piuttosto complessi. Il ragionamento funziona nel modo seguente. Sia P (n) una certa proposizione matematica che dipende da un numero naturale n ≥ 1. Il nostro scopo è dimostrare che P (n) è vera per ogni n. Per ottenere ciò, è sufficiente completare due passi: (1) Dimostrare la proposizione P (1). (2) Per n generico, dare per buona P (n − 1) e dimostrare P (n). La proposizione P (n− 1) che viene data per buona e che quindi viene usata per dimostrare P (n) è detta ipotesi induttiva. Il ragionamento è ben illustrato con un esempio. Proposizione 1.1.4. La somma dei primi n numeri naturali è 1 + 2 + 3 + · · ·+ n = (n + 1)n 2 . Dimostrazione. Dimostriamo l’uguaglianza per induzione su n. Il pas- so iniziale n = 1 è facile: l’uguaglianza da dimostrare è semplicemente 1 = 1. Adesso supponiamo che l’uguaglianza sia vera per n − 1 e la dimostriamo per n. Scriviamo: 1 + 2 + 3 + · · ·+ n = (1 + 2 + 3 + · · ·+ n − 1) + n. Usando l’ipotesi induttiva, sappiamo che 1 + 2 + 3 + · · ·+ n − 1 = n(n − 1) 2 . Il secondo membro dell’equazione precedente adesso diventa 1 + 2 + 3 + · · ·+ n = n(n − 1) 2 + n = n(n − 1) + 2n 2 = (n + 1)n 2 ed abbiamo concluso.  12 1. NOZIONI PRELIMINARI Esempio 1.1.10. Secondo l’assiomatica moderna, i numeri razionali Q sono costruiti a partire dagli interi Z nel modo seguente. Sia Z∗ = Z \ {0} l’insieme dei numeri interi non nulli. Consideriamo il prodotto cartesiano Z × Z∗ formato dalle coppie (p, q) di interi con q 6= 0. Definiamo una relazione di equivalenza su Z× Z∗ nel modo seguente: (p, q) ∼ (p′, q′)⇐⇒ pq′ = p′q. Si verifica facilmente che ∼ è una relazione di equivalenza. Definiamo infine Q come l’insieme quoziente: Q = (Z× Z∗)/∼. Cosa c’entra questa definizione astratta con l’usuale insieme dei numeri razionali? Il collegamento è il seguente: interpretiamo una coppia (p, q) come una frazione p q . La relazione di equivalenza è necessaria qui per- ché, come sappiamo tutti, in realtà lo stesso numero razionale può essere espresso come due frazioni differenti p q e p′ q′ , ad esempio 2 3 e 4 6 , e questo accade precisamente quando pq′ = p′q, nell’esempio 2 · 6 = 3 · 4. Quindi alla domanda “che cos’è un numero razionale?” rispondiamo “è una classe di equivalenza di frazioni”, cioè una classe di equivalenza di coppie (p, q) dove la relazione ∼ è quella descritta sopra. 1.2. Funzioni Dopo aver richiamato la teoria degli insiemi e la notazione matematica, introduciamo alcuni fra gli oggetti più usati in matematica: le funzioni. 1.2.1. Definizione. Siano A e B due insiemi. Una funzione da A in B è una legge f che trasforma qualsiasi elemento x di A in un qualche elemento y di B. L’elemento y ottenuto da x tramite f è indicato come y = f (x). L’insieme di partenza A è detto dominio e l’insieme di arrivo B è detto codominio. Per indicare f useremo la nozione seguente: f : A −→ B. È importante ricordare che gli insiemi A e B sono parte integrante della funzione f , non è cioè possibile definire una funzione senza chiarire con precisione quali siano il suo dominio ed il suo codominio. Ad esempio, possiamo prendere A = B = R e definire le funzioni f (x) = x2 − 1, f (x) = sen x. Analogamente, possiamo definire A = {x ∈ R | x ≥ 0} e f : A→ R come f (x) = √ x. In questo caso è però fondamentale chiarire quale delle due radici di x stiamo considerando, perché f (x) deve dipendere da x senza ambiguità. Generalmente si suppone che f (x) = √ x sia la radice positiva. 1.2. FUNZIONI 13 Osservazione 1.2.1. La nozione di funzione è molto generale e non si limita a considerare solo quelle funzioni che si possono scrivere espli- citamente usando le quattro operazioni +.−,×, : ed altre funzioni note come ad esempio quelle trigonometriche. Ad esempio, possiamo scegliere A = B = N e definire f (n) come l’(n + 1)-esimo numero primo. Oppure scegliere A = R, B = N e definire f (x) come la 127-esima cifra di x nel suo sviluppo decimale. In entrambi i casi è impossibile (oppure molto diffi- cile o inutile) scrivere f come una funzione algebrica esplicita. Dobbiamo rassegnarci al fatto che la maggior parte delle funzioni non sono scrivibili esplicitamente usando le usuali operazioni algebriche. Due funzioni f e g sono considerate uguali se hanno lo stesso dominio e lo stesso codominio, e se f (x) = g(x) per ogni elemento x del dominio. Quindi ad esempio le funzioni f : R→ R, f (x) = x2, g : N→ R, g(x) = x2 non sono uguali perché hanno domini diversi, mentre le funzioni f : N→ N, f (x) = 1, g : N→ N, g(x) = (x − 1)2 − x2 + 2x sono invece in realtà la stessa funzione e scriviamo f = g. Un modo molto semplice per modificare una funzione data consiste nel restringere il dominio ad un sottoinsieme. Se f : A → B è una funzione e A′ ⊂ A è un sottoinsieme, la restrizione di f a A′ è la funzione f ′ : A′ → B definita esattamente come f , ponendo cioè f ′(x) = f (x) per ogni x ∈ A′. La restrizione f ′ è indicata generalmente con il simbolo f |A′ . Ad esempio, la restrizione di f : R → R, f (x) = x2 al sottoinsieme N è indicata con f |N ed è ovviamente la funzione f |N : N→ R, f |N(x) = x2. 1.2.2. Immagine e controimmagine. Il concetto di funzione è estre- mamente importante in matematica e nelle scienze, ed ha quindi diritto ad un vocabolario tutto suo, che viene purtroppo raramente introdotto nelle scuole e con cui il lettore deve acquistare familiarità. Sia f : A → B una funzione. L’immagine di un elemento x ∈ A è l’elemento f (x) associato a x tramite f . Più in generale, se C ⊂ A è un qualsiasi sottoinsieme, l’immagine di C è l’insieme f (C) = {f (x) | x ∈ C} ⊂ B. L’immagine f (C) è un sottoinsieme del codominio B, ed è l’unione di tutte le immagini di tutti gli elementi di C. Ad esempio, se f : R→ R, f (x) = x2 e C = N, allora f (N) = {0, 1, 4, 9, 16, . . .}. L’immagine della funzione f è per definizione l’immagine f (A) dell’intero dominio A. Ad esempio l’immagine della funzione f : R → R, f (x) = x2 appena descritta è la semiretta f (R) = [0,+∞) formata da tutti i numeri reali positivi o nulli. 14 1. NOZIONI PRELIMINARI Esiste un’altra nozione che è in un certo senso opposta a quella di immagine. Se y ∈ B è un elemento del codominio, la sua controimmagine è il sottoinsieme f −1(y) ⊂ A del dominio che consiste di tutti gli elementi x la cui immagine è y , in altre parole: f −1(y) = {x ∈ A | f (x) = y}. Più in generale, se C ⊂ B è un sottoinsieme del codominio, la sua contro- immagine è il sottoinsieme f −1(C) ⊂ A del dominio che consiste di tutti gli elementi la cui immagine è contenuta in C. In altre parole: f −1(C) = {x ∈ A | f (x) ∈ C}. Esempio 1.2.2. Consideriamo la funzione f : R → R, f (x) = x2 e verifichiamo i fatti seguenti: • la controimmagine di 4 è l’insieme con due elementi f −1(4) = {−2, 2}; • la controimmagine del segmento chiuso C = [4, 9] è l’unione di due segmenti chiusi f −1(C) = [−3,−2] ∪ [2, 3]. • la controimmagine del segmento chiuso [−10,−5] è l’insieme vuoto f −1([−10,−5]) = ∅. Il lettore è invitato ad assimilare bene queste nozioni che compariranno in molti punti del libro. Raccomandiamo in particolare di non accettare acriticamente gli esempi, ma di verificarne la correttezza. Esempio 1.2.3. Consideriamo la funzione f : R → R, f (x) = sen x . L’immagine di f è il segmento chiuso [−1, 1]. La controimmagine di N è l’insieme f −1(N) = { . . . ,−3π 2 ,−π,−π 2 , 0, π 2 , π, 3π 2 , . . . } = {nπ 2 | n ∈ Z } . Esercizio 1.2.4. Dimostra che vale sempre l’inclusione C ⊂ f −1(f (C)). Costruisci un esempio in cui il contenimento ⊂ è un’uguaglianza = ed un altro esempio in cui il contenimento è stretto (. 1.2.3. Funzioni iniettive, suriettive e bigettive. Sia f : A → B una funzione. Definiamo alcune nozioni che saranno di fondamentale impor- tanza nei capitoli successivi. Definizione 1.2.5. La funzione f è • iniettiva se due elementi distinti x 6= x ′ del dominio hanno sempre immagini distinte. In altre parole se ∀x, x ′ ∈ A, x 6= x ′ =⇒ f (x) 6= f (x ′); • suriettiva se ogni elemento del codominio è immagine di almeno un elemento del dominio, cioè ∀y ∈ B, ∃x ∈ A : f (x) = y. 1.2. FUNZIONI 17 (1) Se g ◦ f è iniettiva, allora f è iniettiva. (2) Se g ◦ f è suriettiva, allora g è suriettiva. 1.2.5. Permutazioni. Sia X un insieme di n elementi. Una permuta- zione è una bigezione σ : X −→ X. Proposizione 1.2.11. Ci sono n! possibili permutazioni per X. Dimostrazione. Costruiamo una permutazione σ definendo in ordine le immagini σ(1), σ(2), . . . , σ(n). L’immagine σ(1) è un qualsiasi elemento di X e quindi abbiamo n possibilità; successivamente, σ(2) è un qualsiasi elemento di X diverso da σ(1), e abbiamo n−1 possibilità; andando avanti in questo modo possiamo costruire σ in n · (n − 1) · · · 2 · 1 = n! modi differenti.  Notiamo che l’inversa σ−1 di una permutazione σ è sempre una per- mutazione, e la composizione σ◦τ di due permutazioni σ e τ è una permu- tazione. La permutazione identità è la permutazione id che fissa ciascun elemento, cioè id(x) = x ∀x ∈ X. A meno di rinominare gli elementi di X, possiamo supporre per sem- plicità che X sia l’insieme formato dai numeri naturali da 1 a n: X = {1, . . . , n}. Vediamo come possiamo scrivere e studiare una permutazione σ. Un modo consiste nello scrivere la tabella[ 1 2 · · · n σ(1) σ(2) · · · σ(n) ] oppure più semplicemente [σ(1) σ(2) · · · σ(n)]. Un altro metodo consiste nello scrivere σ come prodotto di cicli. Se a1, . . . , ak sono elementi distinti di X, il ciclo (a1 · · · ak) indica la permutazione che trasla ciclicamente gli elementi a1, . . . , ak e lascia fissi tutti gli altri, cioè tale che: σ(a1) = a2, σ(a2) = a3, . . . σ(ak−1) = ak , σ(ak) = a1, σ(a) = a, ∀a 6∈ {a1, . . . , ak}. Due cicli (a1 . . . ak) e (b1 . . . bh) sono indipendenti se ai 6= bj per ogni i , j . Ogni permutazione si scrive come prodotto (cioè composizione) di cicli indipendenti. Ad esempio:[ 1 2 3 4 5 6 4 5 3 6 2 1 ] si scrive come prodotto di cicli (1 4 6)(2 5)(3) = (1 4 6)(2 5). 18 1. NOZIONI PRELIMINARI Il prodotto di cicli come composizione va inteso da destra a sinistra, come le funzioni. I cicli di ordine uno possono chiaramente essere rimossi. L’ordine dei cicli indipendenti non è importante: (1 4 6)(2 5) e (2 5)(1 4 6) sono la stessa permutazione. Inoltre il ciclo (1 4 6) può essere scritto anche come (4 6 1) oppure (6 1 4), ma non come (1 6 4). La notazione come prodotto di cicli ha il pregio di funzionare molto bene con le operazioni di inversione e composizione. Per scrivere l’inver- sa di una permutazione basta invertire i cicli. L’inversa della permutazione (1 4 6)(2 5) è (5 2)(6 4 1). Per comporre due permutazioni basta affianca- re i clicli da destra a sinistra: se componiamo (2 4 1)(3 5 6) e (1 4 6)(2 5) otteniamo (1 4 6)(2 5)(2 4 1)(3 5 6) = (1 5)(6 3 2). Infatti leggendo da destra a sinistra vediamo che 4 → 1 → 4 sta fisso mentre 1→ 2→ 5 e 5→ 6→ 1. 1.2.6. Segno di una permutazione. Vediamo adesso che ciascuna permutazione σ ha un segno che può essere 1 oppure −1. Questo fatto sarà usato solo nella definizione del determinante nella Sezione 3.3 e quindi può essere saltato ad una prima lettura. Un ciclo di ordine 2 è chiamato una trasposizione. Una trasposizione è una permutazione che scambia due elementi e lascia fissi tutti gli altri. Si dimostra facilmente che ciascun ciclo è prodotto di trasposizioni, infatti (a1 . . . ak) = (a1 ak)(a1 ak−1) · · · (a1 a2). Conseguentemente, ogni permutazione può essere ottenuta come prodot- to di un certo numero di trasposizioni. Facciamo un esempio concreto: prendiamo 4 assi da un mazzo di carte e li poniamo sul tavolo uno dopo l’altro, secondo la successione CQFP (cuori quadri fiori picche). Adesso permutiamo le carte in modo da ottenere la successione QFPC. Possia- mo ottenere questa successione come composizione di trasposizioni, ad esempio in questo modo: CQFP −→ QCFP −→ QFCP −→ QFPC Ci sono anche altri modi, ad esempio: CQFP −→ CQPF −→ FQPC −→ QFPC oppure CQFP −→ FQCP −→ FPCQ −→ PFCQ −→ QFCP −→ QFPC Abbiamo trasformato CQFP in QFPC in tre modi diversi, con un numero di trasposizioni che è 3 nei primi due casi e 5 nel terzo. Notiamo che questo numero è dispari in tutti e tre gli esempi. Questo non è un caso: la proposizione seguente ci dice in particolare che non è possibile trasformare CQFP in QFPC con un numero pari di trasposizioni. Proposizione 1.2.12. Se una permutazione σ si scrive in due modi diversi come prodotto di n e m trasposizioni, il numero n − m è sempre pari (cioè n e m sono entrambi dispari o entrambi pari). 1.2. FUNZIONI 19 Dimostrazione. Abbiamo per ipotesi σ = (a1 a2)(a3 a4) · · · (a2n−1 a2n), σ = (b1 b2)(b3 b4) · · · (b2m−1 b2m). Quindi id = σ ◦ σ−1 = (a1 a2) · · · (a2n−1 a2n)(b2m b2m−1) · · · (b2 b1). Dimostriamo che l’identià id non è realizzabile come prodotto di un numero dispari h = 2k+ 1 di trasposizioni: questo implica che m+n è pari e quindi m − n è pari. Procediamo per induzione su k ≥ 0. Se k = 0, è ovvio che id non è realizzabile come una singola trasposizione. Supponiamo il fatto dimostrato per k − 1 e passiamo a k ≥ 1. Supponiamo che id = (a1 a2) · · · (a2h−1 a2h) con h = 2k + 1. Siccome la permutazione è l’identità, il termine a1 deve comparire, oltre che nella prima trasposizione a sinistra, almeno una seconda volta (letto da sinistra a destra): id = (a1 a2) · · · (a1 ai) · · · (a2h−1, a2h). Notiamo le seguenti uguaglianze, in cui lettere diverse indicano numeri diversi: (c d)(a b) = (a b)(c d), (b c)(a b) = (a c)(b c). Possiamo usare queste “mosse” per modificare due trasposizioni successive senza cambiare il numero totale h = 2k + 1 di trasposizioni. Usando le mosse con a = a1, possiamo spostare il secondo a1 verso sinistra di un passo alla volta, finché non arriva in seconda posizione e otteniamo: id = (a1 a2)(a1 a3) · · · (a2h−1, a2h). Se a2 = a3, abbiamo (a1 a2)(a1 a2) = id e possiamo cancellare le prime due trasposizioni. Troviamo una successione di 2(k − 1) + 1 elementi e giungiamo ad un assurdo per l’ipotesi induttiva. Se a2 6= a3 possiamo sostituire (a1 a2)(a1 a3) con (a1 a3)(a2 a3). In questo modo la successione di trasposizioni contiene un a1 in meno di prima e ripartiamo da capo. Siccome prima o poi gli a1 finiscono, ad un certo punto ricadremo nel caso precedente a2 = a3.  Definiamo il segno sgn(σ) di una permutazione σ come sgn(σ) = (−1)n dove σ si decompone in n trasposizioni. Il segno è 1 oppure −1 ed è ben definito grazie alla Proposizione 1.2.12. Un ciclo di ordine n ha segno (−1)n−1. Una trasposizione ha segno −1. L’identità ha segno 1. 22 1. NOZIONI PRELIMINARI con la proprietà che il resto r(x) abbia grado strettamente minore del divisore d(x). Le divisioni fra polinomi si risolvono con carta e penna esattamente con la stessa procedura usata per i numeri interi. Ad esempio, se dividiamo p(x) = x3 + 1 per d(x) = x2 − 1 otteniamo x3 + 1 = x(x2 − 1) + (x + 1) e la divisione ha come quoziente x e come resto x + 1. Diciamo che il numero intero 7 divide 14 ma non divide 15, perché la divisione di 14 per 7 ha resto nullo, mentre la divisione di 15 per 7 invece ha un certo resto. Usiamo la stessa terminologia per i polinomi: se la divisione fra due polinomi p(x) e d(x) ha resto nullo, allora p(x) = q(x)d(x) per qualche quoziente q(x) e diciamo che d(x) divide p(x). Possiamo usare la barra verticale | come sinonimo di “divide” e scrivere ad esempio: 9 | 18, (x + 1) | (x3 + 1). Notiamo che effettivamente (x3 + 1) = (x2 − x + 1)(x + 1). 1.3.3. Radici di un polinomio. Ricordiamo adesso una delle defini- zioni più importanti dell’algebra. Se p(x) è un polinomio e a è un numero, indichiamo con p(a) il numero che otteniamo sostituendo a al posto di x . Ad esempio, se p(x) = x2 − 3, allora p(−2) = 4− 3 = 1. Definizione 1.3.1. Un numero a è radice di un polinomio p(x) se p(a) = 0. Ad esempio, il numero −1 è radice del polinomio p(x) = x3 +1 perché p(−1) = 0. La determinazione delle radici di un polinomio è uno dei problemi più classici dell’algebra. A questo scopo enunciamo un criterio. Proposizione 1.3.2. Il numero a è radice di p(x) se e solo se (x − a) | p(x). Dimostrazione. Se dividiamo p(x) per (x − a), otteniamo p(x) = q(x)(x − a) + r(x) dove q(x) è il quoziente e r(x) il resto. Sappiamo che il grado di r(x) è strettamente minore di quello di (x − a), che è uno: quindi r(x) ha grado zero, in altre parole è una costante che scriviamo semplicemente come r0. Quindi p(x) = q(x)(x − a) + r0. Se sostituiamo a al posto di x , otteniamo p(a) = q(a)(a − a) + r0 = 0 + r0 = r0. Quindi a è radice di p(x) se e solo se r0 = 0. D’altra parte r0 = 0 se e solo se (x − a) divide p(x) e quindi concludiamo.  Introduciamo un’altra definizione che useremo spesso in questo libro. 1.3. POLINOMI 23 Definizione 1.3.3. La molteplicità di una radice a di un polinomio p(x) è il massimo numero k tale che (x − a)k divide p(x). Informalmente, la molteplicità misura “quante volte” a è radice di p(x). Esempio 1.3.4. Il polinomio x3 − 1 ha la radice 1 con molteplicità 1 perché x3 − 1 = (x − 1)(x2 + x + 1) e (x − 1) non divide x2 + x + 1, semplicemente perché 1 non è radice di x2 + x + 1. Analogamente il polinomio x3 − 2x2 + x = (x − 1)2x ha la radice 1 con molteplicità 2 e la radice 0 con molteplicità 1. Osserviamo un fatto semplice: se moltiplichiamo un polinomio p(x) per una costante k diversa da zero, otteniamo un altro polinomio q(x) = kp(x) che ha le stesse radici di p(x) con le stesse molteplicità. Per questo motivo, quando studiamo le radici di un polinomio di grado n del tipo p(x) = anx n + an−1x n−1 + · · ·+ a1x + a0 possiamo dividerlo per an 6= 0; in questo modo ciascun coefficiente ai si trasformerà in un nuovo coefficiente bi = ai/an e otterremo un nuovo polinomio q(x) = xn + bn−1x n−1 + · · ·+ b1x + b0 che ha il pregio di avere il primo coefficiente pari a 1. Un polinomio di questo tipo è detto monico. Proposizione 1.3.5. Sia p(x) = q1(x)q2(x). Le radici di p(x) contate con molteplicità sono l’unione di quelle di q1(x) e di q2(x). Dimostrazione. Se a ha molteplicità m1 in q1(x) e m2 in q2(x), allora q1(x) = (x − a)m1d1(x), q2(x) = (x − a)m2d2(x) con d1(a) 6= 0 e d2(a) 6= 0. Quindi p(x) = (x − a)m1+m2d1(x)d2(x) con d1(a)d2(a) 6= 0 e deduciamo che a ha molteplicitàm1 +m2 in p(x).  Esempio 1.3.6. I polinomi q1(x) = x2 − 2x + 1, q2(x) = x2 − 1 possono essere scritti come q1(x) = (x − 1)2, q2(x) = (x + 1)(x − 1). Questi hanno rispettivamente la radice 1 con molteplicità 2 e le radici −1, 1 entrambe con molteplicità 1. Il prodotto p(x) = q1(x)q2(x) = (x − 1)3(x + 1) ha la radice 1 con molteplicità 3 e la radice −1 con molteplicità 1. 24 1. NOZIONI PRELIMINARI Teorema 1.3.7. Un polinomio p(x) di grado n ≥ 1 ha al più n radici, contate con molteplicità. Dimostrazione. Dimostriamo il teorema per induzione su n. Per quan- to appena visto, a meno di dividere tutto per il primo coefficiente possiamo supporre che il polinomio p(x) sia monico. Se n = 1, il polinomio è del tipo p(x) = x + a0 ed ha chiaramente una sola radice −a0. Quindi la tesi è soddisfatta. Supponiamo la tesi vera per n−1 e la dimostriamo per n. Se p(x) non ha radici, siamo a posto. Se ha almeno una radice a, allora per la Proposi- zione 1.3.2 possiamo dividere p(x) per x − a e ottenere un altro polinomio q(x), cioè vale p(x) = (x − a)q(x). Il polinomio q(x) ha grado n − 1 e quindi per ipotesi induttiva ha al più n− 1 radici contate con molteplicità. Per la Proposizione 1.3.5, le radici di p(x) contate con molteplicità sono esattamente quelle di q(x) più a. Quindi p(x) ha al più n − 1 + 1 = n radici e abbiamo concluso.  Un polinomio di grado 1 è sempre del tipo p(x) = ax + b ed ha quindi sempre una sola radice x = −b/a. Un polinomio di grado 2 è del tipo p(x) = ax2 + bx + c e come sappiamo bene dalle scuole superiori le sue radici dipendono da ∆ = b2 − 4ac nel modo seguente. Proposizione 1.3.8. Si possono presentare i casi seguenti: • Se ∆ > 0, il polinomio p(x) ha due radici distinte x± = −b ± √ ∆ 2a entrambe di molteplicità uno. • Se ∆ = 0, il polinomio p(x) ha una sola radice x = − b 2a con molteplicità due. • Se ∆ < 0, il polinomio p(x) non ha radici reali. Dimostrazione. Possiamo riscrivere il polinomio p(x) in questo modo p(x) = a ( x + b 2a )2 + c − b2 4a = a ( x + b 2a )2 − ∆ 4a . Se ∆ > 0, è sufficiente sostituire x± in p(x) per verificare che sono radici: p(x±) = a ( −b ± √ ∆ 2a + b 2a )2 − ∆ 4a = a ∆ 4a2 − ∆ 4a = 0. 1.4. NUMERI COMPLESSI 27 Re Im a + bi a b Re Im r θ Figura 1.5. Il piano complesso (sinistra) e le coordinate polari (destra). Re Im z1 z2 z1 + z2 Figura 1.6. La somma z1 + z2 di due numeri complessi z1 e z2 può essere calcolata con la regola del parallelogramma. Qui z1 = 1 + 3i , z2 = 4 + i e quindi z1 + z2 = 5 + 4i . La somma z1 + z2 di due numeri complessi z1 e z2 viene calcolata interpretando z1 e z2 come vettori e sommandoli quindi con l’usuale regola del parallelogramma, come mostrato nella Figura 1.6. Il prodotto z1·z2 di due numeri complessi è apparentemente più compli- cato, ma può essere visualizzato agevolmente usando le coordinate polari, che ora richiamiamo. 1.4.4. Coordinate polari. Come ricordato nella Figura 1.5-(destra), un punto (x, y) diverso dall’origine del piano cartesiano può essere identifi- cato usando la lunghezza r del vettore corrispondente e l’angolo θ formato dal vettore con l’asse reale. Le coordinate polari del punto sono la coppia (r, θ). Per passare dalle coordinate polari (r, θ) a quelle cartesiane (x, y) 28 1. NOZIONI PRELIMINARI Re Im 0 z z̄ θ −θ r r Re Im 0 1-1 i −i z z−1 Figura 1.7. Il coniugio z̄ di z si ottiene specchiando z lungo l’asse reale (sinistra). L’inverso z−1 di z ha argomento −θ opposto a quello θ di z e modulo |z−1| inverso rispetto a |z |. La circonferenza unitaria è mostrata in figura (destra). basta usare le formule x = r cos θ, y = r sen θ. Viceversa, r = √ x2 + y 2, θ = arccos x√ x2 + y 2 . Tornando ai numeri complessi, un numero z = x + y i può essere scritto in coordinate polari come z = x + y i = r cos θ + (r sen θ)i = r(cos θ + i sen θ). Notiamo che |z | = √ x2 + y 2 = r. Il modulo di z è quindi la lunghezza del vettore che descrive z . Il coniugio z̄ = a− ib è il punto ottenuto cambiando il segno della coordinata imma- ginaria: geometricamente questo corrisponde a riflettere il punto rispetto all’asse reale. In coordinate polari, questo corrisponde a cambiare θ in −θ lasciando fisso r . Si veda la Figura 1.7-(sinistra). Tornando alle coordinate polari, è comodo scrivere e iθ = cos θ + i sen θ. In questo modo ogni numero complesso z 6= 0 si scrive come z = re iθ. Il numero r = |z | è il modulo di z mentre l’angolo θ è detto fase o argomento di z . Il motivo profondo per cui introduciamo inaspettatamente qui la co- stante e di Nepero è dovuto alle rappresentazioni delle funzioni ex , sen x e 1.4. NUMERI COMPLESSI 29 cos x come serie di potenze. Giustificare questa scelta ci porterebbe trop- po lontano; per noi è sufficiente considerare questa misteriosa esponenziale complessa e iθ come un simbolo che vuol dire semplicemente cos θ+ i sen θ. Si tratta di una simbologia azzeccata, perché e iθ ha le proprietà usuali dell’esponenziale: Proposizione 1.4.2. Vale la relazione e i(θ+ϕ) = e iθ · e iϕ. Dimostrazione. Otteniamo e i(θ+ϕ) = cos(θ + ϕ) + i sen(θ + ϕ) = cos θ cosϕ− sen θ senϕ+ i(sen θ cosϕ+ cos θ senϕ) = (cos θ + i sen θ) · (cosϕ+ i senϕ) = e iθ · e iϕ. La dimostrazione è completa.  Adesso capiamo perché le coordinate polari sono particolarmente utili quando moltiplichiamo due numeri complessi. Se z1 = r1e iθ1 , z2 = r2e iθ2 allora il loro prodotto è semplicemente z1z2 = r1r2e i(θ1+θ2). In altre parole: Quando si fa il prodotto di due numeri complessi, i moduli si moltiplicano e gli argomenti si sommano. Notiamo in particolare che se z = re iθ 6= 0, il suo inverso è z−1 = r−1e−iθ. L’inverso z−1 ha argomento −θ opposto a quello θ di z e ha modulo |z−1| = r−1 inverso rispetto a |z | = r , si veda la Figura 1.7-(destra). I numeri complessi e iθ al variare di θ sono precisamente i punti che stanno sulla circonferenza unitaria, determinati dall’angolo θ. In particolare per θ = π otteniamo la celebre identità di Eulero: e iπ = −1. Notiamo infine che due numeri complessi non nulli espressi in forma polare r0e iθ0 , r1e iθ1 sono lo stesso numero complesso se e solo se valgono entrambi questi fatti: • r0 = r1, • θ1 = θ0 + 2kπ per qualche k ∈ Z. 32 1. NOZIONI PRELIMINARI Dimostriamo il caso generico n dando per buono il caso n−1. Sappia- mo per il teorema fondamentale dell’algebra che p(x) ha almeno una radice a. Quindi per la Proposizione 1.3.2 possiamo scrivere p(x) = (x − a)q(x) dove q(x) è un altro polinomio di grado n − 1. Per l’ipotesi induttiva q(x) ha n − 1 radici contate con molteplicità, e quindi p(x) ha queste n − 1 radici più a, quindi p(x) ha esattamente n radici (sempre contate con molteplicità).  Per un polinomio di secondo grado p(x) = ax2 + bx + c le due radici complesse si trovano usando la nota formula x± = −b ± √ ∆ 2a . Qui ± √ ∆ indica le due radici quadrate complesse di ∆, che coincidono solo se ∆ = 0. Esempio 1.4.9. Le radici del polinomio x2 + 1 sono ±i . Le radici del polinomio x2 + (1− i)x − i sono x± = −1 + i ± √ 2i 2 =⇒ x± = −1 + i ± (1 + i) 2 =⇒ x+ = i , x− = −1. Scriviamo il Corollario 1.4.8 in un’altra forma: Corollario 1.4.10. Ogni polinomio p(x) a coefficienti complessi si spez- za come prodotto di polinomi di primo grado: p(x) = an(x − z1) · · · (x − zn) dove an è il coefficiente più grande di p(x) e z1, . . . , zn sono le radici complesse di p(x) contate con molteplicità. 1.4.8. Polinomi a coefficienti reali. Sappiamo che un polinomio p(x) di grado n ha esattamente n soluzioni complesse contate con molteplicità. Se p(x) ha coefficienti reali, possiamo dire qualcosa di più sulle sue radici complesse. Proposizione 1.4.11. Sia p(x) un polinomio a coefficienti reali. Se z è una radice complessa di p(x), allora z̄ è anch’essa radice di p(x). Dimostrazione. Il polinomio è p(x) = anx n + · · ·+ a1x + a0 e per ipotesi i coefficienti an, . . . , a0 sono tutti reali. Se z è radice, allora p(z) = anz n + · · ·+ a1z + a0 = 0. Applicando il coniugio ad entrambi i membri e l’Esercizio 1.4.3 troviamo an z̄ n + · · ·+ a1z̄ + a0 = 0̄ = 0. 1.4. NUMERI COMPLESSI 33 Siccome i coefficienti sono reali, il coniugio di ai è sempre ai e quindi an z̄ n + · · ·+ a1z̄ + a0 = 0. In altre parole, anche z̄ è radice di p(x).  Possiamo dedurre un teorema di spezzamento per i polinomi a coef- ficienti reali che preveda una scomposizione in fattori di grado 2 e 1. I fattori di grado 2 hanno radici complesse z e z̄ coniugate fra loro, quelli di grado 1 hanno radici reali. Corollario 1.4.12. Ogni polinomio p(x) a coefficienti reali si scompone nel modo seguente: p(x) = q1(x) · · · qk(x) · (x − x1) · · · (x − xh) dove q1(x), . . . , qk(x) sono polinomi di grado due a coefficienti reali con ∆ < 0, e x1, . . . , xh sono le radici reali di p(x) contante con molteplicità. Dimostrazione. Ragioniamo come sempre per induzione sul grado n di p(x). Se p(x) ha grado 1 allora p(x) = x − x1 e siamo a posto. Se p(x) ha grado n, ha qualche radice complessa z . Se z è reale, scriviamo z = x1, spezziamo p(x) = (x − x1)q(x) e concludiamo per induzione su q(x). Se z è complesso, allora sappiamo che anche z̄ è soluzione. Quindi p(x) = (x − z)(x − z̄)q(x). Se z = a + bi allora q1(x) = (x − z)(x − z̄) = (x − (a + bi))(x − (a − bi)) = x2 − 2ax + a2 + b2 è un polinomio a coefficienti reali con ∆ = −4b2 < 0. Scriviamo p(x) = q1(x)q(x) e concludiamo per induzione su q(x).  Abbiamo capito che le radici complesse non reali di un polinomio p(x) a coefficienti reali sono presenti a coppie coniugate z, z̄ . In particolare, sono in numero pari. Ne deduciamo il fatto seguente. Proposizione 1.4.13. Un polinomio p(x) a coefficienti reali di grado dispari ha sempre almeno una soluzione reale. Dimostrazione. Sappiamo che p(x) ha grado n dispari e ha n soluzioni complesse contate con molteplicità. Di queste, un numero pari non sono reali. Quindi restano un numero dispari di soluzioni reali – quindi almeno una c’è.  Osservazione 1.4.14. Esiste un’altra dimostrazione di questa proposi- zione che usa l’analisi. Siccome p(x) ha grado dispari, i limiti limx→+∞ p(x) e limx→−∞ p(x) sono entrambi infiniti, ma con segni opposti. Quindi la funzione p(x) assume valori sia positivi che negativi. Dal teorema di esi- stenza degli zeri segue che la funzione p(x) assume anche il valore nullo per qualche x0 ∈ R. Quindi x0 è radice di p(x). 34 1. NOZIONI PRELIMINARI 1.5. Strutture algebriche Quando abbiamo introdotto i numeri complessi, abbiamo notato che questi hanno diverse proprietà algebriche simili a quelle dei numeri reali. In questa sezione esplicitiamo queste proprietà e diamo un nome agli insiemi dotati di operazioni che le soddisfano. 1.5.1. Gruppi. Un gruppo è un insieme G dotato di una operazione binaria, cioè di una funzione che associa ad ogni coppia a, b di elementi in G un nuovo elemento di G che indichiamo con a ∗ b. Il simbolo ∗ indica l’operazione binaria. L’operazione deve soddisfare i seguenti tre assiomi: (1) ∃e ∈ G : e ∗ a = a ∗ e = a ∀a ∈ G (esistenza dell’elemento neutro e), (2) a ∗ (b ∗ c) = (a ∗ b) ∗ c ∀a, b, c ∈ G (proprietà associativa), (3) ∀a ∈ G, ∃a′ ∈ G : a ∗ a′ = a′ ∗ a = e (esistenza dell’inverso). Ad esempio, l’insieme Z dei numeri interi con l’operazione di somma è un gruppo. Infatti: (1) esiste l’elemento neutro 0, per cui 0 + a = a + 0 = a ∀a ∈ Z, (2) vale la proprietà associativa a+(b+c) = (a+b)+c ∀a, b, c ∈ Z, (3) ogni numero intero a ∈ Z ha un inverso a′ = −a, per cui a + (−a) = (−a) + a = 0. Notiamo invece che non sono gruppi: • l’insieme Z con la moltiplicazione, perché non è soddisfatto (3), • l’insieme N con la somma, sempre perché non è soddisfatto (3). Il gruppo G è commutativo se vale anche la proprietà commutativa a ∗ b = b ∗ a ∀a, b ∈ G. I numeri interi Z formano un gruppo commutativo. Formano un grup- po commutativo anche gli insiemi numerici Q, R e C con l’operazione di somma. Un altro esempio di gruppo è l’insieme Sn formato da tutte le n! permutazioni dell’insieme X = {1, . . . , n}, con l’o- perazione ◦ di composizione, si veda la Sezione 1.2.5. Sappiamo infatti che: (1) esiste l’elemento neutro id ∈ Sn, la permutazione identità id(i) = i , (2) vale la proprietà associativa ρ◦(σ◦τ) = (ρ◦σ)◦τ , ∀ρ, σ, τ ∈ Sn, (3) ogni permutazione σ ha una inversa σ−1. Il gruppo Sn delle permutazioni è detto gruppo simmetrico. A diffe- renza dei gruppi numerici Z,Q, R e C, notiamo che Sn contiene un numero finito di elementi e non è commutativo se n ≥ 3: è facile trovare permu- tazioni che non commutano, ad esempio le trasposizioni (1 2) e (2 3) non ESERCIZI 37 Mostra che se X contiene n elementi allora P(X) ne contiene 2n. Esercizio 1.5. Mostra per induzione l’uguaglianza seguente per ogni n ≥ 1: n∑ k=1 k2 = n(n + 1)(2n + 1) 6 . Esercizio 1.6. Mostra per induzione che qualsiasi numero del tipo n3 + 2n con n ∈ N è divisibile per 3. Esercizio 1.7. Dimostra per induzione su n che n rette a coppie non parallele dividono il piano in (n+1)n 2 + 1 regioni differenti. Esercizio 1.8. Determina l’unica fra le seguenti che non è una relazione di equivalenza su R: • x ∼ y ⇐⇒ x − y ∈ Z, • x ∼ y ⇐⇒ x3 − 4x = y3 − 4y , • x ∼ y ⇐⇒ x 6= y + 1. Esercizio 1.9. Sia f : A → B una funzione e S, T ⊂ A due sottoinsiemi. Dimostra: f (S ∪ T ) = f (S) ∪ f (T ), f (S ∩ T ) ⊂ f (S) ∩ f (T ). Costruisci un esempio in cui l’inclusione ⊂ è stretta e un altro esempio in cui è un’uguaglianza. Esercizio 1.10. Sia f : A → B una funzione e S, T ⊂ B due sottoinsiemi. Dimostra: f −1(S ∪ T ) = f −1(S) ∪ f −1(T ), f −1(S ∩ T ) = f −1(S) ∩ f −1(T ). Esercizio 1.11. Sia X un insieme finito. Mostra che una funzione f : X → X è iniettiva⇐⇒ è suriettiva. Mostra che questo fatto non è necessariamente vero se X è infinito. Esercizio 1.12. Sia p(x) un polinomio e p′(x) la sua derivata. Sia a una radice di p(x) con molteplicità m ≥ 1. Mostra che a è radice di p′(x) se e solo se m ≥ 2, ed in questo caso a è radice di p′(x) con molteplicità m − 1. Esercizio 1.13. Determina tutte le radici del polinomio complesso z4 = −16. Esercizio 1.14. Determina tutti i numeri complessi z tali che z4 = z̄3. Esercizio 1.15. Sia n ∈ N, n ≥ 1 fissato. Considera l’insieme Cn = {0, 1, . . . , n − 1} e definisci la seguente operazione binaria ∗ su Cn: per ogni x, y ∈ Cn, l’elemento x ∗ y ∈ Cn è il resto della divisione di x + y per n. Mostra che Cn con questa operazione ∗ è un gruppo commutativo con elemento neutro 0. Il gruppo Cn si chiama il gruppo ciclico do ordine n. L’operazione ∗ è generalmente chiamata somma ed indicata con il simbolo +. Esercizio 1.16. Sia n ≥ 2. Sul gruppo ciclico Cn definito nell’esercizio precedente definiamo analogamente il prodotto x · y come il resto della divisione di xy per n. Mostra che Cn con le operazioni di somma e prodotto appena definite è un anello commutativo. Per quali valori di n secondo te Cn è un campo? 38 1. NOZIONI PRELIMINARI Esercizio 1.17. Considera l’insieme di numeri complessi S = {z ∈ C | |z | = 1}. Mostra che S è un gruppo con l’operazione di prodotto. Chi è l’elemento neutro? Esercizio 1.18. Un elemento a ∈ A in un anello A è invertibile se esiste un inverso a−1 per il prodotto, cioè un elemento tale che a × a−1 = a−1 × a = 1. Dimostra che il prodotto ab di due elementi invertibili è anch’esso invertibile, e che (ab)−1 = b−1a−1. Complementi 1.I. Infiniti numerabili e non numerabili. Nella matematica basata sulla teoria degli insiemi, gli infiniti non sono tutti uguali: ci sono infi- niti più grandi di altri. Descriviamo questo fenomeno in questa sezione, concentrandoci soprattutto sugli insiemi numerici N,Z,Q e R. Questi in- siemi sono tutti infiniti, ma mentre i primi tre hanno tutti lo stesso tipo di infinito, l’ultimo è in un certo senso più grande dei precedenti. Tutto parte come sempre dalla teoria degli insiemi e dalle funzioni. Definizione 1.5.3. Un insieme infinito X è detto numerabile se esiste una bigezione fra N e X. Gli insiemi numerabili sono tutti in bigezione con N e quindi anche in bigezione fra loro: possiamo dire che contengono “lo stesso numero di elementi”, anche se questo numero è chiaramente infinito. Concretamente, scrivere una bigezione f : N → X equivale a rappre- sentare gli elementi di X come una successione infinita X = {f (0), f (1), f (2), . . .}. Ad esempio, il sottoinsieme P ⊂ N formato dai numeri pari è numerabile perché possiamo rappresentare gli elementi di P come una successione infinita: P = {0, 2, 4, 6, 8, . . .} La bigezione f : N → P è definita semplicemente chiedendo che f (n) sia l’n-esimo elemento della successione. In questo caso f : N→ P può essere scritta esplicitamente come f (n) = 2n. Nonostante P sia contenuto strettamente in N, esiste una bigezione fra i due insiemi! Questa è una proprietà che possono avere solo gli insiemi infiniti: se X è finito e Y ( X è strettamente contenuto in X, chiaramente non può mai esistere una bigezione fra X e Y . Un altro esempio di insieme numerabile è l’insieme Z dei numeri interi. Infatti possiamo metterli in successione nel modo seguente: Z = {0, 1,−1, 2,−2, 3,−3, 4, · · · } Un esempio ancora più sorprendente è quello dei razionali Q. I numeri razionali possono essere messi “in fila” come indicato nella Figura 1.10. Nonostante i numeri razionali sembrino molti di più dei naturali, in realtà sono “lo stesso numero”. COMPLEMENTI 39 2/1 3/1 4/1 1/1 5/1 6/1 7/1 8/1 1/2 1/3 1/4 1/5 1/6 1/7 1/8 2/2 3/2 4/2 5/2 6/2 8/2 7/2 3/3 2/3 4/3 5/3 6/3 7/3 8/3 2/4 3/4 4/4 5/4 6/4 7/4 8/4 2/5 3/5 4/5 5/5 6/5 7/5 8/5 2/6 3/6 4/6 5/6 6/6 7/6 8/6 2/7 3/7 4/7 5/7 6/7 7/7 8/7 2/8 3/8 4/8 5/8 6/8 7/8 8/8 ... ... ... ... ... ... ... ... ............... ... ... ... ... Figura 1.10. I numeri razionali Q sono un insieme nume- rabile. Per rappresentare l’insieme dei numeri razionali po- sitivi come una successione è sufficiente seguire il percorso qui indicato, saltando i numeri (più chiari) che sono già stati incontrati precedentemente (ricordiamo che frazioni diverse possono indicare lo stesso numero). Con uno schema simile si possono inserire anche i razionali negativi o nulli e quindi ottenere una bigezione fra N e Q. A questo punto può sorgere il dubbio che semplicemente tutti gli insiemi infiniti siano numerabili. Questo non è il caso: Proposizione 1.5.4. L’insieme R dei numeri reali non è numerabile. Dimostrazione. Supponiamo per assurdo che sia possibile scrivere R come successione infinita di numeri: R = {x1, x2, . . .}. Scriviamo ciascun numero in forma decimale, ad esempio: x1 = 723,1291851 . . . x2 = 12,8231452 . . . x3 = 0,3798921 . . . x4 = 110,0023140 . . . . . . Ad essere precisi esistono alcuni numeri reali che possono essere rappresen- tati in due modi come forma decimale: quelli che ad un certo punto si stabi- lizzano con una successione di 9 o di 0. Ad esempio 0, 185639̄ = 0, 18564. In questo caso scegliamo la successione che si stabilizza con 0. 42 1. NOZIONI PRELIMINARI Un aspetto fondamentale degli insiemi numerici Z,Q e R, che li dif- ferenzia da C, è che questi insiemi sono ordinati : esiste una nozione di maggiore e minore fra numeri, per cui se a, b sono due numeri distinti deve valere a > b oppure b > a. In generale diciamo che a > b se a − b > 0, quindi per definire questa nozione è sufficiente chiarire quali siano i numeri positivi (cioè maggiori di zero) e quali i numeri negativi (minori di zero). In Z, quelli positivi sono 1, 2, 3, . . .. In Q, i numeri positivi sono le frazioni p q in cui p e q hanno lo stesso segno. In R, un numero a è positivo se è rappresentabile da una successione di Cauchy (an) di numeri razionali tutti positivi. Su C invece non è possibile definire una nozione ragionevole di numero positivo e negativo. Notiamo infine che il campo R soddisfa la proprietà di Archimede: Dati due numeri reali positivi a < b, esiste sempre un n ∈ N tale che na > b. È possibile dimostrare che R è l’unico campo ordinato completo e archimedeo (cioè in cui sia verificata la proprietà di Archimede). CAPITOLO 2 Spazi vettoriali Nel capitolo precedente abbiamo già intravisto il piano cartesiano R2, lo spazio cartesiano R3, ed il più misterioso spazio n-dimensionale Rn. Lo spazio Rn è il nostro spazio euclideo, l’universo dentro al quale vogliamo definire e studiare la geometria euclidea. Il nostro scopo è quindi costruire e studiare oggetti geometrici dentro Rn. In realtà ci accorgiamo subito che è più conveniente prendere un punto di vista ancora più astratto: invece di esaminare “solo” Rn, ci proponiamo di definire e studiare qualsiasi spazio che abbia le stesse proprietà algebriche di Rn. Uno spazio di questo tipo è detto spazio vettoriale. Il motivo di questa ulteriore astrazione è che, inaspettatamente, esi- stono molti insiemi di oggetti matematici che sono spazi vettoriali oltre a Rn: le soluzioni di un sistema lineare, gli spazi di funzioni, di matrici, ecce- tera. È quindi più conveniente raggruppare tutte queste entità in un’unica teoria. 2.1. Lo spazio euclideo Nella geometria di Euclide, tutto ha inizio con l’introduzione di alcuni concetti primitivi quali i punti, le rette e i piani, che non vengono definiti e per i quali valgono alcuni assiomi. Nella geometria analitica adottata in questo libro, partiamo invece dalla teoria degli insiemi ed in particolare dalla retta reale R, e costruiamo una geometria a partire da questa. 2.1.1. Definizione. Partendo da R e usando l’operazione di prodotto cartesiano fra insiemi, definiamo subito la nozione di spazio euclideo in dimensione arbitraria. Sia n ≥ 1 un numero naturale. Definizione 2.1.1. Lo spazio euclideo n-dimensionale è l’insieme Rn. Ricordiamo che Rn è il prodotto cartesiano R× · · · × R di n copie di R. Un elemento dell’insieme Rn è una successione (x1, . . . , xn) di n numeri reali. L’insieme R2 è il piano cartesiano, in cui ogni punto è determinato da una coppia (x, y). Analogamente R3 è lo spazio cartesiano, in cui ogni punto è una terna (x, y , z) di numeri reali, si veda la Figura 2.1. Quando n è arbitrario (ad esempio n = 4) lo spazio Rn è uno “spazio a n dimensioni”. 43 44 2. SPAZI VETTORIALI x y z (x, y , z) X Y Z x = 0 y = 0 z = 0 Figura 2.1. Lo spazio cartesiano R3. Ciascun punto è una terna (x, y , z) di numeri reali. La figura mostra i tre assi e i tre piani coordinati che contengono gli assi, descritti dalle equazioni x = 0, y = 0 e z = 0. Gli spazi R2 e R3 possono essere visualizzati e studiati usando la nostra intuizione geometrica. D’altro canto, il nostro cervello non è programmato per visualizzare Rn per n ≥ 4, ma possiamo comunque studiare Rn usando l’algebra, ed è esattamente quello che faremo in questo libro. L’elemento (0, . . . , 0) è l’origine dello spazio euclideo Rn e viene indi- cato semplicemente con i simboli 0 oppure O. 2.1.2. Punti o vettori? Un punto x ∈ Rn è per definizione una se- quenza (x1, . . . , xn) di numeri. Geometricamente, possiamo pensare a x come ad un punto, oppure come ad un vettore (cioè una freccia) che parte dall’origine 0 e arriva in x . Si veda la Figura 2.2. Entrambi i punti di vista sono ammessi e a seconda del contesto penseremo a x come ad un punto o ad un vettore. In alcuni casi, se pensiamo ad x come ad un punto pos- siamo usare le lettere P,Q, mentre se pensiamo ad x come vettore usiamo le lettere v, w . Per un motivo che sarà chiaro in seguito quando introdurremo le matrici, scriveremo sempre la sequenza che identifica il punto x in verticale: x = x1 ... xn  . Un oggetto del genere è detto un vettore colonna. Diciamo che i numeri x1, . . . , xn sono le coordinate del punto (o del vettore) x . 2.2. SPAZI VETTORIALI 47 definito la somma fra vettori ed il prodotto per scalare e abbiamo verificato che queste due operazioni soddisfano alcuni assiomi. In questa sezione daremo un nome a qualsiasi struttura algebrica che soddisfi questi assiomi: la chiameremo uno spazio vettoriale. Il motivo di questa astrazione è che vi sono in matematica molti altri spazi che soddi- sfano gli stessi assiomi di Rn, ed è quindi molto più conveniente considerarli tutti assieme. 2.2.1. Definizione. Fissiamo un campo K. Questo è generalmente il campo K = R dei numeri reali, ma può anche essere ad esempio il campo K = C dei numeri complessi oppure il campo K = Q dei numeri razionali. Gli elementi di K sono detti scalari. Uno spazio vettoriale su K è un insieme V di elementi, detti vettori, dotato di due operazioni binarie: • una operazione detta somma che associa a due vettori v, w ∈ V un terzo vettore v + w ∈ V ; • una operazione detta prodotto per scalare che associa ad un vettore v ∈ V e ad uno scalare λ ∈ K un vettore λv ∈ V . Queste due operazioni devono soddisfare gli stessi assiomi che abbia- mo verificato precedentemente per lo spazio euclideo, cioè: (1) L’insieme V è un gruppo commutativo con la somma + (2) λ(v + w) = λv + λw (3) (λ+ µ)v = λv + µv (4) (λµ)v = λ(µv) (5) 1v = v Le proprietà (2)-(5) devono valere per ogni v, w ∈ V e ogni λ, µ ∈ K. L’elemento neutro del gruppo V è indicato con il simbolo 0 ed è detto l’origine dello spazio vettoriale V . Non va confuso con lo zero 0 del campo K. In questo libro il simbolo 0 può indicare varie cose differenti ed il significato preciso sarà sempre chiaro dal contesto. A partire da questi assiomi possiamo dimostrare un piccolo teorema. Proposizione 2.2.1. Vale la relazione 0v = 0. Come dicevamo, il simbolo 0 può indicare oggetti molto diversi: nel- l’uguaglianza 0v = 0, il primo 0 è l’elemento neutro di K ed il secondo 0 è l’origine di V . Dimostrazione. Vale 0v = (0 + 0)v = 0v + 0v e semplificando deduciamo che 0v = 0.  2.2.2. Lo spazio Kn. L’esempio principale di spazio vettoriale su R è ovviamente lo spazio euclideo Rn già incontrato precedentemente. Più in generale, è possibile definire per qualsiasi campo K uno spazio Kn. 48 2. SPAZI VETTORIALI Sia n ≥ 1 un numero naturale. Lo spazio Kn è l’insieme delle se- quenze (x1, . . . , xn) di numeri in K. Gli elementi v ∈ Kn sono descritti generalmente come vettori colonna v = x1 ... xn  ∈ Kn. La somma e la moltiplicazione per scalare sono definiti termine a termine esattamente come visto sopra per Rn, cioè:x1 ... xn + y1 ... yn  = x1 + y1 ... xn + yn  , λ x1 ... xn  = λx1 ... λxn  . Facciamo alcuni esempi con dei vettori di C2:( 1 + i −2 ) + ( 3i 1− i ) = ( 1 + 4i −1− i ) , (2 + i) ( 3 1− i ) = ( 6 + 3i 3− i ) . 2.2.3. Lo spazio K[x ] dei polinomi. Come abbiamo accennato, ci so- no altri oggetti matematici molto comuni che formano degli spazi vettoriali. Ad esempio, i polinomi. Indichiamo con K[x ] l’insieme di tutti i polinomi con coefficienti in un certo carmpo K. Due polinomi possono essere sommati, e moltiplicando un polinomio per uno scalare otteniamo un polinomio. Ad esempio: (x3−2x+1)+(4x4 +x−3) = 4x4 +x3−x−2, 3(x3−2x) = 3x3−6x. L’insieme K[x ] è quindi naturalmente equipaggiato con le due operazioni di uno spazio vettoriale. Inoltre tutti gli assiomi (1)-(5) sono facilmente verificati. Quindi K[x ] è uno spazio vettoriale su K. 2.2.4. Lo spazio F (X,K) delle funzioni. Oltre ai polinomi, anche le funzioni formano spesso uno spazio vettoriale. Sia X un insieme qualsiasi e K un campo. Consideriamo l’insieme F (X,K) formato da tutte le funzioni f : X → K. Vediamo come anche F (X,K) sia naturalmente equipaggiato con le due operazioni di uno spazio vettoriale. Date due funzioni f , g : X → K possiamo definire la loro somma f + g come la funzione che manda x in f (x) + g(x). In altre parole: (f + g)(x) = f (x) + g(x). A sinistra abbiamo scritto la funzione f + g fra parentesi. Notiamo che anche f + g è una funzione da X in K. Analogamente, se f : X → K è una funzione e λ ∈ K è uno scalare, possiamo definire una nuova funzione λf che manda x in λf (x). In altre parole: (λf )(x) = λf (x). 2.2. SPAZI VETTORIALI 49 Anche qui abbiamo scritto la funzione λf fra parentesi. Si può verificare facilmente che l’insieme F (X,K) soddisfa gli assiomi (1)-(5) ed è quindi uno spazio vettoriale. L’elemento neutro di F (X,K) è la funzione nulla 0, quella che fa zero su tutti gli elementi di X, cioè 0(x) = 0 ∀x ∈ X. Ad esempio, l’insieme F (R,R) di tutte le funzioni da R in R forma uno spazio vettoriale. Notiamo il livello di astrazione richiesto in questa sezione: una funzione, che può essere un oggetto abbastanza complica- to, è interpretata come un punto oppure un vettore in uno spazio molto grande F (X,R) che contiene tutte le possibili funzioni. Per quanto sembri inutilmente astratto, questo approccio globale è molto utile nello studio delle funzioni che capitano spesso in natura. 2.2.5. Le matrici. Dopo i polinomi e le funzioni, introduciamo un ter- zo oggetto matematico molto importante che rientra anch’esso nel quadro generale degli spazi vettoriali: le matrici. Sia come sempre K un campo fissato. Una matrice con m righe e n colonne a coefficienti in K è una tabella rettangolare del tipo A = a11 · · · a1n ... . . . ... am1 · · · amn  in cui tutti gli mn numeri a11, . . . , amn sono elementi del campo K. Diciamo brevemente che A è una matrice m × n. La matrice A ha effettivamente m righe che indicheremo con il simbolo A1, . . . , Am, del tipo Ai = ( ai1 · · · ain ) e n colonne che indicheremo con A1, . . . , An del tipo Aj = a1j ... amj  . Ad esempio, le seguenti sono matrici a coefficienti in R:1 √ 2 0 −5 7 π  , ( 5 0 √ 3 ) . Le matrici giocheranno un ruolo fondamentale in tutto il libro. Per il momento ci limitiamo a notare che due matrici A e B della stessa taglia m × n A = a11 · · · a1n ... . . . ... am1 · · · amn  , B = b11 · · · b1n ... . . . ... bm1 · · · bmn  52 2. SPAZI VETTORIALI 2x − y = 0 2x − y = −2 Figura 2.4. La retta 2x − y = 0 è un sottospazio vettoriale di R2, mentre la retta 2x − y = −2 no. (2) Se due vettori x e y sono soluzioni, allora anche x+y è soluzione. Infatti per ogni equazione troviamo ai1(x1 + y1) + · · ·+ ain(xn + yn) = ai1x1 + · · ·+ ainxn + ai1y1 + · · ·+ ainyn = 0 + 0 = 0. (3) Se x è soluzione e λ ∈ K è uno scalare, allora anche λx è soluzione. Infatti per ogni equazione troviamo ai1(λx1) + · · ·+ ain(λxn) = λ(ai1x1 + · · ·+ ainxn) = λ0 = 0. Quindi S è un sottospazio vettoriale di Kn.  Ad esempio, le soluzioni dell’equazione 2x − y = 0 in R2 formano la retta mostrata nella Figura 2.4-(sinistra). Le soluzioni dell’equazione z = 0 in R3 formano il piano orizzontale mostrato nella Figura 2.1. Le soluzioni del sistema {x = 0, z = 0} in R3 formano una retta, l’asse y descritto nella stessa figura. Tutti questi sono esempi di sottospazi vettoriali di R2 e R3, perché sono descritti da un sistema lineare omogeneo. Osservazione 2.2.3. Le soluzioni S di un sistema lineare non omogeneo non sono un sottospazio vettoriale perché non contengono l’origine. Ad esempio l’equazione 2x − y = −2 in R2 descrive una retta non passante per l’origine: questa non è un sottospazio vettoriale. Si veda la Figura 2.4. 2.2.9. Combinazioni lineari. Sia V uno spazio vettoriale qualsiasi. Siano v1, . . . , vk ∈ V dei vettori arbitrari. Una combinazione lineare dei vettori v1, . . . , vk è un qualsiasi vettore v che si ottiene come v = λ1v1 + · · ·+ λkvk 2.2. SPAZI VETTORIALI 53 dove λ1, . . . , λk sono scalari arbitrari. Ad esempio, se V = R3 e v1 = 1 0 0  , v2 = 0 1 0  allora una combinazione lineare arbitraria di questi due vettori è il vettore λ1v1 + λ2v2 = λ1 1 0 0 + λ2 0 1 0  = λ1 0 0 +  0 λ2 0  = λ1 λ2 0  . Notiamo che questo vettore sta nel piano orizzontale z = 0. Osserviamo anche che al variare di λ1 e λ2, facendo tutte le combinazioni lineari di v1 e v2 otteniamo precisamente tutti i punti del piano orizzontale z = 0. Questo ci porta alla definizione seguente. 2.2.10. Sottospazio generato. Sia V uno spazio vettoriale e siano v1, . . . , vk ∈ V vettori arbitrari. Il sottospazio generato da v1, . . . , vk è il sottoinsieme di V formato da tutte le combinazioni lineari dei vettori v1, . . . , vk . Questo sottospazio viene indicato con il simbolo Span(v1, . . . , vk). In inglese span vuol dire proprio generare (in questo contesto). In simboli: Span(v1, . . . , vk) = { λ1v1 + · · ·+ λkvk | λ1, . . . , λk ∈ K } . Proposizione 2.2.4. Il sottoinsieme Span(v1, . . . , vk) è un sottospazio vettoriale di V . Dimostrazione. Dobbiamo mostrare che W = Span(v1, . . . , vk) sod- disfa i 3 assiomi di sottospazio. (1) 0 ∈ W , infatti usando λ1 = · · · = λk = 0 troviamo 0v1 + · · ·+ 0vk = 0 + · · ·+ 0 = 0 ∈ W. (2) Se v, w ∈ W , allora v + w ∈ W . Infatti, per ipotesi v = λ1v1 + · · ·+ λkvk w = µ1v1 + · · ·+ µkvk e quindi raccogliendo otteniamo v + w = (λ1 + µ1)v1 + · · ·+ (λk + µk)vk . Anche la somma v + w è combinazione lineare di v1, . . . , vk e quindi v + w ∈ W . (3) Se v ∈ W e λ ∈ K, allora λv ∈ W . Infatti se v = λ1v1 + · · ·+ λkvk allora λv = (λλ1)v1 + · · ·+ (λλk)vk è anch’esso combinazione lineare di v1, . . . , vk . 54 2. SPAZI VETTORIALI La dimostrazione è conclusa.  Ad esempio, se v è un singolo vettore di V , otteniamo W = Span(v) = {λv | λ ∈ K}. Per esempio se V = R2 e v = ( 1 2 ) troviamo che W = Span(v) = { t ( 1 2 ) ∣∣∣∣ t ∈ R } = {( t 2t ) ∣∣∣∣ t ∈ R } . Notiamo che W è precisamente la retta descritta dall’equazione y = 2x già mostrata nella Figura 2.4-(sinistra). 2.2.11. Forma cartesiana e forma parametrica. Un sottospazio vet- toriale di Kn che sia descritto come luogo di zeri di un sistema di equazioni lineari omogenee è detto in forma cartesiana. Un sottospazio vettoriale di Kn descritto come sottospazio generato da alcuni vettori è invece detto in forma parametrica. Vedremo che qualsiasi sottospazio vettoriale di Kn può essere descritto in entrambi i modi. Ad esempio, il piano W = {z = 0} in R3 può essere descritto in forma cartesiana tramite l’equazione z = 0, oppure in forma parametrica come il sottospazio generato dai due vettori v1 e v2 indicati nella Sezione 2.2.9. Otteniamo in questo modo: W =Span(v1, v2)= t 1 0 0 + u 0 1 0 ∣∣∣∣ t, u ∈ R =  tu 0  ∣∣∣∣t, u ∈ R  . La forma parametrica è esplicita perché indica chiaramente come sono fatti i punti di W , al variare di alcuni parametri (in questo caso t e u). La forma cartesiana è implicita perché descrive W come luogo di soluzioni di una equazione (o di un sistema di equazioni). In molti casi la forma parametrica è preferibile proprio perché esplicita, ma può anche capitare che quella implicita sia più comoda, a seconda del contesto. Vedremo nelle prossime pagine come passare da una descrizione in forma cartesiana ad una in forma parametrica, e viceversa. 2.2.12. Polinomi con restrizioni. Siano K un campo e n un numero naturale qualsiasi. Indichiamo con Kn[x ] il sottoinsieme di K[x ] formato da tutti quei polinomi che hanno grado minore o uguale a n. In altre parole: Kn[x ] = { anx n + · · · a1x + a0 | a0, a1, . . . , an ∈ K } . Questa scrittura può essere interpretata in un altro modo: il sottoinsieme Kn[x ] è il sottospazio di K[x ] generato dai polinomi xn, . . . , x, 1, cioè: Kn[x ] = Span(xn, . . . , x, 1). In particolare, ne deduciamo che Kn[x ] è un sottospazio vettoriale di K[x ]. Ci sono altri modi di imporre restrizioni sui polinomi e ottenere così dei sottospazi vettoriali di K[x ]. Ad esempio: 2.2. SPAZI VETTORIALI 57 (3) analogamente si verifica che se A è simmetrica e λ ∈ K allora λA è simmetrica. La dimostrazione è conclusa.  2.2.15. Intersezione di sottospazi. Sia V uno spazio vettoriale e U,W ⊂ V due sottospazi. Da un punto di vista insiemistico è naturale considerare la loro intersezione U ∩W . Proposizione 2.2.11. L’intersezione U∩W di due sottospazi vettoriali U,W ⊂ V è sempre un sottospazio vettoriale. Dimostrazione. Come sempre, verifichiamo i 3 assiomi. (1) 0 ∈ U ∩W , perché 0 appartiene sia a U che a W . (2) v, w ∈ U ∩ W =⇒ v + w ∈ U ∩ W . Infatti v, w ∈ U implica v+w ∈ U e v, w ∈ W implica v+w ∈ W , quindi v+w ∈ U∩W . (3) v ∈ U ∩W =⇒ λv ∈ U ∩W ∀λ ∈ K è analogo al precedente. La dimostrazione è conclusa.  Facciamo alcuni esempi. Esempio 2.2.12. Il piani U = {x = 0} eW = {y = 0} in R3 mostrati in Figura 2.1 si intersecano nella retta U∩W , l’asse z , che può essere descritta in forma cartesiana come insieme delle soluzioni di questo sistema:{ x = 0 y = 0 oppure esplicitamente in forma parametrica come U ∩W =  0 0 t ∣∣∣∣∣t ∈ R  . Più in generale, se U eW sono sottospazi di Kn descritti in forma cartesiana come soluzioni di sistemi lineari omogenei, l’intersezione U ∩W è descritta sempre in forma cartesiana unendo i sistemi lineari in uno solo. Questo fatto è conseguenza di un principio insiemistico più generale: Affiancare equazioni in un sistema corrisponde a fare l’intersezione delle soluzioni. Esempio 2.2.13. Fra i sottospazi diM(n) valgono le seguenti relazioni: D(n) = T s(n) ∩ T i(n), {0} = S(n) ∩ A(n). La seconda relazione dice che una matrice A che è contemporaneamente simmetrica e antisimmetrica è necessariamente nulla. Infatti ai j = ai j e ai j = −ai j insieme implicano ai j = 0, per ogni i , j . 58 2. SPAZI VETTORIALI 2.2.16. L’unione non funziona. Dopo aver considerato l’intersezione U ∩W di due sottospazi U,W ⊂ V , è naturale adesso considerare la loro unione U ∪W . Ci accorgiamo però immediatamente che l’unione U ∪W di due sottospazi molto spesso non è un sottospazio, come mostra l’esempio seguente. Esempio 2.2.14. Se V = R2 e U = {x = 0} e W = {y = 0} sono le due rette che definiscono gli assi di R2, la loro unione U ∪ W non è certamente un sottospazio perché non è soddisfatto l’assioma (2): ad esempio, se prendiamo u = ( 1 0 ) e w = ( 0 1 ) , vediamo che u, w ∈ U ∪W ma la loro somma u + w = ( 1 1 ) non appartiene a U ∪W . Esercizio 2.2.15. Siano U,W ⊂ V sottospazi vettoriali. Mostra che U ∪W è un sottospazio se e solo se U ⊂ W oppure W ⊂ U. Abbandoniamo quindi questa strada e ci accingiamo a definire un’altra operazione che sarà molto più utile in seguito. 2.2.17. Somma di sottospazi. Siano come sopra U,W ⊂ V due sottospazi di uno spazio vettoriale V . Definizione 2.2.16. La somma U + W dei due sottospazi U e W è il sottoinsieme di V seguente: U +W = {u + w | u ∈ U,w ∈ W} ⊂ V. La somma U+W è l’insieme di tutti i vettori di V che possono essere scritti come somma u + w di un vettore u ∈ U e di un altro w ∈ W . Proposizione 2.2.17. L’insieme U +W contiene sia U che W . Dimostrazione. Prendendo u ∈ U e 0 ∈ W otteniamo u = u+0 ∈ U+ W e analogamente facciamo scrivendo w ∈ W come 0 +w ∈ U +W .  Proposizione 2.2.18. L’insieme U +W è sottospazio vettoriale di V . Dimostrazione. Come sempre, verifichiamo i 3 assiomi. (1) 0 ∈ U +W perché 0 ∈ U, 0 ∈ W e scriviamo 0 = 0 + 0. (2) v, v ′ ∈ U + W =⇒ v + v ′ ∈ U + W . Infatti per definizione v = u +w e v ′ = u′ +w ′ con u, u′ ∈ U e w,w ′ ∈ W . Ne segue che v + v ′ = (u + u′) + (w + w ′) con u + u′ ∈ U e w + w ′ ∈ W , quindi anche v + v ′ ∈ U +W . (3) v ∈ U +W,λ ∈ K =⇒ λv ∈ U +W . Analogo al precedente. La dimostrazione è conclusa.  Prima di fornire esempi concreti, descriviamo una proposizione utile per chiarire operativamente come funzioni la somma fra sottospazi. 2.2. SPAZI VETTORIALI 59 Proposizione 2.2.19. Siano u1, . . . , uh e w1, . . . , wk vettori di uno spazio vettoriale V . Se U = Span(u1, . . . , uh), W = Span(w1, . . . , wk) allora U +W = Span(u1, . . . , uh, w1, . . . , wk). Dimostrazione. L’insieme U + W è formato dagli u + w dove u ∈ U e w ∈ W . Per ipotesi due generici u ∈ U e w ∈ W si scrivono come u = λ1u1 + · · ·+ λhuh, w = µ1w1 + · · ·+ µkwk e quindi u + w = λ1u1 + · · ·+ λhuh + µ1w1 + · · ·+ µkwk . Abbiamo dimostrato in questo modo che u + w è sempre combinazio- ne lineare dei vettori u1, . . . , uh, w1, . . . , wk . Abbiamo quindi mostrato l’inclusione U +W ⊂ Span(u1, . . . , uh, w1, . . . , wk). Mostriamo adesso l’inclusione opposta. Ogni vettore v che sia combina- zione lineare dei vettori u1, . . . , uh, w1, . . . , wk si scrive come v = λ1u1 + · · ·+ λhuh + µ1w1 + · · ·+ µkwk . Definiamo u = λ1u1 + · · ·+ λhuh, w = µ1w1 + · · ·+ µkwk e troviamo che v = u + w . Quindi abbiamo anche U +W ⊃ Span(u1, . . . , uh, w1, . . . , wk). I due insiemi sono uguali.  Diciamo che dei vettori v1, . . . , vk ∈ W sono dei generatori di W se W = Span(v1, . . . , vk). Abbiamo visto precedentemente che affiancare equazioni in un siste- ma corrisponde a fare l’intersezione dei sottospazi. La proposizione che abbiamo appena dimostrato può essere riassunta in modo analogo: Affiancare dei generatori corrisponde a fare la somma di sottospazi. Esempio 2.2.20. Consideriamo i vettori in R3: v1 = 1 0 0  , v2 = 0 1 0  . I sottospazi U = Span(v1) e W = Span(v2) sono due rette, gli assi x e y . Lo spazio somma U + W = Span(v1, v2) è il piano orizzontale che li contiene, descritto dall’equazione z = 0. 62 2. SPAZI VETTORIALI • i vettori vi sono tutti diversi da zero; • i vettori vi sono a coppie non multipli. Attenzione però: l’esempio sopra con v1, v2, v3 ∈ R3 mostra che queste due condizioni sono necessarie ma non sufficienti affinché i vettori v1, . . . , vk siano indipendenti quando k ≥ 3. Esercizio 2.3.5. Considera i vettori seguenti di R3: v1 = 1 1 2  , v2 = −1 1 −1  , v3 = 1 5 4  , v4 = 0 1 1  . Mostra che v1, v2, v3 sono dipendenti e v1, v2, v4 indipendenti. 2.3.2. Basi. Introduciamo adesso una delle definizioni più importanti del libro. Sia V uno spazio vettoriale. Definizione 2.3.6. Una sequenza v1, . . . , vn ∈ V di vettori è una base se sono soddisfatte entrambe queste condizioni: (1) i vettori v1, . . . , vn sono indipendenti; (2) i vettori v1, . . . , vn generano V . Ricordiamo che la seconda condizione vuol dire che V = Span(v1, . . . , vn), cioè qualsiasi vettore di V è esprimibile come combinazione lineare dei vettori v1, . . . , vn. Facciamo adesso alcuni esempi fondamentali. Proposizione 2.3.7. Gli elementi e1 =  1 0 ... 0  , e2 =  0 1 ... 0  , . . . en =  0 0 ... 1  formano una base di Kn detta base canonica. Dimostrazione. Mostriamo che i vettori e1, . . . , en sono indipendenti. Supponiamo di avere una combinazione lineare nulla λ1e1 + · · ·+ λnen = 0. Questa tradotta in vettori diventa λ1 λ2 ... λn  =  0 0 ... 0  . Ne deduciamo che λ1 = · · · = λn = 0 e quindi e1, . . . , en sono indipendenti. Mostriamo che i vettori e1, . . . , en generano Kn. Un generico vetto- re x ∈ Kn si può effettivamente scrivere come combinazione lineare di 2.3. DIMENSIONE 63 e1, . . . , en nel modo seguente: x =  x1 x2 ... xn  = x1  1 0 ... 0 +x2  0 1 ... 0 + · · ·+xn  0 0 ... 1  = x1e1 +x2e2 + · · ·+xnen. La dimostrazione è conclusa.  Ricordiamo lo spazio Kn[x ] dei polinomi di grado minore o uguale a n. Proposizione 2.3.8. Gli elementi 1, x, x2, . . . , xn formano una base di Kn[x ], detta base canonica. Dimostrazione. Lo spirito della dimostrazione è lo stesso di quella precedente. Dimostriamo che i vettori 1, x, . . . , xn sono indipendenti: se λ0 · 1 + λ1x + · · ·+ λnx n = 0 allora chiaramente λ0 = · · · = λn = 0. D’altro canto, ciascun polinomio di grado minore o uguale a n si scrive come p(x) = anx n + · · ·+ a1x + a0 e questa scrittura è già una combinazione lineare dei 1, x, . . . , xn con coef- ficienti a0, a1, . . . , an. Quindi gli elementi 1, x, . . . , xn generano Kn[x ].  Ricordiamo anche lo spazio M(m, n,K) delle matrici m × n a coeffi- cienti in K. Per ogni 1 ≤ i ≤ m e 1 ≤ j ≤ n, indichiamo con ei j la matrice m×n che ha tutti zeri ovunque, tranne un 1 nella casella di riga i e colonna j . Ad esempio, nel caso delle matrici quadrate 2× 2 troviamo: e11 = ( 1 0 0 0 ) , e12 = ( 0 1 0 0 ) , e21 = ( 0 0 1 0 ) , e22 = ( 0 0 0 1 ) . Proposizione 2.3.9. Le matrici ei j con 1 ≤ i ≤ m e 1 ≤ j ≤ n formano una base di M(m, n,K), detta base canonica. Dimostrazione. La dimostrazione è del tutto analoga a quella per Kn, solo con la complicazione notazionale che abbiamo due indici i , j invece che uno solo. Mostriamo che le matrici ei j sono indipendenti. Supponiamo di avere una combinazione lineare nulla∑ i ,j λi jei j = 0. Qui sommiamo su 1 ≤ i ≤ m e 1 ≤ j ≤ n, quindi ci sono mn addendi. Esplicitando le matrici, l’equazione diventaλ11 · · · λ1n ... . . . ... λm1 · · · λmn  = 0 · · · 0 ... . . . ... 0 · · · 0  . 64 2. SPAZI VETTORIALI Da questa ricaviamo che λi j = 0 per ogni i , j . Mostriamo che le matrici ei j generano: qualsiasi matrice A si scrive come A = a11 · · · a1n ... . . . ... am1 · · · amn  = ∑ i ,j ai jei j . La dimostrazione è conclusa.  Abbiamo descritto delle basi canoniche per gli spazi vettoriali Kn, Kn[x ] e M(m, n,K). Queste però non sono certamente le uniche basi disponibili: uno spazio vettoriale ha generalmente una infinità di basi di- verse e come vedremo successivamente sarà spesso importante scegliere la base giusta per risolvere i problemi che troveremo. Esercizio 2.3.10. I vettori (−1 1 ) e ( 2 1 ) formano una base di R2. 2.3.3. Coordinate di un vettore rispetto ad una base. A cosa ser- vono le basi? Servono per dare un nome a tutti i vettori dello spazio. A questo scopo useremo la proposizione seguente. Proposizione 2.3.11. Sia V uno spazio vettoriale e sia v1, . . . , vn una base di V . Ogni vettore v ∈ V si scrive in modo unico come v = λ1v1 + · · ·+ λnvn. Dimostrazione. Sappiamo che i v1, . . . , vn generano, quindi sicura- mente v si può scrivere come combinazione lineare dei v1, . . . , vn. Sup- poniamo che lo si possa fare in due modi diversi: v = λ1v1 + · · ·+ λnvn = µ1v1 + · · ·+ µnvn. Spostando tutto a sinistra otteniamo (λ1 − µ1)v1 + · · ·+ (λn − µn)vn = 0. Siccome i vettori sono indipendenti, necessariamente µi = λi per ogni i .  I coefficienti λ1, . . . , λn sono le coordinate di v rispetto alla base. Esempio 2.3.12. Le coordinate di un vettore x ∈ Kn rispetto alla base canonica e1, . . . , en di Kn sono i suoi coefficienti x1, . . . , xn, visto che x = x1e1 + · · ·+ xnen. Se cambiamo base questo non è più vero. Ad esempio, se prendiamo v1 = ( 1 1 ) , v2 = (−1 1 ) come base di R2, il vettore w = ( 2 0 ) si scrive come w = v1 − v2 e quindi le sue coordinate rispetto alla base v1, v2 sono 1,−1. Esempio 2.3.13. Le coordinate di un polinomio p(x) = anx n+· · · a1x+ a0 rispetto alla base canonica 1, x, . . . , xn sono a0, a1, . . . , an. Esempio 2.3.14. Le coordinate di una matrice ( a b c d ) rispetto alla base canonica e11, e12, e21, e22 di M(2,K) sono a, b, c, d . 2.3. DIMENSIONE 67 Dimostrazione. Supponiamo per assurdo che lo spazio K[x ] abbia una base p1(x), . . . , pn(x). Sia N il massimo dei gradi dei p1(x), . . . , pn(x). È chiaro che il polinomio xN+1 non può essere ottenuto come combinazione lineare dei p1(x), . . . , pn(x), e questo è un assurdo.  Notiamo infine che per definizione uno spazio vettoriale V ha dimen- sione 0 se e solo se consiste solo dell’origine V = {0}. 2.3.5. Algoritmo di completamento. Abbiamo definito la dimensio- ne di uno spazio vettoriale V come il numero di elementi in una sua base. Adesso abbiamo bisogno di algoritmi concreti per determinare una base di V in vari contesti. Iniziamo con una proposizione utile. Proposizione 2.3.20. Sia V uno spazio vettoriale e v1, . . . , vk ∈ V dei vettori indipendenti. Sia vk+1 ∈ V . Allora: v1, . . . , vk+1 sono indipendenti ⇐⇒ vk+1 6∈ Span(v1, . . . , vk). Dimostrazione. (⇒) Se per assurdo vk+1 ∈ Span(v1, . . . , vk), allora otteniamo vk+1 = λ1v1 + · · · + λkvk e quindi i vettori v1, . . . , vk+1 sono dipendenti. (⇐) Supponiamo che λ1v1 + · · ·+ λk+1vk+1 = 0. Se λk+1 = 0, otteniamo una combinazione lineare nulla dei primi v1, . . . , vk , quindi λ1 = · · · = λk = 0. Se λk+1 6= 0, dividiamo tutto per λk+1 ottenendo una dipendenza di vk+1 dai precedenti, che è assurdo.  Descriviamo adesso l’algoritmo di completamento a base. Sia V uno spazio vettoriale di dimensione n. Siano v1, . . . , vk ∈ V dei vettori indipen- denti qualsiasi, con k < n. Possiamo sempre completare v1, . . . , vk ad una base di V nel modo seguente. Siccome k < n, i vettori v1, . . . , vk non sono una base di V , in particolare non generano V . Allora esiste un vk+1 ∈ V tale che vk+1 6∈ Span(v1, . . . , vk). Aggiungiamo vk+1 alla lista, che adesso diventa v1, . . . , vk+1. La nuova lista è ancora formata da vettori indipendenti per la Proposizione 2.3.20. Continuiamo finché non otteniamo n vettori indipendenti v1, . . . , vn. Questi devono essere una base per il Lemma 2.3.18. Esempio 2.3.21. Consideriamo i vettori indipendenti in R3 v1 = 1 1 0  , v2 = −1 0 1  . Per completare la coppia v1, v2 ad una base di R3 è sufficiente aggiungere un terzo vettore qualsiasi che non sia contenuto nel piano Span(v1, v2). Ad esempio, v3 = e1 funziona (ricordiamo che e1, e2, e3 sono i vettori della base canonica di R3). Quindi v1, v2, e1 è una base di R3. 68 2. SPAZI VETTORIALI 2.3.6. Algoritmo di estrazione. Descriviamo adesso l’algoritmo di estrazione di una base. Sia V uno spazio vettoriale e siano v1, . . . , vm dei generatori di V . Vogliamo estrarre da questo insieme di generatori una base per V . L’algoritmo funziona nel modo seguente. Se i generatori v1, . . . , vm sono indipendenti, allora formano già una base per V e siamo a posto. Altrimenti, esiste almeno un vi che può essere espresso come combinazione degli altri. Se lo rimuoviamo dalla lista, otteniamo una lista di m−1 vettori che continuano a generare V . Dopo un numero finito di passi otteniamo una lista di vettori indipendenti, e questi sono una base di V . Esempio 2.3.22. Consideriamo i vettori di R3 v1 = 1 1 0  , v2 = 0 1 1  , v3 = −1 1 1  , v4 = 0 0 1  . Si verifica facilmente che questi generano R3, ma non sono indipendenti, ad esempio v1− 2v2 + v3 + v4 = 0. Ciascuno dei quattro vettori è esprimi- bile come combinazione degli altri tre: rimuovendo uno qualsiasi di questi quattro vettori otteniamo una base di R3. Concludiamo con una proposizione che risulta utile in molti casi con- creti quando dobbiamo mostrare che un certo insieme di vettori è una base. In generale, per dimostrare che n vettori sono una base di V , dobbiamo dimostrare che generano e che sono indipendenti. La proposizione seguen- te dice che, se sappiamo già che dim V = n, allora una qualsiasi delle due proprietà è sufficiente, perché implica l’altra. Proposizione 2.3.23. Siano v1, . . . , vn vettori di uno spazio V di di- mensione n. I fatti seguenti sono tutti equivalenti: (1) v1, . . . , vn generano V ; (2) v1, . . . , vn sono indipendenti; (3) v1, . . . , vn sono una base per V . Dimostrazione. (3) ⇒ (2) è ovvio. (2) ⇒ (1) è il Lemma 2.3.18. (1) ⇒ (3). Se v1, . . . , vn non fossero indipendenti, potremmo estrar- re da questi una base con meno di n vettori, contraddicendo il Teorema 2.3.16.  Usando questo criterio possiamo dimostrare il fatto seguente. Proposizione 2.3.24. I vettori v1 =  a11 0 0 ... 0  , v2 =  a12 a22 0 ... 0  , v3 =  a13 a23 a33 ... 0  , . . . , vn =  a1n a2n a3n ... ann  2.3. DIMENSIONE 69 sono una base di Kn ⇐⇒ i numeri a11, . . . , ann sono tutti diversi da zero. Dimostrazione. Mostriamo che v1, . . . , vn sono indipendenti ⇐⇒ a11, . . . , ann 6= 0. Supponiamo che λ1v1 + · · ·+ λnvn = 0. Questa uguaglianza fra vettori è equivalente al sistema lineare omogeneo a11λ1 + a12λ2 + a13λ3 + · · ·+ a1nλn = 0, a22λ2 + a23λ3 + · · ·+ a1nλn = 0, a33λ3 + · · ·+ a1nλn = 0, ... annλn = 0. Mostriamo per induzione su n che ∃! soluzione λ1 = · · · = λn = 0⇐⇒ a11, . . . , ann 6= 0. Per n = 1 il sistema è semplicemente l’equazione a11λ1 = 0 ed è chiaro che se a11 6= 0 allora λ1 = 0 è l’unica soluzione, mentre se a11 = 0 allora qualsiasi numero λ1 = t ∈ K è soluzione. Supponiamo l’asserzione vera per n − 1 e la dimostriamo per n. Se ann 6= 0, allora l’ultima equazione annλn = 0 implica che λn = 0. Sosti- tuendo λn = 0 in tutte le equazioni precedenti ci riconduciamo al caso n − 1 e concludiamo per l’ipotesi induttiva. Se invece ann = 0, allora λ1 = 0, . . . , λn−1 = 0, λn = t è soluzione per ogni t ∈ K e quindi non è vero che il sistema ha un’unica soluzione. Abbiamo concluso.  2.3.7. Sottospazi vettoriali. La proposizione seguente ci racconta un fatto molto intuitivo: uno spazio non può contenere un sottospazio di dimensione più grande di lui. Proposizione 2.3.25. Sia V uno spazio vettoriale e U ⊂ V un sotto- spazio. Vale 0 ≤ dimU ≤ dim V. Inoltre: • dimU = 0⇐⇒ U = {0}. • dimU = dim V ⇐⇒ U = V . Dimostrazione. Sia v1, . . . , vk base di U. Per l’algoritmo di comple- tamento, questa può essere estesa ad una base v1, . . . , vn di V . In par- ticolare n ≥ k, cioè dim V ≥ dimU. Inoltre k = 0 ⇐⇒ U = {0} e n = k ⇐⇒ U = V  La proposizione ci dice anche che gli unici sottospazi di V di dimensione minima 0 e massima dim V sono precisamente il sottospazio banale {0} ed il sottospazio totale V stesso. Corollario 2.3.26. Uno spazio vettoriale V di dimensione 1 contiene solo due sottospazi: il sottospazio banale {0} e il sottospazio totale V . 72 2. SPAZI VETTORIALI 0U u W w v V Figura 2.5. Una somma diretta V = U ⊕W . Ogni vettore v ∈ V si scrive in modo unico come v = u + w dove u ∈ U e w ∈ W . Dimostrazione. Per la formula di Grassmann abbiamo dim(U +W ) + dim(U ∩W ) = dimU + dimW = dim V. Da questa formula deduciamo che (2) ⇔ (3), infatti V =U+W ⇐⇒ dim V =dim(U+W )⇐⇒ dim(U∩W )=0⇐⇒ U∩W ={0}. La dimostrazione è conclusa.  Se sappiamo che dim V = dimU + dimW , per dimostrare che V = U⊕W è sufficiente verificare che V = U+W oppure U∩W = {0}. Spesso la seconda condizione è più semplice da provare. Esempio 2.3.30. Se U e W sono due rette vettoriali in V = R2, sappiamo che dim V = 2 = 1 + 1 = dimU + dimW . Se sono distinte, si intersecano solo nell’origine. Ne deduciamo che se U e W sono due rette distinte qualsiasi in R2 vale sempre R2 = U ⊕W . Analogamente, siano U un piano e W una retta vettoriali in R3. Se questi si intersecano solo nell’origine allora vale R3 = U ⊕W . Esempio 2.3.31. In Kn i sottospazi U = Span(e1, . . . , ek), W = Span(ek+1, . . . , en) sono in somma diretta e Kn = U ⊕W . Esempio 2.3.32. Consideriamo V = R2 e due rette U = Span ( 1 0 ) , W = Span ( −1 2 ) . Sappiamo che R2 = U ⊕ W e quindi ogni vettore ( x y ) ∈ R2 si scrive in modo unico come combinazione lineare di un vettore in U e un vettore in W . Effettivamente:( x y ) = ( x + y 2 )(1 0 ) + y 2 ( −1 2 ) . 2.3. DIMENSIONE 73 2.3.10. Trasposta di una matrice. Per il prossimo esempio di somma diretta abbiamo bisogno di introdurre una semplice operazione sulle matrici. La trasposta di una matrice A ∈ M(m, n,K) è la matrice t A ∈ M(n,m,K) definita scambiando righe e colonne, cioè: (t A)i j = Aj i . Ad esempio: A =  2 1 −1 0 5 7  =⇒ t A = ( 2 −1 5 1 0 7 ) . Valgono le proprietà seguenti: t(A+ B) = t A+ t B, t(λA) = λ t A. Se A ∈ M(n), allora anche t A ∈ M(n). Notiamo che A è simmetrica ⇐⇒ t A = A e inoltre A è antisimmetrica ⇐⇒ t A = −A. 2.3.11. Matrici simmetriche e antisimmetriche. Torniamo alle som- me dirette di sottospazi: vogliamo descrivere un esempio con le matrici. Esempio 2.3.33. Ricordiamo che S(n) e A(n) sono le matrici n × n simmetriche e antisimmetriche. Dimostriamo che M(n) = S(n)⊕ A(n). Dobbiamo verificare due cose: • M(n) = S(n) + A(n). Infatti ogni matrice B ∈ M(n) si scrive come somma di una matrice simmetrica e di una antisimmetrica con il seguente trucco: B = B + t B 2 + B − t B 2 . Effettivamente si vede facilmente che il primo addendo è sim- metrico ed il secondo antisimmetrico. • S(n) ∩ A(n) = {0}. Infatti solo la matrice nulla è contempora- neamente simmetrica e antisimmetrica. Esercizio 2.3.34. Mostra che: • Le matrici ei j + ej i con i < j e ei i formano una base di S(n), • Le matrici ei j − ej i con i < j formano una base di A(n). Ad esempio, le matrici( 0 1 1 0 ) , ( 1 0 0 0 ) , ( 0 0 0 1 ) formano una base di S(2), che ha dimensione 3, mentre la matrice( 0 1 −1 0 ) 74 2. SPAZI VETTORIALI forma una base di A(2), che ha dimensione 1. Deduci che dimS(n) = 1+· · ·+n = n(n + 1) 2 , dimA(n) = 1+· · ·+n−1 = (n − 1)n 2 . Nota che effettivamente dimS(n) + dimA(n) = n2 = dimM(n). 2.3.12. Somma (diretta) di più sottospazi. La nozione di somma diretta è molto utile e la ritroveremo varie volte in seguito. È possibile estenderla da 2 ad un numero arbitrario k di sottospazi. Iniziamo estendendo l’operazione di somma. Sia V uno spazio vetto- riale e V1, . . . , Vk ⊂ V alcuni sottospazi. Indichiamo con V1 + · · ·+ Vk il sottoinsieme di V formato da tutti i vettori del tipo v1 + · · ·+ vk dove vi ∈ Vi . Si verifica come nel caso k = 2 che V1 + · · · + Vk è un sottospazio vettoriale di V . Diremo che i sottospazi V1, . . . , Vk sono in somma diretta se Vi ∩ (V1 + · · ·+ Vi−1 + Vi+1 + · · ·+ Vk) = {0} ∀i = 1, . . . , k. Si richiede che ciascun sottospazio intersechi la somma di tutti gli altri soltanto nell’origine. In questo caso scriviamo la loro somma con il simbolo V1 ⊕ · · · ⊕ Vk . La definizione di somma diretta sembra inutilmente tecnica, ma è quella giusta, come mostra il seguente fatto, analogo alla Proposizione 2.3.28. Proposizione 2.3.35. Siano V1, . . . , Vk ⊂ V alcuni sottospazi. I fatti seguenti sono equivalenti: (1) V = V1 ⊕ · · · ⊕ Vk . (2) dim V = dim(V1 + · · ·+ Vk) = dim V1 + · · ·+ dim Vk . (3) Per qualsiasi scelta di basi v i1, . . . , v i hi di ciascun Vi , la loro unione al variare di i = 1, . . . , k è una base di V . (4) Ogni vettore v ∈ V si scrive in modo unico come v = v1 + · · ·+ vk per qualche vi ∈ Vi . Dimostrazione. (1) ⇒ (2) La prima uguaglianza è ovvia; per la se- conda, mostriamo che dim(V1 + · · ·+ Vi) = dim V1 + · · ·+ dim Vi ESERCIZI 77 Esercizio 2.20. Sia V uno spazio vettoriale di dimensione n. Mostra che per ogni 0 ≤ k ≤ n esiste un sottospazio W ⊂ V di dimensione k. Esercizio 2.21. Sia V uno spazio vettoriale di dimensione finita e U ⊂ V un sottospazio. Un complementare algebrico per U è un sottospazio W ⊂ V tale che V = U ⊕W . Mostra che esiste sempre un complementare algebrico per U. Esercizio 2.22. Determina 4 vettori v1, v2, v3, v4 ∈ R4 con queste proprietà: (1) Se elimini un qualsiasi vettore, i tre rimanenti sono sempre indipen- denti. (2) I sottospazi U = Span(v1, v2) e W = Span(v3, v4) non sono in somma diretta. Esercizio 2.23. Siano U e W sottospazi di R5, entrambi di dimensione 3. Quali sono le possibili dimensioni di U ∩W? Descrivi degli esempi. Esercizio 2.24. Considera i due sottospazi di R3, dipendenti da una variabile t ∈ R: U = Span 1 1 1  , Wt = Span 1 0 t  , 0 1 2  . Determina per quali valori di t ∈ R vale U ⊕W = R3. Esercizio 2.25. Siano U una retta vettoriale e W un piano vettoriale in R3. Dimostra che i fatti seguenti sono tutti equivalenti: R3 = U ⊕W ⇐⇒ U ∩W = {0} ⇐⇒ (U * W e W * U). Esercizio 2.26. Mostra che qualsiasi spazio vettoriale V di dimensione n contiene n sottospazi V1, . . . , Vn tutti di dimensione 1 tali che V = V1 ⊕ · · · ⊕ Vn. Esercizio 2.27. Siano U, V,W sottospazi di R4, tutti di dimensione 3. Siano a = dim(U ∩V ), b = dim(V ∩W ), c = dim(U ∩W ), d = dim(U ∩V ∩W ). (1) Dimostra che a ∈ {2, 3}. (2) Dimostra che d > 0. (3) Costruisci un esempio di U, V,W in cui d = 2. (4) Costruisci un esempio di U, V,W in cui d = 1. (5) Determina tutti i possibili valori per la quadrupla (a, b, c, d) al variare di U, V,W . CAPITOLO 3 Sistemi lineari Nel capitolo precedente abbiamo usato alcuni strumenti algebrici per definire dei concetti geometrici, come quelli di spazio vettoriale, retta, piano e dimensione. In questo capitolo ci muoviamo un po’ in direzione opposta: usiamo le nozioni geometriche appena introdotte per studiare un problema algebrico. Il problema algebrico in questione è la determinazione delle soluzioni di un sistema di equazioni lineari. L’analisi dei sistemi lineari ci porterà naturalmente allo studio delle matrici. La teoria delle matrici è alla base della matematica e della scienza moderne, e porta con sé un folto numero di nozioni e strumenti, fra i quali spiccano il rango ed il determinante. 3.1. Algoritmi di risoluzione Introduciamo in questa sezione un algoritmo che può essere usato per risolvere qualsiasi sistema lineare. L’ingrediente principale consiste in alcu- ne mosse con le quali possiamo modificare una matrice in modo controllato, note come mosse di Gauss. 3.1.1. Mosse di Gauss. Un sistema lineare è un insieme di k equazioni lineari in n variabili  a11x1 + · · ·+ a1nxn = b1, ... ak1x1 + · · ·+ aknxn = bk . I numeri ai j sono i coefficienti e i bi sono i termini noti del sistema. Sia i coefficienti, che i termini noti, che le variabili sono in un certo campo fissato K. Possiamo raggruppare i coefficienti e i termini noti efficacemente in una matrice k × n e un vettore colonna: A = a11 · · · a1n ... . . . ... ak1 · · · akn  , b = b1 ... bk  . Possiamo quindi unire tutto in un’unica matrice k × (n + 1): C = (A | b) 79 82 3. SISTEMI LINEARI ottenere C32 = 0. Il risultato è C = 1 1 2 −3 0 1 1 0 0 0 0 −2  . Adesso la matrice è a scalini e l’algoritmo termina. 3.1.3. Algoritmo di Gauss - Jordan. Per un motivo che sarà chiaro in seguito, dopo aver ridotto la matrice a scalini, è a volte utile fare delle ulteriori mosse di Gauss per fare in modo che tutti i numeri sopra i pivot siano nulli. Questo è sempre possibile usando mosse di Gauss di tipo (III), aggiungendo la riga che contiene il pivot (moltiplicata per una costante opportuna) alle righe precedenti. Ad esempio, nella matrice C ottenuta precedentemente abbiamo C12 6= 0. Per ottenere C12 = 0 possiamo sostituire C1 con C1 − C2. Il risultato è una nuova matrice C = 1 0 1 −3 0 1 1 0 0 0 0 −2  . Adesso notiamo che C14 6= 0. Per ottenere C14 = 0 sostituiamo C1 con C1 − 3 2 C3 e otteniamo infine C = 1 0 1 0 0 1 1 0 0 0 0 −2  . Come ultimo ritocco, vedremo che sarà anche utile ottenere che tutti i pivot abbiano valore 1. È sempre possibile ottenere questo semplicemente con mosse di Gauss di tipo (II). Nel nostro esempio, i pivot C11 e C22 hanno già valore 1, però C34 = −2. Per ottenere C34 = 1 dividiamo la terza riga per -2. Il risultato finale è C = 1 0 1 0 0 1 1 0 0 0 0 1  . L’algoritmo che abbiamo appena descritto si chiama algoritmo di Gauss - Jordan. Consiste in due fasi: (1) Trasformare la matrice a scalini tramite algoritmo di Gauss. (2) Ottenere solo zeri sopra i pivot con mosse (III) e tutti i pivot uguali a 1 con mosse (II). 3.1. ALGORITMI DI RISOLUZIONE 83 Facciamo un altro esempio di applicazione dell’algoritmo di Gauss - Jordan. Sopra ogni freccia indichiamo la mossa di Gauss corrispondente.1 −1 3 0 2 2 1 0 4  C3→C3−C1−→ 1 −1 3 0 2 2 0 1 1  C3→C3− 1 2C2−→ 1 −1 3 0 2 2 0 0 0  C1→C1+ 1 2C2−→ 1 0 4 0 2 2 0 0 0  C2→ 1 2C2−→ 1 0 4 0 1 1 0 0 0  L’algoritmo di Gauss - Jordan è garantito funzionare sempre; d’altra parte, per ottenere una matrice a scalini (eventualmente con zeri sopra i pivot e pivot uguali a 1) non è necessario seguire pedissequamente l’algoritmo: qualsiasi combinazione di mosse di Gauss è lecita purché si arrivi al risultato. 3.1.4. Risoluzione di un sistema lineare. Mostriamo adesso come sia possibile descrivere esplicitamente lo spazio S ⊂ Kn delle soluzioni di un dato sistema lineare. Il sistema è descritto da una matrice C = (A | b). Usando l’algoritmo di Gauss - Jordan, possiamo trasformare C in una matrice a scalini, in cui ogni pivot ha valore 1 e tutti i numeri sopra i pivot sono nulli. La matrice C sarà indicativamente di questo tipo: 0 1 ? 0 0 ? ? 0 0 0 1 0 ? ? 0 0 0 0 1 ? ?  . Adesso guardiamo le colonne che contengono i pivot, che in questo esempio sono la seconda, la quarta e la quinta. Ciascuna di queste colonne contiene un 1 al posto del pivot e 0 in tutte le altre caselle. Ci sono due casi da considerare. Se la colonna dei termini noti b contiene un pivot, allora la matrice è indicativamente di questo tipo: 0 1 ? 0 0 ? ? 0 0 0 1 0 ? ? 0 0 0 0 0 0 1  . La riga che contiene l’ultimo pivot rappresenta l’equazione 0 = 1 che chiaramente non può avere soluzione. In questo caso l’insieme S delle soluzioni è vuoto, cioè S = ∅. Consideriamo adesso il caso in cui l’ultima colonna non contenga pivot. La matrice C è indicativamente di questo tipo: 0 1 a13 0 0 a16 b1 0 0 0 1 0 a26 b2 0 0 0 0 1 a36 b3  . Ricordiamo che ciascuna colonna corrisponde ad una variabile x1, . . . , xn, eccetto l’ultima che contiene i termini noti. Adesso assegniamo un para- metro t1, t2, . . . a ciascuna variabile che corrisponde ad una colonna che 84 3. SISTEMI LINEARI non contiene un pivot. Nel nostro caso, scriviamo x1 = t1, x3 = t2 e x6 = t3. Conseguentemente il sistema lineare è di questa forma: x2 + a13t2 + a16t3 = b1, x4 + a26t3 = b2, x5 + a36t3 = b3. Spostiamo a destra dell’uguale tutti i nuovi parametri e otteniamo: x2 = b1 − a13t2 − a16t3, x4 = b2 − a26t3, x5 = b3 − a36t3. Al sistema aggiungiamo anche le equazioni corrispondenti alle assegnazioni dei parametri liberi, che nel nostro caso sono x1 = t1, x3 = t2 e x6 = t3. Il risultato è un sistema del tipo: x1 = t1, x2 = b1 − a13t2 − a16t3, x3 = t2, x4 = b2 − a26t3, x5 = b3 − a36t3, x6 = t3. Il sistema è risolto. I parametri t1, t2, . . . sono liberi e possono assumere qualsiasi valore in K, e le variabili x1, . . . , xn dipendono da questi parametri liberi come indicato. Notiamo che è sempre possibile usare una notazione parametrica vet- toriale per esprimere le soluzioni, del tipo x1 x2 x3 x4 x5 x6 =  t1 b1 − a13t2 − a16t3 t2 b2 − a26t3 b3 − a36t3 t3 =  0 b1 0 b2 b3 0 +t1  1 0 0 0 0 0 +t2  0 −a13 1 0 0 0 +t3  0 −a16 0 −a26 −a36 1 . In generale, le soluzioni sono sempre del tipo x = x0 + t1v1 + · · ·+ thvh dove x0, v1, . . . , vh ∈ Kn sono vettori fissati, e i vi sono tutti della forma vi =  ? ... ? 1 0 ... 0  3.2. TEOREMA DI ROUCHÉ - CAPELLI 87 ad esempio potremmo prendere 3 2 0  e quindi descrivere lo stesso insieme S di soluzioni in questo modo:3 2 0 + 0 u u  =  3 2 + u u  . Si ottiene effettivamente lo stesso insieme S di prima, sostituendo t = u + 2. 3.2.2. Sottospazio affine. Cerchiamo adesso di rispondere alla se- guente domanda: che tipo di luogo geometrico è l’insieme S di soluzioni di un sistema lineare? La risposta è che S è sempre un sottospazio affine. Sia V uno spazio vettoriale. Un sottospazio affine di V è un qualsiasi sottoinsieme del tipo S = {x + v | v ∈ W} dove x è un punto fissato di V e W ⊂ V è un sottospazio vettoriale. Esempio 3.2.3. Abbiamo appena visto che le soluzioni S di un sistema di equazioni lineari formano l’insieme vuoto oppure un sottospazio affine di Kn. Infatti se S 6= ∅ allora S = {x + v | v ∈ S0} dove x è un punto qualsiasi di S e S0 è l’insieme delle soluzioni del sistema lineare omogeneo associato, che è sempre un sottospazio vettoriale. Per indicare un sottospazio affine S, usiamo semplicemente la scrittura S = x +W = {x + v | v ∈ W}. Lo stesso sottospazio affine può essere descritto in più modi diversi. Chia- riamo subito quando due scritture differenti descrivono lo stesso sottospa- zio: Proposizione 3.2.4. Gli spazi affini x + W e x ′ + W ′ coincidono se e solo se W = W ′ e x − x ′ ∈ W . Dimostrazione. Se W = W ′ e x − x ′ ∈ W , allora chiaramente ogni vettore x+v con v ∈ W può essere scritto anche come x ′+(x−x ′+v) con x − x ′+ v ∈ W e quindi x +W ⊂ x ′+W . Analogamente x +W ⊃ x ′+W . D’altro canto, se x +W = x ′ +W ′ allora W = x ′ − x +W ′. Questo implica che x ′ − x ∈ W . Analogamente x ′ − x ∈ W ′ e quindi W = x ′ − x +W ′ = W ′.  88 3. SISTEMI LINEARI W r1 W r2 Figura 3.1. Le rette affini r1 e r2 sono la stessa retta. Esempio 3.2.5. Se W = Span ( 1 1 ) in R2, le due rette affini r1 = ( 1 0 ) +W = {( 1 + t t ) ∣∣∣∣∣ t ∈ R } , r2 = ( 0 −1 ) +W = {( u u − 1 ) ∣∣∣∣∣ u ∈ R } sono in realtà la stessa retta di equazione y = x−1. Si veda la Figura 3.1. Nella descrizione di uno spazio affine S come x+W , lo spazio vettoriale W è determinato da S ed è detto la giacitura di S. Il punto x invece è un qualsiasi punto di S. Definizione 3.2.6. La dimensione di S è la dimensione della giacitura W . Un sottospazio affine di dimensione 0 è un qualsiasi punto di V . Un sottospazio affine di dimensione 1 o 2 è detto retta affine e piano affine. Lo spazio R3 contiene ovviamente molte rette affini e molti piani affini. Questi verranno studiati più approfonditamente nel Capitolo 9. Tornando ai nostri sistemi lineari, abbiamo appena scoperto che lo spazio delle soluzioni S, se non è vuoto, è un sottospazio affine con una certa dimensione. La sua giacitura è lo spazio S0 delle soluzioni del sistema omogeneo associato. Vale dimS = dimS0 per definizione. 3.2.3. Rango. Sappiamo come risolvere un sistema lineare e che l’in- sieme S delle soluzioni può essere vuoto o un sottospazio affine di una certa dimensione. Cerchiamo adesso delle tecniche per capire rapidamente se un sistema lineare abbia soluzioni, e in caso affermativo la loro dimensione. Introduciamo una nozione che comparirà spesso in questo libro. Sia A una matrice m × n a coefficienti in K. Ricordiamo che indichiamo con A1, . . . , An le colonne di A. Ciascun Ai è un vettore in Km. 3.2. TEOREMA DI ROUCHÉ - CAPELLI 89 Definizione 3.2.7. Il rango di A è la dimensione dello spazio Span(A1, . . . , An) ⊂ Km. Il rango di A è la dimensione dello spazio generato dalle colonne. Viene comunemente indicato con rk(A). Una formulazione equivalente è la seguente. Proposizione 3.2.8. Il rango di A è il massimo numero di colonne linearmente indipendenti di A. Dimostrazione. È un fatto generale che la dimensione di un sottospa- zio W = Span(v1, . . . , vk) è il massimo numero di vettori indipendenti che possiamo trovare fra v1, . . . , vk . Segue dall’algoritmo di estrazione.  Notiamo adesso che il rango è insensibile alle mosse di Gauss. Proposizione 3.2.9. Se modifichiamo A per mosse di Gauss sulle righe, il suo rango non cambia. Dimostrazione. Se esiste una relazione di dipendenza lineare fra alcune colonne, questa si conserva con le mosse du Gauss sulle righe (esercizio). Quindi il massimo numero di colonne indipendenti non cambia.  Corollario 3.2.10. Il rango di A è il numero di pivot in una sua qualsiasi riduzione a scalini. Dimostrazione. Poiché il rango non cambia con mosse di Gauss, pos- siamo supporre che A sia già ridotta a scalini e inoltre usare la seconda parte dell’algoritmo di Gauss-Jordan per fare in modo che le k colonne contenenti i pivot siano precisamente i primi k vettori e1, . . . , ek della ba- se canonica di Km. Tutte le altre colonne sono combinazioni lineari di questi. Lo spazio generato dalle colonne è quindi Span(e1, . . . , ek) ed ha dimensione k pari al numero di pivot.  Corollario 3.2.11. Se A è una matrice m× n allora rkA ≤ min{m, n}. Una matrice A ha rango massimo se rkA = min{m, n}. 3.2.4. Teorema di Rouché - Capelli. Enunciamo e dimostriamo un teorema che fornisce un algoritmo pratico ed efficace per capire se un sistema lineare ha soluzioni, e in caso affermativo la loro dimensione. Consideriamo come al solito un sistema lineare (3)  a11x1 + · · ·+ a1nxn = b1, ... ak1x1 + · · ·+ aknxn = bk . Scriviamo come sempre la matrice A = (ai j) dei coefficienti, il vettore b = (bi) dei termini noti e la matrice completa C = (A | b). Iniziamo con una proposizione.
Docsity logo


Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved