Docsity
Docsity

Prepara i tuoi esami
Prepara i tuoi esami

Studia grazie alle numerose risorse presenti su Docsity


Ottieni i punti per scaricare
Ottieni i punti per scaricare

Guadagna punti aiutando altri studenti oppure acquistali con un piano Premium


Guide e consigli
Guide e consigli

manuale di geoemtria analitica e algebra lineare, Dispense di Algebra Lineare e Geometria Analitica

Appunti di Algebra Lineare e Geometria Analitica per il primo anno di ingegneria edile architettura: corso di 60 ore. Esame superato al primo appello, avendo a disposizione solo gli appunti di seguito riportati.

Tipologia: Dispense

2022/2023

In vendita dal 29/08/2023

Soleila__
Soleila__ 🇮🇹

4.5

(11)

230 documenti

Anteprima parziale del testo

Scarica manuale di geoemtria analitica e algebra lineare e più Dispense in PDF di Algebra Lineare e Geometria Analitica solo su Docsity! Momamath 2 Giovannina Albano, Ciro D’Apice, Saverio Salerno Algebra Lineare a cura di MOMA e CUES con la collaborazione di CRMPA 1 Indice Prefazione i Capitolo 1 STRUTTUREALGEBRICHE 1.1 DeÞnizioni generali 1 1.2 Gruppi 4 1.3 Anelli 5 1.4 Campi 6 Capitolo 2 MATRICI 2.1 DeÞnizioni e nozioni preliminari 9 2.2 Operazioni con le matrici 14 2.3 Determinante di una matrice quadrata 21 2.4 Rango di una matrice 27 2.5 Matrici a scalini 30 Capitolo 1 Strutture algebriche 1.1 DeÞnizioni generali DeÞnizione 1.1.1 Sia G un insieme non vuoto. Si dice operazione (binaria) interna deÞnita in G un’ appli- cazione: G×G G (a, b) (a, b) = a b. La coppia (G, ) si dice struttura algebrica su G indi- viduata da e G si dice sostegno della struttura. 1 Un elemento u G si dice elemento neutro rispetto a se a u = u a = a a G. Proposizione 1.1.2 Se esiste un elemento neutro in G rispetto a , allora è unico. Dim. Siano u, u0 elementi neutri rispetto a . Allora si ha: u u0 = u, per la neutralità di u0 u u 0 = u0 per la neutralità di u da cui u = u0. DeÞnizione 1.1.3 Se esiste l’elemento neutro in G ri- spetto a , allora un elemento a di G si dice simmetriz- zabile rispetto a se a0 G : a a0 = a0 a = u L’elemento a0 si dice simmetrico di a. DeÞnizione 1.1.4 L’operazione si dice associativa se a (b c) = (a b) c a, b, c G. 2 DeÞnizione 1.1.5 L’operazione si dice commutativa se a b = b a a, b G. Di seguito riportiamo alcune particolari operazioni: • Somma: si deÞnisce come l’operazione additiva + ovvero a b = a+ b In tal caso l’elemento neutro viene detto zero di G e indicato con 0; mentre il simmetrico di un elemento a G viene detto opposto di a e indicato con a. • Prodotto: si deÞnisce come l’operazione moltiplica- tiva · ovvero a b = a · b In tal caso l’elemento neutro viene detto unità di G e indicato con 1; mentre il simmetrico di un elemento a G viene detto inverso di a e indicato con a 1. Proposizione 1.1.6 Sia (G, ) una struttura algebrica che soddisÞ le seguenti proprietà: • è associativa 3 3) · è distributiva rispetto a +. Ovvero se valgono le seguenti proprietà: 1) a+ (b+ c) = (a+ b) + c a, b, c G 0 G : a+ 0 = 0 + a = a a G a G : a+ ( a) = ( a) + a = 0 a G a+ b = b+ a a, b G. 2) a · (b · c) = (a · b) · c a, b, c G. 3) a · (b+ c) = ab+ ac (b+ c) · a = ba+ ca a, b, c G. 1.4 Campi DeÞnizione 1.4.1 Un anello (G,+, ·) è un campo se 1) · è commutativa 2) esiste l’elemento neutro rispetto a · : a·1 = 1·a = a 3) esiste l’inverso di ogni a G {0} : a 1a = aa 1 = 1. Proposizione 1.4.2 In un campo vale la legge di an- nullamento del prodotto ab = 0 a = 0 oppure b = 0. 6 Dim. Supponiamo che a 6= 0, allora a 1 G ab = 0 a 1 (ab) = a 1 · 0 = 0 ¡ a 1a ¢ b = 0 1 · b = 0 b = 0. Viceversa, sia a = 0 0b = (0 + 0) b = 0b+ 0b 0b = 0 per la legge di cancellazione. Esempio 1.4.3 (Z,+) è un gruppo infatti: • + è associativa • 0: a+ 0 = 0 + a = a • a: a+ ( a) = a+ a = 0 a Z. Inoltre è gruppo abeliano perchè + è commutativa. Esempio 1.4.4 Si può provare che (Q,+) è abeliano, (R,+) è abeliano, (Q {0} , ·) è abeliano, (R {0} , ·) è abeliano. 7 Osservazione 1.4.5 Riportiamo di seguito esempi di strutture algebriche che non sono gruppo. (N,+) perchè nessun elemento ha opposto (N, ·) perchè solo 1 ha inverso (Z, ·) perchè solo 1,-1 hanno inverso (Q, ·) , (R, ·) perchè 0 non ha inverso. Esempio 1.4.6 (R,+, ·) è un campo. Infatti: • (R,+) è un gruppo abeliano • · è associativa • · è distributiva rispetto a + • a 1 R a R. Esempio 1.4.7 Si prova facilmente che (Q,+, ·) è un campo. Osservazione 1.4.8 Le strutture (N,+, ·) e (Z,+, ·) non sono campi perchè (N,+) non è un gruppo e in Z solo 1,-1 sono invertibili. 8 Aj = a1j a2j ... amj . Per semplicità le righe Ai e le colonne Aj vengono iden- tiÞcate rispettivamente con i vettori di Rn ed Rm. Esempio 2.1.3 Diamo ora un esempio di matrice ap- partenente a M3,4 (R): A = 1 2 0 4 6 5 7 2 5 3 4 1 . Naturalmente si ha: a23 = 7; A2 = ( 6 5 7 2 ); A3 = 0 7 4 . DeÞnizione 2.1.4 Data una matrice A Mm,n (R), diremo trasposta di A la matrice B Mm,n (R) così 11 deÞnita: bij = aji. La matrice B verrà denotata con AT . DeÞnizione 2.1.5 Una matrice A Mm,n (R) si dice quadrata di ordine n se m = n. L’insieme delle matrici quadrate di ordine n si indica con Mn (R). La n-upla di elementi aventi lo stesso indice di riga e di colonna, cioè aii, viene detta diagonale principale di A. Di seguito riportiamo alcune deÞnizioni: • Una matrice quadrata A che abbia tutti elementi nulli fuori dalla diagonale principale si dice ma- trice diagonale, cioè aij = 0 per i 6= j. • Una matrice diagonale A Mn (R) con aii = 1 è detta matrice identica e sarà denotata con In. • Una matrice quadrata A si dice triangolare supe- riore se aij = 0 per i > j. • Una matrice quadrata A si dice triangolare infe- riore se aij = 0 per i < j. 12 • Una matrice quadrata A si dice simmetrica se aij = aij i 6= j, ovvero se A = AT . • Una matrice quadrata A si dice antisimmetrica se aij = aij i 6= j, ovvero se A = AT . • Una matrice che si ottiene da A cancellando al- cune righe e colonne si dice subordinata ad A o estratta da A. Esempio 2.1.6 Data la matrice A = 0 6 0 5 1 1 6 0 8 2 7 2 6 7 3 1 9 9 9 4 una matrice subordinata ad A è la matrice 0 6 5 1 7 2 7 3 1 9 9 4 ottenuta cancellando la seconda riga e la terza co- 13 • A+ ( A) = 0, con A = ( aij) (esistenza dell’opposto) • h (kA) = (hk)A (proprietà associativa) • (h+ k)A = hA+ kA (proprietà distributiva) • h (A+B) = hA+ hB (proprietà distributiva) • 1A = A (esistenza dell’elemento neutro). DeÞnizione 2.2.4 Siano A=(a1, a2, .., an) e B b1 b2 ... bn rispettivamente due matrici di M1,n (R) e Mn,1 (R). Si deÞnisce prodotto righe per colonne di A e B, e si indica con A ·B, l’elemento a11b11 + a12b21 + ...+ a1nbn1 R. DeÞnizione 2.2.5 Siano A = (aij) e B = (bij) rispetti- vamente due matrici diMm,p (R) eMp,n (R). Si deÞnisce prodotto righe per colonne di A e B, e si indica con AB, 16 la matrice C di Mm,n (R) data da: C = A1 ·B 1 A1 ·B 2 ... A1 ·B n A2 ·B 1 A2 ·B 2 ... A2 ·B n ... ... ... ... Am ·B1 Am ·B2 ... Am ·Bn . Osservazione 2.2.6 Osserviamo che il prodotto AB è deÞnito soltanto se il numero delle colonne di A è uguale al numero di righe di B. Osservazione 2.2.7 Ovviamente il prodotto AB è sem- pre deÞnito se le matrici sono quadrate e delle stesso ordine. Osservazione 2.2.8 In generale, il prodotto AB non è uguale a BA, ovvero il prodotto righe per colonne non è commutativo, come si evince dall’esempio che segue. Esempio 2.2.9 Siano A e B due matrici deÞnite come 17 segue: A = 1 1 2 0 3 4 ; B = 2 3 0 1 5 1 4 2 1 0 0 3 . Allora possiamo e ettuare il prodotto righe per colonne di A per B ottenendo AB = 5 1 4 5 11 3 12 18 . Osserviamo che BA non è deÞnito perchè il numero di colonne di B è 4 mentre il numero di righe di A è 2 e quindi AB non è uguale a BA. Osserviamo inoltre che anche nel caso di matrici quadrate il prodotto non sempre è commutativo. Infatti considerate le seguenti matrici: A = 1 2 3 4 ; B = 1 1 0 2 18 DeÞnizione 2.2.14 Data una matrice A Mn (R), di- remo che è invertibile, e indicheremo con A 1 la sua in- versa, se esiste una matrice B Mn (R): AB = BA = I. 2.3 Determinante di una matrice quadrata Diamo la deÞnizione di determinante di A per induzione sulla dimensione di A. DeÞnizione 2.3.1 Sia A una matrice quadrata, il de- terminante di A, indicato con |A| o con detA, è il nu- mero reale deÞnito come segue: • Se A è di ordine 1, si ha: |A| = a11. 21 • Se A = a11 a12 a21 a22 , si ha: |A| = a11a22 a12a21. • Se A è di ordine n > 2, si ha: |A| = a11 |A11| a12 |A12| + .... +a1j |A1j| + ...+ ( 1)1+n ain |A1n| . dove A1j è la matrice ottenuta da A cancellando la prima riga e la j-esima colonna. Riportiamo di seguito la cosidetta regola di Sarrus per calcolare in modo alternativo il determinante di una matrice di ordine 3. DeÞnizione 2.3.2 Sia A una matrice quadrata di or- dine 3: A = a11 a12 a13 a21 a22 a23 a31 a32 a33 22 Si ha |A| = a11a22a33 + a12a23a31 + a13a21a32 a12a21a33 a11a23a32 a13a22a31. Data la matrice A un metodo pratico per ricordare la regola di Sarrus è utile considerare la seguente matrice: Per calcolare il determinante basta sommare i pro- dotti degli elementi delle diagonali principali e sottrarre i prodotti degli elementi delle diagonali secondarie. Teorema 2.3.3 (Laplace) Data una matrice di ordine n, scelta una qualsiasi riga i, si ha |A| = ( 1)i+1 ai1 |Ai1| + ( 1)i+2 ai2 |Ai2| + .....+ ( 1)i+n ain |Ain| . 23 B = |A| 0 ... 0 0 |A| ... 0 ... ... ... ... 0 0 ... |A| = |A|I cioè A · aggA |A| = I A 1 = agg (A) |A| A 1 = a0 11 |A| a0 21 |A| ... a0n1 |A| a0 12 |A| a0 22 |A| ... a0n2 |A| ... ... ... ... a0 1n |A| a0 2n |A| ... a0nn |A| . Riportiamo alcune proprietà principali dei determi- nanti. Proposizione 2.3.6 Siano A,B Mn (R) e h un ele- mento di R, si ha: • |A| = |AT | 26 • se A ha due righe o due colonne proporzionali, al- lora |A| = 0 • se in A si scambiano tra loro due righe (colonne), si ottiene una matrice B tale che |B| = |A| • se B si ottiene da A moltiplicando tutti gli ele- menti di una riga (colonna) di A per h, si ha: |B| = h|A| • se B è ottenuta da A aggiungendo ad una riga (colonna) un multiplo di un’altra riga (colonna), allora |B| = |A| Proposizione 2.3.7 Il determinante di una matrice A triangolare superiore (inferiore) è uguale al prodotto de- gli elementi della diagonale. 2.4 Rango di una matrice DeÞnizione 2.4.1 Sia A Mm,n (R). Scelti p indici di riga i1, ..., ip e p indici di colonna j1, ..., jp si considera la sottomatrice M costituita dagli elementi di A che sono 27 agli incroci delle suddette righe e colonne di A: M = ai1j1 ai1j2 .... ai1jp ai2j1 ai2j2 .... ai2jp .... .... .... .... aipj1 aipj2 .... aipjp Mp (R) . Si chiama minore di ordine p della matrice A relativo alle righe i1, ..., ip e alle colonne j1, ..., jp il determinante di M e si scriverà |M | = ai1...ip;j1...jp . Osservazione 2.4.2 I minori con la diagonale princi- pale contenuta in quella di A si chiamano minori prin- cipali di A. DeÞnizione 2.4.3 Si deÞnisce rango di A Mm,n(R) e si indica con rk (A) il massimo ordine di un minore non nullo di A. 28 • sostituzione di una riga con un suo multiplo ri ri, R {0} • sostituzione di una riga con la stessa a cui viene aggiunto un multiplo di un’altra riga ri ri+ rj, R. Riportiamo di seguito l’algoritmo (detto di Gauss) di riduzione di una matrice appartenente a Mm,n (R) a forma a scalini. Passo 1 Individuiamo la prima colonna non nulla (par- tendo da sinistra) di A,diciamola h, e il primo ele- mento (partendo dall’alto) non nullo di tale co- lonna. Sia k l’indice di riga corrispondente, ovvero sia akh 6= 0. Passo 2 Se k 6= 1, scambiamo le righe r1 e rk (r1 rk) in modo da portare akh nella prima riga, e quindi si ha a1h 6= 0. Passo 3 Per ogni riga ri, i > 1, dobbiamo azzerare l’elemento aih e a tal Þne operiamo la trasforma- zione elementare ri ri ³ aih a1h ´ r1. 31 Passo 4 Escludiamo la prima riga, vale a dire consi- deriamo la sottomatrice delle righe ri, 2 i m. Se quest’ultima è costituita da una sola riga o è la matrice nulla l’algoritmo termina; altrimenti ri- cominciamo dal passo 1 applicato a tale sottoma- trice. Terminato l’algoritmo si ricava una matrice a scalini S. Proposizione 2.5.3 Data una matrice A Mn (R) e indicata con S la forma a scalini di A, si ha: |A| = ±|S|. Proposizione 2.5.4 Sia A Mn (R) e S la sua forma a scalini. Si ha rk (A) = rk (S) . Osservazione 2.5.5 Il rango di una matrice a scalini S è il numero delle righe non nulle di S. 32 dette rispettivamente matrice incompleta (o dei coe - cienti) e matrice completa. Inoltre posto x = x1 x2 ... xn e b = b1 b2 ... bm si può scrivere il sistema (3.1) nella forma matriciale Ax = b. Il vettore b viene detto colonna dei termini noti. Teorema 3.1.4 (Rouchè-Capelli) Un sistema lineare è compatibile se e soltanto se rk(A) = rk(A0). Teorema 3.1.5 (Cramer) Sia Ax = b un sistema li- neare di n equazioni in n incognite. Se |A|6=0 allora il sistema lineare ammette un’unica soluzione le cui com- ponenti sono date da: x1 = |A1| |A| , ..., xi = |Ai| |A| , ..., xn = |An| |A| , 35 dove Ai (1 i n) è la matrice che si ottiene da A so- stituendo la i-esima colonna di A con la colonna dei ter- mini noti. Un sistema compatibile, non di Cramer, ammette soluzioni dipendenti da n rk(A) parametri (e talvolta si indica con n r(A)) 3.2 Metodo di eliminazione di Gauss DeÞnizione 3.2.1 Due sistemi lineari, in n variabili, aventi le stesse soluzioni si dicono equivalenti. DeÞnizione 3.2.2 Si dicono operazioni elementari i se- guenti tre tipi di operazioni sulle equazioni di un sistema lineare • moltiplicare un’equazione per una costante non nul- la • scambiare due equazioni 36 • aggiungere un multiplo di un’equazione ad un’altra equazione. Osservazione 3.2.3 Tali operazioni elementari corri- spondono ad operazioni elementari dello stesso tipo sulla matrice completa del sistema. Teorema 3.2.4 Due sistemi lineari sono equivalenti se e solo se ogni equazione di uno può essere ottenuta dall’ altro per mezzo di un numero Þnito di operazioni ele- mentari. Descriviamo un semplice metodo, detto di elimina- zione di Gauss, utile per determinare le soluzioni di un sistema lineare. Consideriamo il sistema lineare Ax = b. (3.2) Riduciamo a scalini la matrice completa del sistema. Chiamiamo S0 la matrice ridotta. Se l’ultima riga di S0 è del tipo (0, ..., 0, b) con b 6= 0, allora il sistema è incompatibile. In caso contrario si possono presentare due situazioni. 37 sistema corrispondenti ai seguenti valori dei parametri xi1 = 1, xi2 = 0, . . . xip = 0 xi1 = 0, xi2 = 1, . . . xip = 0 ... . . . xi1 = 0, xi2 = 0, . . . xip = 1. Le soluzioni cos̀i trovate costituisono una base dello spazio delle soluzioni del sistema lineare omogeneo. Proposizione 3.3.2 Ogni soluzione di un sistema li- neare si ottiene sommando una Þssata soluzione del si- stema con una soluzione del sistema omogeneo associato. 40 Momamath 2 Giovannina Albano, Ciro D’Apice, Saverio Salerno Algebra Lineare a cura di MOMA e CUES con la collaborazione di CRMPA 1 Indice Prefazione i Capitolo 1 STRUTTUREALGEBRICHE 1.1 DeÞnizioni generali 1 1.2 Gruppi 4 1.3 Anelli 5 1.4 Campi 6 Capitolo 2 MATRICI 2.1 DeÞnizioni e nozioni preliminari 9 2.2 Operazioni con le matrici 14 2.3 Determinante di una matrice quadrata 21 2.4 Rango di una matrice 27 2.5 Matrici a scalini 30 Capitolo 4 SPAZI VETTORIALI 4.1 Denizioni ed esempi Sia K un campo e V un insieme non vuoto. Deniamo su V due operazioni, dette rispettivamente somma e prodotto per uno scalare: interna + : V V V (u, v) u+ v esterna : K V V ( , u) u Denizione 4.1.1 La terna (V,+, )si dice spazio vet- 41 toriale sul campo K se verica le seguenti proprietà: 1s) u+ v = v + u u, v V 2s) (u+ v) + w = u+ (v + w) u, v, w V 3s) 0 V : u+ 0 = 0 + u = u u V 4s) u V : u+ ( u) = u+ u = 0 u V ( 0 è detto valore nullo, u è detto opposto di u ) 1p) (u+ v) = u+ v K, u, v V 2p) ( + µ)u = u+ µu , µ K, u V 3p) ( µ)u = (µu) , µ K, u V 4p) 1 K : 1u = u V . Osservazione 4.1.2 Le proprietà 1s) 4s) indicano che (V,+) è un gruppo abeliano. Esempio 4.1.3 Riportiamo alcuni esempi di spazi vet- toriali: Rn con le operazioni naturali Sia V= f : C0[a,b] R ,e deniamo su esso le seguenti operazioni: 42 f + g : [a, b] R x f (x) + g (x) R, f : [a, b] R x f (x) (V,+, ) è uno spazio vettoriale. Sia V = polinomi di grado n in una variabile a coe cienti in R. Se p e q sono elementi di V p = a0+a1x+ ...+anx n e q = b0+ b1x+ ...+ bnx n. La somma e il prodotto per uno scalare sono de- nite da: p+ q = (a0 + b0) + (a1 + b1)x1 + ...+ (an + bn)x n p = a0 + a1x+ ...+ anx, R (V,+, ) è uno spazio vettoriale. (Mm,n (R) ,+, ) è uno spazio vettoriale. 43 B è un sistema di generatori di V , ovvero v V, 1, ..., n K tali che v = 1v1 + ...+ nvn. Osservazione 4.2.5 B è base se tutti i vettori di V sono generati da B e il vettore nullo è generato solo con scalari tutti nulli. Denizione 4.2.6 Data una base B = v1, ..., vn di V , si ha v = 1v1 + ...+ nvn. L’n-pla ( 1, ..., n) viene detta n-pla delle componenti di v in B e sarà denotata con cB (v). Proposizione 4.2.7 Le componenti di v in B sono uni- vocamente determinate. Dim. Infatti se per assurdo cB (v) = ( 1, ..., n) = (µ 1 , .., µ n ) , si ha: v = 1v1 + ...+ nvn e v = µ 1 v1 + ... + µ n vn. Sottraendo membro a membro si ha 0 = ( 1 µ 1 ) v1 + ..+ ( n µ n ) vn, 46 da cui essendo B linearmente indipendente segue 1 µ 1 = ... = n µ n = 0, ovvero 1 = µ 1 , ..., n = µ n . Esempio 4.2.8 Il sistema B = (1, 0, 0) , (0, 1, 0) , (0, 0, 1) è una base di R3. B è lineramente indipendente, infatti da 1 (1, 0, 0) + 2 (0, 1, 0) + 3 (0, 0, 1) = (0, 0, 0), segue ( 1, 2, 3) = (0, 0, 0). B è un sistema di generatori, infatti dato (a, b, c) un generico vettore di R3 si ha (a, b, c) = 1 (1, 0, 0) + 2 (0, 1, 0) + 3 (0, 0, 1), da cui (a, b, c) = ( 1, 2, 3) . Osservazione 4.2.9 B è una particolare base di R3 det- ta ”canonica”. Per essa è cB (v) = v. Lemma 4.2.10 (Steinitz) Sia B = v1, ..., vn una base di uno spazio vettoriale V. Allora ogni insieme di V con- tenente più di n vettori è linearmente dipendente. 47 Dim. Sia T = w1, .., wm un sistema di vettori di V con m > n. Si vuole dimostrare che T è costituito da vettori lineramente dipendenti e quindi che esistono 1, .., m non tutti nulli tali che: 1w1 + ...+ mwm = 0. (4.1) Poichè B è una base di V e wj V j = 1, ...,m, allora wj è generato da B per cui w1 = a11v1 + a21v2 + ... + an1vn (4.2) w2 = a12v1 + a22v2 + ... + an2vn ........................................ wm = a1mv1 + a2mv2 + ...+ anmvn Sostituendo le espressioni (4.2) in (4.1) si ottiene: 1 (a11v1 + a21v2 + ... + an1vn) + + 2 (a12v1 + a22v2 + ...+ an2vn) + ...+ + m (a1mv1 + a2mv2 + ...+ anmvn) = 0. 48 Osservazione 4.2.14 Un insieme di vettori linearmen- te indipendenti non può contenere sottoinsiemi di vettori linearmente dipendenti. Infatti sia S = v1, ..., vr un insieme di vettori li- nearmente indipendenti. Sia S 0 = v1, ..., vk con k < r un insieme di vettori lineramente dipendenti, allora esi- stono 1, ..., k non tutti nulli tali che 1v1 + ...+ kvk + 0vk+1 + ...+ 0vn = 0 da cui segue che S è lineramente dipendente e ciò con- trasta con le ipotesi. Osservazione 4.2.15 Un insieme di vettori linearmen- te dipendenti può contenere sottoinsiemi di vettori che sono linearmente indipendenti. S = (1, 1) , ( 2, 3) , (5, 7) è linearmente dipendente ma S 0 = (1, 1) , ( 2, 3) è linearmente indipendente. Osservazione 4.2.16 Il vettore nullo è linearmente di- pendente poichè 0 = 0 K. Dall’osservazione 4.2.14 si deduce che il vettore nullo non può far parte di 51 un insieme linearmente indipendente. In particolare, 0 non può appartenere a una base. Proposizione 4.2.17 B è una base di uno spazio vet- toriale V sul campo K se e solo se B è un sistema mas- simale di vettori linearmente indipendenti. Dim. La condizione necessaria segue dal Lemma di Steinitz. Per provare la condizione su ciente bisogna dimo- strare che B genera V. Sia v V. Se v B v = 1v. Se v / B B v è linearmente dipendente allora esistono 1, ..., n , non tutti nulli in K tali che 1v1 + ...+ n v n + v = 0 Se fosse = 0, allora si avrebbe 1v1 + ...+ n v n = 0 52 con qualche i = 0 che è assurdo perchè B è linearmente indipendente. Allora dev’essere = 0 1 K v = 1 1v1 ... 1 nvn. Proposizione 4.2.18 B è una base se e solo se B è un sistema minimale di generatori. Dim. Supponiamo per assurdo che esista B0 B tale che B0 generi V. Allora v B B 0 tale che v è gene- rato da B0, per cui B 0 v è lineramente dipendente, ma B0 v B che è linearmente indipendente. Viceversa, supponiamo per assurdo che B sia linear- mente dipendente, quindi esistono 1, ..., n non tutti nulli tali che 1v1 + ...+ nvn = 0. Supponendo che 1 = 0 si ha v1 = 1 1 2v2 ... 1 1 nvn. Ponendo ki = 1 1 i i = 2, ..., n, abbiamo v1 = k2v2+ 53 W = V. Se v1, ..., vr sono vettori di V , l’insieme di tutte le possibili combinazioni lineari di tali vettori costituisce un sottospazio vettoriale detto sottospazio generato da v1, ....vr e indicato con < v1, ..., vr >. Esempio 4.3.3 Riportiamo alcuni esempi di sottospazi vettoriali: W = (a, 0, b) / a, b R W = A = (aij) Mn (R) / aij = 0 se i = j W = f : R R/ f (0) = 0 W = x Rn/Ax = 0 . Esempio 4.3.4 Riportiamo alcuni esempi di sottoin- siemi di spazi vettoriali che non sono sottospazi: W = (1, a) / a R W = p (x) K [x] / p ha grado 2 W = x Rn/ Ax = b . 56 Osservazione 4.3.5 Un qualsiasi sottoinsieme di uno spazio vettoriale che non contenga il vettore nullo non è sottospazio vettoriale. Infatti se w W allora an- che 0 w deve appartenere a W 0 W. Si deduce che l’appartenenza del vettore nullo a W è condizione necessaria perchè W sia sottospazio vettoriale. 4.4 Lo spazio riga e lo spazio co- lonna di una matrice Denizione 4.4.1 Sia A una matrice di tipo m n su R. A = a11 a12 ... a1n a21 a22 ... a2n ... ... ... ... a m1 a m2 ... a mn . Si denisce spazio riga lo spazio generato dalle riga di A e lo si indica con W r = < A1, ..., Am > Rn. Analogamente si denisce spazio colonna lo spazio 57 generato dalle colonne di W c = < A1, ..., An > Rm. Si dimostra che: dimW r = dimW c cioè il massimo numero di righe linearmente indipen- denti è uguale al massimo numero di colonne linearmente indipendenti. Si dimostra inoltre che tale numero è pro- prio il rango di A. 4.5 Intersezione e somma di sot- tospazi Siano W1, W2 due sottospazi vettoriali di uno spazio vettoriali V sul campo K. Deniamo i seguenti insiemi: W1 W2 = v V/v W1 e v W2 W1 W2 = v V/v W1 o v W2 detti rispettivamente intersezione ed unione. 58 dimensione nita, allora dim(W1 +W2) = dimW1 + dimW2 dim(W1 W2). Osservazione 4.5.7 Da quanto detto si deduce che se B1 è una base di W1 e B2 è una base di W2, allora B1 B2 è un sistema di generatori di W1 + W2, dal quale si può estrarre una base di W1+W2 prendendo un sistema massimale di vettori linearmente indipendenti. Denizione 4.5.8 Dati W1 e W2 sottospazi vettoriali la somma W1 +W2 si dice diretta se W1 W2 = 0 e si indica con W1 W2. In particolare si ha dim(W1 W2) = dimW1+dimW2. 4.6 Rappresentazione di un sot- tospazio vettoriale Si dimostra che un sottospazio vettoriale di dimensione h in uno spazio di dimensione n si rappresenta con un sistema lineare omogeneo Ax =0 con rk(A) = n h e 61 x Rn, ovvero un sottospazio di dimensione h si rappre- senta con un sistema lineare omogeneo di n h equazioni linearmente indipendenti in n incognite. Tale sistema non è univocamente determinato. Vale anche il viceversa. Se Ax =0 è un sistema lineare omogeneo in n inco- gnite con rk(A) = p, allora lo spazio delle soluzioni è un sottospazio vettoriale di Rn di dimensione n p. 62 Capitolo 5 SPAZI EUCLIDEI 5.1 Denizioni Denizione 5.1.1 Sia V uno spazio vettoriale reale. Un’applicazione : V V R (u, v) u v si dice prodotto scalare se gode delle seguenti proprietà: u, v, w V, R, (1) (u+ v) w = u w + v w (linearità a sinistra) 63 proprietà (4) del prodotto scalare segue che w w 0, ovvero w w = [(v v)u (u v)v] [(v v)u (u v) v] = = (v v)2(u u) (v v)(u v)2 (u v)2(v v) + (u v)2(v v) = = (v v)[(v v)(u u) (u v)2] 0. Poichè v v 0, si ha: (v v)(u u) (u v)2 0 (u v)2 (u u)(v v). Denizione 5.2.3 Dato un vettore u V spazio eucli- deo, si denisce norma (o modulo) del vettore u il nu- mero reale u = u u. Valgono le seguenti proprità della norma: (1) u 0 (2) u = 0 u = 0 66 (3) u = u (4) u+ v u + v (disuguaglianza triangolare). 5.3 Basi ortonormali Siano u e v appartenenti allo spazio euclideo reale V e siano non nulli. Per la disuguaglianza di Cauchy- Schwarz si ha (u v)2 u 2 v 2 u v u v 2 1 cioè 1 u v u v 1. Poichè esiste un unico angolo compreso tra 0 e tale che cos = u v u v tale angolo viene denito ”angolo tra i vettori u, v”. 67 Segue che u, v = arco cos u v u v . Denizione 5.3.1 Due vettori u e v si dicono ortogo- nali se u v = 0. Un vettore si dice normale se u = 1. Denizione 5.3.2 Sia V uno spazio euclideo di dimen- sione n. Una base B = u1, ..., un si dice ortonormale se ui uj = ij. Proposizione 5.3.3 Se u1, ..., uk è u insieme di vet- tori non nulli ortogonali, allora tale insieme è linearmen- te indipendente. Dim. Consideriamo l’equazione vettoriale 1u1 + ...+ kuk = 0 (5.1) e dimostriamo che i = 0 i = 1, ..., k. Moltiplichiamo la (5.1) per un ssato ui (con i 1, ..., k ) ( 1u1 + ...+ kuk) ui = 0 ui. 68 metodo prende il nome di procedimento di ortonorma- lizzazione di Gram-Schmidt. Supponiamo che B = v1, ..., vn sia una base di V . A partire da B costruiamo una base B0 = u1, ..., un di V in modo che ui uj = ij. Poniamo u1 = v1 v1 , in tal modo u1 è normale. Poniamo u0 2 = v2 proju1 v2 = v2 (v2 u1)u1 Si ha u1 u0 2 = u1 (v2 (v2 u1)u1) = = u1 v2 (v2 u1)(u1 u1) = = u1 v2 (v2 u1) = 0. 71 Deniamo u2 = u0 2 u0 2 Poniamo u0 3 = v3 proju1 v3 proju2 v3 = = v3 (v3 u1)u1 (v3 u2)u2. Si vede che u0 3 u1 = 0 e u0 3 u2 = 0. Normalizzando u0 3 si ha u3 = u0 3 u0 3 . All’i-esimo passo si ha u0 i = vi proju1 vi proju2 vi ... projui 1 vi = = vi (vi u1)u1 (vi u2)u2 ... (vi ui 1)ui 1 e ui = u0 i u0 i . 72 Completando il procedimento i = 1, ..., n si ottiene l’insieme B0 = u1, ..., un che è una base ortonormale di V. 5.4 Sottospazi ortogonali Denizione 5.4.1 Sia W un sottospazio vettoriale di uno spazio vettoriale euclideo V. Allora il sottoinsieme di V costituito da tutti i vettori ortogonali a tutti i vettori di W si dice sottospazio ortogonale a W e si indica con W , cioè W = v V/ v w = 0 w W . Proposizione 5.4.2 W è un sottospazio vettoriale di V . Dim. Presi u, u0 W , allora (u + u0) w = u w + u0 w = 0 + 0 = 0 w W (chiusura rispetto alla somma). Se K, u W , allora ( u) w = (u w) = 0 = 0 w W (chiusura rispetto al prodotto). 73 si dice applicazione lineare (o omomorsmo) se verica le due proprietà: (a) f (u+ v) = f (u) + f (v) , u, v V (b) f ( u) = f (u) , u V, K che sono equivalenti alla proprietà (c) f ( u+ v)= f (u) + f (v) , u,v V, , K. Osservazione 6.1.2 Si osservi che l’operazione u al primo membro della (b) è l’operazione di prodotto per uno scalare in V, quindi deve appartenere al campo su cui è denito V ; a secondo membro, invece, f (u) si riferisce all’operazione di prodotto per uno scalare in V 0, quindi deve appartenere al campo su cui è denito V 0. L’uguaglianza (b) impone la necessità che i campi di V e V 0 coincidano. Di seguito riportiamo alcune denizioni: Un’applicazione lineare iniettiva si dice monomor- smo. 76 Un’applicazione lineare suriettiva si dice epimor- smo. Un’applicazione lineare biettiva si dice isomorsmo. Un’applicazione lineare di uno spazio in sè si dice endomorsmo. Denizione 6.1.3 Data f : V V 0 lineare, deniamo i seguenti insiemi ker f = v V / f (v) = 0 Im f = v0 V 0 / v V : f (v) = v0 che chiameremo rispettivamente nucleo ed immagine di f. Proposizione 6.1.4 Data f : V V 0 lineare, allora il nucleo e l’immagine di f sono rispettivamente sottospazi vettoriali di V e di V 0 . Dim. Per dimostrare che il nucleo di f è un sotto- spazio, basta provare che è chiuso rispetto alla somma e 77 al prodotto per uno scalare. Presi u, v vettori di ker f e un qualsiasi scalare si ha: f (u+ v) = f (u) + f (v) = 0 + 0 = 0 e quindi u+ v appartiene a ker f . Inoltre f ( u) = f (u) = 0 = 0 e u appartiene a ker f . Analogamente, proviamo che l’immagine di f è un sottospazio. Presi v1, v2 vettori di Im f e un qualsiasi scalare segue che esistono u1, u2 V : f (u1) = v1 e f (u2) = v2. Si ha v1 + v2 = f (u1) + f (u2) = f (u1 + u2) Im f e v1 = f (u1) = f ( u1) Im f. 78 Consideriamo una combinazione lineare nulla di ele- menti di B 00 : h r+1f (ur+1) + ...+ h n f (u n ) = 0. (6.1) Per la linearità della f possiamo scrivere f (h r+1ur+1 + ...+ h n u n ) = 0. Da qui segue che il vettore h r+1ur+1 + ...+ h n u n ap- partiene a ker f e quindi, essendo B 0 una base del nu- cleo, esistono h1, ..., hr tali che h r+1ur+1 + ... + h n u n = h1u1 + ... + h r u r , cioè h1u1 + ...+ h r u r h r+1ur+1 ... h n u n = 0. Quest’ultima è una combinazione lineare nulla di vet- tori di una base di V per cui tutti gli scalari devono essere nulli. In particolare h r+1 = ... = h n = 0 e dalla (6.1) si deduce che f (u r+1) , ..., f (un ) sono linearmente indipendenti il che completa la dimostrazione. Di seguito riportiamo alcune proprietà delle appli- 81 cazioni lineari. Siano V uno spazio vettoriale e B = u1, ..., un una sua base. (1) Sia f : V V 0 un omomorsmo, allora f (u1) , ..., f (un) è un sistema di generatori per Im f. (2) Se v1, ..., vn sono n vettori qualsiasi di V 0, allora esiste un unico omomorsmo f : V V 0 tale che f (u1) = v1, ..., f (un) = vn e v V, v = 1u1+...+ nun, si ha f (v) = 1v1+...+ nvn. Tale applicazione prende anche il nome di ”prolunga- mento lineare” a V . Osservazione 6.1.7 Dalla (2) segue che per assegnare univocamente un omomorsmo, basta dare le immagini dei vettori di una base di V. (3) Se V è uno spazio vettoriale di dimensione n, se u1, ....., uk è un insieme di vettori di V linearmen- te indipendenti con k < n, allora esistono in- nite aplicazioni lineari f : V V 0 tali che, scelti 82 v1, ..., vk V 0 , si ha f (u1) = v1, ..., f (uk) = vk . Esempio 6.1.8 Siano V = R4 e V 0 = R3. Consi- deriamo il sistema B0 = (1, 1, 0, 1), (0, 2, 1, 3) di R4 linearmente indipendente. Vogliamo capire se esiste un’applicazione lineare f : R4 R3 tale che: f (1, 1, 0, 1) = (3, 1, 1) f (0, 2, 1, 3) = (0, 1, 2) (6.2) Se completiamo B0 ad una base di R4 e scegliamo due vettori di R3, allora esiste un’unica applicazione che soddisfa le nostre richieste. Siano (0, 0, 1, 0), (0, 0, 0, 1) R4,(1, 0, 1), ( 1, 2, 0) R3, per la (2) esiste un’unica f:R4 R3 tale che valgono le (6.2) e f(0, 0, 1, 0)=(1, 0, 1) e f(0, 0, 0, 1)=( 1, 2, 0). Poichè il completamento di B0 non è unico e la scelta di altri due vettori R3 non è unica, allora esistono innite applicazioni che soddisfano (6.2). 83 (b) f iniettiva f trasforma sistemi di vettori li- nearmente indipendenti di V in sistemi indipen- denti di V (c) f iniettiva f trasforma sottospazi di V in sot- tospazi di V 0 della stessa dimensione (d) f suriettiva f trasforma sistemi di generatori di V in sistemi di generatori di V 0 (e) f biettiva dimV = dimV 0 (f) f biettiva f trasforma basi di V in basi di V 0. 6.2 Rappresentazione matriciale Siano V e V 0 due spazi vettoriali sullo stesso campo K di dimensioni, rispettivamente, n e m. Consideriamo l’applicazione lineare f : V V 0. SianoB = u1, ..., un una base di V e B0 = v1, ..., vm una base di V 0. Sia v V v = x1u1 + .... + xnun per opportuni x1, ..., xn K cB (v) = (x1, ..., xn) . Poichè f (v) V 0 f (v) = y1v1 + ... + ymvm per opportuni y1, ..., ym K cB0 (f (v)) = (y1, ..., ym). 86 Determiniamo la relazione che intercorre tra le com- ponenti di v rispetto a B e le componenti di f (v) ri- spetto a B0. Da v = x1u1 + ... + xnun segue per la linearità della f che: f (v) = f (x1u1 + ... + xnun) = = x1f (u1) + ... + xnf (un) . Osserviamo che f (ui) V 0 i = 1, ..., n, quindi de- vono essere generati da B0, ovvero f (u1) = a11v1 + a21v2 + ... + am1vm f (u2) = a12v1 + a22v2 + ... + am2vm ... ... f (un) = a1nv1 + a2nv2 + ... + amnvm che sostituite nell’espressione di f (v) danno f (v) = (a11x1 + a12x2 + ... + a1nxn) v1+ +(a21x1 + a22x2 + ... + a2nxn) v2 + ... + (am1x1 + am2x2 + ... + amnxn) vn 87 da cui si ricava che: cB0 (f (v)) = (a11x1 + ...+ a1nxn, a21x1 + ...+ +a2nxn, ..., am1x1 + ...+ amnxn) = (y1, ..., ym) e quindi y1 = a11x1 + ...+ a1nxn y2 = a21x1 + ...+ a2nxn ... .... ym = am1x1 + ...+ amnxn y1 y2 . . ym = a11 a12 ... a1n a21 a22 ... a2n ... ... ... ... am1 am2 ... amn x1 x2 . . xn cB0 (f (v)) = AcB (v) dove A è la matrice la cui j-esima colonna è costituita dalle componenti di f (uj) rispetto a B0. Osserviamo che se f : Kn Km e B, B 0 sono le basi canoniche rispettivamente di Kn eKm, allora cB (v) = v 88
Docsity logo


Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved