Docsity
Docsity

Prepara i tuoi esami
Prepara i tuoi esami

Studia grazie alle numerose risorse presenti su Docsity


Ottieni i punti per scaricare
Ottieni i punti per scaricare

Guadagna punti aiutando altri studenti oppure acquistali con un piano Premium


Guide e consigli
Guide e consigli

Geometria (Algebra Lineare), Dispense di Geometria

Ottava Parte Appunti sul Prodotto Scalare e Teorema Spettrale

Tipologia: Dispense

2018/2019

Caricato il 12/10/2019

ravi99
ravi99 🇮🇹

3

(1)

17 documenti

Anteprima parziale del testo

Scarica Geometria (Algebra Lineare) e più Dispense in PDF di Geometria solo su Docsity! Parte 8. Prodotto scalare, teorema spettrale A. Savo − Appunti del Corso di Geometria 2013-14 Indice delle sezioni 1 Prodotto scalare in Rn, 1 2 Basi ortonormali, 4 3 Algoritmo di Gram-Schmidt, 7 4 Matrici ortogonali, 12 5 Complemento ortogonale di un sottospazio, 13 6 Endomorfismi simmetrici, 17 7 Teorema spettrale, 20 1 Prodotto scalare in Rn 1.1 Definizione Dati i vettori u = x1... xn  e v = y1... yn  di Rn , definiamo prodotto scalare di u e v il numero reale: 〈u, v〉 = x1y1 + · · ·+ xnyn. Il risultato del prodotto scalare è dunque un numero. Esempio Se u = 12 3  e v =  2−1 1  allora 〈u, v〉 = 3. Notiamo che il prodotto scalare di due vettori può risultare nullo anche se nessuno dei due fattori è il vettore nullo. Esempio Se u = 12 3  e v = −1−1 1  allora 〈u, v〉 = 0. 1 • I vettori u e v si dicono ortogonali se il loro prodotto scalare è nullo: 〈u, v〉 = 0. Notazione: u ⊥ v. Dunque i vettori dell’esempio precedente sono ortogonali. È evidente che, se O è il vettore nullo, si ha 〈v,O〉 = 0 per ogni v ∈ Rn: dunque il vettore nullo è ortogonale a tutti i vettori. La denominazione di vettori ortogonali legata alla condizione 〈u, v〉 = 0 (che è puramente algebrica) sarà giustificata quando studieremo la geometria analitica, e introdurremo i vettori geometrici del piano e dello spazio. Infatti, l’introduzione del prodotto scalare per- mette di definire, in modo puramente algebrico, la norma di un vettore (che va intepretata come la distanza del vettore stesso dal vettore nullo) e l’angolo fra due vettori non nulli. Per il momento, ci proponiamo di studiare le proprietà algebriche dell’operazione di prodotto scalare. Proposizione Siano u, v, w vettori arbitrari di Rn e sia k ∈ R un qualunque scalare. Allora si hanno le seguenti proprietà. 1) 〈u, v〉 = 〈v, u〉. 2) 〈u+ v, w〉 = 〈u,w〉+ 〈v, w〉. 3) 〈ku, v〉 = k〈u, v〉. 4) 〈u, u〉 ≥ 0. 5) 〈u, u〉 = 0 se e solo se u = O. La 1) dice che il prodotto scalare è commutativo. Le proprietà 2), 3) esprimono la cosiddetta proprietà di bilinearità. Le proprietà 4) e 5) esprimono il fatto che il prodotto scalare è definito positivo. Dimostrazione. La dimostrazione di 1),2),3) si riduce a una semplice verifica. Osserviamo che, se u = x1... xn  allora 〈u, u〉 = x21 + · · ·+ x2n, che è un numero sempre positivo o nullo: questo dimostra la 4). Se 〈u, u〉 = 0 evidente- mente x1 = · · · = xn = 0, e quindi u = O.  Dalle proprietà di bilinearità osserviamo che il prodotto scalare si comporta in modo naturale rispetto alle combinazioni lineari. Per ogni scelta dei vettori v1, . . . , vk, u, w ∈ Rn e degli scalari a1, . . . , ak ∈ R si ha: 〈a1v1 + · · ·+ akvk, w〉 = a1〈v1, w〉+ · · ·+ ak〈vk, w〉. 2 membri della (1), ordinatamente per v2, . . . , vk, si dimostra in modo analogo che aj = 0 per ogni j.  • n vettori non nulli, a due a due ortogonali formano una base di Rn (che sarà chiamata base ortogonale). Esempio I vettori v1 = ( 1 −2 ) , v2 = ( 2 1 ) formano una base ortogonale di R2 perchè 〈v1, v2〉 = 0. I vettori w1 = 11 1  , w2 =  1−1 0  , w3 =  11 −2  sono non nulli e a due a due ortogonali: 〈w1, w2〉 = 〈w1, w3〉 = 〈w2, w3〉 = 0. Dunque (w1, w2, w3) è una base ortogonale di R3. Esempio La matrice A =  1 1 1 −1 1 1 −1 1 1 −1 1 1 1 −1 −1 −1  ha rango 4. Infatti i suoi vettori colonna sono a due a due ortogonali, e quindi sono linearmente indipendenti. • Il numero massimo di vettori di Rn, non nulli e ortogonali a due a due, è n. In modo analogo, possiamo definire la nozione di base ortogonale di un qualunque sot- tospazio E di Rn: se dimE = k allora i vettori v1, . . . , vk formano una base ortogonale di E se sono non nulli e 〈vi, vj〉 = 0 per ogni i 6= j. Esempio Il sottospazio E : x + y + z = 0 di R3 ha dimensione 2. I due vettori v1 = 1−1 0  , v2 =  11 −2  appartengono a E e sono ortogonali tra loro, dunque formano una base ortogonale di E. 2.2 Basi ortonormali Diremo che una base (v1, . . . , vk) di un sottospazio E di Rn è una base ortonormale di E se: 〈vi, vj〉 = { 0 se i 6= j, 1 se i = j. 5 Dunque una base ortonormale è formata da vettori a due a due ortogonali, tutti di norma unitaria. Una base ortonormale è, in particolare, anche ortogonale. Esempio La base canonica di Rn è una base ortonormale. Fare i conti con le basi ortonormali è più semplice. Ad esempio, trovare le coordinate di un vettore rispetto a una base implica, normalmente, la risoluzione di un certo numero di sistemi lineari. Se la base è ortonormale, è sufficiente calcolare un certo numero di prodotti scalari. Proposizione Sia B = (v1, . . . , vk) una base ortonormale di un sottospazio E di Rn. Allora le coordinate del vettore v ∈ E rispetto a B sono date da〈v, v1〉... 〈v, vk〉  , e sono dette coefficienti di Fourier di v. Dimostrazione. Se v ∈ E possiamo scrivere v = a1v1 + · · ·+ akvk e per definizione le coordinate di v sono a1, . . . , ak. Ora, prendendo il prodotto scalare dei due membri successivamente per v1, . . . , vk, otteniamo facilmente aj = 〈v, vj〉 per ogni j = 1, . . . , k.  Esempio I vettori: v1 = 1 2  1 1 1 1  , v2 = 12  1 1 −1 −1  , v3 = 12  1 −1 1 −1  , v4 = 12  −1 1 1 −1  , sono a due a due ortogonali e hanno tutti norma 1. Dunque tali vettori formano una base ortonormale B di R4. Calcoliamo le coordinate del vettore v =  1 2 3 4  rispetto a B. I coefficienti di Fourier sono 〈v, v1〉 = 5, 〈v, v2〉 = −2, 〈v, v3〉 = −1, 〈v, v4〉 = 0. 6 Dunque v ha coordinate  5 −2 −1 0  , rispetto a B. In altre parole v = 5v1 − 2v2 − v3.  3 Algoritmo di Gram-Schmidt Lo scopo di questa sezione è quello di dimostrare che ogni sottospazio di Rn ammette almeno una base ortonormale. 3.1 Vettore normalizzato Proposizione 1) Dato un vettore v e uno scalare a ∈ R si ha: ‖av‖ = |a|‖v‖. 2) Se v 6= O il vettore u = 1 ‖v‖ v ha norma 1. Dimostrazione. Si ha, dalle proprietà del prodotto scalare: ‖av‖2 = 〈av, av〉 = a2〈v, v〉 = a2‖v‖2, e la 1) segue prendendo la radice quadrata ad ambo i membri. La 2) segue immediatamente dalla 1) prendendo a = 1 ‖v‖ .  Il vettore u = 1 ‖v‖ v si dice normalizzato di v. Normalizzare un vettore significa semplice- mente dividere il vettore per la propria norma. Esempio Il vettore v = 12 3  ha norma √14. Il suo normalizzato è dunque u = 1 ‖v‖ v = 1√ 14 12 3  7 Allora (w1, . . . , wk) è una base ortogonale di E, e quindi i vettori normalizzati: u1 = 1 ‖w1‖ w1, . . . , uk = 1 ‖wk‖ wk, formano una base ortonormale di E. Esempio Trovare una base ortonormale del sottospazio E di R3 di equazione: E : x− y − 2z = 0. Soluzione. Determiniamo una base di E, e poi applichiamo l’algoritmo di Gram-Schmidt per ottenere una base ortonormale. Base di E: v1 = 11 0  , v2 = 20 1  . L’algoritmo consiste di due passi: { w1 = v1 w2 = v2 − a21w1 . Si ha w1 = 11 0 , dunque: a21 = 〈v2, w1〉 〈w1, w1〉 = 2 2 = 1. Allora:  w1 = 11 0  w2 = 20 1 − 11 0  =  1−1 1  . Si verifica che in effetti 〈w1, w2〉 = 0. Una base ortonormale di E è dunque: u1 = 1√ 2 11 0  , u2 = 1√ 3  1−1 1  . 10 • Ovviamente la base ortonormale ottenuta dipende dalla base di partenza. Per eser- cizio, vedere quale base ortonormale si ottiene scambiando i vettori della base di partenza. Esempio Trovare una base ortonormale del sottospazio di R4 generato dai vettori: v1 =  1 1 0 0  , v2 =  2 0 1 0  , v3 =  1 3 −1 2  . Soluzione. I tre vettori formano una base di E. Applichiamo l’algoritmo di Gram-Schmidt alla terna v1, v2, v3:  w1 = v1 w2 = v2 − a21w1 w3 = v3 − a31w2 − a32w2 Abbiamo w1 =  1 1 0 0 , e quindi a21 = 1. Dunque w2 =  2 0 1 0 −  1 1 0 0  =  1 −1 1 0  . Ora:  a31 = 〈v3, w1〉 〈w1, w1〉 = 4 2 = 2 a32 = 〈v3, w2〉 〈w2, w2〉 = −3 3 = −1 dunque: w3 =  1 3 −1 2 − 2  1 1 0 0 +  1 −1 1 0  =  0 0 0 2  . Otteniamo la base ortogonale: w1 =  1 1 0 0  , w2 =  1 −1 1 0  , w3 =  0 0 0 2  , 11 e, normalizzando, la base ortonormale: u1 = 1√ 2  1 1 0 0  , u2 = 1√3  1 −1 1 0  , u3 =  0 0 0 1  . 4 Matrici ortogonali Abbiamo visto che la matrice M di passaggio fra due basi B,B′ di uno spazio vettoriale è invertibile. Se le basi B,B′ sono ortonormali, la matrice di passaggio avrà delle proprietà particolari. Definizione Una matrice quadrata M si dice ortogonale se verifica MM t = I. Quindi una matrice ortogonale M è invertibile e M−1 = M t, cioè l’inversa coincide con la trasposta. Esempio La matrice M = 1√ 5 ( 1 −2 2 1 ) =  1√ 5 −2√ 5 2√ 5 1√ 5  è ortogonale. Esempio La matrice M =  1/ √ 2 1/ √ 3 1/ √ 6 −1/ √ 2 1/ √ 3 1/ √ 6 0 1/ √ 3 −2/ √ 6  è ortogonale. In entrambi i casi si verifica infatti che MM t = I. Osserviamo che, se MM t = I allora, prendendo il determinante di ambo i membri e applicando il teorema di Binet, si ha (detM)2 = 1. Dunque • se M è una matrice ortogonale allora detM = 1 oppure detM = −1. Il teorema seguente fornisce le proprietà importanti di una matrice ortogonale. Teorema a) La matrice di passaggio fra due basi ortonormali di Rn (o di un suo sot- tospazio) è ortogonale. b) Una matrice A ∈Mat(n × n) è ortogonale se e solo se le colonne di A formano una base ortonormale di Rn. Dimostrazione. La dimostrazione si riduce a una verifica, che omettiamo.  12 è un sottospazio di Rn di dimensione n− k. Dimostrazione. Abbiamo già osservato che E è un sottospazio. Sia v = (x1, . . . , xn)t il vettore generico di Rn. Imponendo l’ortogonalità di v a ciascuno dei vettori u1, . . . , uk otteniamo un sistema lineare omogeneo di k equazioni nelle n incognite x1, . . . , xn. Dunque E ha dimensione n− rkA, dove A è la matrice dei coefficienti. Ora, si verifica che le righe di A sono i vettori trasposti di u1, . . . , uk. Poiché per ipotesi u1, . . . , uk sono linearmente indipendenti il rango di A vale k e dunque dimE = n− k.  5.1 Complemento ortogonale di un sottospazio Sia E un sottospazio di Rn. Definiamo complemento ortogonale di E l’insieme E⊥ costi- tuito dai vettori di Rn ortogonali a tutti i vettori di E: E⊥ = {v ∈ Rn : 〈v, w〉 = 0 per ogni w ∈ E}. Dalle proprietà del prodotto scalare risulta che E⊥ è chiuso rispetto alla somma e al prodotto per uno scalare, dunque è un sottospazio di Rn. Risulta che v ∈ E⊥ se e solo se v è ortogonale a tutti i vettori di una base di E. Infatti: Proposizione Sia (v1, . . . , vk) una base di E. Allora v ∈ E⊥ se e solo se 〈v, vi〉 = 0 per ogni i = 1, . . . , k. Dimostrazione. Supponiamo che 〈v, vi〉 = 0 per ogni i = 1, . . . , k. Se w è un qualunque vettore di E, allora w è combinazione lineare dei vettori della base: w = a1v1 + · · ·+akvk. Quindi 〈v, w〉 = a1〈v, v1〉+ · · ·+ ah〈v, vk〉 = 0, che dimostra che v è ortogonale a w. Siccome w ∈ E è arbitrario, v ∈ E⊥. Il viceversa è immediato.  Esempio Determinare una base di E⊥, complemento ortogonale del sottospazio E di R4 generato dai vettori v1 =  1 1 1 1  , v2 =  1 0 1 0 . 15 Soluzione. Imponiamo al vettore generico v = (x, y, z, w)t ∈ R4 l’ortogonalità ai vettori della base (v1, v2) di E, ottenendo il sistema omogeneo:{ x+ y + z + w = 0 x+ z = 0 . Risolvendo il sistema, otteniamo la base di E⊥:  1 0 −1 0  ,  0 1 0 −1 .  Le proprietà importanti del complemento ortogonale sono espresse nel seguente teorema. Teorema Sia E un sottospazio di Rn e E⊥ il suo complemento ortogonale. Allora a) E ∩ E⊥ = {O}. b) dimE⊥ = n− dimE. c) Rn = E ⊕ E⊥. Dimostrazione. a) Se v ∈ E∩E⊥ allora v è ortogonale a tutti i vettori di E; in particolare v è ortogonale a sé stesso, e dunque 〈v, v〉 = 0. Ma l’unico vettore con tale proprietà è il vettore nullo. b) Sia dimE = k e sia (u1, . . . , uk) una base di E. Sappiamo che v ∈ E⊥ se e solo se v è ortogonale ai vettori di una base di E: dunque E⊥ = {v ∈ Rn : 〈v, u1〉 = · · · = 〈v, uk〉 = 0}. Siccome u1, . . . , uk sono linearmente indipendenti, dalla proposizione del paragrafo prece- dente otteniamo che dimE⊥ = n− k = n− dimE. c) Applichiamo la formula di Grassmann ai sottospazi E,E⊥: dim(E + E⊥) + dim(E ∩ E⊥) = dimE + dimE⊥. Da a) e b) concludiamo che dim(E+E⊥) = n. Dunque E+E⊥ = Rn. Poiché E∩E⊥ = {O} la somma è diretta: Rn = E ⊕ E⊥.  5.2 Proiezione ortogonale su un sottospazio Dal teorema precedente abbiamo che un vettore v ∈ Rn si spezza, in modo unico, come somma di un vettore w ∈ E e di un vettore w⊥ ∈ E⊥: v = w + w⊥. 16 In particolare, w e w⊥ sono ortogonali. • Il vettore w è detto la proiezione ortogonale di v sul sottospazio E. Denoteremo w con il simbolo PE(v). Esempio È dato il sottospazio di R3 descritto dall’equazione x + y − 2z = 0. Il vettore v = 12 0  ∈ R3 si spezza 12 0  = 1/23/2 1 + 1/21/2 −1  , dove il primo vettore appartiene a E e il secondo a E⊥. Quindi PE(v) = 1/23/2 1 . In generale, se (u1 . . . , uk) è una base ortonormale di E allora la proiezione ortogonale si calcola con la formula PE(v) = 〈v, u1〉u1 + · · ·+ 〈v, uk〉uk. 6 Endomorfismi simmetrici In questa sezione studieremo una classe importante di endomorfismi di Rn: gli endomor- fismi detti simmetrici. Tali endomorfismi sono caratterizzati dalla proprietà di ammettere una base ortonormale di autovettori, e sono legati in modo naturale alle matrici simmet- riche. In particolare, risulterà che ogni matrice simmetrica è diagonalizzabile. Definizione Un endomorfismo di Rn si dice simmetrico se la sua matrice associata rispetto alla base canonica è simmetrica. Esempio Sia f : R2 → R2 definito da f ( x y ) = ( −3x+ 3y 3x+ 5y ) . La matrice canonica di f è: A = ( −3 3 3 5 ) . Siccome A è simmetrica, f è simmetrico. Esempio L’endomorfismo f ( x y ) = ( x+ 2y 3y ) ha matrice canonica ( 1 2 0 3 ) dunque non è simmetrico. 17 è una base ortonormale di R2 formata da autovettori di f .  Esempio L’endomorfismo f ( x y ) = ( x+ 2y 3y ) ha matrice canonica ( 1 2 0 3 ) dunque non è simmetrico. Si osserva che f ha autovalori λ1 = 1, λ2 = 3 e autospazi: E(1) : y = 0, E(3) : x− y = 0. Si vede subito che gli autospazi non sono ortogonali. Risulta che f è diagonalizzabile, con base di autovettori ( 1 0 ) , ( 1 1 ) ma non è possibile trovare una base ortonormale di autovettori (se ortonormalizziamo la base, non otteniamo piú autovettori). Esempio Sia E un sottospazio di Rn. L’endomorfismo PE che associa al vettore v ∈ Rn la sua proiezione ortogonale sul sottospazio E è simmetrico. Infatti, se fissiamo una base ortonormale (u1 . . . , uk) di E allora la proiezione ortogonale è data da PE(v) = 〈v, u1〉u1 + · · ·+ 〈v, uk〉uk. Se w è un secondo vettore di Rn si ha 〈PE(v), w〉 = 〈v, u1〉〈u1, w〉+ · · ·+ 〈v, uk〉〈uk, w〉. Poiché il secondo membro rimane uguale scambiando v con w, si ha 〈PE(v), w〉 = 〈PE(w), v〉 = 〈v, PE(w)〉 e PE è simmetrico. 7 Teorema spettrale Veniamo al seguente importante teorema, di cui omettiamo la dimostrazione. Teorema spettrale. Sia f un endomorfismo simmetrico di Rn. Allora f è diagonaliz- zabile; inoltre esiste una base ortonormale di Rn costituita da autovettori di f . Anche il viceversa è vero, ed è facile da dimostrare: Teorema Sia f un endomorfismo di Rn, e supponiamo che esista una base ortonormale di Rn formata da autovettori di f . Allora f è simmetrico. Dimostrazione. La matrice associata alla base di autovettori (che è ortonormale per ipotesi) è diagonale, dunque simmetrica, e quindi f è simmetrico per il teorema della sezione prece- dente.  20 Dunque, la classe degli endomorfismi di Rn che ammettono una base ortonormale di autovettori coincide con la classe degli endomorfismi simmetrici. Notiamo anche il fatto seguente. Corollario Ogni matrice simmetrica è diagonalizzabile, ed è ortogonalmente simile ad una matrice diagonale. Cioè, possiamo trovare una matrice diagonale D e una matrice ortogonale M tali che: D = M−1AM = M tAM. Dimostrazione. Sia f l’endomorfismo di Rn rappresentato daA rispetto alla base canonica. Poiche’ A è simmetrica, anche f è simmetrico. Per il teorema spettrale, possiamo trovare una base ortonormale B formata da autovettori di f . In questa base, f si rappresenta con una matrice diagonale D; inoltre si ha D = M−1AM, dove M è la matrice di passaggio dalla base canonica alla base B. Poiche’ tali basi sono entrambe ortonormali, la matrice M è ortogonale, quindi M−1 = M t.  Diamo ora il procedimento per determinare una base ortonormale di autovettori di un endomorfismo simmetrico. 1. Calcoliamo il polinomio caratteristico e quindi troviamo gli autovalori di f , diciamo λ1, . . . , λk. 2. Con l’algoritmo di Gram-Schmidt, troviamo una base ortonormale di ciascun au- tospazio, diciamo B1, . . . ,Bk. 3. Uniamo le basi ortonormali cosi’ trovate per ottenere la base B = B1 ∪ · · · ∪ Bk di Rn. L’insieme di vettori cosi’ ottenuto formera’ una base ortonormale di autovettori. Infatti, ogni vettore di B ha chiaramente norma 1. Inoltre, se prendiamo due vettori appartenenti alla stessa base Bi questi sono ortogonali per costruzione; se prendiamo due vettori appartenenti a basi diverse, questi appartengono ad autospazi diversi e quindi sono ortogonali grazie alla proposizione della sezione precedente. I vettori di B sono a due a due ortogonali e di norma 1, dunque B è una base ortonormale. Infine, per diagonalizzare una matrice simmetrica A, procediamo cosi’: 1. Troviamo una base ortonormale B formata da autovettori dell’endomorfismo di Rn rappresentato da A rispetto alla base canonica. 2. Incolonniamo la base B per ottenere una matrice ortogonale M . 3. Scriviamo la matrice diagonale D, i cui elementi diagonali sono gli autovalori di f , presi nello stesso ordine dei corrispondenti autovettori di B. 4. Risultera’ allora D = M tAM . 21 7.1 Esempio Sia f l’operatore di R2 rappresentato da ( −3 3 3 5 ) rispetto alla base canonica. Abbiamo già trovato una base ortonormale di autovettori: 1√ 10 ( 3 −1 ) , 1√ 10 ( 1 3 ) , associati rispettivamente a −4 e 6. Quindi se prendiamo M = 1√ 10 ( 3 1 −1 3 ) , D = ( −4 0 0 6 ) . si avrà D = M tAM . 7.2 Esempio Sia f l’operatore di R3 rappresentato da 1 1 11 1 1 1 1 1  rispetto alla base canonica. f è simmetrico. Il polinomio caratteristico è −x3 + 3x2 e gli autovalori sono 0, 3. E(0) è il nucleo, di equazione x + y + z = 0 e base  1−1 0  ,  10 −1 . Applicando l’algoritmo di Gram-Schmidt, otteniamo la base ortonormale di E(0): w1 = 1√ 2  1−1 0  , w2 = 1√ 6  11 −2  . E(3) ha base 11 1 ; si osserva che E(3) è ortogonale a E(0). Otteniamo la base ortonormale di E(3): w3 = 1√ 3 11 1  . Ne segue che una base ortonormale di autovettori è (w1, w2, w3) cioè: 1√ 2  1−1 0  , 1√ 6  11 −2  , 1√ 3 11 1  . 22
Docsity logo


Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved