Docsity
Docsity

Prepare for your exams
Prepare for your exams

Study with the several resources on Docsity


Earn points to download
Earn points to download

Earn points by helping other students or get them with a premium plan


Guidelines and tips
Guidelines and tips

Corso di Chimica Teorica - Martinazzo R e Ceotto M, Milano University 2017, Lecture notes of Chemistry

A course outline for a theoretical chemistry course taught by R. Martinazzo. The course covers topics such as Schrödinger's equation, Hilbert space, linear operators, and perturbation theory. a detailed index of the topics covered in the course.

Typology: Lecture notes

2016/2017

Available from 07/22/2023

tandhi-wahyono
tandhi-wahyono 🇮🇩

5

(15)

618 documents

1 / 178

Toggle sidebar

Related documents


Partial preview of the text

Download Corso di Chimica Teorica - Martinazzo R e Ceotto M, Milano University 2017 and more Lecture notes Chemistry in PDF only on Docsity! Corso di Chimica Teorica G.Botti II semestre 2017/18 2 Indice I Lezioni di R. Martinazzo 9 1 Schrödinger e Hilbert 10 1.1 Il problema della meccanica quantistica . . . . . . . . . . . . . . . . . . . . . . . 10 1.2 Risoluzione dell’equazione di Schrödingher . . . . . . . . . . . . . . . . . . . . . . 11 1.3 Spazio lineare e operatori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.4 Prodotto scalare e spazio di Hilbert . . . . . . . . . . . . . . . . . . . . . . . . . . 13 1.5 Geometria e topologia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 1.6 Disuguaglianza di Cauchy-Schwartz . . . . . . . . . . . . . . . . . . . . . . . . . . 15 1.7 Teorema della proiezione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 1.8 Sistemi ortonormali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 1.9 Operatori e funzionali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 1.10 Alcuni esempi sulle serie di operatori . . . . . . . . . . . . . . . . . . . . . . . . . 22 1.11 Topologia dello spazio degli operatori . . . . . . . . . . . . . . . . . . . . . . . . . 25 1.12 Operatori trasposto ed aggiunto . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 1.13 Spazi di Schwartz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 1.14 Spazio di Hilbert e campo complesso . . . . . . . . . . . . . . . . . . . . . . . . . 28 1.15 Rappresentazione matriciale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 1.16 Proiettori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 1.17 Operatori unitari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 1.18 Operatori normali, autovalori e autovettori . . . . . . . . . . . . . . . . . . . . . 34 2 Teoria della misura 38 2.1 Schema di misura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 2.2 Principio d’indeterminazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 2.3 Risoluzione spettrale e funzioni di operatori . . . . . . . . . . . . . . . . . . . . . 43 2.4 Misure complete . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 2.5 Spettro continuo e distribuzioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 2.6 L’operatore posizione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 2.7 Rappresentazioni in x e in p . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 3 Evoluzione temporale 50 3.1 La parte deterministica della meccanica quantistica . . . . . . . . . . . . . . . . . 50 3.2 Risoluzione dell’equazione operatoriale . . . . . . . . . . . . . . . . . . . . . . . . 52 3.3 Lavorare con l’operatore di propagazione . . . . . . . . . . . . . . . . . . . . . . . 53 3.4 Limite classico (Push it to the limit! ) . . . . . . . . . . . . . . . . . . . . . . . . . 56 3.5 Indeterminazione tempo-energia . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 5 3.6 Particella libera . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 3.7 Costante del moto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 4 Teoria perturbativa 64 4.1 Sistema a due livelli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 4.2 Kick di campo elettrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 4.3 Transizioni elettroniche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 4.4 Convoluzione, convergenza e teorema . . . . . . . . . . . . . . . . . . . . . . . . . 71 4.5 Il fattore di convergenza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 4.6 Derivata dinamica e perdita di energia . . . . . . . . . . . . . . . . . . . . . . . . 73 4.7 Ora generalizziamo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 5 Rappresentazione statistica 76 5.1 Descrizione di Heisenberg . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 5.2 Operatore statistico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 5.3 Stato puro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 5.4 Operatore statistico ed equilibrio . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 5.5 Matrice densità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 5.6 Correlazioni in operatore statistico . . . . . . . . . . . . . . . . . . . . . . . . . . 85 5.7 Un problema noto, una nuova soluzione . . . . . . . . . . . . . . . . . . . . . . . 86 5.8 La funzione risposta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 5.9 Kubo, Martin e Schweiler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 5.10 Significato fisico delle relazioni appena viste . . . . . . . . . . . . . . . . . . . . . 94 5.11 Più forzanti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 5.12 Equilibrio dinamico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 5.13 Versione alternativa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 5.14 La via più rigorososa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 5.15 La dinamica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 II Lezioni di M. Ceotto 107 6 Dinamica Quantistica 108 6.1 Il problema della dinamica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 6.2 Particella libera . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 6.3 Moto ondulatorio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 6.4 Teorema di Ehrenfest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 6.5 Dispersione del pacchetto d’onda . . . . . . . . . . . . . . . . . . . . . . . . . . . 112 6.6 Il coefficiente di una sola gaussiana . . . . . . . . . . . . . . . . . . . . . . . . . . 113 6.7 Funzione d’onda di Heller . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 7 Interpretazione dei cammini di Feynman 119 7.1 Una nuova soluzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 7.2 Ampiezza di probabilità di una particella libera . . . . . . . . . . . . . . . . . . . 120 7.3 Approssimazione di fase stazionaria . . . . . . . . . . . . . . . . . . . . . . . . . . 123 7.4 Principio di minima azione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124 7.5 Relazione vettoriale della stationary phase approximation . . . . . . . . . . . . . 125 7.6 Propagatore di Feynman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125 7.7 Il problema del Boundary conditions value (BCV) . . . . . . . . . . . . . . . . . 128 6 7.8 Initial Value Representation (IVR) . . . . . . . . . . . . . . . . . . . . . . . . . . 129 7.9 Cosetta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130 7.10 Filtro di Filinov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130 7.11 Propagatore di Hermann-Kluck . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 8 Cinetica chimica 136 8.1 Formalismo di Boltzmann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136 8.2 L’accuratezza del livello semiclassico . . . . . . . . . . . . . . . . . . . . . . . . . 137 8.3 Costante cinetica quantistica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138 8.4 Costante cinetica semiclassica e classica . . . . . . . . . . . . . . . . . . . . . . . 141 8.5 Teoria dello stato di transizione . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 8.6 Scelta della dividing surface . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144 8.7 Correzione quantistica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146 8.8 Dimostrazione del teorema di Liouville . . . . . . . . . . . . . . . . . . . . . . . . 147 8.9 Cinetica di Markus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148 9 Problema nucleare 153 9.1 Hamiltoniano completo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153 9.2 Parametro di Massei . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156 10 Rappresentazione diabatica 158 10.1 Teoria perturbativa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158 10.2 Una reazione chimica! . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159 10.3 Probabilità di transizione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160 10.4 Delta di Dirac . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161 11 Rappresentazione adiabatica 164 11.1 Ripresa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164 11.2 Probabilità di transizione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164 12 Time Dependent Self Consistent Field 169 12.1 Il progenitore dei metodi dinamici a griglia . . . . . . . . . . . . . . . . . . . . . 169 12.2 Esempio: funzione come prodotto di Hartree . . . . . . . . . . . . . . . . . . . . . 170 12.3 Esempio in due dimensioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171 13 Dr Spectrelove 173 13.1 Ovvero: come ho imparato a non preoccuparmi e ad amare la spettroscopia . . . 173 7 Capitolo 1 Schrödinger e Hilbert 1.1 Il problema della meccanica quantistica Definizione (Stato). Indichiamo con stato l’insieme delle informazioni minime necessarie per prevedere l’evoluzione del sistema; in meccanica quantistica lo si indica con il vettore |ψ〉 mentre in meccanica classica è indicato con il vettore delle coordinate generalizzate ({xi} ; {pi}) L’evoluzione del sistema interessa alla dinamica, accanto alla quale vi è il problema della misura degli osservabili; in meccanica quantistica, infatti, la misura perturba il sistema, a diffe- renza di quanto accade in meccanica classica. Abbiamo quindi evidenziato i due problemi chiave di cui ci occuperemo in questo corso: la misura e l’evoluzione del sistema. Per il momento, assumeremo la visione ortodossa della misura (ad opera di Born), che semplifica di molto la trattazione ma richiede la presenza di un oggetto classico per essere effettuata. In questo caso, si permette ad un sistema preparato oppurtunamente di evolvere secondo l’equazione di Schrödinger H|ψ〉 = i~ d dt |ψ〉 finquando non si effettua la misura con uno strumento classico. La misura introduce però un problema: essendo proiettiva, introduce un’asimmetria nell’evoluzione temporale che impedisce di ricostruire lo stato prima della misura a partire dallo stato successivo alla misura stessa. Ciò che occorre, quindi, è un formalismo matematico che permetta di modellizzare sia l’evo- luzione che la misura, e che garantisca le proprietà di sovrapposizione (evoluzione) per la quale due stati sovrapposti evolvono a dare la sovrapposi- zione di due stati, i quali evolvono indipendentemente; verrà garantita attraverso l’utilizzo degli spazi lineari indeterminazione (misura) per la quale certi osservabili non possono essere misurati insieme; verrà garantita attraverso l’utilizzo degli operatori negli spazi lineari L’evoluzione temporale è regolata, come abbiamo già fatto notare, dall’equazione di Schrödinger. Vi sono tuttavia numerosi modi per vederla, che vengono chiamati rappresentazioni. Nella rap- presentazione di Schrödinger, ogni vettore di stato è funzione del tempo, mentre gli operatori no: |ψ〉 = f(t)  6= f(t) 10 È però possibile tenere fisso nel tempo il vettore di stato |ψ〉 e far variare gli operatori, ottenendo gli operatori dipendenti dal tempo ÂH(t), che sono più simili a quelli classici e possono essere ricavati da quelli di Schrödinger attraverso un’operazione di similitudine; questa rappresentazione prende il nome di rappresentazione di Heisenberg. Infine, è possibile leggere la dinamica in rappresentazione di Dirac, ossia come composta dalla somma di un termine principale ed una perturbazione. Il vettore di stato (o funzione d’onda che dir si voglia) spesso non basta, perché |ψ〉 è molto grande per sistemi anche semplici; per questo, è talvolta conveniente introdurre l’operatore statistico ρ̂, che non descrive solo uno stato puro, ma anche una miscela di stati. Dimostreremo che questo operatore soddisfa l’equazione di Bilfort-Newmann ∂ρ̂ ∂t = − i ~ [ Ĥ, ρ̂ ] + L e che tramite il termine ignoto L risulterà molto utile nella descrizione dei sistemi non isolati. 1.2 Risoluzione dell’equazione di Schrödingher Abbozzato il problema della rappresentazione, si può passare alla risoluzione dell’equazione di Schrödinger in quanto tale. In prima istanza, si potrebbe pensare di applicare metodi di inte- grazione numerica, ma questi risultano poco attuabili per sistemi ad elevato numero di gradi di libertà; per questo, la risoluzione dell’evoluzione temporale verrà affidata ai metodi generali di approccio alla dinamica: teoria perturbativa che pervade la nostra interpretazione del mondo fisico al punto che certe grandezze importanti nascono e vivono al suo interno, e trova applicazioni anche in for- malismi più generali rispetto a quello di Schrödinger, come nel caso della teoria della risposta lineare principio variazionale che permette di avere approssimazioni sistematiche (ossia che conver- gono alla soluzione esatta) e sul quale si basano tutti i metodi variazionali, con i quali è possibile trattare sistemi anche con migliaia di gradi di libertà L’applicazione della meccanica quantistica al problema elettronico richiede, tuttavia, la ca- pacità di ottenere una buona approssimazione del ground state su sistemi composti da un gran numero di particelle quantistiche identiche. Poiché la funzione d’onda |ψ〉 è ingestibile per grandi sistemi, la meccanica quantistica fu riformulata nei termini della seconda quantizzazione, che introduce l’antisimmetria negli operatori, semplificando di molto la computazione dei risultati. La seconda quantizzazione può essere portata all’estremo con l’introduzione della funzione di Green1, legata all’equazione di Schrödinger dalla trasformata di Fourier; questa formulazione della meccanica quantistica è dovuta principalmente al fisico americano Richard Feynman. I metodi che tuttavia sono più largamente usati si possono dividere in due tronconi: Hartree- Fock (e post-Hartee-Fock: MPn, CI ...) e nei metodi Density Functional Theory (DFT), che sfruttano la funzione di densità elettronica ρ(r), che è molto più maneggevole dei vettori |ψ〉, ma della quale non si conosce l’equazione equivalente a quella di Schrödinger. Tra questi due metodi stanno sorgendo i metodi che sfruttano la matrice di densità, per la quale è nota l’equazione esatta, ma non si conoscono le condizioni al contorno2, cosa che ne riduce molto l’applicabilità. 1per maggiori informazioni al riguardo, è consigliato il corso “Metodi Matematici per la Fisica 2: Equazioni Differenziali”, tenuto da D. Klemm; altrimenti, v. Byron & Fuller, Mathematics for Classical and Quantum Physics 2Le condizioni imposte alla soluzione di una equazione differenziale sono di tre tipi: 1. c.ni iniziali (di Cauchy), sui valori iniziali della soluzione; 2. c.ni al contorno (di Dirichlet), sul valore della soluzione agli estremi del dominio; 3. c.ni al gradiente (di Newmann), sulla sua derivata 11 1.3 Spazio lineare e operatori La presenza, in meccanica quantistica, di un principio di sovrapposizione e di un principio di indeterminazione impone che una teoria complessiva debba essere formulata in uno spa- zio lineare (richiesto dalla sovrapposizione), connesso ad un insieme di operatori (in modo da garantire il principio di indeterminazione). Definizione (Spazio lineare). Lo spazio lineare è un insieme di elementi per cui somma e prodotto per scalare sono interni; nel nostro caso, questi elementi verranno indicati come ket |ψ〉 e corrisponderanno a vettori in uno spazio di dimensione infinita3. Se lo scalare è un numero complesso, si ha uno spazio lineare su campo4complesso, altrimenti si tratta di campo reale. Gli operatori, invece, sono oggetti  che agiscono sui vettori in un modo che indicheremo d’ora in avanti come Â|ψ〉 = |φ〉 L’unica richiesta a priori che questi oggetti dovranno soddisfare è che la loro applicazione sui vettori dello spazio lineare soddisfi la sovrapposizione, quindi sia anch’essa lineare. Gli operatori sono dotati di un prodotto di composizione (quello che con le funzioni era indicato con f ◦g), che indicheremo con la scrittura B̂Â, che significa applicare prima l’operatore  e poi l’operatore B̂; gli operatori sono anch’essi lineari:( Â+ B̂ ) |ψ〉 = Â|ψ〉+ B̂|ψ〉 e ammettono prodotto per scalare:( α ) |ψ〉 = αÂ|ψ〉 ∀α ∈ C In questo modo, anche gli operatori formano uno spazio lineare, ma dal momento che esiste un prodotto tra operatori (B̂Â), si dicono appartenere ad un’algebra5. A differenza delle algebre a cui siamo abituati (semplicemente, quella dei numeri), quella degli operatori non è commutativa, ossia il prodotto non è invariante per la permutazione dei suoi elementi: B̂ 6= ÂB̂ Questo rende l’algebra degli operatori ideale per la descrizione del principio di indetermina- zione, nonostante sia fonte di non pochi problemi. Per valutare se due operatori commutino o meno, si valuta il valore di ÂB̂ − B̂ Se questo è nullo, i due operatori commutano. In ogni caso, lo indico come[ Â, B̂ ] = ÂB̂ − B̂ e lo chiamo commutatore o prodotto di commutazione6. 4In matematica, un insieme è infinito se e solo se esiste una corrispondenza biunivoca con il suo sottoinsieme proprio (per esempio è ciò che accade tra numeri naturali e numeri naturali pari). Un infinito si dice numerabile se esiste una corrispondenza biunivoca con i numeri naturali; questo comporta una cardinalità (etichettatura) ℵ0. Un infinito si dice non numerabile se non vi è corrispondenza biunivoca con i numeri naturali 4Un campo è un insieme con delle belle proprietà; il campo complesso è meglio del campo reale perché algebricamente chiuso, ossia ogni equazione algebrica ha soluzione al suo interno 5In matematica, un’algebra è un insieme dotato di prodotto per scalare, somma e prodotto, dove con prodotto si intende una qualsiasi operazione che sia distributiva rispetto ad entrambi gli elementi 6Se si compie l’analogia con i vettori, il commutatore [ Â, B̂ ] corrisponde al prodotto vettoriale a ∧ b 12 ricaviamo che una successione convergente è sempre addensante: ‖ψn − ψm‖ → 0 Il contrario non sempre accade: una successione addensante non è detto che sia convergente, perché il limite della successione potrebbe non appartenere all’insieme in cui vive la successione8; per esempio, una successione sui numeri razionali che ha un limite reale può essere addensante ma non convergerà mai. Definizione (Insieme completo). Un insieme si dice completo se al suo interno ogni successione di Cauchy è convergente. 1.6 Disuguaglianza di Cauchy-Schwartz Uno spazio di Hilbert è quindi uno spazio lineare con prodotto scalare completo. Tutto ciò può essere tradotto per le funzioni d’onda imponendo che∫ +∞ −∞ |Ψ(x)|2 dx < +∞ quindi le Ψ(x) dovranno appartenere allo spazio delle funzioni modulo quadro sommabili L 2(R), che si può dimostrare corrispondere ad uno spazio di Hilbert9. Il prodotto scalare ci porta alla disuguaglianza di Cauchy-Schwartz, |〈ϕ|ψ〉| ≤ ‖ϕ‖‖ψ‖ Disuguaglianza di Cauchy-Schwartz. Per ogni λ ∈ C, posso scrivere 〈ϕ− λψ|ϕ− λψ〉 ≥ 0 Si noti che, se ‖ϕ− λψ‖ = 0 ⇒ |ϕ〉 = λ|ψ〉 inoltre, svolgendo il prodotto scalare di cui sopra, si ottiene: 〈ϕ|ϕ〉 − λ∗〈ψ|ϕ〉 − λ〈ϕ|ψ〉+ |λ|2‖ψ‖2 ≥ 0 8Ad esempio, la successione definita da xn = ( 1 + 1 n )n ammette come limite lim n→+∞ ( 1 + 1 n )n = e quindi, pur essendo una successione di Cauchy, è convergente solo sull’insieme dei numeri reali, che è completo, perché contiene i propri limiti; in effetti, l’insieme dei numeri reali R può essere visto come la chiusura dell’insieme non completo dei numeri razionali Q, ossia R := Q 9Giusto per gradire, tutto è legato alla misura (ossia a come si fa l’integrale), onde evitare la presenza di degenerazione, che significherebbe ∫ |Ψ(x)|2 dx = 0 6⇒ Ψ(x) = 0 La misura (di Riemann o di Lebesgue) non sempre lo garantisce, ma per l’integrale di Lebesgue la condizione è quasi-ovunque, ossia a meno di un insieme di misura nulla 15 che vale ∀λ ∈ C, quindi prendo λ = 〈ψ|ϕ〉 = 〈ϕ|ψ〉∗ In questo modo, scrivo ‖ϕ‖2 − |〈ψ|ϕ〉|2 − |〈ψ|ϕ〉|2 + |〈ψ|ϕ〉|2‖ψ‖2 ≥ 0 Immagino di prendere ‖ψ‖ = ‖ϕ‖ = 1, in modo che 1− 2|〈ψ|ϕ〉|2 + |〈ψ|ϕ〉|2 ≥ 0 |〈ψ|ϕ〉|2 ≤ 1 0 ≤ |〈ψ|ϕ〉| ≤ 1 I vettori di norma unitaria possono sempre essere costruiti come |ψ〉 = |ψ〉 ‖ψ‖ |ϕ〉 = |ϕ〉 ‖ϕ‖ che mi porta a scrivere |〈ϕ|ψ〉| ‖ϕ‖‖ψ‖ ≤ 1 che corrisponde alla disuguaglianza di Cauchy-Schwartz. Per analogia con i vettori, dico due vettori tali che 〈ψ|ϕ〉 = 0 sono ortogonali tra loro; con questo, posso facilmente allargare il teorema di Pitagora anche ai vettori negli spazi di Hilbert, nella forma: ‖ϕ+ ψ‖2 = ‖ϕ‖2 + ‖ψ‖2 se 〈ϕ|ψ〉 = 0 Infatti, 〈ϕ+ ψ|ϕ+ ψ〉 = ‖ϕ‖2 + 〈ψ|ϕ〉+ 〈ϕ|ψ〉+ ‖ψ‖2 = ‖ϕ‖2 + ‖ψ‖2 1.7 Teorema della proiezione Il prodotto scalare mi permette di adottare il teorema della proiezione: Teorema (Della proiezione). Preso uno spazio lineare qualunque ed un vettore qualunque, questo vettore può essere univocamente rappresentato come la somma di un vettore dello spazio e di un altro vettore di un altro spazio, ortogonale al primo In questo modo, dato V ⊂H , posso descrivere il generico vettore |ψ〉 come |ψ〉 = |ψV 〉+ |ψV ⊥〉 Quando scrivo |ψV ⊥〉, intendo 〈ψV ⊥ |ψV 〉 = 0 16 Definisco quindi V ⊥ complemento ortogonale di V e lo indico come V ⊥ := {|ϕ〉 ∈H | 〈ϕ|ψ〉 = 0 , ∀|ψ〉 ∈ V } ossia come l’insieme di tutti gli elementi ortogonali a quelli di V . Anche se V non è lineare, V ⊥ lo è: prendendo due elementi di V ⊥, |ϕ1〉 e |ϕ2〉, allora 〈ϕ1 + ϕ2|ψ〉 = 〈ϕ1|ψ〉+ 〈ϕ2|ψ〉 = 0 per ogni vettore |ψ〉 ∈ V . Il complemento di V ⊥, V ⊥⊥, è più grande di V , V ⊆ V ⊥⊥ perché V ⊥⊥ è uno spazio lineare, quindi contiene tutti gli elementi di V più le loro combinazioni lineari. Se anche V è lineare, allora V = V ⊥⊥ In questo modo, posso ridefinire il teorema della proiezione come Teorema (Della proiezione). Sia V uno spazio lineare di complemento ortogonale V ⊥, allora la loro somma diretta10⊕, è uno spazio di Hilbert: V ⊕ V ⊥ ≡H Corollario. Per un qualsiasi elemento |ψ〉 ∈ H , esiste uno ed un solo modo per rappresentar- lo11: |ψ〉 = |ψV 〉+ |ψV ⊥〉 Questo teorema mi dice che posso sezionare lo spazio di Hilbert in settori separati ma orto- gonali tra loro (come gli orbitali occupati e gli orbitali virtuali), permettendomi di costruire la teoria della misura Esercizio. Il lettore dimostri che {0}⊥ = H H ⊥ = 0 V ⊂ W ⇔ V ⊥ ⊃ W ⊥ 1.8 Sistemi ortonormali In uno spazio di Hilbert, il prodotto scalare 〈ϕ|ψ〉 ∈ C ci permette di definire i concetti di norma (sul quale si basa il limite) e di ortogonalità (sul quale si basa il teorema della proiezione). Definizione (Sistema ortonormale). Un sistema ortonormale è una successione di vettori ca- ratterizzati dalla relazione 〈ϕn|ϕm〉 = δnm 10Con somma diretta significa che gli elementi del nuovo insieme sono combinazione lineare degli elementi degli insiemi di partenza 11Per assurdo, posso pensare che due diverse combinazioni lineari descrivano lo stesso vettore, |ψ〉 = ∑ i ci|ψi〉 = ∑ i di|ψi〉 ⇒ 0 = ∑ i (ci − di)|ψi〉 ⇒ ci = di ma concluderei che sono equivalenti. 17 1.9 Operatori e funzionali Gli operatori sono delle applicazioni. Dati infatti due insiemi X e Y , se posso associare un elemento di X ad uno e un solo elemento di Y ho creato una funzione. Dico che questa funzione è iniettiva se f(x1) = f(x2) ⇒ x1 = x2 Nel caso dei nostri operatori, gli insiemi di partenza e di arrivo corrispondono allo stesso spazio di Hilbert; poiché le funzioni devono mantenere le stesse proprietà dopo l’applicazione dell’o- peratore, allora l’applicazione generica A sarà un operatore se e solo se è una funzione lineare A : H →H . Per ricordarcelo, scriviamo Â(|ϕ〉) := Â|ϕ〉 Poiché C è il campo dei prodotti scalari di H , siamo interessati anche alle funzioni f : H → C. Se queste funzioni sono lineari, le chiamo funzionali; poiché C è lineare, anche i nostri funzionali avranno struttura lineare: (f1 + f2)|ϕ〉 = f1(|ϕ〉) + f2(|ϕ〉) (λf)(|ϕ〉) := λ∗f(|ϕ〉) che ricorda il prodotto scalare. Per ricordarmi queste belle proprietà, scrivo: f(|ϕ〉) := 〈f, ϕ〉 Ogni spazio lineare viaggia in compagnia del suo corrispondente spazio dei funzionali lineari, che prende il nome di spazio duale. Se lo spazio lineare è finito dimensionale, il suo duale è isomorfo, quindi identico; lo indico così E ' E ∗ Questo è un isomorfismo (associazione di spazi) – che prende il nome di isomorfismo di Tikonov – e non è naturale, ma richiede una base per avere la relazione biunivoca. Infatti, dato un elemento dello spazio duale a, questo può corrispondere all’elemento f dello spazio lineare in base T , o all’elemento g in base T ′. Il prodotto scalare sullo spazio di Hilbert, tuttavia, mi introduce naturalmente l’isomorfismo di Riesz, che associa il duale ad ogni spazio lineare, senza la necessità di introdurre una base; dato a, un elemento fissato dello spazio, scopro che il prodotto scalare 〈a|ϕ〉 è anch’esso un funzionale lineare tale che |ϕ〉 ∈H 7→ Fa(|ϕ〉) := 〈a|ϕ〉 ∈ C In questo modo, l’isomorfismo di Riesz mi garantisce di poter sempre rappresentare il funzionale come prodotto scalare: 〈aF |ϕ〉 := F [|ϕ〉] Ciò corrisponde, scelta la base, a F [ϕ] = ∫ d3x a∗F (x)ϕ(x) 20 Dato quindi il funzionale lineare, mi basta trovare l’elemento aF corretto per trovare l’unico prodotto scalare che può rappresentare il funzionale. Mi accorgo a questo punto che 〈a| ∈H ∗ è un funzionale lineare; inoltre, l’isomorfismo di Riesz mi dice che gli elementi di H ∗ e H sono legati da una relazione iniettiva, quindi sono praticamente la stessa cosa, dal momento dato un elemento |ϕ〉 ∈H , l’isomorfismo di Riesz mi mappa |ϕ〉 ∈H 7−→ 〈ϕ| ∈H ∗ dove 〈ϕ| è l’immagine di |ϕ〉 in H ∗. Un operatore, invece, prende un |ϕ〉 e restituisce un |ϕ〉; dal momento che l’insieme di arrivo (è lui che importa) è lineare, le relazioni punto a punto mi permettono di ricreare la struttura dell’insieme d’arrivo. Oltre alla linearità (Â+ B̂)|ϕ〉 = Â|ϕ〉+ B̂|ϕ〉 (λÂ)|ϕ〉 = λA|ϕ〉 lo spazio degli operatori è dotato di un prodotto di composizione: (B̂A)|ϕ〉 = B̂(Â|ϕ〉) Ne risulta che gli operatori non formano un semplice spazio lineare, ma – essendo dotati di pro- dotto – sono un’algebra. Poiché quest’algebra non è commutativa, introduciamo il commutatore o prodotto di commutazione: C(Â, B̂) = [ Â, B̂ ] Se si è fortunati, è possibile definire anche le potenze di un operatore Ân; in presenza di una topologia, poi, possiamo introdurre le serie di potenze: B̂ = ∑ cn n So12che una qualsiasi funzione buona f(z) può essere rappresentata come una serie di potenze f(z) = ∞∑ n=0 cnz n quindi dalle serie di potenze degli operatori posso costruire le funzioni degli operatori: f(Â) := ∞∑ n=0 cn n Per esempio, data la funzione ez := ∞∑ n=0 zn n! ( d dz ez ∣∣∣∣ 0 )n = ∞∑ n=0 zn n! costruisco l’esponenziale dell’operatore: e := ∞∑ n=0 Ân n! 12L.G. Molinari - Mathematical Methods for Physics, Chapter 11 21 Bisogna però stare attenti a dove la mancanza di commutazione può guastare i giochi; se infatti è cosa nota che ez+w = ezew solitamente si ha che eÂ+B̂ 6= eÂeB̂ Infatti, eÂ+B̂ ' 1 + ( Â+ B̂ ) + 1 2 ( Â+ B̂ )2 ' 1 + ( Â+ B̂ ) + 1 2 ( Â2 + B̂2 + ÂB̂ + B̂ ) mentre eÂeB̂ ' ( 1 + Â+ Â2 2 )( 1 + B̂ + B̂2 2 ) ' 1 + (Â+ B̂) + 1 2 ( Â2 + B̂2 + 2ÂB̂ ) Quindi le due scritture non sono uguali a meno che  e B̂ non commutino. Ci sono dei casi particolari; ad esempio, se [ Â, B̂ ] 6= 0 ma [ Â, [ Â, B̂ ]] = [ B̂, [ Â, B̂ ]] = allora si ha l’identità operatoriale di Ausdorf-Campbell13: eÂ+B̂ = eÂeB̂e−[Â,B̂]/2 1.10 Alcuni esempi sulle serie di operatori Esempio 1. È cosa nota che la serie geometrica abbia la forma f(z) = 1 1− z = ∞∑ n=0 zn se |z| < 1 In termini operatoriali, possiamo scrivere f(Â) = ∞∑ n=0 Ân = ( 1−  )−1 13v. le dispense del corso, presenti sul sito del docente 22 che ammicca alla meccanica classica. Inoltre, allo stesso modo si potrebbe dimostrare che [x̂n, p̂] = i~xn−1n quindi [V (x̂), p̂] = i~ ∂V ∂x̂ (x̂) 1.11 Topologia dello spazio degli operatori Le serie di potenze sono comode da impiegare solo quando sia possibile lavorare con i limiti, quindi quando sia possibile affidarsi ad una certa topologia. La topologia è assicurata nel caso degli operatori continui, che però sono pochi e brutti. Definizione (Operatore continuo). Data la successione {|ϕn〉}n convergente a |ϕ〉, dico che  è un operatore continuo se lim n→∞ Â|ϕn〉 = Â|ϕ〉 dove chiamo i Â|ϕn〉 “trasformati” La continuità di un operatore la si dimostra nell’origine prendendo una successione |ϕ̃n〉 −→ 0 tanto si può sempre scrivere: |ϕ̃n〉 = |ϕn〉 − |ϕ〉 dove |ϕ〉 = lim n→+∞ |ϕn〉 In questo modo, la continuità viene garantita da lim n→∞ Â|ϕ̃n〉 = 0 ⇒ lim n→∞ [  (|ϕ̃n〉 − |ϕ〉) ] = 0 Tutto questo è un po’ rognoso, ma mi accorgo che gli operatori lineari sono sempre limitati: ‖Âϕ‖ ≤M‖ϕ‖ definizione presa pari pari dalle funzioni limitate (limitatezza assoluta): |f(x)| ≤M Ma questa definizione non ha senso per una funzione lineare, infatti, se f(x) ≤M allora f(λx) = λf(x) ≥M per λ grande a piacere; per questo, non uso la limitatezza assoluta, ma mi accontento, appunto, di richiedere ‖Âϕ‖ ≤M‖ϕ‖ 25 poi mi affido alla sfera unitaria14. Il parametro M lo chiamo maggiorante, mentre chiamo il più piccolo maggiorante norma infinita ‖Â‖∞, definita come ‖Â‖∞ = inf { M |M ≥ ‖Âϕ‖ , ‖ϕ‖ = 1 } Questa norma prende il nome alternativo di norma sup di Â, poiché può essere scritta a partire da ‖Âϕ‖ ‖ϕ‖ ≤M ⇒ M = lim sup ‖Âϕ‖ ‖ϕ‖ Dal momento che ‖Â‖∞ è una norma, quindi mi permette di definire una topologia. Questi sono i cosiddetti operatori limitati, indicati con L (Â), che sono dotati di topologia. 1.12 Operatori trasposto ed aggiunto Definizione (Operatore trasposto). Per ogni operatore  che agisce su di uno spazio di Hilbert H , esiste un operatore Ât che agisce su H ∗, immagine di  in H ∗, che chiamo operatore trasposto Per via della dualità dello spazio, dall’operatore trasposto ottengo per isomorfismo l’operatore aggiunto. Definizione (Operatore aggiunto). Dato un operatore trasporto Ât in H ∗, l’operatore aggiunto † è l’operatore corrispondente a Ât in H In pratica, definisco 〈ϕ|†|ψ〉 := 〈Âϕ|ψ〉 ∀|ϕ〉, |ψ〉 ∈H La trasposizione funziona in modo similare al prodotto di matrici; infatti, (AB)† = B†A† che per gli operatori si traduce in 〈ϕ|(ÂB̂)†|ψ〉 = 〈ÂB̂ϕ|ψ〉 = 〈B̂ϕ|†ψ〉 = 〈ϕ|B̂†Â†|ψ〉 quindi (ÂB̂)† = B̂†Â† In effetti, l’ operatore  nello spazio finito-dimensionale è una matrice, una volta che si è definita una base; in questo caso, l’operatore † corrisponderà al complesso coniugato del trasposto di quella matrice. Il trasposto Ât, invece, agisce sui funzionali lineare allo stesso modo con cui  agisce sui vettori dello spazio di Hilbert. Dato infatti un funzionale α(ψ), tale che 〈α,ψ〉 ∈ C 14ossia al luogo dei punti con ‖ϕ‖ = 1 26 è sempre possibile scrivere l’azione di un operatore  su |ψ〉 come l’azione di un nuovo funzionale:〈 α, Âψ 〉 = 〈βA, ψ〉 In questo caso, chiamo βA = α ·  prodotto di composizione e scopro che βA = Âtα La mappa degli isomorfismi e degli operatori è mostrata in Figura 1.1. Lo schema riassuntivo degli spazi in questione è mostrato in Figura 1.2 H ∗ H ∗ HH T T−1 At A Figura 1.1: Schema del funzionamento dell’isomorfismo T H H ∗ O Figura 1.2: Schema grafico del mondo quantistico 1.13 Spazi di Schwartz Gli operatori buoni che stiamo cercando sono definiti su di (hanno dominio in) un insieme denso nello spazio, ossia un insieme che sia tanto grande da essere più o meno tutto lo spazio. Questo 27 sfruttando le proprietà di L 2. Si può concludere quindi che: p̂ = p̂† Quindi, dato l’operatore energia cinetica T̂ = p̂2 2m si ha T̂ † = 1 2m (p̂p̂)† = 1 2m p̂†p̂† = 1 2m p̂2 Esempio 7. Si consideri l’operatore di moltiplicazione x̂, x̂† = x̂∗ = x̂ ∈ R e l’operatore momento p̂. Per quanto visto prima, (p̂x̂)† = x̂†p̂† = x̂p̂ ma x̂p̂ 6= (x̂p̂)† L’operatore aggiunto, in conclusione, va calcolato volta per volta, ma in realtà uso gli operatori elementari e le regole di composizione 1.15 Rappresentazione matriciale Si vuole rappresentare l’applicazione dell’operatore  su di un generico vettore |ψ〉 dello spazio generato e descritto dalla base {|ϕ〉n}n∈N. Si parte introducendo la risoluzione dell’identità: Â|ψ〉 = ∑ n∈N |ϕn〉〈ϕn|Â|ψ〉 Questa relazione vale sempre; si introduce un’altra risoluzione dell’identità: Â|ψ〉 = ∑ n∈N ∑ m∈N |ϕn〉〈ϕn|Â|ϕm〉〈ϕm|ψ〉 In un sistema ortonormale completo, 〈ϕm|ψ〉 = ψm sono le coordinate generalizzate del vettore nella base |ϕm〉, quindi sono le componenti di un vettore che corrisponde alla rappresentazione di |ψ〉 nel sistema di riferimento ortonormale com- pleto; proprio come per i vettori, sono i coefficienti della combinazione lineare. Per ricavare la componente n-esima del trasformato, si premoltiplica, ottenendo 〈ϕn|Âψ〉 = ∑ k ∑ m 〈ϕn|ϕk〉〈ϕk|Â|ϕm〉ψm = ∑ m 〈ϕn|Â|ϕm〉ψm 30 In questo modo, è possibile rappresentare il rappresentativo |ψ′〉 = Â|ψ〉 come un prodotto matrice-vettore: ∣∣∣∣∣∣∣∣ ... ψ′n ... ∣∣∣∣∣∣∣∣ = A ∣∣∣∣∣∣∣∣ ... ψm ... ∣∣∣∣∣∣∣∣ dove la matrice A è detta matrice rappresentativa, ed i suoi elementi sono Anm := 〈ϕn|Â|ϕm〉 La matrice rappresentativa dell’operatore aggiunto è 〈ϕn|†|ϕm〉 = 〈Âϕn|ϕm〉 = 〈ϕm|Â|ϕn〉∗ Questa relazione prende il nome di equivalenza aggiunzione-coniugazione. La rappresenta- zione matriciale permette di elaborare la teoria tramite vettori astratti, facendo i conti poi dopo aver introdotto una base adeguata. 1.16 Proiettori Gli operatori che interessano in meccanica quantistica sono quelli autoaggiunti perché tutte le grandezze osservabili devono essere autoaggiunte di proiezione (o proiettori) che invece sono osservabili semplici e si basano sul teorema di proiezione Il teorema di proiezione ci dice che, dato H = V ⊕ V ⊥, allora un qualsiasi vettore x ∈H , può essere univocamente descritto come x = xV + xV ⊥ Univocamente significa che ∃!xV , quindi esiste una mappa che x 7−→ xV Questa mappa viene indicata con P e corrisponde all’operatore lineare P̂ , proiettore sullo spazio V . Qualsiasi proiettore gode delle seguenti proprietà: P̂V P̂V x = P̂V x P̂ †V = P̂V Mentre la prima è intuitiva18, la seconda può essere dimostrata come segue 〈ϕ|P̂ψ〉 = 〈P̂ †ϕ|ψ〉 ! = 〈P̂ϕ|ψ〉 = 〈ϕ|ψV 〉 = 〈ϕV + ϕV ⊥ |ψV 〉 = 〈ϕV |ψV 〉+ 0 = 〈ϕV |ψV 〉+ 〈ϕV |ψV ⊥〉 per lo stesso motivo = 〈P̂ϕ|ψ〉 = 〈P̂ †ϕ|ψ〉 Per questo, P̂ = P̂ 2 = P̂ †. Se un operatore soddisfa queste condizioni, allora P̂ è un proiettore e l’immagine di P̂ è V , ed il suo kernel è V ⊥: ImP̂ = V ker P̂ = V ⊥ 18Intuitivamente, se il compito del proiettore è generare l’immagine del generico vettore x in V , allora proiettare un qualsiasi vettore di V darà il vettore stesso, anche nel caso di P̂V (P̂V x) = (P̂V x) 31 dove ker P̂ = { |ψ〉 ∈H | P̂ |ψ〉 = 0 } Si può dimostrare che il kernel di un operatore è uno spazio lineare, che contiene almeno un elemento, lo zero; nel caso in cui contenga solo lo zero lo chiamo kernel banale. L’utilità del kernel è che ci permette di capire se una mappa iniettiva è invertibile. Invertibilità di un mappa. Dato infatti Â|ψ〉 = Â|ϕ〉 la mappa  è iniettiva se e solo se |ψ〉 = |ϕ〉; in questo, l’iniettività mi garantisce che Â|ψ〉 = Â|ϕ〉 ⇒ |ψ〉 = |ϕ〉 Questo può essere riscritto come Â(|ψ〉 − |ϕ〉) = 0 ⇒ |ψ〉 − |ϕ〉 = 0 Se si indica quindi |Ψ〉 = |ψ〉 − |ϕ〉, si ha che Â|Ψ〉 = 0 ⇒ |Ψ〉 = 0 vale necessariamente solo se il ker  è banale. Se il kernel è banale, quindi, la mappa è invertibile. Qualunque operatore, purché autoaggiunto, si può scrivere come combinazione lineare di proiettori:  = ∑ n αnP̂n = ∑ n αn|n〉〈n| Quindi ogni operatore può essere visto come la somma di azioni elementari, che prende il nome di decomposizione spettrale, dove gli αn sono i valori dell’osservabile e P̂n rappresenta la probabilità di avere il valore n-esimo. Due proiettori sono ortogonali se e solo se P̂A P̂B = 0. Dimostrazione. Dati due proiettori P̂A e P̂B, tali che P̂A P̂B = 0, allora 〈ψ|P̂A P̂B|ψ〉 = 0 quindi 〈P̂ †A ψ|P̂Bψ〉 = 〈P̂A ψ|P̂Bψ〉 = 0 il che significa che P̂A e P̂B proiettano su due spazi tra loro ortogonali. Se P̂A P̂B = 0, allora P̂A + P̂B è un proiettore. Dimostrazione. Per dimostrarlo, si verifica che risponda alle proprietà di un proiettore. Si può facilmente intuire che ( P̂A + P̂B )† = P̂A + P̂B Inoltre, (P̂A + P̂B)(P̂A + P̂B) = P̂ 2 A + P̂A P̂B + P̂BP̂A + P̂ 2 B = P̂ 2 A + 0 + P̂ 2 B = P̂A + P̂B 32 matriciale; questo diventa praticamente impossibile per uno spazio infinito-dimensionale, quindi si definisce l’operatore risolvente Ĝ(α) = (α− Â)−1 funzione operazionale di α ∈ C. Studiando Ĝ(α), si scopre che ci sono degli α per i quali Ĝ(α)→ +∞; questi α sono gli autovalori, mentre per gli altri punti Ĝ(α) è una funzione analitica. L’insieme degli autovalori prende il nome di spettro σ e corrisponde all’insieme delle singolarità di Ĝ. Si può verificare che il range di  rÂ, l’insieme dei suoi valori di aspettazione, è tale che r ⊃ σ poiché i valori di aspettazione E = 〈ψ|Â|ψ〉 ma per gli autovettori |ψα〉, allora E = α Se l’operatore è autoaggiunto, E ∈ R, quindi, poiché tutti gli E sono reali, σ ∈ R. Per questo gli operatori autoaggiunti rappresentano gli osservabili fisici. Per un operatore normale, 〈ψ|N̂†N̂ |ψ〉 = 〈ψ|N̂N̂†|ψ〉 che significa ‖N̂ψ‖ = ‖N̂†ψ‖ Se l’operatore normale ha autovalore ν, allora (ν − N̂)|ψν〉 = 0 inoltre, dalla relazione sulle norme appena ricavata ‖(ν − N̂)ψν‖ = ‖(ν∗ − N̂†)ψν‖ Si verifica facilmente che gli operatori scalati sono anch’essi normali[ N̂ − ν , N̂† − ν∗ ] = [ N̂ , N̂† ] − [ ν, N̂† ] − [ N̂ , ν∗ ] + [ν, ν∗] = [ N̂ , N̂† ] = 0 quindi è possibile dedurre dalla relazione delle norme N̂†|ψν〉 = ν∗|ψν〉 che significa σN̂† = ( σN̂ )∗ Si considerino ora due autovettori corrispondenti ad autovalori distinti, |ψν〉, |ψν′〉, con ν 6= ν′; allora 〈ψν |N̂ψν′〉 = ν′〈ψν |ψν′〉 〈ψν |N̂ψν′〉 = 〈N̂†ψν |ψν′〉 = 〈ν∗ψν |ψν′〉 = ν〈ψν |ψν′〉 ⇒ ν′〈ψν |ψν′〉 = ν〈ψν |ψν′〉 (ν − ν′)〈ψν |ψν′〉 = 0 ⇒ 〈ψν |ψν′〉 = 0 35 i due vettori sono ortogonali e P̂ν P̂ν′ = δνν′ P̂ν Gli autovettori con un unico autovalore generano un autospazio che ha un solo proiettore, che prende il nome di autoproiettore. Per gli altri, a ciascun autovalore compete un settore dello spazio, e queste competenze non si sovrappongono (sono mutualmente esclusive), quindi sono ortogonali in H . Queste zone ricoprono tutto il campo solo per gli operatori normali: N̂N̂† = N̂†N̂ Posso quindi dividere lo spazio di Hilbert attraverso i proiettori P̂ν , le cui immagini formano i sottospazi ortogonali19 ImP̂ν = Vν Prendendo la collezione di questi autospazi e facendone la somma diretta, H ′ = ⊕∑ ν Vν si ottiene un’altro spazio di Hilbert20. Questa relazione può essere espressa anche attraverso i vettori, scrivendo il generico vettore |ψ〉 ∈H ′ come combinazione lineare dei vettori che descrivono gli autospazi |φν〉 ∈ Vν : |ψ〉 = ∑ ν |φν〉 (?) Quando il vettore |ψ〉 è normalizzato, ‖ψ‖2 = ∑ ν ‖φv‖2 = 1 la norma quadra del vettore |φν〉 rappresenta la probabilità di trovare l’autovalore nell’autospazio Vν . Applicando l’operatore unitario N̂ a |ψ〉 si ha N̂ |ψ〉 = ∑ n ν|φν〉 e poiché |φν〉 è la proiezione di |ψ〉 sull’autospazio Vν , |φν〉 = P̂ν |ψ〉 Sostituendo, otteniamo N̂ |ψ〉 = ∑ ν νP̂ν |ψ〉 Dal momento che questa relazione deve valere ∀|ψ〉 ∈H ′, si conclude che N̂ = ∑ ν νP̂ν 19Da ora in avanti, si indicherà l’immagine di un’applicazione con Im, onde evitare confunsione con la parte immaginaria di un numero complesso = 20Come è logico pensare, la somma diretta di spazi di Hilbert è anch’essa uno spazio di Hilbert 36 e da (?) si deduce che 1̂ = ∑ ν P̂ν Questo accade in H ′ ⊆ H , somma degli autospazi. Se lo spazio è finito dimensionale e se N̂ è normale, allora H ′ = H , mentre per quanto riguarda gli spazi infinito dimensionali, possiamo solo assumere che ciò avvenga. Chiamo la relazione N̂ = ∑ ν νP̂ν = ∑ ν ν|ν〉〈ν| risoluzione spettrale, mentre 1̂ = ∑ ν P̂ν prende il nome di risoluzione dell’identità, che permette di introdurre qualcosa di assimilabile ad una probabilità. Visto che sono in vena di dare nomi, chiamo valore di aspettazione dell’operatore  una scrittura del tipo EA [ψ] = 〈ψ|Â|ψ〉 Sfruttando la risoluzione spettrale, posso scrivere il valore di aspettazione dell’operatore unitario come 〈ψ|ψ〉 = 〈ψ|1̂|ψ〉 = ∑ ν 〈ψ|P̂ν |ψ〉 Questa scrittura rappresenta la probabilità di uno stato, o meglio, è la distribuzione di probabilità degli autovalori; infatti, dato un operatore unitario generico N̂ : EN [ψ] = 〈ψ|N̂ |ψ〉 = ∑ ν νPν(ψ) dove Pν(ψ) = 〈ψ|P̂ν |ψ〉 37 La probabilità di osservare β e α, con α non più dato, è P (β, α) = P (α)P (β|α) quindi, poiché P (α) = 〈ψ|P̂α|ψ〉 si ha P (β, α) = 〈ψ|PαPβPα|ψ〉 Due osservabili A e B possono essere misurati se le loro probabilità, scambiandoli nell’ordine, sono uguali: P (β, α) = P (α, β) Questo significa che A e B sono compatibili, cioè P̂αP̂βP̂α = P̂βP̂αP̂β Se due osservabili sono compatibili, posso misurarli in ordine a piacere, quindi[ Â, B̂ ] = 0 Questo può essere dimostrato anche al contrario, concludendo che se due osservabili commutano allora sono compatibili. Infatti, se commutano, dato Â|ψα〉 = α|ψα〉 allora, applicandovi B̂, si ha B̂Â|ψα〉 =  ( B̂|ψα〉 ) = αB̂|ψα〉 quindi se |ψα〉 ∈ Vα, allora B̂|ψα〉 ∈ Vα. Se dimVα = 1, allora B̂|ψα〉 = β|ψα〉 perché ne esiste uno solo, e |ψα〉 è l’autovettore comune simultaneo ad  e B̂. Più in generale, dato lo spazio Vα, la commutazione mi garantisce che operando B̂ si rimane in Vα; quindi è possibile definire B̂α – restrizione di B̂ su Vα – che abbia ancora le stesse proprietà e con gli autovettori appartenenti a Vα, e tale che B̂α|φβ〉 = β|φβ〉 Ma visto che gli |φβ〉 già vivono in Vα, quindi B̂α = B̂. Si possono sempre scegliere due operatori che commutino; questo vale a dire che B̂ non esce dallo spazio definito degli autovettori di Â, quindi anche il prodotto trai due proiettori non esce P̂βP̂α ∈ Vα Ciò significa che P̂αP̂βP̂α = P̂βP̂α (♥) perché il primo P̂α proietta l’amichetto nel suo stesso spazio. Inoltre, questo prodotto è idempo- tente (P̂βP̂α)(P̂βP̂α) = P̂βP̂α e autoaggiunto (P̂βP̂α)† = P̂βP̂α = P̂αP̂β 40 Teorema. Se [ Â, B̂ ] = 0, allora [ P̂α, P̂β ] = 0 Dimostrazione. Affinché il commutatore si annulli, P̂βP̂α = P̂αP̂β Sfruttando la relazione (♥), si può scrivere P̂αP̂βP̂α = P̂βP̂αP̂β P̂βP̂αP̂α = P̂βP̂βP̂α P̂βP̂α = P̂βP̂α Dal momento che l’identità è sempre verificata, dall’ipotesi segue la tesi1. 2.2 Principio d’indeterminazione Posso scrivere qualsiasi operatore autoaggiunto in rappresentazione spettrale  = ∑ α∈σA αP̂α nella quale la risoluzione dell’identità corrisponde a 1̂ = ∑ α∈σA P̂α Misurando quindi l’osservabile A del sistema |ψ〉, si ha una certa probabilità Pα(ψ) di ottenere la misura α: Pα(ψ) = 〈ψ|P̂α|ψ〉 sappiamo inoltre che il vettore in uscita, una volta osservato α, corrisponde a |ψ′〉 = P̂α|ψ〉√ Pα(ψ) Se |ψ〉 ≡ |ψα〉, allora la probabilità che esca α′ è Pα′(ψ) = 〈ψα|P̂α′ |ψα〉 = δαα′ Questo è l’unico caso in cui siamo certi del risultato. Dopo aver effettuato molte misure, è possibile calcolare la media delle stesse, come 〈α〉 = ∑ α αPα(ψ) = = ∑ α α〈ψ|P̂α|ψ〉 = 〈ψ| ∑ α αP̂α|ψ〉 = 〈ψ|Â|ψ〉 = EA(ψ) 41 Acme  |ψα〉 B̂ |ψα,β〉 Figura 2.2: Misure consecutive Il valore di aspettazione è, quindi, un valor medio. Si pensi ora di voler misurare gli osservabili A e B, in sequenza, come mostrato in Figura 2.2. In generale P (β, α) 6= P (α, β) poiché [ Â, B̂ ] 6= 0. Questa situazione ci richiede di definire la varianza di un operatore rispetto allo stato |ψ〉 come ∆A2 ψ = 〈ψ|(Â− 〈Â〉)2|ψ〉 = 〈ψ|Â2|ψ〉+ 〈Â〉2〈ψ|ψ〉 − 2〈Â〉〈ψ|Â|ψ〉 = 〈ψ|Â2|ψ〉+ 〈Â〉2 − 2〈Â〉2 = 〈ψ|Â2|ψ〉 − 〈Â〉2 È evidente che, misurando la varianza per l’autostato |ψα〉, si otterrà ∆Â2 = 0, ma ora ci interessa sapere cosa succede a queste varianze. Se due operatori  e B̂ autoaggiunti non commutano, il loro prodotto non è autoaggiunto: (ÂB̂)† = B̂†Â† = B̂ 6= ÂB̂ Poiché per gli operatori autoaggiunto corrisponde a reale, la mancanza di autoaggiuntezza ci fa pensare che ÂB̂ abbia una parte immaginaria. In effetti, possiamo scriverlo come ÂB̂ = ÂB̂ + B̂ 2 + i ÂB̂ − B̂ 2i = <(ÂB̂) + i=(ÂB̂) A questo punto, invece di considerare  e B̂, li si scala rispetto alla media (sottrarre uno scalare non cambia le proprietà di commutazione): B̂′ = B̂ − 〈B̂〉 Â′ = Â− 〈Â〉 con [ Â′, B̂′ ] = [ Â, B̂ ] e ∆B2 ψ = 〈ψ|B̂′2|ψ〉 ∆A2 ψ = 〈ψ|Â′2|ψ〉 1Ho una bellissima spiegazione per questo teorema, ma non mi ci sta nella vita 42 quindi ∑ α f(α)αP̂α = ∑ α P̂α Confrontano membro a membro, si ottiene f(α) = α−1, per α 6= 0 Dalla definizione, poi, si può verificare che [ f(Â),  ] = 0, quindi che f(Â) è compatibile con  (in effetti sono fatte dagli stessi autoproiettori). Dimostrazione. Si sostituiscono le rappresentazioni spettrali nel commutatore:∑ α′ f(α′)P̂α′ ∑ α αP̂α − ∑ α αP̂α ∑ α′ f(α′)P̂α′ = 0∑ α f(α)αP̂α − ∑ α αf(α)P̂α = 0∑ α [f(α)α− αf(α)] P̂α = 0 È ora lecito chiedersi in quali condizioni [ B̂,  ] = 0 implichi B̂ = f(Â). In generale questo non si verifica, ma è possibile dimostrare2che è condizione sufficiente che ogni autovettore di  sia anche autovettore di B̂. 2.4 Misure complete Definizione (Insieme massimale). Un insieme di osservabili che commutano tra loro è detto massimale o completo se ogni altro osservabile che commuta con gli elementi dell’insieme è necessariamente una funzione degli elementi dell’insieme Se si effettua la misura simultanea dell’insieme completo si ha una misura completa, che permette di indentificare univocamente lo stato del sistema, che ora può essere indicato attraverso i numeri quantici dell’insieme completo: |ψ〉 = |α(1)α(2) . . . α(n)〉 Per esempio, si ha |x〉 = |x, y, z〉 |p〉 = |px, py, pz〉 Molte volte, per brevità, si indica solo l’autovalore del quale si è interessanti, lasciando un indice per gli altri: |E, i〉. 2Dimostrazione sulle dispense del prof. Martinazzo. Magari un giorno la ricopierò. Magari un giorno la ricopierai tu, non smettere di sognare! 45 2.5 Spettro continuo e distribuzioni Negli spazi finito-dimensionali, si ha un numero finito di autovalori perché sono le soluzioni alge- briche di un polinomio, quindi formano un insieme numerabile. Chiameremo spettro discreto un insieme di punti isolati, altrimenti si parlerà di spettro continuo, che può essere rappre- sentato con un segmento. L’operatore di Hamilton Ĥ li ha entrambi, eccetto per l’oscillatore armonico; già dall’oscillatore di Morse si vede uno spettro continuo quando – propriamente – si rompe l’oscillatore. In presenza di uno spettro continuo, la rappresentazione spettrale non può essere scritta come  = ∑ αP̂α in senso stretto; per questo scriveremo  = ∑ α∈σAd αP̂α + ∫ α∈σAc αP̂α dα In questo caso, è possibile riportarsi alla somma, ammettendo però che i P̂α non siano veri proiettori, e che 〈ψ′α|ψα〉 = δ(α− α′) Questo significa che |ψ′α〉 e |ψα〉 non appartengono più allo spazio di Hilbert, e che il prodotto scalare di Dirac 〈·|·〉 è ora una notazione più estesa del prodotto scalare rigoroso (·|·). In effetti, ciò che si è aggiunto con Dirac sono le distribuzioni, che sono vicine allo spazio di Hilbert, ma creano un vettore solo con le loro combinazioni lineari integrali: |ψ〉 = 1√ ∆α ∫ α+∆α α |ψα〉 dα dove |ψα〉 è la distribuzione relativa ad α. Queste distibuzioni sono anche note come autovettori impropri. Per esempio, |x〉 non è normalizzabile, quindi si preferisce lavorare con |ψ〉 = ∫ x+∆x x |x〉 dx Immaginiamo che un operatore  abbia uno spettro di autovalori numerabile, ma almeno per un certo tratto continuo. Generalmente, quando non c’è degenerazione, P̂n = |αn〉〈αn|  = ∑ n αn|αn〉〈αn| EA(|αn〉) = ∑ αm αm〈αn|αm〉〈αm|αn〉 = αn dove |αn〉 è il vettore che corrisponde all’autovalore αn. Se vogliamo generalizzare tutto ciò ad uno spettro continuo, nella forma più naturale, possiamo scrivere  = ∑ n αn|αn〉〈αn|+ ∫ σ dα |α〉〈α|α anche in questa scrittura, ci si aspetta che l’ortogonalità rimanga: 〈αn|α〉 = 0 ∀α ∈ σc 46 Tuttavia, bisogna garantire che EA(|α〉) = ∫ σ α′〈α|α′〉〈α′|α〉 dα′ ! = α Affinchè ciò avvenga, bisogna introdurre la distribuzione δ 〈α|α′〉〈α′|α〉 = δ(α′ − α) Vale a dire che bisogna avere un valore infinito per α = α′ nel prodotto scalare, ossia 〈α|α′〉 =∞ per α′ = α Questi oggetti non sono normalizzabili, quindi non sono veri e propri vettori e non appartengono allo spazio: li chiamo vettori impropri. Il vettore |α〉 è improprio se soddisfa |ψα,∆α〉 = 1√ ∆α ∫ α0+∆α0 α0 |α〉 dα e 〈ψα,∆α|ψα,∆α〉 ≤ ∞ anche per ∆α→ 0 (quindi la norma rimane finita anche se ci si muove verso un unico elemento). Non essendo normalizzabili, questi vettori impropri non rappresentano uno stato fisico. 2.6 L’operatore posizione L’operatore posizione x̂ ha uno spettro continuo, pertanto facendo finta di prendere x̂|x〉 = x|x〉 si può calcolare l’elemento di matrice rispetto al commutatore: 〈x| [x̂, p̂] |x〉 = 〈x|x̂p̂− p̂x̂|x〉 = x〈x|p̂|x〉 − x〈x|p̂|x〉 Tuttavia, sappiamo che [x̂, p̂] = i~, quindi 〈x| [x̂, p̂] |x〉 = 〈x|i~|x〉 = i~〈x|x〉 Se |x〉 fosse un vero vettore, quello che ricaveremmo dal confronto delle due scritture sarebbe i~〈x|x〉 = i~ = x〈x|p̂|x〉 − x〈x|p̂|x〉 = 0 e non avrebbe senso. L’unica soluzione è che 〈x|x〉 = ∞, e che anche 〈x|p̂|x〉 = ∞, in modo che entrambe le soluzioni abbiano senso. Per dire ciò, però, dovrei dire che p̂ è continuo3. Per farlo, prendo x̂|x0〉 = x0|x0〉 e la funzione del momento T (p̂) = e−iζp̂/~ con ζ ∈ R; si dimostra che T †(p̂) = eiζp̂/~ 3MMM! - G. Fratesi 47 Capitolo 3 Evoluzione temporale 3.1 La parte deterministica della meccanica quantistica Siamo ancora nella situazione mostrata in Figura 2.1, ma adesso vogliamo concentrarci sull’e- voluzione deterministica del sistema precedente alla misura. Per il principio di sovrapposizione, l’evoluzione temporale deve essere descritta da un operatore lineare: |ψt〉 = Â|ψ0〉 Inoltre, dal momento che si deve conservare la probabilità, quindi la norma del vettore,  deve essere isometrico, quindi deve conservare il prodotto scalare, da cui dipende la norma: 〈ψt|ψt〉 = 〈ψ0|ψ0〉 Questo implica che, se tutti i vettori a t = 0 erano stati, allora tutti i vettori a t = t saranno stati: la mappa tra i due spazi deve essere suriettiva, in modo da poter andare da un qualsiasi vettore a t = 0 ad un qualsiasi vettore a t = t. In altre parole,  è un operatore unitario (gode dunque di isometria e suriettività)1. Indicheremo l’operatore di evoluzione temporale con Ût; date le sue proprietà, ogni stato |ψt〉 deve dipendere univocamente da un solo stato |ψ0〉; conviene considerare questa dipendenza in forma differenziale, d dt |ψt〉 = dÛt dt |ψ0〉 A questo punto, si vuole scrivere tutto in funzione degli stati |ψt〉. Per farlo, si premoltiplica l’evoluzione temporale per Û†t , sfruttando le proprietà degli operatori unitari per ottenere: Û†t |ψt〉 = Û†t Ût|ψ0〉 quindi |ψ0〉 = Û†t |ψt〉 1Un operatore unitario conserva la norma: 〈Ûψ|Ûφ〉 = 〈ψ|φ〉 quindi ‖Û(ψ ± iφ)‖2 = ‖ψ ± iφ‖2 Sviluppando i quadrati, si ottiene la conservazione del prodotto scalare. 50 Sostituendo, arrivo alla scrittura d dt |ψt〉 = ( dÛt dt Û†t ) |ψt〉 Definisco l’operatore  come  := dÛt dt U†t e mi chiedo come si comporti questo nuovo operatore, e che cosa sia il suo aggiunto † = Ût dÛ†t dt Per rispondere a tutte queste domande, si parte dalla relazione di unitarietà, derivandola nel tempo: Û†t Ût = 1̂⇒ d dt Û†t Ût = 0 0 = Ût dÛ†t dt − Û†t dÛt dt = † +  ⇒  = −† Il risultato significa che  è antihermitiano. Un operatore antihermitiano non è un osservabile, ma esiste un operatore autoaggiunto Ĥ tale che  = − i ~ Ĥ con Ĥ = Ĥ†; in questo modo, Ĥ := i~ = i~ ( dÛt dt Û†t ) Sostituendo di nuovo nella relazione di operazione temporale, si ottiene i~ d dt |ψt〉 = Ĥ|ψt〉 che altro non è che l’equazione di Schrödinger. L’operatore Ĥ è univocamente definito da Ût, quindi è il generatore dell’evoluzione temporale: dalle leggi generali scopro che Ĥ è proprio l’hamiltoniano del sistema. Dato che l’equazione deve valere ∀|ψt〉, allora i~ d dt Ût|ψ0〉 = ĤÛt|ψ0〉 ∀|ψ0〉 che può essere riassunta nell’equazione operatoriale i~ d dt Ût = ĤÛt con Û0 = 1. Questo ci porta ad avere un problema di Cauchy con una e una sola soluzione. Inoltre, d dt 〈ψt|ψt〉 = 〈 d dt ψt|ψt〉+ 〈ψt| d dt ψt〉 = i ~ 〈Ĥψt|ψt〉 − i ~ 〈ψt|Ĥψt〉 = i ~ 〈ψt|Ĥ† − Ĥ|ψt〉 51 quindi se Ĥ è autoaggiunto, quanto sopra è nullo e la norma si conserva; d’altro canto, se si deve conservare la norma, Ĥ deve essere autoaggiunto. L’hermitianità di Ĥ si può togliere con opportune accortezze. In questo modo, possiamo concludere che Û è isometrico ⇔ Ĥ è autoaggiunto ÛtÛ † t = 1⇔ Ĥ = Ĥ† Per dimostrare ulteriormente queste relazioni, ci si arma di santa pazienza e si guarda d dt ( ÛtÛ † t ) = dÛt dt Û†t + Ût dÛ†t dt = − i ~ Ĥ + i ~ Ĥ† a t = 0, si ha che ÛtÛ † t = 1, allora 0 = d dt ( ÛtÛ † t )∣∣∣ t=0 = − i ~ Ĥ|t=0 + i ~ Ĥ†|t=0 quindi Ĥ = Ĥ†. Si può poi dimostrare che dn dtn ( ÛtÛ † t ) |t=0 = 0 ⇔ Ĥ = Ĥ† da cui si dimostra che, ∀t, ÛtÛ†t = 1 è condizione necessaria e sufficiente per Ĥ = Ĥ†. 3.2 Risoluzione dell’equazione operatoriale Se l’equazione operatoriale i~ d dt Ût = ĤÛt fosse un’equazione funzionale, sarebbe i~ẏ = hy ⇒ y(t) = y(0)e− i ~ ∫ t 0 h(t′)dt′ quindi verrebbe da dire Ût = e− i ~ ∫ t 0 Ĥ(t′)dt′ ma, come si potrebbe intuire derivando, questa scrittura è valida solo per Ĥ 6= f(t), altrimenti sorgerebbe il problema di dove mettere Ĥ(t) in confronto all’esponenziale, che dipende da t a sua volta: questo ci obbliga a tenere ĤÛ . Infatti, se Ĥ 6= f(t), allora l’esponenziale è anche una funzione di Ĥ, quindi commuta con Ĥ e li posso posizionare dove e come voglio: Ût = e− i ~ Ĥt per Ĥ = Ĥ† 6= f(t). Formalmente, per risolvere l’equazione differenziale sono necessarie sia l’equazioni che le condizioni iniziali, che però possono essere riassunte nella forma integrale: i~ ∫ t 0 dÛt′ dt dt′ = ∫ t 0 ĤÛt′ dt ′ i~Ût = i~Û0 + ∫ t 0 ĤÛt′ dt ′ = i~ + ∫ t 0 ĤÛt′ dt ′ 52 Il problema di questo procedimento è ottenere i vettori c, procedura che dipende fortemente dai gradi di libertà (griglia) e richiede una scelta accurata del basis set. Se si compie la trasforma- ta di Fourier su Ût, viene fuori qualcosa di strano. Si può applicare la trasformata di Fourier generalizzata, definita su [0,+∞), Ũ(z) = ∫ +∞ 0 eizte− i ~ Ĥt dt con =(z) ≥ 0. Questa scrittura è ben definita perché eizt = ei<(z)te−=(z)t e per t > 0, =(z) ≥ 0 mi garantisce che l’integrale converga. In questo modo, otteniamo Ũ(z) = ∫ +∞ 0 e i ( ~z−Ĥ ~ ) t = i ( ~z − Ĥ ~ )−1 e i ( ~z−Ĥ ~ ) t ∣∣∣∣+∞ 0 quindi Ũ(z) = −i ( ~z − Ĥ ~ )−1 = −i~(~z − Ĥ)−1 = −i~Ĝ(~z) con Ĝ che prende il nome di risolvente dell’hamiltoniano2. Quello che si è ricavato è che, per =(z) ≥ 0, Ĝ(z) = i ~ ∫ +∞ 0 eizte− i ~ Ĥt dt = i ~ ∫ +∞ 0 eiztÛt dt che significa che conoscere Ût equivale a conoscere Ĝ(z) sul semipiano superiore. Nel semipiano inferiore, dovremmo avere Ĝ(z) = + i ~ ∫ 0 −∞ eizte− i ~ Ĥt dt Quello che rimane fuori da questa descrizione è l’asse reale, che è il luogo dei poli del generatore, e dove il generatore è singolare si hanno gli autovalori di Ĥ; in questo modo è possibile, analizzando le singolarità di Ĝ(z), costruire autovalori ed autoproiettori di Ĥ. Dove Ĝ(z) è singolare si hanno gli autovalori propri, mentre lo spettro è continuo dove Ĝ ha un taglio; in queste zone, ci si affida ai trucchi dell’analisi complessa, indicando z = E ± iη e costruendo l’operatore di Green ritardato (dall’alto): Ĝ+(E) = i ~ lim η→0+ ∫ +∞ 0 e−ηteiEte− i ~ Ĥt dt e l’operatore di Green avanzato: Ĝ−(E) = i ~ lim η→0+ ∫ 0 −∞ e+ηteiEte− i ~ Ĥt dt Per E ∈ σC , si ha Ĝ+ 6= Ĝ−. Risolvere per tutti i tempi o per tutti le energie è la stessa cosa. Se Ĥ = f(t), sono cazzi3. La strategia è riprendere in mano Ût prima di compiere gli integrali; poiché gli operatori hamiltoniani a tempi diversi non commutano tra loro, non è possibile fare il giochetto sul dominio di integrazione, quindi bisogna ricorrere ad un altro metodo. È possibile 2Per il generico operatore Â, il suo risolvente è ĜA(α) = ( α−  )−1 3Cazzi amari. Amarissimi 55 infatti introdurre formalmente un operatore che agisca sugli operatori, un superoperatore tale che la sua azione corrisponda a T̂ [ Ĥ(tp1)Ĥ(tp2) . . . Ĥ(tpn) ] = Ĥ(tmax) . . . Ĥ(tmin) dove pn è l’n-esima permutazione di t. L’operatore T̂ ordina gli operatori in modo che vadano da tmax a tmin, quindi corrisponde al prodotto t-ordinato. Tramite questo operatore, le integrande nella serie possono essere viste come i vari prodotti t-ordinati, che sono simmetrici per lo scambio: Ût = ∑ n ( − i ~ )n 1 n! ∫ [0,t]n dt1 . . . dtn T̂ [ Ĥ(t1) . . . Ĥ(tn) ] Si sono quindi simmetrizzate le funzioni integrande; per quanto ci riguarda, il superoperatore viene definito come T̂ [ Ĥ(t1)Ĥ(t2) ] = θ(t1 − t2)Ĥ(t1)Ĥ(t2) + θ(t2 − t1)Ĥ(t2)Ĥ(t1) dove θ è una funzione theta di Heaviside4. Quindi, Ût = ∞∑ n=0 ( − i ~ )n 1 n! ∫ [0,t]n dnt T̂ [ Ĥ(t1) . . . Ĥ(tn) ] = = T̂ ∞∑ n=0 ( − i ~ )n 1 n! [∫ dt Ĥ(t) ]n = = T̂ e− i ~ ∫ t 0 Ĥ(t′) dt′ L’operatore T̂ prende anche il nome di operatore di time-ordering e viene spesso indicato con T̂←. Per Ĥ 6= f(t) si dimostra che non serve. Se il tempo iniziale è ti 6= 0, si avrà Û(t, t0), con la condizione che Û(t0, t0) = 1. Nonostante tutto, però, questa scrittura va interpretata, perché è solo una scrittura formale. 3.4 Limite classico (Push it to the limit!) In meccanica classica, lo stato del sistema dipende dalle coordinate generalizzate {q,p} e dal tempo t, quindi è possibile considerare delle funzioni arbitrarie f(q,p, t) che prendono il nome di funzioni di stato5. Queste possono avere una dipendenza temporale esplicita e una dipendenza temporale legata al moto: f(q(t),p(t), t) = g(t) La dipendenza legata al moto è ovviamente delineata dalla traiettoria del sistema. Vi è quindi una differenza tra la variazione di f a {q,p} fissi (dipendenza esplicita) e la variazione calcolata 4La funzione theta di Heaviside, anche detta funzione a gradino, è definita come θ(x− x0) = { 1 per x > x0 0 per x < x0 Cosa succede per x = x0 è un’altro paio di maniche. 5Le funzioni di stato corrispondono, in meccanica classica, agli osservabili fisici. Per maggiori informazioni: A. Carati & L. Galgani, Meccanica Razionale 1: Le equazioni di Hamilton e lo spazio delle fasi 56 lungo la traiettoria del moto; chiamiamo quest’ultima dipendenza totale e la indichiamo con la derivata totale o dinamica: d dt f = ḟ = ∂f ∂q q̇ + ∂f ∂p ṗ + ∂f ∂t Il valore di questa derivata ci dice come varia la grandezza f durante la dinamica del moto. In meccanica quantistica non è possibile fare la derivata totale degli operatori, e nemmeno di una singola misura sperimentale, quindi si lavora con i valori medi: d dt 〈ψt|Â(t)ψt〉 = 〈ψt|Ȧ(t)|ψt〉 cercando di scrivere la derivata temporale come valore di aspettazione di un operatore che per analogia chiamo Ȧ. Per questo, si scrive d dt 〈ψt|Â(t)|ψt〉 = 〈∂ψt ∂t |Â|ψt〉+ 〈ψt| ∂ ∂t |ψt〉+ 〈ψt|Â| ∂ψt ∂t 〉 = 〈− i ~ Ĥψt|Â|ψt〉+ 〈ψt| ∂ ∂t |ψt〉+ 〈ψt|Â|− i ~ Ĥψt〉 = i ~ 〈ψt|ĤÂ|ψt〉+ 〈ψt| ∂ ∂t |ψt〉 − i ~ 〈ψt|ÂĤ|ψt〉 = 〈ψt| ∂ ∂t + i ~ [ Ĥ,  ] |ψt〉 ⇒ Ȧ = ∂ ∂t + i ~ [ Ĥ,  ] Questa derivata soddisfa la relazione di Leibnitz d dt (ÂB̂) = ∂ ∂t (ÂB̂) + i ~ [ Ĥ, ÂB̂ ] = ∂ ∂t B̂ +  ∂B̂ ∂t + i ~ [ Ĥ,  ] B̂ + i ~  [ Ĥ, B̂ ] = ( ∂ ∂t + i ~ [ Ĥ,  ]) B̂ +  ( ∂B̂ ∂t + i ~ [ Ĥ, B̂ ]) = ȦB̂ + ÂḂ Questo è il nuovo operatore che descrive la derivata totale; in questo modo definisco la derivata totale di qualsiasi osservabile. L’operatore velocità, ad esempio, è ẋ = ∂x ∂t + i ~ [ Ĥ, x̂ ] = 0 + i ~ [ Ĥ, x̂ ] perché x non dipende dal tempo. Con la velocità possiamo calcolare l’accelerazione: ẍ = i ~ [ Ĥ, ẋ ] = ( i ~ )2 [ Ĥ, [ Ĥ, x̂ ]] L’esempio più importante è dato però per Ĥ = T (p̂) + V (x̂) 57 3.5 Indeterminazione tempo-energia Consideriamo il caso in cui la derivata elementare di un operatore  sia nulla, quindi d dt = ∂ ∂t + i ~ [ Ĥ,  ] = i ~ [ Ĥ,  ] Ci ricordiamo poi che ∆A∆B ≥ 1 2 ∣∣∣〈[Â, B̂]〉∣∣∣ quindi ∆A∆E ≥ 1 2 ∣∣∣〈[Â, Ĥ]〉∣∣∣ = 1 2 ∣∣∣〈[Ĥ, Â]〉∣∣∣ ≥ 1 2 ∣∣∣~〈Ȧ〉∣∣∣ che ci porta a concludere ∆A |〈Ȧ〉| ∆E ≥ ~ 2 (§) Cosa vuol dire tutto ciò? Quando si fa evolvere una distribuzione nel tempo, la distribuzione si sposta e si deforma, perché lo stato evolve e cambiano le probabilità. Per capire se A è cam- biata, quindi, occorre sapere se sia cambiata la distribuzione o si stia campionando la stessa distribuzione; per questo, l’osservabile è cambiata se il valore di aspettazione si è spostato più dell’incertezza. Il modo con cui si muove il picco della distribuzione può essere rappresentato con l’equazione 〈Ȧ〉 = d dt 〈Â〉 Passando a termini finiti, compare un tempo – chiamato tempo caratteristico – che è alla base del principio di indeterminazione tempo-energia. Quanto sopra si può infatti riscrivere pure come |〈Ȧ〉|τ ≥ ∆A in cui il tempo caratteristico è il minor τ che permetta di apprezzare la distinzione tra le distri- buzioni, τA; in questo modo, il principio di indeterminazione tempo-energia è ricavabile da (§), inserendo il tempo caratteristico: τAE ≥ ~ 2 Questo non è un vero e proprio principio di indeterminazione, perché in meccanica quantistica il tempo è un parametro, non un osservabile. In stato stazionario τA → +∞. 3.6 Particella libera Si consideri l’equazione di Schrödinger per la particella libera: Ĥ|ψ〉 = p̂2 2m |ψ〉 = i~ d dt |ψ〉 La derivata è totale perché in questo caso il vettore |ψ〉 dipende esclusivamente dal tempo; considerando però la rappresentazione nello spazio delle posizioni ψ(x, t), la derivata sarebbe 60 parziale. Mi viene in mente che il problema è molto più semplice in rappresentazione dei momenti, poiché p̂2 è diagonale, quindi risolvo 〈p| p̂ 2 2m |ψ〉 = i~ ∂ ∂t 〈p|ψ〉 p2 2m 〈p|ψ〉 = i~ ∂ ∂t 〈p|ψ〉 p2 2m ψ(p, t) = i~ ∂ ∂t ψ(p, t) ψ(p, t) = ψ(p, 0)e−ip 2t/2m~ In questa rappresentazione, l’operatore di evoluzione temporale è anch’esso diagonale, in quanto funzione di p̂: 〈p′|Ût|p〉 = δ(p− p′)e− i ~ p2 2m t dove si è impiegata la δ(p− p′) perché per le mani si hanno dei vettori impropri. La rappresen- tazione nelle coordinate può essere trovata a partire da ψ(p, t), scrivendo per prima cosa la sua dipendenza dal vettore |ψt〉: ψ(x, t) = 〈x|ψt〉 A questo punto, si introduce l’identità in |p〉, ψ(x, t) = ∫ dp 〈x|p〉〈p|ψt〉 e si scrive |ψt〉 come evoluzione temporale del vettore |ψ0〉: ψ(x, t) = ∫ dp 〈x|p〉〈p|Ût,p|ψ0〉 = ∫ dp 〈x|p〉e− i ~ p2 2m t〈p|ψ0〉 Altra identità, stavolta in |x′〉: ψ(x, t) = ∫ dpdx′ 〈x|p〉e− i ~ p2 2m t〈p|x′〉〈x′|ψ0〉 = ∫ dx′ Ût(x, x ′)ψ0(x′, 0) con Ût(x, x ′) = 〈x|Ût|x′〉 = = ∫ dp 〈x|p〉e− i ~ p2 2m t〈p|x′〉 = = ∫ dp 1√ 2π~ e− i ~pxe− i ~ p2 2m t 1√ 2π~ e+ i ~px ′ = = ∫ dp 2π~ e i ~p(x ′−x)e− i ~ p2 2m t che è piuttosto bruttino come operatore. Scrivere ψ(p, t) = ψ(p, 0)e− i ~ p2 2m t significa che |ψ(p)|2 non cambia nel tempo, quindi la distribuzione dei momenti non cambia. Dal momento che dtp̂n = 0, allora 〈ẋ〉t = 〈p〉t m = p0 m 61 che, integrata nel tempo, fornisce: 〈x〉t = 〈x〉0 + p0 m t Questo ci dice che il valor medio si sposta nel tempo secondo la meccanica classica, che però non può prevedere la larghezza della distribuzione; per inciso, la distribuzione parte molto stretta e si allarga con il passare del tempo. Esercizio (1). Dimostrare che ṗ = 0 e dtp̂n = 0 Esercizio (2). Ricavare la forma di Ût(x, x′) a partire dall’equazione di Schrödinger in rappre- sentazione delle coordinate (applicare identità) Esercizio (3). Data la varianza ∆x2 = ( x̂2 − 〈x2〉 ) , calcolare dt∆x2 e d2 t∆x 2, poi dimostrare che per n > 2, dnt ∆x2 = 0. Questo significa che la varianza è una funzione al più quadratica del tempo. Con questo, dimostrare che la varianza corrisponde ad una parabola sempre positiva della forma ∆x2 t = ∆x2 0 + at+ ∆p2 m2 t2 dove a = 2 m 〈ψ0|< [(x− 〈x〉0)(p− 〈p〉0)] |ψ0〉 è il termine che cambia la posizione del vertice. Per tempi lunghi, ∆x2 ∝ t2, ma per tempi brevi la velocità di crescita della varianza (quindi il modo con cui la distribuzione si allarga) corrisponde a d dt ∆x2 ∣∣∣∣ ∆x2 0 quindi è la tangente all’intercetta della parabola: la distribuzione si può quindi allargare o stringere o rimanere quasi costante, per tempi brevi; per il resto, si allargherà in modo quadratico. 3.7 Costante del moto Definizione (Costante del moto). Si definisce costante del moto un osservabile quantomeccanico che commuta con l’hamiltoniano, quindi un osservabile la cui derivata dinamica è nulla se la sua derivata temporale è nulla: d dt  = i ~ [ Ĥ,  ] se ∂ ∂t  = 0 Questo significa che d dt 〈Â〉 = 0 ⇒ 〈Â〉t = 〈Â〉0 quindi l’osservabile si conserva nel tempo. Dal momento che Ĥ commuta con se stesso, è una costante del moto, quindi l’energia media si conserva. Per lo stesso motivo, poiché il momento angolare commuta con Ĥ, è anch’esso un invariante del moto. Inoltre, se  è un invariante del moto, anche le sue potenze {Ân} lo sono, quindi anche ogni sua funzione f(Â) lo è. Presa una distribuzione p(x), posso costruire la sua funzione caratteristica f(k) come f(k) = 〈eikx〉 = ∫ eikxp(x) dx 62 Se B è orientato lungo z, la matrice è solamente diagonale, altrimenti è sempre possibile ruo- tare il sistema in modo che z coincida con la direzione del campo, diagonalizzando la matrice. L’applicazione del campo magnetico separa ulteriormente il sistema a due livelli, il cui potenziale può essere assimilato ad una doppia buca. Facendo finta che l’altra buca non esista, è possibile pensare ciascuna delle due buche come un oscillatore armonico, ma la barriera finita comporta che il ground state è una combinazione lineare dei due stati |φa〉 e |φb〉: anche partendo da uno solo dei due stati, il sistema evolverà fino al ground state appena descritto. Possiamo ora tornare a H, con il quale possiamo ricavare Ut, la matrice di evoluzione temporale, attraverso gli autovalori E1/2 e gli autoproiettori P1/2 Ut = 2∑ i=1 Pie− i ~Eit Gli autovalori Ei vengono calcolati risolvendo il polinomio caratteristico det (E1−H) = 0 ottenendo E± = ± √ ε2 4 + |V |2 = ±~Ω I corrispondenti autovettori già normalizzati, invece, sono (assumi c1 = V ) c± = 1√ 2~Ω(~Ω + ε/2) [ V ±~Ω + ε 2 ] I due livelli ora sono ad una separazione energetica pari a ∆E = 2Ω~ ma lo stato stazionario è una combinazione lineare dei due stati. Dagli autovettori è possibile costruire gli autoproiettori, come P± = c±cT± = 1 2Ω~ [ ~Ω∓ ε 2 ±V ±V ∗ ~Ω± ε 2 ] e dagli autoproiettori si ricava l’evoluzione temporale U(t, 0) = 1 2~Ω [ 2~Ω cos(Ωt) + iε sin(Ωt) −2iV sin(Ωt) −2iV ∗ sin(Ωt) 2~Ω cos(Ωt)− iε sin(Ωt) ] Il significato di questa matrice lo si può scoprire andando a dividerla in colonne, ciascuna delle quali ricavata con un versore di base unitaria e: u1 = Ute1 u2 = Ute2 con e1 = [ 1 0 ] e2 = [ 0 1 ] Un qualsiasi vettore nella base |φa〉 e |φb〉 può essere visto come la combinazione lineare dei vettori di basi per determinati coefficienti, o meglio con il prodotto scalare: |ψ〉 = Φa = [ |φa〉 |φb〉 ] · [ a1 a2 ] 65 dove Φ è il vettore complessivo della base e a è il vettore dei coefficienti. Ovviamente, |φa〉 = Φe1 quindi lo stato propagato nel tempo potrà essere scritto come |u1〉 = Ût|φa〉 = UtΦe1 = Φu1 In questo modo, ci accorgiamo che le componenti del vettore u1 sono le ampiezze di probabilità che un sistema preparato come |φa〉 si trovi in |φa〉 (prima componente) o vada in |φb〉 (seconda componente); lo stesso vale per u2. La probabilità di passare dallo stato a allo stato b è data dal modulo quadro della seconda componente di u1, quindi dell’elemento (2, 1) della matrice Ut: Pb←a(t) = |U21|2 = ∣∣∣∣− iV ∗ sin(Ωt) ~Ω ∣∣∣∣2 = |V |2 ~2Ω2 sin2(Ωt) Si noti ora che Pa←a + Pb←a = 1 e che ogni singola probabilità oscilli come un seno, che tocca in Ωτ = π 2 il massimo dal valore Pmax = |V |2 ε2 4 + |V |2 ≤ 1 dove il valore 1 lo si ha solo se l’offset ε sia all’inizio nullo: in questo modo, tutto il sistema si sposta globalmente; altrimenti, sono una parte proporzionale all’offset passa. Per quanto riguarda la posizione del massimo, la si avrà per τ = π 2Ω = π ∆E dove ∆E prende il nome di tunneling splitting e τ è il tempo di tunneling . Il sistema, quindi, oscilla nel tempo perché non è in stato stazionario; il rate di transizione è d dt Pb←a ∝ 2 sin(Ωt) cos(Ωt) Dal momento che in teoria perturbativa si cerca il rate a tempi brevi2, avremo d dt P ∼ Ωt Questo esempio, che sembra molto teorico, trova applicazione nella comprensione dell’equilibrio di racemizzazione di due enantiomeri; infatti, un sistema isolato è sempre combinazione dei due e solo l’ambiente può forzare la scelta. 2Salvo poi fare il limite per t→∞ 66 4.2 Kick di campo elettrico In presenza di un campo elettrico, possiamo considerare l’hamiltoniana come modificata da un termine di accoppiamento: Ĥ = Ĥ0 − µ̂E(t) Questa considerazione prende il nome di approssimazione di dipolo e funziona bene per le mo- lecole, per via delle loro dimensioni limitate; infatti, per poterla applicare, la lunghezza d’onda del campo dovrebbe essere di gran lunga maggiore rispetto alle dimensioni dell’oggetto in esame. A partire da questa hamiltoniana svilupperemo una teoria che prende il nome di teoria semi- classica, poiché il campo elettrico è preso come un’entità data dipendente dal tempo e non è espresso come evoluzione temporale. Questo tipo di teoria, quindi, non può essere applicato a fenomeni come l’emissione spontanea, in cui il campo elettrico deve crearsi. Ad un dato tempo, dunque, è possibile calcolare il valore di aspettazione del momento di dipolo come 〈µ(t)〉 = 〈ψt|µ̂|ψt〉 = 〈µ(−∞)〉+ ∫ +∞ −∞ α(t− t′)E(t′) dt′ dove α(t − t′) è la funzione risposta, nulla per tempi t < t′, che prende il nome di polariz- zabilità dinamica. La dipendenza lineare del valore di aspettazione dal campo applicato parte dall’assunzione che il campo sia piccolo. Il valore di aspettazione a tempo 0, invece, viene ricavato come 〈µ(−∞)〉 = 〈ψt′ |µ̂|ψt′〉 con t′ → −∞ (molto prima dell’accensione del campo), quindi con ogni stato |ψt′〉 = |φ0〉e− i ~E0t dove |φ0〉 è uno stato stazionario nel passato. Se consideriamo l’intensità I0 del campo elettrico, I0 = ∫ E(t) dt possiamo semplificare il problema, assumendo che il campo elettrico venga applicato come una spike a t = 0: E(t) = I0δ(t) in modo da poter scrivere il valore di aspettazione del momento di dipolo come 〈µ(t)〉 = 〈µ(−∞)〉+ ∫ +∞ −∞ α(t− t′)I0δ(t) dt = 〈µ(−∞)〉+ I0α(t) Saper risolvere questo problema ci permette di ricavare il kernel di polarizzabilità3 α(t) = 〈µ(t)〉 − 〈µ(−∞)〉 I0 = ∆µ(t) I0 Si noti come α dipenda in realtà da t− t′, perché solo la differenza di tempi conta4. Ci troviamo quindi nella situazione in cui il sistema nello stato stazionario |φ0〉 viene fatto evol- vere fino ad un tempo t = 0, al quale una spike di campo elettrico lo perturba; successivamente, il sistema evolve nuovamente, ma a partire dallo stato |ψ+ 0 〉 = lim t→0+ |ψt〉 67 4.3 Transizioni elettroniche La funzione risposta polarizzabilità α(t) = 2 ~ ∑ m |µm0|2 sin(Ωm0t) ha una sua trasformata di Fourier, troncata perché α(t) = 0 per t < 0 (principio di causalità): (Fα)(ω) = 2 ~ ∑ m |µm0|2 ∫ +∞ 0 eiωt sin(Ωm0t) dt che è rilevante per la spettroscopia ordinaria, perché permette di ricavare la sezione d’urto di fotoassorbimento: σpn(ω) = 4πω c ={(Fα)(ω)} dove l’inverso del cammino ottico `, κ(ω), è 1 ` = κ(ω) = Nσpn(ω) con N densità molecolare. Dal momento che sin(Ωm0t) = eiΩm0t − e−iΩm0t 2i spezzo la trasformata in due, considerando i due addendi con un ± all’esponente. Dal momento che la trasformata non converge, si introduce un termine di convergenza dipendente da γ, facendo poi tendere γ → 0 dopo aver fatto i nostri porci comodi5: I = lim γ→0 ∫ +∞ 0 ei(ω±Ωm0)te−γt dt Da qui procediamo tenendo sottinteso il limite, ricordandoci che dobbiamo applicarlo, ma solo alla fine (inoltre, ricostruiamo il seno per bene): ei(ω±Ωm0+iγ)t i(ω ± Ωm0 + iγ) ∣∣∣∣+∞ 0 = −1 i(ω ± Ωm0 + iγ) ⇒ 1 2i ( − 1 i(ω + Ωm0 + iγ) + 1 i(ω − Ωm0 + iγ) ) = 1 2 ( 1 ω + Ωm0 + iγ − 1 ω − Ωm0 + iγ ) quindi =(Fα) = 2 ~ ∑ m |µm0|2 · 1 2 lim γ→0 [ = ( 1 ω + Ωm0 + iγ ) −= ( 1 ω − Ωm0 + iγ )] Ci accorgiamo che = ( 1 ω ± Ωm0 + iγ ) = = ( ω ± Ωm0 − iγ |ω ± Ωm0 + iγ|2 ) 5Per maggiori elucidazioni sulle trasformate di Fourier e sull’impiego dei fattori di convergenza, si consiglia: L.G. Molinari - Mathematical Methods for Physics 70 e sfruttando il teorema di Pitagora per calcolare il modulo, ci riconduciamo ad una distribuzione di Cauchy (funzione lorentziana), il cui limite è una distribuzione delta: lim γ→0 −γ (ω ± Ωm0)2 + γ2 = −πδ(ω ± Ωm0) In questo modo abbiamo ottenuto una forma analitica e trattabile per ciò che cercavamo: =(Fα) = π ~ ∑ m |µm0|2 [δ(ω − Ωm0)− δ(ω + Ωm0)] La γ, prima di andare a zero, definiva una distribuzione lorentziana, che può essere osservata sperimentalmente: non si osserva una delta di Dirac perché la molecola non è di per sé isolata, ma è circondata da molecole che smorzano la dinamica (dumping), facendo decadere il segnale e allargando in tempo di vita γ. Oppure, si può pensare che, eccetto il ground state, tutti gli altri stati abbiano una parte immaginaria che decade. La parte immaginaria della trasformata di Fourier della polarizzabilità dinamica, =(Fα), è quindi una collezione di funzioni δ centrate nei vari Ωm0 di ampiezza |µm0|2, simmetriche rispetto all’asse delle ordinate. L’intensità della riga, infatti, dipende da κ(omega) κ(ω) = Nσpn(ω) = N 4πω c =(Fα) = = N 4πω c π ~ ∑ m |µm0|2 [δ(ω − Ωm0)− δ(ω + Ωm0)] attravero l’integrale sulle frequenze ω:∫ Ωm0 κ(ω) dω = N ∑ m 4πΩm0 c π|µm0|2 ~ 4.4 Convoluzione, convergenza e teorema Notiamo ora (e solo ora) che 〈∆µ〉 = ∫ α(t− t′)E(t′) dt′ è una convoluzione, che in trasformata di Fourier diventa un prodotto (F 〈∆µ〉)(ω) = (Fα)(ω) · (FE)(ω) Questo per via del teorema di convoluzione Teorema (di convoluzione). Date due funzioni f(t), g(t) con le loro trasformate di Fourier, il loro prodotto di convoluzione (f ∗ g)(t) = ∫ f(t− t′)g(t′) dt′ = ∫ f(t′′)g(t− t′′) dt′′ se Fourier-trasformato risulta F (f ∗ g)(ω) = (Ff)(Fg)(ω) 71 Dimostrazione. Ogni funzione può essere scritta come antitrasformata della sua trasformata: f(t) = 1 2π ∫ e−iωt(Ff)(ω) dω quindi il prodotto di convoluzione può essere visto come (f ∗ g)(t) = ∫ dt′ ∫ dω 2π e−ω(t−t′)(Ff)(ω) ∫ dω′ 2π e−iω ′t′(Fg)(ω) = 1 (2π)2 ∫ dt′ ∫∫ dωdω′ (Ff)(Fg)(ω)ei(ω−ω ′)t′e−iωt = 1 (2π)2 ∫∫ dωdω′ (Ff)(Fg)(ω)e−iωt ∫ dt′ ei(ω−ω ′)t′ = 1 (2π)2 ∫∫ dωdω′ (Ff)(Fg)(ω)e−iωt2πδ(ω − ω′) = 1 2π ∫ dω (Ff)(Fg)(ω)e−iωt = F−1(Ff ·Fg) per cui: F (f ∗ g)(t) = FF−1(Ff ·Fg) = (Ff) · (Fg) 4.5 Il fattore di convergenza Matematicamente6, il fattore di convergenza e−γt viene introdotto per capire che tipo di infinito sia l’integrale divergente. Se, per esempio, nell’integrale∫ f(t)eiωt dt è presente f(t) non ben definita (quindi un infinito strano), ma di per sé convergente, possiamo pensare di estendere l’integrale nel campo complesso considerando z = ω + iγ ∈ C andando quindi a vedere cosa succede all’integrale∫ f(t)eizt dt nei pressi dell’asse reale. Per esempio, se f(t) = θ(t) (funzione di Heaviside), si ha∫ +∞ −∞ θ(t)eizt dt = ∫ +∞ 0 eizt dt = eizt iz ∣∣∣∣+∞ 0 = − 1 iz ⇒ lim =z→0 − 1 iz = i <z 6Per una trattazione più chiara e approfondita, ma meno fedele alle lezione, v. L. G. Molinari - Mathematical Methods for Physics 72 4.7 Ora generalizziamo Si accende sullo stato stazionario di Ĥ0 una forzante (forza generalizzata) generica a(t) accoppiata all’osservabile (coordinata generalizzata) Â, in modo che il nuovo hamiltoniano sia Ĥ = Ĥ0 − Âa(t) In generale, l’osservabile generico al tempo t è legato all’infinito passato: 〈B̂(t)〉 = 〈B̂(−∞)〉+ ∫ +∞ −∞ χBA(t− t′)a(t′) dt′ dove χBA è la funzione risposta, corrispondente ad una proprietà di equilibrio perché a(t) è debole. La sua trasformata di Fourier è la suscettività generalizzata FχBA, con ∆E ∝ =(FχBA) energia dissipata. La suscettività è legata alla funzione di correlazione tra  e B̂, CBA: CBA = 〈B̂(t)Â(0)〉 dove gli operatori sono in rappresentazione di Heisenberg. La funzione di correlazione è di per sé legata alle fluttuazioni all’equilibrio del sistema, mentre ∆E, che è legata a χ che è legata a C è la dissipazione del sistema; il nesso tra fluttuazioni all’equilibrio e dissipazione di energia prende il nome di teorema di fluttuazione-dissipazione. 75 Capitolo 5 Rappresentazione statistica 5.1 Descrizione di Heisenberg Finora, abbiamo impiegato le due equazioni: Ĥψ = Eψ = i~ d dt |ψ〉 ĤÛt = i~ d dt Ût con Û0 = 1 e Ût = e− i ~ Ĥt Ût = T̂← exp { − i ~ ∫ t 0 Ĥ dt } Con queste equazioni, data una base, è possibile costruire la matrice H, dalla diagonalizzazione della quale è possibile ottenere i pezzi per costruire Ut = ∑ α e− i ~EαtPα con Pα = cαcTα Ci viene ora in mente che dare una dipendenza temporale agli operatori potrebbe essere interes- sante: finora gli operatori erano osservabili, come la posizione, mentre ora vogliamo la posizione ad un dato istante. L’equazione |ψt〉 = Ût|ψ0〉 mi descrive lo spostamento dello spazio di Hilbert lungo una traiettoria; poiché Ût è unitario, non cambia la norma del vettore su cui opera, quindi - se |ψ0〉 è normalizzato - rimane nella sfera di raggio unitario. L’evoluzione temporale può essere vista come una rotazione degli stati nella sfera, continua ma con coefficienti complessi. Gli osservabili, invece, che per ora sono indipendenti dal tempo, fluttuano sopra la sfera e non si muovono. Questa è la cosiddetta descrizione di Schrödinger. Questa immagine mentale ci permette di introdurre la dipendendenza temporale degli opera- tori semplicemente cambiando punto di vista: si tiene fissa la sfera e si fanno ruotare gli operatori intorno, con una rotazione inversa rispetto a quella dell’evoluzione temporale. Questo modo di vedere le cose prende il nome di descrizione di Heisenberg. Tutto ciò viene effettuato con- siderando che ad ogni tempo posso trasformare i vettori di stato con un generico operatore unitario: |ψv〉 = V̂ |ψs〉 V̂ †|ψv〉 = |ψs〉 76 a patto che l’operatore trasformi anche gli osservabili, ma in modo opposto: Âv = V̂ ÂsV̂ † perché bisogna garantire che il prodotto scalare (quindi la fisica) non cambi: 〈ψv|Âv|φv〉 = 〈ψv|V̂ ÂsV̂ †|φv〉 = 〈ψs|Âs|φs〉 Si può fare in modo che V̂ dipenda dal tempo; quello che Heisenberg fece fu definire1 V̂ = e i ~ Ĥt cioè l’aggiunto di Ût. Questa è una scelta oculata, infatti, un vettore di Heisenberg (pedice H) ad un tempo generico, può essere visto come |ψH(t)〉 = V̂ |ψS(t)〉 = V̂ Ût|ψS(0)〉 = e i ~ Ĥte− i ~ Ĥt|ψS(0)〉 = |ψS(0)〉 Con questa scelta, quindi, i vettori sono fermi; è come guardare gli alberi da un treno in corsa: mentre Schrödinger è fuori dal treno, e vede il treno muoversi e gli alberi fermi, Heisenberg è dentro il treno, e vede il treno fermo e gli alberi muoversi. L’operatore in notazione di Heisenberg è per questo ÂH = e i ~ ĤtÂSe − i ~ Ĥt Per ricordarcelo, possiamo pensare che i vettori siano fermi all’inizio, poi li muoviamo, calcoliamo ÂS e li riportiamo indietro: ÂH |ψS(0)〉 = Û†t ÂsÛt|ψS(0)〉 e ci accorgiamo di nuovo che |ψH〉 = |ψS(0)〉. Per ricavare l’equazione del moto degli osservabili, ne facciamo la derivata nel tempo2: d dt ÂH = i ~ Ĥe i ~ ĤtÂSe − i ~ Ĥt + e i ~ Ĥt ∂ÂS ∂t e− i ~ Ĥt + e i ~ ĤtÂs ( − i ~ ) Ĥe− i ~ Ĥt = e i ~ Ĥt ∂ÂS ∂t e− i ~ Ĥt + i ~ [ e i ~ ĤtĤÂSe − i ~ Ĥt − e i~ ĤtÂSĤe− i ~ Ĥt ] = e i ~ Ĥt { ∂ÂS ∂t + i ~ [ Ĥ, ÂS ]} e− i ~ Ĥt Questa derivata è fatta di due pezzi:( ∂ ∂t ) H := e i ~ Ĥt ∂ÂS ∂t e− i ~ Ĥt 1Fino a nuovo ordine, si consideri ∂Ĥ ∂t = 0 2Per ∂Ĥ ∂t = 0 l’operatore Ĥ e V̂ commutano, altrimenti è l’equazione di Schrödinger a dirci dove va Ĥ 77 Il contenuto delle parentesi tonde rappresenta direttamente l’ensamble ed è un’operatore, quindi lo indichiamo come operatore statistico ρ̂, scrivendo quindi 〈A〉 = ∑ n∈N 〈n|ρ̂Â|n〉 la media è la traccia3dell’operatore ρ̂Â. La traccia ha della belle proprietà; per esempio, Tr(ÂB̂) = Tr(B̂Â), infatti ∑ n 〈n|ÂB̂|n〉 = ∑ m,n 〈n|Â|m〉〈m|B̂|n〉 = ∑ m,n 〈m|B̂|n〉〈n|Â|m〉 = ∑ m 〈m|B̂Â|m〉 Questo ci permette di verificare che la traccia non dipende dal sistema ortonormale completo. Presi infatti due sistemi di rifermento di vettore {|n〉}n∈N e {|n〉}n∈N, devo poterli scambiare con un operatore unitario: |n〉 = Û |n〉 dal momento che |n〉 = 1̂|n〉 = ∑ n |n〉〈n|n〉 = ∑ n |n〉Unn dove Unn è l’azione di un operatore che dimostreremo essere unitario. Per questo, Tr(B̂) = ∑ n 〈n|B̂|n〉 = ∑ n 〈n|Û†B̂Û |n〉 = Tr(Û†B̂Û) = Tr(B̂Û Û†) = Tr(B̂) e la base è indipendente dalla base. Possiamo quindi scrivere il valore di aspettazione di un osservabile senza specificare la base, come 〈A〉 = Tr(ρ̂Â) È la generalizzazione di quanto prima? Sì, perché preso wi = 1, con wj = 0 per ∀j 6= i (stato puro), avremo ρ̂ = |ψ〉〈ψ| con |ψi〉 = |ψ〉. L’operatore statistico ρ̂, inoltre, è molto più bello di |ψ〉, perché mentre i vettori definiscono lo stato a meno di una costante di fase, ρ̂ (che è un proiettore) non è soggetto ai cambi di fasi: ρ̂ = ( eiφ|ψ〉 ) ( eiφ|ψ〉 )† Il caso dello stato puro, però, è solo un caso particolare, mentre solitamente si ha una miscela di stati. 3In analogia con le matrici, la traccia di un generico operatore può essere scritta come Tr(B̂) = ∑ n 〈n|B̂|n〉 80 5.3 Stato puro Come capiamo che un sistema è uno stato puro? Se infatti consideriamo lo stato |ψ〉 = |φa〉+ |φb〉 e lo buttiamo in ρ̂, otteniamo semplicemente la scrittura ρ̂ = |φa〉〈φa|+ |φa〉〈φb|+ |φb〉〈φa|+ |φa〉〈φa| Si possono in effetti fare diverse scelte di |ψi〉, basta che descriviamo ρ̂ e le sue proprietà globali, come ρ̂† = ρ̂ e Tr(ρ̂) = ∑ i wiTr (|ψi〉〈ψi|) = ∑ i wi ∑ n 〈n|ψi〉〈ψi|n〉 = ∑ i wi ∑ n 〈ψi|n〉〈n|ψi〉 = ∑ i wi〈ψi|ψi〉 = ∑ i wi = 1 Si ricava prontamente che ρ̂ ≥ 0, dal momento che 〈φ|ρ̂|φ〉 = ∑ i wi〈φ|ψi〉〈ψi|φ〉 = ∑ i wi|〈φ|ψi〉|2 Inoltre, ρ̂ è autoaggiunto, quindi i suoi autovalori sono reali. In aggiunta a ciò, si ha uno stato puro se e solo se ρ̂2 = ρ̂, quindi se è un vero proiettore. Ogni proiettore può essere scritto come ρ̂ = ∑ n |n〉〈n| ma poiché la traccia dell’operatore statistico è sempre unitaria (Tr(ρ̂)), ρ̂ ha dimensione unitaria, quindi è monodimensionale: ρ̂ = N∑ n=1 |n〉〈n| = |ψ〉〈ψ| con |ψ〉 ∈ V = Im(ρ̂), uno degli stati normalizzati nello spazio in cui ρ̂ proietta. Questa proprietà è piuttosto difficile da verificare, quindi ci concentreremo su Tr(ρ̂2) ≤ 1, con Tr(ρ̂) = 1 se e solo se ρ̂2 = ρ̂. Dimostrazione. Si prende per ipotesi che ρ̂ = ρ̂† e Tr(ρ̂) = 1, con ρ̂ ≥ 1. Se Tr(ρ̂) = 1, allora la somma degli autovalori di ρ̂ è 1, perché è possibile scrivere la matrice di ρ̂ nella base degli autovettori, ossia quando questa matrice è la matrice diagonale degli autovalori ρn. Allora: Tr(ρ̂2) = ∑ n ρ2 n e poiché ρn ≥ 1 e ∑ ρn = 1, allora 0 ≤ ρn ≤ 1, quindi∑ n ρ2 n ≤ ∑ n ρn = Tr(ρ) 81 Se ρ̂2 = ρ̂, allora Tr(ρ̂2) = 1, quindi ∑ ρ2 n = 1, ma poiché tutti quei termini sono tra 0 e 1 e l’unica possibilità che ciò avvenga è che Tr(ρ̂2) = 1 = ∑ n ρ2 n = ∑ n ρn = Tr(ρ) e questo può verificarsi solo se ρm = 1 e ρm′ = 0, ∀m′ 6= m. Questo significa che ρ̂|m〉 = |m〉 ⇒ ρ̂ = |m〉〈m| quindi sono in uno stato puro, che corrisponde infine al caso in cui uno dei pesi è unitario ed il resto è nullo. Si consideri una tranquilla misura di spin senza pretese. Si immagini ora di voler rovinare tutto prendendo prima della misura lo stato |αx〉 = 1√ 2 (|α〉+ |β〉) All’uscita, il fascio si splitterà in un fascio |α〉 e un fascio |β〉, ma riunendoli si avrà qualcosa di diverso da prima; se prima infatti si aveva uno stato puro in sovrapposizione |α〉 e |β〉 (quindi con operatore statistico ρ̂0 = |αx〉〈αx|), ora si ha una miscela statistica dei due stati di spin: ρ̂ = 1 2 |α〉〈α|+ 1 2 |β〉〈β| Si noti che i pesi ora sono due, diversi da uno e da zero. Entrambi gli stati sembrano simili, perché forniscono allo stesso modo 1/2 |α〉 o 1/2 |β〉, quindi non posso distinguerli compiendo una misura lungo z. Ma, misurando lungo x, ρ̂0 mi darà con certezza +1/2, mentre con ρ̂ avrò la stessa probabilità di ottenere +1/2 e −1/2, perché le carte ora sono mischiate. Lo stato puro, in poche parole, ha un osservabile con certezza unitaria, mentre la miscela statistica è, come dice il nome, una miscela. Preso quindi |αx〉 = 1√ 2 (|α〉+ |β〉) l’operatore statistico assumerà la forma (basta fare il prodotto |αx〉〈αx|): ρ̂0 = 1 2 (|α〉〈α|+ |β〉〈β|+ |α〉〈β|+ |β〉〈α|) Questo stato è anche chiamato fascio polarizzato, mentre il caso della miscela statistica è chia- mato fascio depolarizzato. I termini misti vengono chiamati coerenze; nella sovrapposizione di stati, queste ci dicono quanto dura la sovrapposizione prima di decadere per effetto dell’am- biente. Ogni sovrapposizione di stati, infatti, per effetto dell’ambiente (o meglio, delle sue forze locali) decadrà in due miscele statistiche in un tempo opportuno. 5.4 Operatore statistico ed equilibrio Per quanto visto finora, l’operatore statistico risulta molto utile per trattare le condizioni di equilibrio, perché tutti gli stati a temperatura finita sono una miscela statistica. In questo caso, bisogna associare ogni hamiltoniano Ĥn al suo peso wn in ρ̂ = ∑ n wn|n〉〈n| 82 Tanto tempo fa, avevamo visto la descrizione di Heisenberg: ÂH(t) = e i ~ ĤtÂSe − i ~ Ĥt Si noti il cambio di segno: questo avviene perché con Heisenberg si muovono gli operatori, ma ρ(t) è un operatore che rappresenta gli stati, quindi si muove con gli stati in direzione opposta: ∂ρ̂(t) ∂t = − i ~ [ Ĥ, ρ̂(t) ] Lo studente attento si chiederà perché non si sia usata la derivata dinamica d/dt. Questo perché dρ̂(t) dt = ∂ρ̂(t) ∂t + i ~ [ Ĥ, ρ̂(t) ] = 0 Infatti, abbiamo preso 〈φ(t)|ρ̂(t)|φ(t)〉 e ci siamo chiesti come varia nel tempo, ma gli esponen- ziali si annullano tra loro con perfezione millimetrica (provare per credere), annullando tutta la dipendenza temporale. Questo prende il nome di teorema di Liouville-von Neumann, e l’equazione che lo caratterizza prende il nome di equazione di Liouville-von Neumann, per corrispondenza con il teorema di Liouville classico, che riguarda l’incomprimibilità del fluido statistico nello spazio delle fasi5. 5.6 Correlazioni in operatore statistico Il valore di aspettazione di un generico osservabile 〈A〉 può essere calcolato mediante l’operatore statistico come 〈A〉 = Tr(ρ̂Â) ma anche 〈A〉 = Tr(ρ̂S(t)Â) come media nel tempo, con ρ̂S(t) operatore statistico in rappresentazione di Schrödinger. In rappresentazione di Heisenberg, invece, avremo 〈A〉 = Tr(ρ̂H(0)ÂH(t)) Queste due rappresentazioni si equivalgono perché ρ̂S(t) = e− i ~ Ĥtρ̂(0)e i ~ Ĥt ÂH = e i ~ ĤtÂSe − i ~ Ĥt e all’interno della traccia si possono ciclare gli operatori. Se però avessimo roba tipo CAB(t) = Tr(ρ̂HÂH(t)B̂H(0)) non si può passare da Heisenberg a Schrödinger, perché in quest’ultimo si dovrebbero introdurre gli operatori statistici generalizzati, che corrispondono a funzioni di Green nel tempo. 5Ci sono molti modi per ricavare il teorema di Liouville in meccanica classica, uno dei quali è stato visto in Chimica Fisica A. In generale, l’incomprimibilità del flusso dipende dalla conservazione dei volumi nello spazio delle fasi, che è una proprietà delle dinamiche simplettiche, ossia una dinamica definita da equazioni simmetriche con il segno cambiato, come quella hamiltoniana. 85 5.7 Un problema noto, una nuova soluzione Affrontiamo un problema noto. Ad una miscela statistica ρ̂eq viene applicata, ad un tempo t0, un potenziale V = −a(t)Â, formato dalla coordinata generalizzata  e dalla forza generalizzata a(t). Per l’applicazione di questo potenziale, che per ora considereremo un kick, la miscela statistica si modifica in ρ̂(t). Ci chiediamo cosa succede alla dinamica se a(t) è piccola. In questo caso, ci aspettiamo ad una risposta lineare alla forzante: ρ̂(t) ' ρ̂eq + ∫ +∞ −∞ a(t′)ĝA(t− t′) dt′ dove ĝA è un’operatore che descrive come la forzante cambia ρ̂. Per le condizioni di causalità, ĝA(τ) = 0 per τ < 0. Alternativamente, possiamo scrivere δρ̂(t) = ∫ +∞ −∞ a(t′)ĝA(t− t′) dt′ con la quale possiamo ricavare tutto. Pensiamo infatti di voler scoprire come cambia prima e dopo del kick un osservabile B. Per farlo, ci affidiamo all’operatore statistico: B(t)−Beq = δB = Tr(B̂ρ̂(t))− Tr(B̂eqρ̂eq) = Tr(B̂(ρ̂(t)− ρ̂eq)) In questo, consideriamo a(t′) = δ(t− t0) (kick), in modo che, per t > t0 ρ̂(t)− ρ̂eq = δρ̂ = ĝA(t− t0) cosicché si possa usare l’operatore ĝ di questo problema per risolvere qualsiasi altro problema, con qualsiasi altro a(t). Per ricavarlo, però, dobbiamo passare per ∂ρ̂ ∂t = − i ~ [ Ĥ ′, ρ̂ ] dove Ĥ ′ = Ĥ − a Avendo una delta di Dirac, passiamo alla forma integrale ρ̂(t) = ρ̂eq − i ~ ∫ +∞ −∞ [ Ĥ ′, ρ̂(τ) ] dτ Ciò che ci potrebbe interessare sapere è ρ̂(t) appena dopo la forzante, quindi ρ̂(t+0 ). Infatti, se ρ̂eq = f(Ĥ), allora [ Ĥ, ρ̂ ] = 0, quindi ( ∂ρ̂eq ∂t ) = 0 quindi prima del kick si ha sempre e comunque ρ̂eq; questo è un gran vantaggio dell’operatore statistico rispetto alla funzione d’onda |ψ〉, che per la dinamica aveva un gran tumulto. Dopo il kick, invece, avremo ρ̂(t) = e− i ~ Ĥ(t−t0)ρ̂(t+0 )e i ~ Ĥ(t−t0) perché il sistema ritorna ad essere descritto dall’hamiltoniana imperturbata Ĥ; a questo punto, in un sistema reale, ρ̂ tenderà a tornare al suo stato di equilibrio per via delle interazioni con 86 l’ambiente, mentre dal punto di vista teorico, per come ci siamo posti il problema, il sistema dovrebbe rimanere a ρ̂(t). Per descrivere il ritorno allo stato di equilibrio, occorrerebbe introdurre una descrizione dell’irreversibilità macroscopica che è una gatta da pelare. Se l’interazione tra sistema ed ambiente è piccola, si può considerare il sistema isolato per un certo lasso di tempo che dipende dalla forza dell’interazione. Questo tempo prende il nome di tempo di Poincaré della ricor- renza, che modellizza il fatto che il sistema, nella sua interezza, è finito e la dinamica torna ciclicamente su se stessa (reversibilità); il tempo che serve al sistema per ritornare su se stesso è il tempo di Poincaré che dipende dalle dimensioni del sistema. Questo significa che anche par- tendo da un sistema fuori dall’equilibrio, dopo tanto tempo, poiché il sistema è chiuso, tornerà alle condizioni di partenza; ciò significa che non è possibile avere una dinamica dissipativa: la dinamica è reversibile a tempo infinito, ma è irreversibile se viene troncata prima. Poi c’è il problema dell’ergodicità. Ora che ci siamo trastullati con questa filosofia, possiamo risolvere ρ̂(t) = ρ̂eq − i ~ ∫ t t−0 [ Ĥ ′, ρ̂ ] dτ schiacciando l’integrale e scrivendo ρ̂(t+0 ) = ρ̂eq − i ~ ∫ t+0 t−0 [ −a(τ)Â, ρ̂(τ) ] dτ trascurando Ĥ in Ĥ ′ perché è continua a cavallo del kick, quindi è possibile eliminare Ĥ(t+0 ) = Ĥ(t−0 ): ρ̂(t+0 ) = ρ̂eq + ∫ t+0 t−0 [ δ(τ − t0)Â, ρ̂(τ) ] dτ Qui bisognerebbe prendere ρ̂(t = t0), ma sgargiullamente prendiamo ρ̂eq: ρ̂(t+0 ) ' ρ̂eq + i ~ [ Â, ρ̂eq ] quindi δρ̂(t0) = i ~ [ Â, ρ̂eq ] Per ottenere δρ̂(t), si fa evolvere δρ̂(t0): δρ̂(t) = e− i ~ Ĥ(t−t0)δρ̂(t+0 )e+ i ~ Ĥ(t−t0) = i ~ [ ÂH (−(t− t0)) , ρ̂eq ] dove abbiamo tirato dentro gli esponenziali, creando l’operatore di Heisenberg, con il segno meno che viene dal fatto che i segni dovrebbero essere invertiti. In questo modo, possiamo ricavare ĝA(t− t0) = θ(t− t0) i ~ [ ÂH(t0 − t), ρ̂eq ] 5.8 La funzione risposta A cosa serve tutto questo? Bella domanda. In pratica, lo usiamo per calcolare δB(t) = Tr(δρ̂(t)B̂) = ∫ +∞ −∞ a(t′)θ(t− t′) i ~ Tr ( B̂ [ ÂH(t′ − t), ρ̂eq ]) dt 87 con CBA(τ) = 〈B̂H(τ)ÂH〉 Il valore τ è la misura di quanto andiamo nel passato, mentre t′ è l’istante in cui avviene la perturbazione. Per quanto riguarda la funzione di correlazione CBA(τ), sappiamo che la sua trasformata di Fourier è completamente determinata dalla parte antisimmetrica, legata a sua volta a =CBA. Sappiamo poi, per il principio del bilancio dettagliato9, che la funzione di correlazione è in equilibrio canonico, quindi la parte simmetrica è determinata anch’essa dalla parte immaginaria. Inoltre, la funzione di correlazione è invariante per traslazione temporale (il sistema è in equilibrio, quindi è in stato stazionario) e lo si può notare andando a calcolare CBA(t+ τ): CBA(t+ τ) = 〈B(t+ τ)A〉β = Tr ( e−βĤ Zβ e i ~ Ĥ(t+τ)B̂e− i ~ Ĥ(t+τ)e i ~ Ĥτ Âe− i ~ Ĥτ ) e notando che i vari τ si semplificano. Abbiamo poi già visto che CBA(t) = 〈B̂HÂH(−t)〉β = 〈ÂH(−t)B̂H〉∗β = C∗AB(−t) Per saperne di più, però, serve qualche relazione di simmetria in più. Se B̂ =  si ha per le mani una funzione di autocorrelazione che, come abbiamo visto, ha la parte reale pari e la parte immaginaria dispari: =CAA(t) = −=CAA(−t) <CAA(t) = <CAA(−t) Si potrebbe dimostrare che la trasformata di Fourier di una funzione ha la stessa simmetria della funzione; per esempio, se f(t) = f(−t), allora Ff(ω) = ∫ +∞ −∞ f(t)eiωt dt = ∫ +∞ −∞ f(−t)e−iω(−t) dt = Ff(−ω) mentre, allo stesso modo, per f(t) = −f(−t) si avrà Ff(ω) = −Ff(−ω) Quindi, per quanto riguarda la funzione di autocorrelazione, si ha FCAA(ω) = ∫ +∞ −∞ CAA(t)eiωt dt = = ∫ +∞ −∞ <CAA(t)eiωt dt+ i ∫ +∞ −∞ =CAA(t)eiωt dt = = FCsAA(ω) + FCaAA(ω) nella quale abbiamo inserito l’unità immaginaria dentro la definizione di FCaAA(ω); d’altronde, sappiamo che per le proprietà di CAA FC s/a AA = FCAA(ω)±FCAA(−ω) 2 9Per quanto riguarda una descrizione accurata del bilancio dettagliato, si consigliano gli appunti di G. Mandelli per il corso di Meccanica statistica 1, tenuto in quegli anni da nientepopodimeno che STEFANO ZAPPERI. Ringrazierete dopo. Per quelli pigri, il bilancio dettagliato è il modo pomposo con cui i fisici chiamano il principio di Le Chatelier 90 Inoltre, CAA(t) = 〈ÂH(t)ÂH(0)〉β = Tr ( e−βĤ Z ÂH(t)ÂH(0) ) = 1 Z ∑ n 〈n|e−βĤÂH(t)ÂH(0)|n〉 = 1 Z ∑ n e−βEn〈n|ÂH(t)ÂH(0)|n〉 = ∑ n ∑ m pn〈n|ÂH(t)|m〉〈m|ÂH |n〉 = ∑ n ∑ m pn〈n|e i ~ ĤtÂH(0)e− i ~ Ĥt|m〉〈m|ÂH |n〉 = ∑ n,m pne − i ~ (Em−En)tAnmAmn = ∑ n,m pne −iΩmnt|Amn|2 Calcolando la trasformata di Fourier, ci accorgiamo che solo l’esponenziale è funzione di t, quindi FCAA(ω) = ∑ n,m pn2πδ(ω − Ωmn)|Anm|2 Dal momento che il sistema è in equilibrio canonico, per il bilancio dettagliato e la barba di Bafometto possiamo scambiare gli indici tra loro: FCAA(ω) = ∑ m,n pm2πδ(ω − Ωnm)|Amn|2 dove pm è la probabilità di Boltzmann dello stato m, con pm pn = e−βEm e−βEn = e−β~Ωmn quindi FCAA(ω) = 2π ∑ m,n pne −β~Ωmnδ(ω − Ωnm)|Amn|2 In alcuni termini di questa espressione, gli indici possono essere scambiati con minimo imbarazzo, infatti Ωmn = −Ωnm |Amn|2 = |Anm|2 quindi FCAA(ω) = 2π ∑ m,n pne β~Ωnmδ(ω − Ωnm)|Anm|2 per via della δ, possiamo trasformare Ωnm in ω ed estrarre l’esponenziale per ottenere FCAA(ω) = 2πeβ~ω ∑ m,n pnδ(ω − Ωnm)|Anm|2 91 Se calcoliamo FCAA(−ω), ci accorgiamo di una cosina particolare FCAA(−ω) = 2πe−β~ω ∑ m,n pnδ(−ω − Ωnm)|Anm|2 = 2πe−β~ω ∑ m,n pnδ(ω + Ωnm)|Anm|2 = 2πe−β~ω ∑ m,n pnδ(ω − Ωmn)|Amn|2 = e−β~ωFCAA(ω) Questo sudato risultato si sarebbe potuto ottenere anche attraverso il bilancio dettagliato, se qualcuno ci avesse detto cosa fosse. In questo modo, possiamo calcolare FC s/a AA = FCAA(ω)±FCAA(−ω) 2 = 1± e−β~ω 2 FCAA(ω) e FCsAA FCaAA = 1 + e−β~ω 1− e−β~ω = eβ~ω/2 + e−β~ω/2 eβ~ω/2 − e−β~ω/2 = coth ( β~ω 2 ) Da una, quindi, possiamo calcolare l’altra: FCsAA = coth ( β~ω 2 ) CaAA(ω) ed ottenere la funzione totale come FCAA = [ 1 + coth ( β~ω 2 )] CaAA(ω) Finita questa piccola deviazione, possiamo tornare a χAA(τ) = −2 ~ θ(τ)=CAA(τ) che, trasformata, permette di eliminare la θ FχAA(ω) = −2 ~ ∫ +∞ 0 =CAA(τ)eiωτ dτ La parte immaginaria di tutto ciò diventa = [FχAA(ω)] = −2 ~ ∫ +∞ 0 =CAA(τ) sin(ωτ) dτ 92 che, a t = 0 è CAA(0) = 〈Â2〉β = 1 2π ∫ +∞ −∞ FCAA dω nientepopodimeno che la varianza della grandezza. Le fluttuazioni spontanee all’equilibrio (dina- mico), sono date quindi - se scomposte in frequenze - dalla trasformata di Fourier della funzione di correlazione; per ogni frequenza, FCAA(ω) dà l’intensità delle fluttuazioni a quella stessa frequenza. Poi si somma su tutte le frequenze per avere la fluttuazione totale. Da un lato c’è quello che il sistema dissipa, dall’altro le fluttuazioni spontanee: perché so- no legate? Il sistema è sempre soggetto all’ambiente, e le forze dell’ambiente che agiscono sul sistema lo fanno fluttuare, quindi il sistema in equilibrio risponde alla forza stocastica con una fluttuazione. Il sistema è dinamico: risponde alla forza e torna indietro. Quando il sistema è sottoposto ad una forza esterna, la sua risposta al campo esterno è legata alla risposta che il sistema ha con se stesso (quindi con l’ambiente); questo perché le fluttuazioni sono le risposte alle forze interne. La dissipazione, invece, è la risposta alle forze esterne. Siccome non si possono distinguere microscopicamente le forze interne da quelle esterne, il sistema risponde allo stesso modo; questa è l’essenza del teorema di fluttuazione-dissipazione. Il sistema sarà all’equilibrio quindi quando le forze esterne che provocano la dissipazione sono perfettamente bilaciate dalle forze interne che forzano il sistema a fluttuare. 5.11 Più forzanti Prima il sistema era sottoposto ad una sola forzante; nel caso invece ci siano più forzanti, si ha Ĥ ′ = Ĥ − ∑ i aiÂi Il risultato della risposta lineare è la somma dei risultati χBA = ∑ i χBAi = −2 ~ ∑ i = (CBAi(t)) θ(t) Questo perché risposta lineare significa anche sommare linearmente le fluttuazioni. In generale, come per il campo elettrico, questo richiede un integrale: −|e| ∫ n̂(r)φ(r) d3r dove n̂ è l’operatore densità per il punto r (coordinata generalizzata) e φ(r) è il campo elettrico nel punto r (forzante). Prendendo come osservabile B̂ = n̂(r), si ha χnn(r, r′) = −2 ~ = (Cnn′(t)) = −2 ~ =〈n̂(r, t)n̂(r′, t)〉 con χnn risposta nel punto r′ alla perturbazione della densità elettronica nel punto r, quindi r risponde al campo elettrico e r′ si perturba. Quindi: 〈n̂(r, t)〉 = |e| ∫ dt′d3r χnn (r, r′, t′)φ(r′, t′) dove n̂ rappresenta come risponde la densità in (t, r) al campo in (t′, r′). 95 5.12 Equilibrio dinamico Queste conclusioni sono molto generali, ma le si può utilizzare per descrivere un equilibrio dinamico (quindi anche un equilibrio chimico). Si immagini di avere la molecola A in equilibrio con la molecola B, considerando le densità medie delle due specie10, neqa e neqb . A B Dopo aver perturbato l’equilibrio, le n decadono fluttuando, con un decadimento che può essere descritto come δna = na − neqa Come abbiamo preannunciato, il decadimento è legato alle fluttuazioni intrinseche del sistema, come 〈δna(t)δna(0)〉 Questo framework permette di ricavare le proprietà all’equilibrio, come le costanti cinetiche. Questa è la strada più rigorosa, ma sarebbe meglio avere un’altra funzione di correlazione per arrivare alla costante cinetica. Tuttavia, ci accontentiamo per ora di una formulazione più sem- plice. Infatti, il decadimento (come la variazione δna) tende a zero nello stesso modo con cui il sistema tende all’equilibrio, perché legato a come le fluttuazioni ricreano l’equilibrio. L’approccio che impiegheremo non è troppo differente da quello cinetico: l’equilibrio è la somma di due reazioni inverse di costante cinetica k e k−1; in questo modo, la popolazione di A, pa (l’ex na11) varia secondo la legge −dpa dt = kpa − k−1pb (?) All’equilibrio, 0 = kpeqa − k−1p eq b quindi è possibile ricavare la costante di equilibrio K = k k−1 = peqb peqa Considerando la variazione di (?) otteniamo − d dt δpa = kδpa − k−1δpb dove δpi = pi − peqi 0 = δpa + δpb perché pa + pb = 1; così abbiamo − d dt δpa = kδpa − k−1δpb = (k + k−1)δpa In realtà, in molti casi, se c’è una descrizione cinetica, c’è una separazione di eventi per cui – inizialmente – c’è un solo sistema: pa comincia a fluttuare finché non raggiunge l’equilibrio. 10Anche note con il nome di concentrazione 11Che volete? Ci piace cambiare 96 Questa regione è la regione della dinamica e si protrae per pochi femtosecondi. Successivamente, comincia la regione della cinetica, descritta in un decadimento esponenziale: pa(t)− pa(0) ∝ e−(k+k−1)t La regione della dinamica è sufficientemente ristretta da poterla seguire numericamente, ma è conveniente seguire un’altro approccio. In primo luogo, separiamo le due regioni quando la derivata temporale della popolazione raggiunge un valore costante: in quel momento si è in finestra cinetica; prima, la popolazione è pressocché costante, ma la sua derivata flutta durante la dinamica. A questo punto, consideriamo la costante cinetica macroscopica classica come k := lim t→tp ( −dpa dt ) dove tp rappresenta il tempo di plateau, ossia un tempo lontano nella dinamica. Ora bisogna far evolvere i reagenti nei prodotti; per farlo, si identifica una coordinata di reazione (che indicheremo con la lettera s), ponendo in s = 0 l’ideale demarcazione tra reagenti e prodotti. In base a questa costruzione, rappresentiamo le due popolazioni come pi = Tr(ρ̂ĥi) dove ρ̂ è l’operatore statistico e ĥi è il proiettore nella regione scelta; nel nostro caso, ĥa = ∫ s<0 ds |s〉〈s| ĥb = ∫ s>0 ds |s〉〈s| Ovviamente, la relazione tra le due popolazioni è rispecchiata nei proiettori, con ĥa + ĥb = 1. Arrivati a questo punto, occorre costruire un operatore statistico ρ̂aβ(0) che descriva il sistema in equilibrio termico esclusivamente nei reagenti, ottenendo l’evoluzione della popolazione come pa(t) = Tr(ρ̂aβĥa(t)) in cui l’operatore ρ̂aβ(0) deve descrivere A in equilibrio termico in assenza di B e deve essere un operatore statistico; si può prendere l’hamiltoniano totale e creare l’ansatz ρ̂aβ = e−βĤ/2ĥae −βĤ/2 Tr(e−βĤ ĥa) che è una soluzione ragionevole sia nel numeratore che nel denominatore. Ci dò diesci e lo chiamo operatore dei reagenti boltzmannizzato. 5.13 Versione alternativa Macroscopicamente, una reazione chimica è descritta da una legge cinetica del tipo −dpa dt = k1pa − k−1pb che è il risultato di una dinamica microscopica descritta da un hamiltoniano non riducibile Ĥ = p̂2 s 2ms + V (s) 97
Docsity logo



Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved