NOTE SU EQUAZIONI DIFFERENZIALI LINEARI Armando … · Armando Bazzani Meccanica Analitica e...

57
NOTE SU EQUAZIONI DIFFERENZIALI LINEARI Armando Bazzani Meccanica Analitica e Modelli Numerici per la Fisica Dipartimento di Fisica e Astronomia - Bologna Soluzione delle equazioni differenziali lineare: il flusso di fase Le equazioni differenziali lineari costituiscono un esempio importante per lo studio dei sistemi dinamici in quanto da una parte ` e possibile uno studio esaustivo delle propriet` a delle soluzioni, e dall’altra sono uno strumento per l’approssimazione locale di un sistema dinamico generico. Consideriamo il sistema di equazioni differenziali lineari a coefficienti costanti ˙ x = Ax x R n (1.0) dove A ´ e una matrice data n × n. La soluzione all’equazione (1.0) ´ e determinata una volta fissata la condizione iniziale x(0) = x 0 . Infatti possiamo trasformare il sistema (1.0) in un’equazione integrale x(t)= x 0 + A Z t 0 x(s)ds (1.1) definendo la soluzione in forma implicita. L’esistenza della soluzione si pu´ o dimostrare utilizzando un principio di punto fisso per la mappa y 0 (t)= x 0 + A Z t 0 y(s)ds nello spazio delle funzioni y(t) regolari nell’intervallo [0,t]. Possiamo anche scrivere la soluzione andando ad approssimare l’integrale secondo la definizione xt)=(I + AΔt + Ot) 2 )x 0 e iterando la procedura fino ad ottenere x(t)=(I + AΔt + Ot) 2 ) t/Δt x 0 Abbiamo quindi il limite per le matrici analogo a quanto succede per i numeri reali x(t)= lim Δt0 (I + AΔt) t/Δt x 0 = exp(At)x 0 (1.2) 1

Transcript of NOTE SU EQUAZIONI DIFFERENZIALI LINEARI Armando … · Armando Bazzani Meccanica Analitica e...

NOTE SU EQUAZIONI DIFFERENZIALI LINEARI

Armando BazzaniMeccanica Analitica e Modelli Numerici per la Fisica

Dipartimento di Fisica e Astronomia - Bologna

Soluzione delle equazioni differenziali lineare: il flusso di faseLe equazioni differenziali lineari costituiscono un esempio importante per lo studio deisistemi dinamici in quanto da una parte e possibile uno studio esaustivo delle proprietadelle soluzioni, e dall’altra sono uno strumento per l’approssimazione locale di un sistemadinamico generico. Consideriamo il sistema di equazioni differenziali lineari a coefficienticostanti

x = Ax x ∈ Rn (1.0)

dove A e una matrice data n×n. La soluzione all’equazione (1.0) e determinata una voltafissata la condizione iniziale x(0) = x0. Infatti possiamo trasformare il sistema (1.0) inun’equazione integrale

x(t) = x0 +A

∫ t

0

x(s)ds (1.1)

definendo la soluzione in forma implicita. L’esistenza della soluzione si puo dimostrareutilizzando un principio di punto fisso per la mappa

y′(t) = x0 +A

∫ t

0

y(s)ds

nello spazio delle funzioni y(t) regolari nell’intervallo [0, t]. Possiamo anche scrivere lasoluzione andando ad approssimare l’integrale secondo la definizione

x(∆t) = (I +A∆t+O(∆t)2)x0

e iterando la procedura fino ad ottenere

x(t) = (I +A∆t+O(∆t)2)t/∆tx0

Abbiamo quindi il limite per le matrici analogo a quanto succede per i numeri reali

x(t) = lim∆t→0

(I +A∆t)t/∆tx0 = exp(At)x0 (1.2)

1

Tale relazione risulta interessante in quanto consente di scrivere degli integratori numericiper il sistema (1.0). Per il calcolo della soluzione possiamo anche sviluppare x(t) in seriedi Taylor a partire da t = 0

x(t) = x0 +∑k≥1

tk

k!

dkx

dtk(0) = x0 +

∑k≥1

tk

k!Akx0 (1.3)

dove abbiamo utilizzato l’eguaglianza

dkx

dtk(0) = Akx0

Riconosciamo nella (1.3) la funzione esponenziale della matrice At definita dalla serie

exp(At) =∞∑k=0

Aktk

k!

E possibile dimostrare la convergenza della serie introducendo la norma nello spazio dellematrici

‖A‖ = sup‖x‖=1‖Ax‖ = supx 6=0

‖Ax‖‖x‖

(dove ‖x‖ indica l’usuale norma Euclidea) e utilizzando il fatto che lo spazio delle matricie completo (vedi Appendice). E facile dimostrare che se la dimensione dello spazio e finitaanche la norma di una matrice e finita.

Dalla definizione della norma, vale la relazione

‖ exp(At)‖ ≤∞∑k=0

‖A‖k tk

k!= exp(‖A‖t)

e l’esponenziale converge su tutto l’asse reale. Allora il vettore x(t) = exp(At)x0 e bendefinito ed e la soluzione dell’equazione differenziale (1.0). La definizione dell’operatoreesponenziale expAt definisce in modo naturale un gruppo abeliano di operatori che prendeil nome di flusso di fase associato all’equazione (1.0). Abbiamo infatti le proprieta

exp(O) = I exp(At) exp(As) = exp(A(t+ s))

La matrice A prende il nome di generatore del gruppo. Vale anche il viceversa: sia Φtxun gruppo abeliano di operatori lineari dipendenti dal parametro reale, possiamo definireil generatore del gruppo come

lim∆t→0

Φ∆t − I∆t

= A

e rappresentare il gruppo Φt = exp(At) in quanto la funzione x(t) = Φtx0, x(t) risolvel’equazione differenziale

x =d

dtΦtx0 = Ax

2

e si puo scrivere nelle forma exp(At)x0 e vale un teorema unicita per le soluzioni dell’equa-zione differenziale (1.0). Abbiamo pertanto una corrispondenza tra gruppi di operatorilineari abeliani e equazioni differenziali. Notiamo che la matrice S(t) = exp(At) checaratterizza il flusso di fase e soluzione dell’equazione matriciale

dS

dt= AS(t)

Notiamo infine che la linearita dell’operatore (1.2) implica che ogni combinazione lineare(a coefficienti costanti) di soluzioni dell’equazione differenziale (1.0) e ancora soluzione concondizione iniziale data dalla combinazione delle condizioni iniziali con gli stessi coeffcienti.Quindi esiste un isomorfismo tra lo spazio delle condizioni iniziali e lo spazio delle soluzioni.In particolare quest’ultimo risulta uno spazio lineare di dimensione n ed esiste una base perlo spazio delle soluzioni che corrisponde ad una base dello spazio delle condizioni inziali.Per un calcolo esplicito dell’esponenziale di una matrice usiamo il seguente Lemma:Se λ e un autovalore della matrice A corrispondente all’autovettore v allora vale

exp(At)v = eλtv

ovvero eλt e autovalore della matrice exp(At).

Se la matrice A e diagonalizzabile mediante una trasformazione lineare T

A = TΛT−1

allora possiamo scrivereexp(At) = TeΛtT−1

Tale risultato segue in quanto vale l’eguaglianza

TΛnT−1 = (TΛT−1)n = An

Abbiamo quindi un metodo del tutto generale per risolvere le equazioni lineari a coefficienticostanti. Una volta risolta l’equazione caratteristica

det(λI −A) = 0

cerchiamo le soluzione dell’equazione (1.0) nella forma

x(t) = T exp(Λt)c (1.4)

dove T e la matrice che diagonalizza A (ovvero la matrice formata dagli autovettori) e c eun vettore costante che viene definito dalle condizioni condizioni iniziali. Sostituendo nelsistema (1.0) si ottiene

TΛ exp(Λt)c = AT exp(Λt)c

3

che risulta soddisfatta qualunque sia la scelta di c se vale

(TΛ−AT ) = 0 ⇒ A = TΛT−1

Infine imponendo le condizioni iniziali otteniamo il sistema

x(0) = Tc

che ammette una sola soluzione. L’equazione

(TΛ−AT ) = 0 (1.5)

si definisce equazione di coniugazione per la matrice A. Tale equazione risolve il problemadi trovare una trasformazione T che riducaA alla forma piu semplice possible (in particolarealla forma diagonale), per cui il calcolo delle soluzioni dell’equazione (1.0) diventa banale.La soluzione di tale problema richiede l’utilizzo di risultati algebrici circa le forme normalidelle matrici: diremo infatti che l’equazione di coniugazione consente di ridurre in formanormale la matrice A. Ricordiamo che Λ e A devono avere lo stesso polinomio caratteristicoP (ζ): infatti dalla relazione TΛT−1 = A si ricava

P (ζ) = det(Iζ −A) = det(Iζ − TΛT−1) = det(T )det(Iζ − Λ)det(T−1) = det(Iζ − Λ)

Pertanto gli autovalori della matrice A nel sistema (1.0) definiscono delle proprieta in-trinseche della dinamica che non dipendono dalle variabili scelte e consentono una clas-sificazione a seconda del valore degli autovalori. Come e noto se il polinomio ha tutteradici distinte allora Λ e una diagonale formata dagli autovalori e T e la matrice le cuicolonne sono le coordinate degli autovettori corrispondenti (nel caso di autovalori multiplila formula e piu complicata e avremo le forme normali di Jordan).In generale, possiamo risolvere il sistema (1.0) cercando soluzioni nella forma esponenzialex(t) = ~veλt con ~v vettore. La linearita del problema implica che date delle soluzionixk(t) ogni combinazione lineare

∑k ckxk(t) con ck coefficienti reali o complessi, e ancora

soluzione. Il sistam di soluzioni xk(t) si dice linearmente indipendente se l’equazione∑k

ckxk(t) = 0

ha un’unica soluzione ck = 0 per ogni t. Si dimostra che se le soluzioni sono lineramenteindipendenti per t = 0 lo sono anche per ogni tempo: possiamo avere una prova direttadal fatto che il flusso di fase e invertibile e quindi non altera la condizione di indipendenzalineare se questa e valida al tempo t = 0. Si ottiene quindi

λ~veλt = A~veλt

che equivale all’equazione di autovalori ed autovettori per la matrice A. Se troviamo unabase di autovettori per la matrice A, avremo automaticamente un sistema di soluzioni

4

linearmente indipedenti e il calcolo dello costanti ck consente di esprimere qualunque con-dizione iniziale. Lo spettro degli autovalori della matrice A consente quindi di ottenereinformazione sul comportamento delle soluzioni. Per i sistemi meccanici (ovvero per cuil’equazione di Newton) si dimostra che la matrice A si fattorizza A = JS con J matriceantisimmetrica con J2 = −I ed S matrice simmetrica. Per i sistemi meccanici J e

J =

(0 I−I 0

)In tal caso Sx diventa il gradiente di una forma quadratica H = x · Sx/2.Si dimostra il Lemma: se λ e radice dell’equazione caratteristica Det[λI − JS] = 0 alloraanche −λ lo e.Consideriamo la seguente relazione

0 = Det[λI − JS] = Det[λI + SJ ] = Det[J ]2Det[−λI − JS] = Det[−λI − JS]

Il primo passaggio si ottiene prendendo la trasposta e quindi si usano le proprieta di J .

Data quindi una matrice reale nella forma JS gli autovalori si presentano a coppie realio a coppie immaginari puri o come quadruple di opposti e complessi coniugati. Passandoalla matrice esponenziale exp JS le proprieta discusse si riflettono nella relazione

[exp(JS)]TJ exp(JS) = J (1.6)

che caratterizza la cosidette matrici simplettiche. La dimostrazione segue da

[exp(JS)]TJ = JJ−1 exp(−SJ)J = J exp(−JS)

ricordando che T−1 exp(A)T = exp(T−1AT ).Le matrici simplettiche sono importanti per lo studio dei flussi di fase dei sistemi meccaniciHamiltoniani e hanno la proprieta che se λ e autovalore anche λ−1 lo e.

Alcuni esempi e applicazioni

Si consideri la successione di numeri interi (successione di Fibonacci)

an+1 = an + an−1 n ≥ 1

con a0 = 0 ed a1 = 1. Rappresentare in modo matriciale la ricorrenza e determinare

limn→∞

ln(an)

n

Possiamo scrivere la ricorrenza in forma matriciale(an+1

an

)=

(1 11 0

)(anan−1

)5

per cui (an+1

an

)=

(1 10 1

)n(10

)Calcoliamo gli autovalori della matrice dal polinomio caratteristico

λ2 − λ− 1 = 0 λ± =1±√

5

2

per cui |λ+| > 1 e |λ−| < 1. Allora per n → ∞ la componente lungo l’autovettorecorrispondente a λ− tende a zero, e solo la componente lungo l’autovettore associato a λ+

sopravvive. Per valutare il limite dobbiamo scomporre nella base degli autovettori

v+ =

((1 +

√5)/2

1

)v− =

((1−

√5)/2

1

)che risultano ortogonali. E facile vedere che(

10

)=

1√5

(v+ − v−)

per cui

an =1√5

(λn+ − λn−)

e vale il limite

limn→∞

ln ann

= lnλ+ = ln1 +√

5

2

λ+ e anche noto come il numero d’oro.Un caso di notevole interesse sono i sistemi dinamici lineari associati alle matrici

stocastiche πjk: ovvero matrici con la proprieta che 0 < πjk < 1 e∑j

πjk = 1 (a)

In base alle ipotesi fatti gli elementi πij si possono interpetare come probabilita di tran-sizione tra uno stato j di un certo sistema allo stato i. Tali matrici sono legate all’evoluzionedei processi di Markov secondo l’equazione

ρj(t+ 1) =∑k

πjkρk(t) (b)

Vale il Lemma: in un caso non denegere la matrice Π ha un autovalore unitario mentretutti gli altri sono in modulo strettamente minori di 1.

Dalla proprieta (a) segue che il vettore (1, 1, ..., 1) e autovettore della matrice traspostacon autovalore unitario, allora anche la matrice Π ha un autovalore eguale a uno.

6

Inoltre abbiamo un integrale primo del moto lineare dato da∑j

ρj(t) = cost.

Da questo segue che: se Π ammette un autovettore ρ∗ con∑j ρ∗j 6= 0 allora il corrispon-

dente autovalore deve essere 1. In effetti dall’integrale primo del moto segue∑k

ρ∗k =∑k,j

πkjρ∗j = λ

∑k

ρ∗k

che puo essere vera solo se λ = 1. Dal momento che tutti gli elementi di Π sono positiviil primo quadrante risulta invariante per la dinamica (b) e il determinante deve esserestrettamente minore di 1. Per dimostrare tale affermazione ricordiamo che (ε e il simbolodi Levi-Civita in n dimensioni)

DetΠ =∑j

εj1,...,jnπ1,j1 ...πn,jn

che risulta un sottoinsieme in senso stretto di tutti i prodotti positivi che si ottegonodall’espressione ∏

j

(∑k

πkj

)= 1

Il valore 1 si ottiene solo se Π e una matrice diagonale, il che vuol dire che coincide conl’identita. Pertanto la dinamica (b) e una contrazione nell’insieme ottenuto intersecandoil primo quadrante con sottospazio

∑k ρk = 1 e quindi ammette un punto fisso che cor-

risponde all’autovettore di autovalore unitario. L’autovettore ρ∗ puo essere interpretatocome distribuzione di probabilita associata ad uno spazio discreto di eventi (in corrispon-denza con le componenti). Seguono quindi le proprieta:

1) il sottospazio lineare definito dal piano∑k vk = 0 e un sottospazio invariante per la

dinamica (b) ed e possibile dividere lo spazio vettoriale come somma diretta di talesottospazio ed lo spazio associato all’autovettore ρ∗;

2) gli autovettori nel sottospazio∑k vk = 0 hanno autovalori strettamente minori di 1

nei casi non degeneri.Per provare questa affermazione dato un generico vettore v consideriamo separata-

mente le sue componenti positive vk+ e negative −vk− (tali insiemi devono essere entrambinon vuoti) e introduciamo la norma

|v| =∑k

|vk| =∑k+

vk+ +∑k−

vk−

Vale che

|Πv| =∑j

∣∣∣∣∣∑k

πjkvk

∣∣∣∣∣ <∑j

(∑k+

πjk+vk+ +∑k−

vk−

)

7

Scambiando le sommatorie e utilizzando la proprieta (a) si ottiene

|Πv| <∑k+

vk+ +∑k−

vk− = |v|

dove, salvo matrici degeneri che hanno autovalore 1 con molteplicita maggiore di uno, ilsegno di minore e stretto. Ne segue che dato un autovettore v∗

|Πv∗| = |λv∗| = |λ||v∗| < |v∗|

e quindi il corrispondente autovalore deve essere strettamente minore di 1 in modulo. Dalprincipio di contrazione segue che iterando la dinamica (b) a partire da un qualunquevettore, che si puo scrivere nella forma

u = cρ∗ + v

con c =∑j uj e v appartenente al sottospazio invariante

∑k vk = 0, abbiamo

limn→∞

Πnu = cρ∗ + limn→∞

Πnv → cρ∗

La successione converge verso l’autovettore di autovalore unitario e la velocita di conver-genza e proporzionale a |λmax|n dove λmax e il piu grande degli autovalori in moduloesclusa l’unita.Associate alle matrici stocastiche vi sono le cosidette marici Laplaciane L con la proprieta∑

j

ljk = 0

e |ljk| ≤ 1. Le matrici Laplaciane discretizzano l’operatore di Laplace e si richiede che gliautovalori siano tutti maggiori o uguali di zero: sicuramente 0 e autovalore dal momentoche vi e una relazione lineare tra le colonne. Le proprieta delle matrici Laplaciane siriconducono a quelle delle matrici stocastiche dimostrando che la matrice esponenzialeexp(tL) e una matrice stocastica. Si vede facilmente la proprieta∑

j

[exp(tL)]jk = 1

Occorre dimostrare che gli elementi della matrice sono positivi; consideriamo il caso di∆t 1, si ha

[exp(∆tL)]jk = δjk + ∆tljk +O(∆t2)

per cui l’asserto segue se ljk > 0 per j 6= k (per cui possono essere interpretati come tassidi transizione per unita di tempo). Da momento che vale una proprieta di gruppo

exp(n∆tL) = (exp(∆tL)n

8

allora il risultato precedente vale anche per un tempo finito. Nelle ipotesi precedentipossiamo associare una matrice stocastica ad una matrice Laplaciana con

πjk = δjk + ljk∆t

purche 0 < ljk∆t < 1. In tal caso abbiamo che una matrice stocastica con gli stessiautovettori di L e autovalori collegati dalla relazione

λΠ = 1 + λL

Dal momento che λΠ < 1 ad eccezzione dell’autovalore unitario, ne segue che tutti gliautovalori di L hanno parte reale negativa (salvo in casi degeneri) tranne il primo chee nullo. L’autovettore associato all’autovalore nullo e diretto nel primo quadrante e puoessere interpretato come distribuzione di probabilita. Le matrici Laplaciane entrano nelladefinizione della Master Equation

ρj =∑k

ljkρk (d)

utilizzata sia in Meccanica Statistica che in Meccanica Quantistica, in cui ρk(t) ha ilsinificato di probbalita di essere nello stato k al tempo t. La soluzione formale formale siscrive

ρ(t) = exp(Lt)ρ(0)

e vale che∑j ρj e un integrale primo del moto per la dinamica (d) (conservazione della

probabilita totale). Da quanto detto l’equazione (d) ammette uno stato stazionario chepuo essere interpretato come distribuzione di probabilita e risulta attrattivo

limt→∞

ρ(t) = ρs

Notiamo infine che la composizione di due matrici stocastiche Π(1) e Π(2) e ancora unamatrice stocastica ∑

i

∑j

π(1)ij π

(2)jk =

∑j

π(2)jk = 1

Quindi le soluzioni della Master Equation si possono approssimare utilizzando la compo-sizione di matrici stocastiche. In particolare possiamo approssimare

ρ(t+ ∆t) =

(I + L∆t+ L2 ∆t2

2+ .....+ Ln

∆tn

n!

)ρ(t) +O(∆tn+1)

e comporre in successioni le matrici stocastiche al membro destro.

Matrici Simplettiche Un secondo caso di interesse sono i sistemi di equazioni differenzialilienari associate alle matrici simplettiche caratterizzate dalla relazione

MTJM = J

9

con J matrice antisimmetrica con J2 = 1 di dimensione pari. Le matrici simplettichehanno la proprieta che se λ e autovalore anche λ−1 lo e:Dimostrazione

Det(λI −MT ) = Det(λI + JM−1J) = Det(λI −M−1)

Quindi λ e autovalore di M e della sua inversa; cio e possibile solo se gli autovalori sipresentano a coppie (λ, λ−1).E facile dimostrare che se poniamo

M = exp(JS) (b)

con S matrice simmetrica, allora M e simplettica. Vale infatti l’eguaglianza

exp(−SJ)J exp(JS) = J(J−1 exp(−SJ)J

)exp(JS) = J exp(−JS) exp(JS) = J

Ne segue che le matrici simplettiche rappresentano le soluzioni del sistema lineare

x = JSx ovverodM

dt= JSM(t)

con S matrice simmetrica. Dalle definizioni e facile riconoscere che il sistema precedenteha la forma canonica di un sistema Hamiltoniano con H = (xSx)/2. Le proprieta digruppo delle matrici simplettiche consentono di mantenere la forma canonica dell equazionidel moto. Se infatti operiamo un cambio di variabili x = My con M trasformazionesimplettica, il sistema cambia mediante la relazione

y = M−1JSMy

e dato che dalla condizione di simpletticita segue che M−1 = −JMTJ , abbiamo

(−JMTJ)JSM = JMTSM = JS′

dove S′ = MTSM e la nuova matrice simmetrica associata al Hamiltoniano del sistema.Si puo mostrare che formalmente vale anche il viceversa: data una matrice M e semprepossibile una rappresentazione esponenziale del tipo (b). In effetti e formalmente possibileinvertire l’equazione (b), nella forma

log(M) = log(I + (M − I)) = JS ⇒ −J log(M) = S

Dal momento che S e simmetrica deve accadere che

log(MT )J = −J log(M) ⇒ J log(MT )J = log(M)

Ora dalla condzione di simpletticita abbiamo −(JMTJ)M = I che implica M−1 =−(JMTJ). Si verifica quindi la relazione

JMnJ = −(−JMJ)n

10

da cui abbiamo

J log(MT )J = J

∑n≥1

(MT − I)n

n

J= −

∑n≥1

(−JMTJ − I)n

n= − log(I + (M−1 − I)) = − logM−1

Dal momento che log(M−1) = − log(M) per qualunque matrice, la matrice −J log(M)risulta simmetrica. Quindi formalmente (a meno di dimostrare che la convergenza dellaserie log(M)) la relazione (b) e invertibile. Come conseguenza possiamo definire un flussodi fase simplettico

exp(JSt)x = M tx t ∈ R

che interpola a tempi interi le potenza della matrice M tramite le soluzioni del sistemalineare x = JSx.

Esempi di sistemi dinamici lineari

Consideriamo alcuni semplici esempi dinamici: un oscillatore armonico e descrittodall’equazione lineare

x = p

p = −ω2x(2.1)

La matrice A associata al sistema si scrive nella forma

A =

(0 1−ω2 0

)=

(0 1−1 0

)(ω2 00 1

)(2.2)

e il flusso di fase si puo calcolare in modo esplicito tenendo conto della relazione(0 1−ω2 0

)2

=

(−ω2 0

0 −ω2

)= −ω2I

direttamente dalla definizione

exp

(0 1−ω2 0

)t = I

∑2n

(−ω2)n

2n!t2n +A

∑2n+1

(−ω2)n

(2n+ 1)!t2n+1

Ovvero

exp

(0 1−ω2 0

)t = I cosωt+

A

ωsinωt =

(cosωt ω−1 sinωt−ω sinωt cosωt

)(2.3)

11

Le soluzioni del sistema (2.1) date le condizioni iniziali (x0, p0), sono(x(t)p(t)

)=

(cosωt ω−1 sinωt−ω sinωt cosωt

)(x0

p0

)(2.4)

Le traiettorie sono orbite periodiche con periodo τ = 2πω che definiscono delle ellissi con-

centriche di equazionep2

2E+ω2x2

2E= 1

Notiamo che il flusso di fase (2.4) e caratterizzato da una matrice con determinante unitario,la cui traccia 2 cosωt < 2 denota la stabilita dell’origine (punto fisso o punto critico delsistema) in quanto gli autovalori risultano immaginari puri.Definzione di stabilita: un punto fisso di un sistema di equazioni differenziali si dice stabilese dato un intorno arbitrario, e possibile determinare un secondo intorno contenuto nelprimo tale che le soluzioni con condizione iniziale in questo intorno sono contenute nelprimo per ogni t.Supponiamo di operare una trasformazione di scala sulle variabili definendo X = ax eP = a−1p in modo che la matrice A assuma la forma normale

Λ =

(0 ω−ω 0

)= ω

(0 1−1 0

)= −ωJ (2.6)

Dall’equazione di coniugazione (1.5) abbiamo(0 1−ω2 0

)(a 00 a−1

)=

(a 00 a−1

)(0 ω−ω 0

)che diventa (

0 a−1

−aω2 0

)=

(0 aω

−a−1ω

)da cui di ottiene a2 = ω. La forma normale Λ consente di valutare facilmente il flusso difase. Notiamo infatti che vale il limite

lim∆t→0

1

∆t

[(cos(∆t) − sin(∆t)sin(∆t) cos(∆t)

)−(

1 00 1

)]=

(0 −11 0

)= J

ovvero J e il generatore delle matrici di rotazione sul piano. In generale vale il Lemma: seA e una matrice antisimmetrica allora expA e una matrice ortogonale. Dal calcolo direttoabbiamo

(expA)T = expAT = exp(−A) = (expA)−1

Notiamo che J ha le stesse proprieta algebriche dell’unita immaginaria J2 = −I e quindi lematrici ottenute per combinazione lineare dalla coppia (I, J) sono algebricamente equiv-alente ai numeri complessi. In effetti abbiamo un isomorfismo tra le matrici ortogonaliexp(Jω) ed i numeri complessi di modulo unitario exp(iω). Quindi possiamo scrivere

exp(Λt) = exp(−ωtJ) =

(cosωt sinωtsinωt cosωt

)12

Il flusso di fase per un oscillatore armonico ha quindi la forma esplicita

Φt(x, p) = exp(At) =

(√ω 0

0√ω−1

)(cosωt sinωtsinωt cosωt

)(√ω−1

00

√ω

)=

(cosωt ω sinωt

ω sin(ωt) cosωt

)Generalizziamo l’equazione dell’oscillatore andando a considerare l’effetto di una dissi-pazione (ovvero consideriamo un oscillatore armonico con dissipazione)

x = p

p = −γp− ω2x(2.7.0)

In tal caso la matrice associata al sistema si scrive

A =

(0 1−ω2 −γ

)Calcolando gli autovalori della matrice A nell’ipotesi di piccola dissipazione γ/2 ≤ ω(regime oscillatorio)

λ± = −γ2± i√ω2 − γ2

4

possiamo cercare la soluzione nella forma

x(t) = e−γt/2 (c0 cosω′t+ c1 sinω′t)

p(t) = e−γt/2 (−c0ω′ sinω′t+ c1ω′ cosω′t)− γ

2e−γt/2 (c0 cosω′t+ c1 sinω′t)

dove ω′ =√ω2 − γ2

4 e c0,1 sono due costanti legate alle condizioni iniziali x(0) = x0 e

p(0) = p0

c0 = x0

c1 =1

ω′

(p0 + x0

γ

2

)E possibile calcolare il flusso di fase associato in modo esplicito nella forma(

x(t)p(t)

)= e−γ/2t

(cosω′t+ γ

2ω′ sinω′t 1ω′ sinω′t

−ω2

ω′ sinω′t cosω′t− γ2ω′ sinω′t

)(x0

p0

)Notiamo che il flusso di fase si scompone in due parti: una contrazione dello spazio dellefasi rappresentata dall’esponenziale e−γ/2t che permette di distinguere tra passato e futuro(l’oscillatore smorzato non e infatti un sistema reversibile temporalmente) e una matrice adeterminante 1 e quindi riconducibile a un sistema conservativo che ammette una funzione

13

energia. E interessante considerare un approccio basato sulla riduazione della matrice(2.7.0) alla forma normale

Λ =

(−γ/2 ω′

−ω′ −γ/2

)= −γ

2I − ω′J (2.7)

Notiamo che la matrice (2.7) e la matrice (2.7.0) hanno lo stesso polinomio caratteristicoquindi si tratta di due matrici simili. Inoltre se T e soluzione dell’equazione di coniugazione(1.5) allora anche aT lo e. Quindi possiamo sempre cercare soluzione dell’equazione diconiugazione imponendo una condizione su T del tipo det(T ) = 1. Infine le forme normali(2.7) costituiscono un gruppo abeliano isomorfo alla moltiplicazione tra numeri complessisecondo la corrispondenza

aI + bJ → a+ ib

(la dimostrazione immediata dalle proprieta di I e J). Ne segue che e possibile moltipli-care (a destra) T per una matrice del tipo I cosα+J sinα ottenendo ancora una soluzionedell’equazione (1.5)con determinante unitario. Possiamo quindi utilizzare questa arbitra-rieta per cercare la trasformazione T nella forma

T =

(a 0b a−1

)Cerchiamo di risolvere l’equazione di coniugazione con(

0 1−ω2 −γ

)(a 0b a−1

)=

(a 0b a−1

)(−γ/2 ω′

−ω′ −γ/2

)Dal calcolo diretto abbiamo(

b a−1

−aω2 − bγ −a−1γ

)=

(−aγ/2 aω′

−a−1ω′ − bγ/2 bω′ − a−1γ/2

)si ottengono quindi le relazioni

a2 =1

ω′

b =− γ

2ω′1/2

(2.8)

La forma normale della nuova matrice consente di calcolare il flusso di fase del sistema:notiamo infatti che le matrici I, J commutano e formano un’algebra analoga all’algebradei numeri complessi nello spazio della matrici 2× 2. Abbiamo quindi un’analoga formulaper l’esponenziale

exp Λt = exp(−γ

2I − ω′J

)t = e−γt/2

(cosω′t sinω′t− sinω′t cosω′t

)che definisce il flusso di fase della forma normale. Nelle variabili fisiche iniziali, il flusso difase si scrive quindi in forma esplicita(

x(t)p(t)

)= e−γt/2

(a−1 0−b a

)(cosω′t sinω′t− sinω′t cosω′t

)(a 0b a−1

)(x0

p0

)(2.9)

14

dove a e b sono dati dalla (2.7). Notiamo come la forma normale che contiene le infor-mazioni dinamiche del flusso di fase (2.9), metta in risalto come il flusso di fase di unoscillatore smorzato sia equivalente alla composizione di una rotazione con frequenza ω′

ed uno smorzamento esponenziale: ovvero il moto nello spazio delle fasi risulta una spiralecircolare che si contrae verso l’origine ruotando in modo uniforme.Troviamo anche un esempio di un risultato che ha una validita generale

Det[expAt] = e−γt = exp[TrAt]

La dimostrazione segue dal calcolo diretto

Det[expA(t+ ∆t)]−Det[expAt] = Det[expAt] (Det[expA∆t]− 1)

= Det[expAt](TrA∆t+O(∆t2)

)da cui

d

dtDet[expAt] = TrADet[exp(At)]

Quindi se la traccia TrA e nulla allora la matrice che definisce il flusso di fase ha deter-minante unitario. Da un punto di vista geometrico, significa che il flusso di fase conservale aree nello spazio delle fasi (x, p). Si puo dimostrare che i sistemi meccanici lineari,soddisfano sempre alla condizione TrA = 0 e quindi conservano i volumi nello spazio dellefasi.

Equazioni lineari forzateUtilizzando il concetto di flusso di fase possiamo anche risolvere facilmente il problemadella presenza di una forzatura esterna nell’equazione lineare (1.0)

x = Ax+ a(t) (3.1)

dove a(t) e un vettore dato. E possibile dimostrare che la soluzione generale del sistema(3.1) si ottiene nella forma

x(t) = exp(At)x0 + x(t)

dove x(t) e la soluzione particolare del sistema (3.1) con condizioni iniziali x(0) = 0. Perdeterminare x(t), facciamo la trasformazione di variabile x = exp(At)y (notiamo che yfinisce per coincidere con le condizioni iniziali nel caso a(t) = 0 e si riduce a una costante,da cui il nome di metodo di varaizione delle costanti). Si ottiene in tal caso il sistema

exp(At)y = a(t) ⇒ y(t) = y0 +

∫ t

0

exp(−As)a(s) ds (3.2)

Fissata la condizione iniziale y0 = 0, possiamo calcolare infine

x(t) =

∫ t

0

exp(A(t− s))a(s) ds (3.3)

15

che definisce la soluzione particolare cercate. Notiamo che l’integrale al membro destro hala forma di una convoluzione tra il flusso di fase e la forzante esterna; inoltre l’integraleesiste per funzioni anche non regolari. Supponiamo ad esempio che a(t) sia una funzioneimpulsiva

a(t) = a0δ(t)

con δ(t) funzione δ di Dirac, calcoliamo quindi l’integrale

x(t) = a0

∫ t

0

exp(A(t− s))δ(s) ds =1

2exp(At)a0

che fa vedere come la soluzione impulsiva sia data dall’evoluzione del vettore a0.E interessante studiare il fenomeno della risonanza: supponiamo che la matrice A siadiagonale e abbia un autovalore immaginario puro λ = iω; calcoliamo quindi l’integrale(3.3) per componenti supponendo che la forzante contenga un’ oscillazione con frequenzaΩ nel sottospazio invariante associato all’autovettore di autovalore iω

x(t) =

∫ t

0

exp(iω(t− s)) exp(iΩs)X0ds

Il calcolo esplicito porge

x(t) =exp(iΩt)− exp(iωt)

Ω− ωX0

In tal caso la soluzione particolare x′(t) risulta la combinazione tra due oscillazioni confrequenza pari alla frequenza forzante e alla frequenza propria del sistema, con un’ampiezzainversamente proporzionale alla differenza delle frequenze Ω−ω. Nel limite Ω→ ω abbiamoil fenomeno della risonanza per cui la soluzione particolare diventa

limΩ→ω

= it exp(iωt)X0

da cui si vede come l’ampiezza di oscilazione non sia piu limitata ma cresca proporzional-mente a t con uno sfasamento di π/2 rispetto alla forzante.Come secondo esempio consideriamo l’effetto di una forzatura ξ(t) nel sistema dell’oscilla-tore armonico smorzato

x = p

p = −γp− ω2x+ ξ(t)

Utilizzando il cambio in forma normale (vedi definizioni (2.7))(xp

)=

(1/√ω′ 0

−γ/2√ω′√ω′

)(XP

)con ω′ =

√ω2 − γ2/4, possiamo scrivere l’equazione nella forma complessa grazie all’iso-

morfismo tra le matrici (2.7) e i numeri complessi

Z =(−γ

2− iω

)Z + i

ξ(t)√ω′

16

con Z = X + iP . La soluzione particolare si calcola dalla formula

Z(t) = i

∫ t

0

exp(−γ

2(t− s)− iω′(t− s)

) ξ(s)√ω′ds

o in forma matriciale(X(t)P (t)

)=

∫ t

0

e−γ(t−s)/2(

cosω′(t− s) sinω′(t− s)− sinω′(t− s) cosω′(t− s)

)(0

ξ(s)/√ω′

)ds

Dal calcolo diretto abbiamo

Z(t) =i√ω′

∫ t

0

exp(−γ

2s− iω′s

)ξ(t− s)ds

oppure (X(t)P (t)

)=

1√ω′

∫ t

0

e−γs/2(ξ(t− s) sinω′sξ(t− s) cosω′s

)ds

Da questa si ottiene facilmente la soluzione particolare nelle variabili iniziali

x(t) =1

ω′

∫ t

0

e−γs/2 sin(ω′s)ξ(t− s)ds (3.4)

a cui va aggiunta una soluzione dell’equazione omogenea nel caso le condizioni inziali nonsiano nulle. Espicitiamo la soluzione (3.4) nel caso particolare (impulso di durata τ)

ξ(t) = f0 se t ∈ [0, τ ] ξ(t) = 0 altrimenti

La soluzione particolare diventa

x(t) =f0

ω′

∫ t

t−min(t,τ)

e−γs/2 sin(ω′s) ds

Integrando si ottiene

x(t) = − f0

ω′(γ2/4 + (ω′)2)e−γt/2

(γ2

(sinω′t− eγmin(t,τ)/2 sinω′(t−min(t, τ)))

+ω′(cosω′t− eγmin(t,τ)/2 cosω′(t−min(t, τ)))

Calcoliamo la posizione dell’oscillatore supponendo γ 1

x(t) ' f0

ω2e−γt/2(cosω′(t− τ)− cosω′t)

(ricordiamo che ω2 = γ2/4 + (ω′)2. La risposta e modulata a seconda del valore di ω′τ .

17

Un caso particolarmente interessante per le applicazioni e una forzatura modulata ξ(t) =f0 sin Ωt per cui la soluzione si cerca nella forma

( X(t), P (t) ) =f0√ω′

∫ t

0

e−γs/2(

sin(ω′s) sin Ω(t− s)cos(ω′s) sin Ω(t− s)

)ds

Consideriamo l’evoluzione della posizione x(t)

x(t) = −f0

ω′

∫ t

0

e−γs/2 sin(ω′s) sin Ω(t− s)ds

Il calcolo dell’integrale fornisce dei termini del tipo

f0

2ω′1

(γ/2)2 + (Ω± ω′)2

[γ2

(cos Ωt− e−γt/2 cosω′t) + (ω′ ± Ω)(sin Ωt± e−γt/2 sinω′t)]

Si nota quindi che per t → ∞ la soluzione x(t) tende ad una soluzione oscillante con lastessa frequenza della forzatura

x∞(t) =f0

2ω′1

(γ/2)2 + (Ω + ω′)2

[γ2

cos Ωt+ (ω′ + Ω) sin Ωt]

+f0

2ω′1

(γ/2)2 + (Ω− ω′)2

[γ2

cos Ωt+ (ω′ − Ω) sin Ωt] (3.5)

L’equazione (3.5) mostra come asintoticamente la soluzione di un oscillatore forzato inpresenza di smorzamento tenda ad una soluzione oscillante con la stessa frequenza diforzatura ed ampiezza che dipende dalla differenza tra la frequenza propria del sistemaω′ e la frequenza forzante Ω. Il massimo dell’ampiezza si ottiene nel caso di risonanzaquando ω′ = Ω (ovvero la forzatura ha la stessa frequenza dell’oscillatore libero). In talcaso l’ampiezza di oscillazione diventa ∝ γ−1 e diverge se γ → 0.Supponendo γ = 0, consideriamo il caso Ω ω (perturbazione adiabatica), la soluzioneparticolare assume la forma

x(t) =f0

[1

ω + Ω(sin Ωt+ sinωt) +

1

ω − Ω(sin Ωt− sinωt)

]Dopo semplici passaggi algebrici otteniamo

x(t) =f0

(ω2 − Ω2)sin Ωt− f0Ω

ω(ω2 − Ω2)sinωt

che mostra come, a meno di termino di ordine O(Ω), la soluzione particolare riproduce laforma del segnale con un fattore moltiplicativo ω−2.Infine analizziamo il caso in cui la forzatura ξ(t) e un rumore stocastico (ovvero unafunzione dipendente dalla realizzazione di eventi aleatori), con valor medio nullo < ξ >= 0e funzione di correlazione

< ξ(t)ξ(t+ τ) >= σ(τ)

18

(dato che la correlazione non dipende da t il processo si dice stazionario in senso lato).La soluzione particolare dell’equazione forzata x = Ax + ξ(t) si scrive come (3.3) cheequivale all’applicazione di un filtro lineare sul ξ(t). Supponiamo infatti di considerare latrasformata di Fourier del rumore

ξ(t) =1√2π

∫ ∞−∞

eiωtξ(ω)dω

e supponiamo che esista l’integrale generalizzato

x(t) =

∫ t

−∞exp(A(t− s))ξ(s) ds =

∫ ∞0

exp(Au)ξ(t− u) du (3.6)

che corrisponde alla soluzione stazionaria dell’equazione forzata. Possiamo calcolare∫ t

−∞exp(A(t− s))ξ(s) ds =

1√2π

∫ t

−∞ds exp(A(t− s))

∫ ∞−∞

eiωsξ(ω)dω

=1√2π

∫ ∞−∞

eiωt∫ ∞

0

ds exp(As)e−iωsdsξ(ω)dω

che mostra come la soluzione particolare sia il risultato di una trasformazione lineare deicoefficienti di Fourier traminte il fattore∫ ∞

0

ds exp(As)e−iωsds

che rappresenta la trasformata di Fourier dell’operatore lineare exp(As) associato al fusso difase. Dalla definizione (3.6) possiamo dimostrare che il valor medio del processo stocasticoe nullo e mentre la correlazione risulta

< xj(t)xk(t+ τ) > =

∫ ∞0

du

∫ ∞0

ds exp(Au)ji exp(As)kh < ξi(t− s)ξh(t+ τ − u) >

=

∫ ∞0

du

∫ ∞0

ds exp(AT s)σ(|s− u+ τ |) exp(Au)

Introduciamo la variable v = s− u per cui v ∈ [−u,∞, ] e otteniamo

< xj(t)xk(t+ τ) >=

∫ ∞0

du exp(ATu)

∫ ∞−u

dv exp(AT v)σ(|v + τ |) exp(Au)

Se calcoliamo la funzione

c(τ − u) =

∫ ∞τ−u

exp(AT v)σ(|v|) dv

possiamo scrivere la correlazione nella forma compatta

< xj(t)xk(t+ τ) >=

∫ ∞0

exp(AT (u− τ))c(τ − u) exp(Au) du

19

In molte applicazioni avremo a che fare con rumori δ−correlati (senza memoria); in talcaso

c(τ − u) =

0 se τ > uΣ0 se τ ≤ u

dove Σ0 e la matrice di covarianza del rumore. La funzione di correlazione si semplifica in

< xj(t)xk(t+ τ) >=

∫ ∞0

exp(ATu)Σ0 exp(Au) du exp(Aτ) (3.7)

dove si mette in evidenza che se gli autovalori di A hanno parte reale negativa, allora lacorrelazione decade esponenzialmente in τ .Tale metodo si puo applicare per risolvere le cosidette equazioni di Langevin lineari:equazioni differenziali stocastiche lineari

x = −γx− ω2x+√

2Tγξ(t)

dove ξ(t) e un rumore bianco (un rumore stocastico gaussiano a media nulla e δ-correlato)e il parametro T rappresenta la temperatura del bagno termico modellizzato dall’equazionedi Langevin. In tal caso l’integrale (3.3)

x(t) =√

2Tγ

∫ t

0

exp(A(t− s))ξ(s) ds

si deve interpretare come integrale stocastico di Ito (non come un integrale ordinario) inquanto ξ(t) risulta una distribuzione e x(t) diventa un processo stocastico Gaussiano amedia nulla. Utilizzando i risultati fatti in precedenza scriviamo la soluzione stazionaria(3.3) nella forma complessa

Z(t) = i√

2Tγ

∫ ∞0

exp(−γ

2s− iω′s

) ξ(t− s)√ω′

ds

La funzione di correlazione (3.7) si calcola in modo esplicito

< Z(t) ˆZ(t+ τ) >= 2Tγ

∫ ∞0

exp (−γu) du exp(−γ

2τ − iω′τ

)= 2T exp

(−γ

2τ − iω′τ

)Ne segue che la correlazione spaziale diventa

Re < Z(t) ˆZ(t+ τ) >= 2T exp(−γ

2τ)

cos(ω′τ)

Flusso di fase e leggi di conservazione

L’introduzione del flusso di fase expAt associato all’equazione (1.0) consente di definirel’evoluzione di una funzione qualunque f(x) lungo le soluzioni

f(x, t) = f(eAtx)

20

Abbiamo l’equazione di evoluzione in avanti

∂f

∂t=∂f

∂xAx = xAT

∂f

∂x(4.1)

che ha come soluzione f(x, t).Osserviamo che possiamo scrivere la soluzione in modo formale introducendo la trasfor-

mata di Lie

f(x, t) =∑k≥0

tn

k!

∂nf

∂tn(x, 0) =

∑k≥0

tn

k!

(xAT

∂x

)nf(x) exp

(xAT

∂xt

)f(x)

da cui si deduce l’eguaglianza formale

exp

(xAT

∂xt

)f(x) = f(eAtx) = f

(exp

(xAT

∂xt

)x

)(4.2)

Supponiamo ora che χA(x) sia la funzione caratteristica dell’insieme A, allora

χA(e−Atx) = χexp(At)A(x)

e la funzione caratteristica dell’evoluto di A. Per cui se calcoliamo l’evoluzione del volume

V (exp(At)A) =

∫χexp(At)A(x)dx =

∫χA(e−Atx)dx =

∫χA(x)Dete−Atdx

Ne segue che la conservazione dei volumi e conseguenza della relazione dete−At = 1.Possiamo mettere in relazione una legge di conservazione e gli autovalori della matrice A.Dato il flusso di fase expAt vale il seguente Lemma:

Det[exp(At)] = exp(tTrA) (4.3)

La dimostrazione segue considerando l’eguaglianza

Det exp(At) = Det lim∆t→0

(I +A∆t)t/∆t

= lim∆t→0

(Det(I +A∆t))t/∆t

Da un calcolo diretto vale che

Det(I +A∆t) = 1 + TrA∆t+O(∆t2)

da cuiDet exp(At) = lim

∆t→0(1 + TrA∆t+O(∆t2))t/∆t = exp(tTrA)

Ne segue che la condizione TrA = 0 e necessaria e sufficiente affinche il flusso di faseconservi il volume. In particolare segue come corollario che l’esponenziale di una matriceantisimmetrica deve avere determinante 1.

21

Da notare che la relazione precedente puo essere generalizzata al caso dipendente daltempo, se consideriamo che la relazione

Det expA = exp TrA

vale qualunque sia la marice A. Nel caso di un sistema lineare dipendente dal tempo

x = A(t)x

in tal caso non si puo definire un flusso di fase in quanto non abbiamo la struttura digruppo e poiche in generale le matrici A(t) non e possible scrivere le soluzioni in formaesponenziale. Tuttavia deve esistere una matrice Φt0 che costruisce le soluzioni al tempot a partire dall condizioni iniziali al tempo t = 0 (Φt0 si dice matrice fondamentale delsistema). Deve comunque valere la relazione matriciale

dΦt0dt

= A(t)Φt0 (4.4)

Possiamo discretizzare tale equazione con uno schema di Eulero

Φt+∆t0 = (I +A(t)∆t)Φt0 +O(∆t2)

Calcoliami quindi il determinate di ambo i membri tenendo conto della relazione

Det(I +A(t)∆t) = 1 + TrA(t)∆t+O(∆t2)

ottenendo la relazione

DetΦt+∆t0 = DetΦt0(1 + TrA(t)∆t) +O(∆t2)

Nel limite ∆t→ 0 arriviamo infine a

d

dtDetΦt0 = TrA(t)DetΦt0 (4.5)

L’equazione (4.5) si integra esplicitamente con

DetΦt0 = exp

[∫ t

0

TrA(s)ds

]DetΦ0

0

che generalizza l’equazione (4.3). Pertanto nel caso TrA(t) = 0 ∀t, la matrice fondamentaledel sistema conserva i volumi nello spazio delle fasi.

Le leggi di conservazione e integrali primi del moto

22

Le legge di conservazione sono estremamente importanti in quanto possono essere messein relazione con l’esistenza di integrali primi del moto: diremo che una funzione regolareF (x) e un integrale primo del moto per il sistema (1.0) se vale F (x(t)) = c con c costantee x(t) soluzione qualunque del sistema. In generale possiamo scrivere

F (expAtx0) = c ∀ x0 ∈ Rn (5.1)

In modo analogo vale la relazione

d

dtF (x(t)) =

∂F

∂x(x(t))Ax(t) = 0 ∀x(t) (5.2)

Nel caso F (x) sia una funzione lineare, la relazione precedente potrebbe essere soddisfattase ∂F

∂x e autovettore di AT in corrispondenza ad un autovalore nullo. Dal momento che A eAT hanno gli stessi autovalori (ma non gli stessi autovettori), abbiamo quindi il risultato:Lemmase la matrice A ha un autovalore nullo, esiste sempre un integrale del moto linearev · x dove v e l’autovettore della matrice AT corrispondente all’autovalore nullo.

Escludiamo questo caso e cerchiamo un integrale primo come forma quadratica F (x) =x ·Gx con G matrice simmetrica. Dalla (5.1) segue

d

dtF (x(t)) = x(t) · (ATG+GA)x(t) = 0

che risulta soddisfatta se GA e una matrice antisimmetrica. Possiamo costruire una classedi soluzioni se prendiamo la matrice A nella forma

A = JS (5.3)

con J matrice antisimmetrica e S matrice simmetrica. Si verifica infatti che

ATG+GA = −SJG+GJS

che risulta nulla se identifichiamo G = S. Pertanto vale la Proposizione:se la matrice A e fattorizzabile in A = JS secondo la (5.3), allora il sistema (1.0)

ammette un integrale primo del moto nella forma

F (x) = x · Sx (5.4)

Si verifica che la posizione A = JS implica TrA = 0, ma che il viceversa non e vero.Abbiamo un caso in cui questo accade ed e quello bidimensionale: ogni matrice a traccianulla e sempre scrivibile nella forma(

a11 a12

a21 −a11

)=

(0 1−1 0

)(−a21 a11

a11 a12

)23

cosi che ogni sistema di equazioni differenziali lineare nel piano con matrice a traccia nulla,ammette sempre un integrale primo del moto dato da una forma quadratica (5.4). Sidimostra anche la Proposizione:

se il sistema (1.0) ammette un integrale del moto in forma quadratica x · Gx con Gsimmetrica definita positiva, allora e possibile fattorizzare A = JG con J antisimmetrica.In effetti possiamo dimostrare che AG−1 e una matrice antisimmetrica

(AG−1)T =(G−1(GA)G−1

)T= −(G−1)TGA(G−1)T = −AG−1

in quanto GA e antisimmetrica e (G−1)T = (GT )−1 = G−1. Poniamo quindi J = AG−1.Il risultato precedente risulta interessante in quanto possiamo associare una norma vetto-riale ad una forma quadratica definita positiva ‖x‖2 = x ·Gx. In tal caso il flusso di fase erappresentato da trasformazioni che conservano la norma dei vettori: ovvero trasformazioniortogonali rispetto alla norma stessa. Vale pertanto la relazione

(exp(JGt))TG exp(JGt) = G ∀t (5.5)

La verifica si basa sulle relazioni

(exp(JGt))T

= exp((JG)T t) = exp(−GJt)G exp(JGt) = exp(GJt)G

Come corollario segue che una matrice ortogonale per la metrica euclidea si puo rappre-sentare come esponenziale di una matrice antisimmetrica.]Facciamo infine delle considerazioni generali sugli integrali primi riprendendo l’equazione(5.2). Se utilizziamo il flusso di fase, la condizione affinche F (x) sia integrale del motodiventa

F (exp(At)x)− F (x) = 0 ∀t, x (5.6)

se introduciamo l’operatore ∆exp(At) per le funzioni reali nello spazio delle fasi

∆exp(At)F (x) = F (exp(At)x)− F (x)

la condizione di essere un integrale primo equivale all’appartenenza al kernel dell’operatore.E possibile costruire delle soluzioni in modo perturbativo partendo da uno sviluppo in seriedi potenze di F (x)

F (x) =∞∑k=1

∑j1+...+jn=k

fj1..jnxj11 ..x

jnn

dove gli indici j sono tutti non negativi. Nel caso la matrice A sia diagonale abbiamo unacondizione interessante sul singolo monomio

ej1λ1txj11 ej2λ2txj22 ..e

jnλntxjnn − xj11 ..x

jnn =

(exp

(t∑l

jlλl

)− 1

)xjnn − x

j11 ..x

jnn = 0

24

che puo essere soddisfatta solo se

exp

(tn∑l=1

jlλl

)− 1 = 0 ⇒

n∑l=1

jiλi = 0 (5.7)

La condizione (5.7) definisce una condizione di risonanza tra gli autovalori della matriceA; e immediato verificare che la condizione di risonanza definisce un sottospazio linearenello spazio dei vettori interi n-dimensionali. Abbiamo la seguente Proposizione:

Nel caso esista un vettore di interi positivi (j1, ..., jn) soddisfi una condizione di riso-nanza e possibile costruire integrali primo del moto in serie di potenze combinando insiemei monomi con potenze appartenenti al sottospazio dei vettori interi risonanti.Ovviamente non tutti gli integrali del moto che si possono costruire in questo modo sono in-dipendenti, ma avremo tanti integrali del moto indipendenti quanto e la dimensione linearedel sottospazio risonante. La condizione di traccia nulla e una condizione di risonanza.

Il fatto che un sistema meccanico lineare sia sempre rappresentabile nella forma JS conJ antisimmetrica invertibile ed S simmetrica ha una serie di conseguenze sugli autovalori:Proposizione:

se λ e autovalore della matrice JS allora anche −λ lo e.Consideriamo l’equazione agli autovalori e ustilizzaimo le proprieta del determinante

det(λI − JS) = det(λI − JS)T = det(λJ−1J + J−1JSJ) = detJ−1det(λI + JS)detJ = 0

ne segue la Proposizione.

Pertanto gli autovalori di un sistema meccanico lineare possono essere raggruppati a coppie(λ,−λ) soddisfacendo quindi a n/2 (ovvero il numero di gradi di liberta) relazioni dirisonanza (5.7) indipendenti. Inoltre possiamo distinguere due casi interessanti di coppiedi autovalori:

1) se λ ∈ R e autovalore, allora il flusso di fase (1.2) ha autovalori exp(λt) ed exp(−λt),pertanto esiste sempre un piano invariante nello spazio delle fasi con una direzioneespandente ed una direzione contraente, che danno origine a orbite su delle iperbolidi equazioni

x1x2 = cost.

((x1, x2) sono le coordinate del piano invariante nella base degli autovettori corrispon-denti) grazie alla condizione di risonanza (5.7) con j1 = j2 = 1;

2) se λ = iω e un autovalore immaginario puro, allora il flusso di fase ha un piano realeinvariante determinato da due autovettori con autovalori exp(iωt) e exp(−iωt) (dalmomento che A e reale per ogni autovalore complesso deve esistere il suo complessoconiugato), che danno origine a orbite rotanti su delle circonferenze di equazione

x1x1 = (Rex1)2 + (Imx1)2 = cost.

I punti 1) e 2) caratterizzano la tipologie delle orbite attorno ai punti fissi di un sistemameccanico. Ne segue che la stabilita di un punto fisso di un sistema meccanico e sempreneutra.

25

Nel caso di un oscilatore armonico notiamo come sia possibile fattorizzare la matrice delsistema secondo (

0 1−ω2 0

)=

(0 1−1 0

)(ω2 00 1

)Ne segue che l’equazione Newton viene associata ad un sistema lineare con traccia nullache conserva la forma quadratica

1

2(x v )

(ω2 00 1

)(xv

)=v2

2+ ω2x

2

2

che riconosciamo essere l’Energia Meccanica.

Sistemi Lagrangiani Lineari

Consideriamo un sistema Langrangiano definito dalla funzione di Lagrange

L =1

2

∑ij

qiGij qj −1

2

∑ij

qiHijqj (j.1)

dove qi sono le coordinate Lagrangiane e le matrici simmetriche G ed H sono defintitepositive. La matrice G si associa ad una metrica: dati due vettori vu, tangenti allo spaziodelle configurazioni definiamo il prodotto scalare

(u,Gv) =∑ij

uigijvj

Le equazioni del moto si scrivono in forma matriciale

Gq +Hq = 0

e possiamo cercare una soluzione nella forma

q(t) = vωeiωt

dove il vettore vω e la frequenza ω soddisfano all’equazione agli autovettori

(ω2G−H)vω = 0

e dato che ±ωsono entrambe soluzioni, possiamo scrivere la soluzione q(t) in forma realecome

q(t) = vω(c1 cos(ωt) + c2 sin(ωt))

dove c1,2 sono costanti da determinare con le condizioni iniziali; le frequenze ω sono dettefrequenze proprie del sistema Lagrangiano lineare e gli autovettori vω sono detti modinormali. La positivita delle forme quadratiche garantisce che ω2 sia positivo dalla relazione

ω2 =(vω, Hvω)

(vω, Gvω)> 0

26

che si deduce dall’equazione per gli autovettori. Per trovare una soluzione non banaleoccorre che ω2 soddisfi all’equazione caratteristica

Det(ω2G−H) = 0

Gli autovettori associati ad autovalori diversi sono ortogonali rispetto ad il prodotto scalaredefinito da G: dall’equazione agli autovettori si deduce

ω21(vω2

, Gvω1) = (vω2

, Hvω1) = (Hvω2

, vω1) = ω2

2(vω2, Gvω1

)

che implica(vω2 , Gvω1) = 0 ω1 6= ω2

Inoltre possiamo sempre scegliere gli autovettori in modo che

(vω, Gvω) = 1

Definiamo una matrice V costruita mettendo le componenti degli autovettori in colonna;la matrice V consente di passare dalle coordinate Q nella base dei modi normali allecoordinate iniziali q

qi = VijQj

dove Vij definisce la componente i-esima dell’atovettore vωj. Per definizione seguono le

relazioni matricialiV TGV = I

eV THV = Ω ⇒ HV = GV Ω

dove Ω e la matrice diagonale Ωij = δijω2j . Quest’ultima segue dall’equazione agli autovet-

tori ∑j

HijVjk =∑j

ω2kGijVjk =

∑jl

GijVjlΩlk

Cambiamo quindi le coordinate nella Lagrangiana

L =1

2(V Q,GV Q)−1

2(V Q,HV Q) =

1

2(Q, V TGV Q)−1

2(Q,V TGV ΩQ) =

1

2

∑i

(Q2i − ω2

iQ2i

)e la Lagrangiana diventa la somma di tanti oscillatori armonici di frequenza ωi. Lasoluzione generica del sistema iniziale si scrive come sovrapposizioni di oscillatori indipen-denti

q(t) =∑i

vωi(ci1 cos(ω1t) + ci2 sin(ω2t))

dove le costanti sono determinate dalle condizioni iniziali nelle nuove variabili Q secondole equazioni

Q0 = V −1q0 Q0 = V −1q0

27

E’ possibile stabilire un parallelismo tra la Lagrangiana (l.1) ed un sistema di punti collegatitramite delle molle di costante elastica Kij con i 6= j. Definiamo il potenziale elastico

V (q) =1

4

∑i 6=j

Kij(qi − qj)2 =1

2

∑j

Kjjq2j −

1

2

∑i 6=j

Kijqiqj

doveKjj =

∑i 6=j

Kij

Poniamo Kij = −Hij per i 6= j e Kjj = Hjj per cui il potenziale si scrive come una formaquadratica

V (q) =1

2

∑i 6=j

Hijqiqj

La matrice H e una matrice Laplaciana che soddisfa alla condizione∑i

Hij = 0

Si dimostra che H ha un autovalore nullo e tutti gli altri autovalori sono positivi. Il sistemacostruito risulta degenere in quanto abbiamo una soluzione con qi = qj ed ammette ungruppo di simmetrie

qi(α) = qi + α

Per il teorema di Nother segue che esiste un integrale primo del moto per la Lagrangiana

L =1

2

∑ij

qiGij qj −1

2

∑ij

qiHijqj

nella forma

I =∑i

∂L∂qi

=∑j

mj qj

dove abbiamo posto

mj =∑i

gij qj

Possiamo interpretare I come velocita del centro di massa e possiamo eliminare la degen-erazione ponendo I = 0 e imponendo il vincolo∑

j

mjqj = 0

sistema centrato nel centro di massa. In tal caso le ccordinate Lagrangiane soddisfano allacondizioni di ortogonalita rispetto al vettore (m1, ...,mn) e il sistema consente di calcoarei modi normali rispetto al centro di massa.

28

Dato un oscillatore armonico osserviamo che nel limite in cui la frequenza ω diverge perun valore finito dell’energia il sistema si congela nella posizione di equilibrio: dall’energiaabbiamo

E =q2

2+ ω2 q

2

2⇒ E

ω2=

q2

2ω2+q2

2

che indica come q2 → 0 nel limite di frequenze grandi. Tale limite si potrebbe raggiungereanche supponendo di mandare a zero la massa tenendo fissa la costante elastica, ma talelimite deve essere interpretato fisicamente poiche la velocita diverge e quindi tale limitee singolare da un punto di vista dinamico a meno che non si imponga che, ad esempio,nel limite l’energia cinetica sia nulla. In tal caso le equazioni del moto impongono che lacoordinata si congeli sul punto di equilibrio q=0.Nel caso di sistemi lineari lo spettro delle frequenze ωi puo essere ordinato in senso crescentee nel caso l’energia dei modi con frequenza piu elevata tenda a zero il sistema tenderaa congelare i gradi di liberta corrispondenti a tali frequenze. Mediante un’operazione diproiezione sui primi m-modi normali possiamo definire matrice ridotta cinetica Gm definitada

Gm = (V T )−1ImV −1

dove Im e la matrice identitasono per le prime m righe . Formalmente la Lagrangiana siscrive

L(n) =1

2

∑ij

qiGmij qj −

1

2

∑ij

qiHijqj

e le equazioni di Lagrange impongono che le soluzioni appartengono al sottospazio deiprimi m modi normali.

Elementi di Teoria del Controllo

La Teoria del Controllo affronta il problema di forza la dinamica di un sistema da unostato dinamico iniziale ad un’altro in un certo intervallo di tempo mediante una forzanteesterna. Consideriamo il problea di un pendolo rovesciato in approssimazione lineare; lasua energia meccanica si scrive

E =v2 − ω2x2

2Supponiamo che al tempo iniziale il pendolo stia cadendo con una velocita v0 dalla posizioneverticale e poniamoci il problema di applicare una forzante f per un tempo τ in modo che ilsistema si trovi alla fine sulla traiettoria ad energia E = 0 che tende verso l’origine (puntodi equilibrio iperbolico) per t→∞. Dal momento che la presenza di una forzante modifical’energia meccanica secondo

E =v2 − ω2x2

2− fx

(una forza costante e comunque conservativa), possiamo soddisfare la richiesta del problemase nel momento in cui la forzante cessa di agire vale

v(τ)2 − ω2x(τ)2

2− fx(τ) = E0 =

v20

2

29

conv(τ)2 − ω2x(τ)2

2= 0

Ovvero lo stato dinamico del sistema sara determinato da

x(τ) =v2

0

2|f |v(τ) = −ωx(τ)

Per determinare il valore di τ dobbiamo risolvere esplicitamente la dinamica. Mediante uncambio di variabili

X =√ωx

P =v√ω

possiamo semplificare le equazioni del moto

X = ωP

P = ωX +f(t)√ω

con f(t) = f se t ∈ [0, τ ] e 0 altrimenti. La soluzione del sistema forzato dopo un tempoτ si scrive(X(τ)P (τ)

)=

(cosh(ωτ) sinh(ωτ)sinh(ωτ) cosh(ωτ)

)(0P0

)+

∫ τ

0

(cosh(ω(τ − s)) sinh(ω(τ − s))sinh(ω(τ − s)) cosh(ω(τ − s))

)(0f

)ds

dove f = f/√ω. Definendo X(τ) = v2

0/(2|f |) e P (τ) = −X(τ) abbiamo le equazioni

X(τ) = P0sinh(ωτ) +f

ω(cosh(ωτ)− 1)

−X(τ) = P0cosh(ωτ) +f

ωsinh(ωτ)

dove P0 = v0/√ω. Se introduciamo la quantita adimensionale ξ = ωv0/f possiamo risol-

vere il sistema sopra trovando

cosh(ωτ) =2− (ξ2 + ξ3)

2(1− ξ2)

sinh(ωτ) =(ξ2 + ξ3)− 2ξ

2(1− ξ2)

Per l’esistenza della soluzione, abbiamo i vincoli ξ < 0 dato che f < 0 per avere x(τ) > 0 e

1− ξ2 > 0 − 1 < ξ < 1

30

in quanto vogliamo cosh(ωτ) > 1 deve valere −1 < ξ < 0

ωv0/|f | < 1

che significa che la forzante deve essere piu grande rispetto al prodotto ωv0. E possibilecalcolare il lavoro della forza dalla conoscenza dell’energia iniziale e finale del sistema.Infine calcoliamo ad esempio il tempo τ quanto ξ = −1/2. Sian λ = exp(ωτ) abbiamo

λ2 − 5

2λ+ 1 = 0

che ha soluzione λ = 2, da cui

τ =ln 2

ω

Equazioni lineari dipendenti dal tempo

Il problema della soluzione esplicita delle equazioni lineari dipendenti dal tempo

x = A(t)x (6.1)

risulta in generale complesso. Il problema e che le matrici A(t) al variare di t in generalenon commutano tra loro. Se infatti utilizziamo l’equazione integrale

x(t) = x0 +

∫ t

0

A(s)x(s)ds

per ottenere una soluzione formale all’equazione (5), per iterazione arriviamo alla serie

x(t) =∞∑k=0

∫ t

0

ds1

∫ s1

0

ds2 ....

∫ sk−1

0

dskA(s1)A(s2)....A(sk)

Possiamo risommare facilmente la serie se vale la relazione∫ t

0

ds1

∫ s1

0

ds2 ....

∫ sk−1

0

dskA(s1)A(s2)....A(sk) =

1

k!

∫ t

0

ds1

∫ t

0

ds2 ....

∫ t

0

dskA(s1)A(s2)....A(sk)

(6.2)

ottenendo

x(t) = exp

(∫ t

0

A(s)ds

)x0

Ma la relazione (6.2) vale appunto solo se le matrici A(t) commutano tra loro ∀ t. Infisica si puo dare comunque una rappresentazione compatta della serie se introduciamo

31

l’operatore T di ordinamento temporale che impone in calcolo di integrali concatenati inmodo che l’indice piu esterni siano sempre maggiori degli indici interni. Con tale conven-zione abbiamo la relazione∫ t

0

ds1

∫ s1

0

ds2 ....

∫ sk−1

0

dskA(s1)A(s2)....A(sk) =

T 1

k!

∫ t

0

ds1

∫ t

0

ds2 ....

∫ t

0

dskA(s1)A(s2)....A(sk)

(6.3)

e possiamo scrivere formalmente

x(t) = exp

(T∫ t

0

A(s)ds

)x0 (6.4)

Si dimostra che la soluzione (6.4) esiste se gli autovalori della matrice A(t) sono limitati. Lascrittura formale (6.4) conserva talune proprieta dell’operatore esponenziale, vale infatti ilseguente Lemma:

Siano A(s) e B(t) operatori che commutano tra loro per ogni valore dei parametri ted s, allora vale la relazione

exp

(T∫ t

0

(A(s) +B(s))ds

)= exp

(T∫ t

0

A(s)ds

)exp

(T∫ t

0

B(s)ds

)Se definiamo la matrice

S(t) = exp

(T∫ t

0

A(s)ds

)tale matrice sara soluzione dell’equazione lineare matriciale

dS

dt= A(t)S(t)

ed ha il significato di propagare la soluzione dal tempo 0 al tempo t (una notazione piucorretta sarebbe quindi S(t/0)). Nel caso di equazioni (6.1) dipendenti dal tempo non sipuo costruire un flusso di fase con le proprieta di gruppo per costruire le traiettorie nellospazio delle fasi anche se deve rimanere vero ch

S(t+ s/s)S(s) = S(t+ s)

Tuttavia e possibile approssimare ad ogni istante t l’evoluzione di S(t) con un flusso difase (questa possibilita e alla base della costruzione di integratori numerici). Utilizzandol’espansione di Taylor si dimostra che

S(t+ ∆) = exp(A(t+ ∆t/2)∆t)S(t) +O(∆t3) (6.5)

32

Infatti dalla relazione

S(t+ ∆t) = S(t) +A(t)S(t)∆t+

(dA

dt+A2(t)

)S(t)

∆t2

2+O(∆t3)

per confronto con la precedente, si deve dimostrare

exp(A(t+ ∆t/2)∆t) = I +A(t)∆t+

(dA

dt+A2(t)

)∆t2

2+O(∆t3)

che e vera poiche

A(t+ ∆t/2) = A(t) +dA

dt∆t/2 +O(∆t2)

Notiamo che la (6.5) rimane vera anche se conoscessimo la matrice A(t + ∆t/2) con unaprecisione limitata a O(∆t2). Avremo quindi l’eguaglianza

S(t) = lim∆t→0

n−1∏j=0

exp(A(j∆t+ ∆t/2)∆t) (6.6)

dove si e posto S(0) = I e n = t/∆t. La soluzione S(t) conserva tutte le proprieta geomet-riche o algebriche connesse con le proprieta di A(t). Per esempio se A(t) e antisimmetrica,S(t) risulta una matrice ortogonale, in quanto limite di una successione convergente dimatrici ortogonali. Molto piu complesso e il problema della stima degli autovalori.Il caso di equazioni forzate si tratta in modo analogo a quanto visto nel caso indipendentedal tempo. Consideriamo ad esempio l’equazione

x = A(t)x+ ξ(t)

Utilizzando la matrice S(t) introduciamo la variabile y(t) con x = S(t)y, da cui

x = A(t)S(t)y + S(t)y = A(t)S(t)y + ξ(t)

Abbiamo il nuovo sistema nella forma

y = S−1(t)ξ(t)

per cui la soluzione generale x(t) assume la forma

x(t) = S(t)x0 +

∫S(t)S−1(s)ξ(s) ds = S(t)x0 +

∫S(t/s)ξ(s) ds

dove S(t/s) indica il propagatore dal tempo s al tempo t.Nel caso di una dipendenza periodica A(t+kT ) = A(t) vale pero la seguente Proposizione:la trasformazione ΦT che associa ad un punto x0 dello spazio delle fasi il punto x(T )ottenuto evolvendo per un periodo T la traiettoria del sistema (5) passante per x0, ha laproprieta

x(kT ) = (ΦT )kx0 ∀ k ∈ Z

33

La trasformazione ΦT prende il nome di mappa di Poincare del sistema periodico (6.1) econsente di studiare la stabilita del sistema in base al seguente Lemma:condizione necessaria e sufficiente affinche l’origine sia un punto fisso stabile (risp. insta-bile) per il sistema periodico (6.1), e che l’origine sia un punto fisso stabile (instabile) dellamappa di Poincare.

Lo studio della stabilita per la mappa ΦT dipende dagli autovalori della mappa stessa:nel caso di autovalori semplici, l’origine risulta un punto fisso stabile (nel futuro e nel pas-sato) se gli autovalori hanno modulo unitario (ovvero stanno sulla circonferenza unitarianel piano complesso). Nel caso di sistemi meccanici gli autovalori della mappa di Poincarepossono essere raggruppati in coppie (eλ, e−λ). Per distinguere il caso di λ reale o immag-inario puro si considera se la somma

eλ + e−λ

e maggiore o minore di 2: nel primo caso λ e reale e abbiamo instabilita (nel futuro o nelpassato), nel secondo caso λ e immaginario puro e la dinamica associata e stabile.

Un problema fisico: la risonanza parametrica per l’oscillatore armonico

Supponiamo che la costante elastica di un oscillatore armonico dipenda dal tempo, cosiche il sistema meccanico e caratterizzato dalla matrice(

0 1−ω2(t) 0

)=

(√ω−1 00

√ω

)(0 ω−ω 0

)(√ω 0

0√ω−1

)Se allora applichiamo il cambio di variabili in forma normale(

xp

)=

(√ω−1 00

√ω

)(XP

)con ω(t) dipendente dal tempo, le equazioni del moto diventano(

XP

)=

(√ω 0

0√ω−1

)(xp

)+

ω

(√ω 0

0 −√ω−1

)(xp

)=ω(t)

(0 1−1 0

)(XP

)+

ω

(1 00 −1

)(XP

) (7.1)

dove abbiamo supposto ω 6= 0; in effetti il caso in cui ω si annulla richiede una tecnicadiversa in quanto passiamo attraverso una singolarita. E interessante notare che le matrici(

1 00 −1

) (0 1−1 0

)34

anticommutano tra di loro. Questo fatto impedisce di calcolare in modo semplice lesoluzioni del sistema (7.1). Procederemo in modo perturbativo supponendo ω/ω 1;introduciamo delle variabili ausiliarie(

UV

)=

(cos Ω(t) − sin Ω(t)sin Ω(t) cos Ω(t)

)(XP

)dove definiamo

Ω(t) =

∫ t

0

ω(s)ds

Calcoliamo quindi le nuove equazioni del moto con(UV

)=

ω

(cos Ω(t) − sin Ω(t)sin Ω(t) cos Ω(t)

)(1 00 −1

)(cos Ω(t) sin Ω(t)− sin Ω(t) cos Ω(t)

)(UV

)(7.2)

Utilizziamo quindi il seguente Lemma:siano A e B due matrici anticommutative allora vale la relazione

exp(A)B = B exp(−A)

Questo Lemma consente di semplificare ulteriormente il sistema (7.2) che assume la forma(UV

)=

ω

(cos 2Ω(t) − sin 2Ω(t)sin 2Ω(t) cos 2Ω(t)

)(1 00 −1

)(UV

)(7.3)

Possiamo quindi approssimare la soluzione utilizzando in modo iterativo l’integrale(U(t)V (t)

)=

(U0

V0

)+

∫ t

0

ω(s)

2ω(s)

(cos 2Ω(s) − sin 2Ω(s)sin 2Ω(s) cos 2Ω(s)

)(1 00 −1

)(U(s)V (s)

)ds (7.4)

a partire dalla condizione iniziale; ovvero introducendo l’operatore di ordinamento tempo-rale T scrivere la soluzione nella forma (6.4) del paragrafo precedente. Consideriamo inmodo esplicito una dipendenza periodica della frequenza

ω(t) = ω0(1 + ε sinλt)

con ε 1, in modo da poter utilizzare un approccio perturbativo. Analizziamo l’operatorelineare ottenuto da (7.4)

ελ

∫ t

0

cosλs

2 + 2ε sinλs

(cos 2Ω(s) sin 2Ω(s)sin 2Ω(s) − cos 2Ω(s)

)ds (7.5)

dove Ω(s) = ω0s− εω0/λ(cosλs− 1). Tale operatore si sviluppa in ε mettendo in evidenzale armoniche della frequenza modulante λ. Se consideriamo l’ordine piu basso si ottiene

A(t) = ελ

∫ t

0

cosλs

2

(cos 2ω0s sin 2ω0ssin 2ω0s − cos 2ω0s

)ds (7.6)

35

Notiamo che se λ 6= 2ω0, la matrice sotto il segno di integrale risulta una matrice a medianulla, e l’integrale produce solo funzioni periodiche limitate nel tempo. Se invece vale lacondizione di risonanza λ = 2ω0, nell’integrale (7.6) compaiono termini del tipo∫ t

0

cos2 2ω0sds =1

4ω0sin 4ω0t+

t

2

per cui abbiamo una crescita lineare nel tempo. Poniamo pertanto

< A(t) >= ελt

4

(1 00 −1

)(7.7)

e si puo dimostrare che nello sviluppo dell’operatore di evoluzione temporale exp T A(t)tali termini determinano la crescita divergente in t ad ogni ordine perturbativo. Pertantoin caso di risonanza, possiamo affermare che la soluzione (U(t), V (t)) per ε 1 tende acomportarsi asintoticamente come√

U2 + V 2 ' exp εω0t

2

√U2

0 + V 20

realizzando un crescita esponenziale nell’ampiezza della soluzione e quindi una dinamicainstabile. Tenendo conto degli svipuppi successivi in ε troviamo che instabilita dello stessotipo sono realizzate anche nel caso valgano relazioni di risonanza del tipo nλ − 2ω0 = 0con n intero che difiniscono tutta la famiglia delle risonanze parametriche per un rotatoreperturbato periodicamente. Notiamo che la misura dei valori risonanti nello spazio λ enulla (si tratta di un sottoinsieme di numeri in rapporto razionale con ω0) e tuttaviail fenomeno della risonanza parametrica si puo osservare in molti fenomeni fisici (bastipensare all’altalena). Il punto e che il limite ai valori risonanti risulta un limite singolare eil comportamento delle soluzioni vicino alle risonanze dipende dalle proprieta aritmetichedel rapporto tra le frequenze ω0/λ.Consideriamo un punto di vista energetico del fenomeno della risonanza parametrica: alsistema iniziale e associata una energia meccanica dipendente dal tempo nella forma

E =p2

2+ ω2(t)

x2

2= ω(t)

P 2 +X2

2

In base a quanto detto in caso di risonanza, l’energia del sistema cresce esponenzialmentecon una scala temporale caratteristica di ordine (εω0)−1 dove ε e l’ampiezza della mod-ulazione. La funzione E(P,X, εt) e l’energia meccanica per il ”sistema congelato” e noncoincide con la funzione di Hamilton nelle nuove variabili. Infatti il cambio di variabili informa normale risulta dipendente dal tempo(

xp

)=

(√ω−1(t) 0

0√ω(t)

)(XP

)cosı che il calcolo dell’Hamiltoniana nelle nuove variabili deve essere fatto mediante l’equa-zione di Hamiltono-Jacobi

H(P,X) = H(p, x) +∂F

∂t

36

dove F (x, P, t) e la funzione generatrice della trasformazione in variabili normali

F (x, P, t) =√ω(t)xP

Il nuovo Hamiltoniano diventa quindi

H(P,X, t) = ω(t)P 2 +X2

2+

1

2

ω

ωXP

La modulazione della costante elastica di un oscillatore mediante l’applicazione di una forzaprodotta di un sistema esterno ha come conseguenza che la forza stessa compie lavoro sulrotatore aumentanto costantemente la sua energia meccanica. Nel caso di una modulazionenon risonante, l’energia meccanica variera in modo quasi-periodico, ma la sua ampiezzadi variazione rimmarra limitata. Il fenomeno della risonanza parametrica permette ditrasferire energia meccanica tra due sistemi accoppiati attraverso la modulazione di unparametro.E interessante vedere come l’utilizzo di un opportuno cambio (non lineare) di variabili possasemplificare molto la trattazione del problema. Tenendo conto della forma dell’energiaintroduciamo le variabili (tali variabili sono note come le variabili azione-angolo)

I = X2+P 2

2

θ = atanXP

In tal caso il nuovo Hamiltoniano del sistema si legge

H(P,X) = ω(t)I +1

2

ω

ωI sin 2θ

e possiamo riscrivere il sistema (7.1) secondo

I =ω

2ω(X2 − P 2) =

ω

ωI(sin2 θ − cos2 θ)

θ = −ω +ω

ω

2XP

X2 + P 2= −ω +

ω

ω2 sin θ cos θ

(7.8)

Notiamo come le equazioni (7.8) abbiano perso il carattere lineare anche se le soluzionidevono comunque avere le stesse proprieta di quelle di un sistema lineare. Utilizzando lestesse ipotesi su ω(t) possiamo vedere l’effetto della condizione di risonanza al primo ordineperturbativo in ε. Avremo

θ(t) = θ0 + ω0t+O(ε)

(in realta e possibile integrare l’equazione per separazione di variabili e mostrare che itermini di ordine ε sono periodici). Sostituisco nella prima delle equazioni (7.8) che porge

I = − ελω0I cosλt cos 2(θ0 + ω0t) (7.9)

37

sempre al primo ordine in ε. Un’integrazione esplicita consente di scrivere la soluzione

I(t) = −I0 exp

[ελ

ω0

∫ t

0

cosλs cos 2(θ0 + ω0s)ds

]da cui si deduce facilmente una crescita esponenziale in t se la condizione di risonanzaλ = 2ω0 risulta soddisfatta.Per un calcolo esplicito esatto della risonanza parametrica consideriamo l’equazione dell’oscil-latore armonico modulato

x = −k(t)x

con k dipendente dal periodicamente dal tempo in modo discontinuo assumendo i valorik+ = ω2

+ e k− = ω2− ogni intervallo τ , possimao calcolare in modo esplicito la mappa

di Poincare Φ2τ ovvero la mappa che definisce l’evoluzione nello spazio delle fasi per untempo 2τ corrispondente al periodo del sistema. Tenendo conto che k(t) e costante in ogniintervallo τ , abbiamo

Φ2τ (x, v) =

(cosω+τ

1ω+

sinω+τ−ω+ sinω+τ cosω+τ

)(cosω−τ

1ω−

sinω−τ−ω− sinω−τ cosω−τ

)(xv

)(8.2)

La stabilita dell’origine (soluzione di equilibrio per l’oscillatore armonico) si caratterizzacon la condizione sulla traccia

TrΦ2τ = 2 cosω+τ cosω−τ −(ω−ω+

+ω+

ω−

)sinω+τ sinω−τ < 2 (8.3)

Studiamo la condizione (8.3) nel caso ω± = ω0 ± ε con ε 1. Utilizzando la stima

ω−ω+

+ω+

ω−= 2

ω20 + ε2

ω20 − ε2

' 2

(1 +

2ε2

ω20

)la diseguaglianza (8.3) diventa

cosω+τ cosω−τ −(

1 +2ε2

ω20

)sinω+τ sinω−τ

=

(1 +

2ε2

ω20

)cos((ω+ + ω−)τ)− ε2

ω20

cos((ω+ − ω−)τ) < 1

All’ordine piu basso in ε la condizione di stabilita porge(1 +

ε2

ω20

)cos(2ω0τ)− ε2

ω20

(1− 2ε2τ2) < 1 (8.4)

nell‘ipotesi ετ 1. Osserviamo quindi che la scelta 2ω0τ = 2π ovvero τ = π/ω0, implical’instabilita dell’origine in quanto

1 +2ε4τ2

ω20

> 1

38

La scelta di un periodo di perturbazione 2τ = 2π/ω0 pari al periodo dell’oscillatore armon-ico libero rende instabile l’origine a prescindere da ε ed una qualunque piccola oscillazioneiniziale verra amplificata in modo esponenziale.

Invarianza adiabaticaLa variabile I detta Azione del sistema, ha tuttavia un’altra proprieta estremamente im-portante nel caso la frequenza ω sia modulata secondo lo schema

ωλ) = ω(εt)

dove ε 1, ma dω/dλ e di ordine O(1) e ci aspettiamo una variazione di ordine O(1) dellafrequenza e quindi anche dell’energia in un tempo 1/ε. Consideriamo un approccio Hamil-toniano al problema utilizzando l’equazione di Hamilton-Jacobi con funzione generatrice

F (q, I, λ) =

∫ q√2(ω(λ)I − ω2(λ)q2)dq

sull’Hamitoniano

H =p2

2+ω2(λ)

2q2

dove

I =p2

2ω(λ)+ω(λ)

2q2 =

E

ω(λ)

Il nuovo Hamiltoniano si scrive

H(θ, I, λ) = ω(λ)I +ε

2

ω′

ωI sin 2θ

dove

θ = ω(λ)

∫ q dq√2ω(λ)I − ω2(λ)q2)

= arcsin

(√ω(λ)

2Iq

)Nota: l’origine dell’angolo θ e arbitraria ed il termine di pertubrazione ha media angolarenulla; entrambe le cose sono vere in un caso generico.Applichiamo la teoria perturbativa introducendo un’azione migliorata nella forma

I = J + ε∂G

∂θ(θ, J, λ)

in modo che il nuovo Hamiltoniano abbia la forma ω(λ)J+O(ε2). Utilizzando una funzionegeneratrice

G = Jθ + εG(θ, J, λ)

dall’equazione di Hamilton-Jacobi otteniamo la relazione

ω∂G

∂θ+

1

2

ω′

ωJ sin 2θ = 0

39

da cui

G(θ, J, λ) =1

4

ω′(λ)

ω2(λ)J cos 2θ

Calcoliamo esplicitamente i termini di ordine O(ε2) nel nuovo Hamiltoniano

O(ε2) =ε2

2

ω′

ω

[∂G

∂θsin 2φ+ J cos 2φ

∂G

∂J

]+ ε2

∂G

∂λ

ovvero

O(ε2) =ε2

4

[ω′

2

ω3J cos 4φ− 2

ω′2

ω3J cos 2φ+

ω′′

ω2J cos 2φ

]Notiamo come il valor medio angolare sia ancora nullo. Ne segue che la nuova azioneJ varia di una quantita di ordine O(ε2) per unita di tempo e quindi sicuramente la suavariazione rispetto al valore iniziale rimane di ordine O(ε) per un tempo 1/ε e la stessaproprieta vale per I. In realta si puo provare che tale propreita rimane vera per tempianche piu lunghi. I si dice invariante adiabatico e tale risultato non e triviale in quanto seguardiamo alla funzione energia

E =p2

2+ ω2(εt)

x2

2

e immediato riconoscere che l’energia varia di una quantita ordine O(1) in un tempo diordine 1/ε. In altre parole una variazione adiabatica del sistema (ω ε) modifica l’energiama non l’ampiezza dell’oscillazione. Tale proprieta della funzione Azione si riassume di-cendo che l’Azione e un Invariante Adiabatico.Lo studio degli invarianti adiabatici e di fondamentale importanza per i sistemi dinamicilentamente modulati in quanto permette uno studio qualitativo delle orbite senza risol-vere esplicitamente le equazioni. Nel caso considerato possiamo affermare che le variabili”fisiche” (p, x) evolveranno nello spazio delle fasi in modo da mantenere quasi costante lafunzione

I = ω(λ)p2

2+

x2

2ω(λ)

lungi le soluzioni del moto (x(t, p(t))) ovvero si muoveranno seguendo un’ellisse che simodifica mantenendo invariata la sua area. E’ interessante come la precedente trattazionesia singolare nel caso la frequenza passi per zero. Consideriamo quindi una modulazionedella frequenza ω(λ) con t ∈ [−1/ε, 1/ε] in modo che ω(0) = 0. Ad esempio

ω(λ) = ω0λ λ ∈ [−1, 1]

In corrispondenza del valore ω = 0 le variabili azione-angolo sono singolari e quindi avremodue set distinti di variabili che non sono connessi. Infatti l’azione I cambia di segnoal cambiare di segno di ω. Quindi per un’azione positiva in ogni caso dobbiamo anchecambiare il segno dell’angolo al cambiare del segno di ω(λ). Anche se possiamo stabilire

40

una continuita tra i valori dell’azione prima e dopo la singolarita ω = 0 e chiaro che avremodue se di equazioni del moto

θ = ±ω(λ) +ε

2

ω′

ωsin 2θ

I = −εω′

ωI cos 2θ

dove il segno ± varia a seconda del segno di ω(λ). Possiamo calcolare la variazione di Iapprossimando la dinamica angolare

θ = θ0 ± εω0t2

2

dove θ0 e il valore dell’angolo l momento in cui ω(λ) = 0 (crossing parameter) ed il segno± si riferisce al tempo positivo o negativo. Abbiamo quindi

∆ ln I = − cos 2θ0

∫ ε−1

−ε−1

cos ε2ω0t2

tdt+ 2 sin 2θ0

∫ ε−1

0

sin ε2ω0t2

tdt

Il primo integrale si annulla come integrale improprio in quanto la funzione integratae dispari (tale integrale origina dalla singolarita della definzione di azione). Il secondointegrale si trarsforma ∫ ε−1

0

2ω0εtsin ε2ω0t

2

ω0εt2dt ==

∫ ω0ε−1

0

sinu

udu

dove u = ω0εt2. Tale integrale tende ad un contributo finito π/2 per ε→ 0 cosi che

I+ ' I− exp(π

2sin θ0

)ed abbiamo un cambiamento di ordine O(1) dell’azione in seguito alla modulazione. Tut-tavia il cambiamento avviene in modo ’repentino’ per l’invariante abiabatico. Consideriamol’intervallo di tempo t ∈ [−ε−1,−ε−2/3] dall’esistenza di un invarante adiabatico miglioratoJ abbiamo che ∆J = O(ε) in tale intervallo. Ne segue che anche ∆I = O(ε) quindi lavariazione dell invariante adiabatico avviene nell’intervallo t ∈ [−ε−2/3, ε−2/3].

Problema di KepleroConsideriamo un oscillatore armonico su un piano (x, y); utilizzando un formalismo

complesso poniamo w = x+ iy e l’equazione del moto si scrive

w = −ω2w

L’equazione ammette due integrali primi del moto: l’Energia Meccanica

Eh =1

2

dw

dt

dw

dt+ω2

2ww

41

e il Momento della Quantita di Moto

L =1

2i(w ˙w − ww)

Facciamo un cambio di variabili z = w2 e scaliamo il tempo in modo che il momento L siainvariante: ovvero

dz

dτz =

dw

dtw

Dal calcolo diretto abbiamo

dz

dτz = 2w

dw

dτw2 = 2ww

dt

dw

dtw

da cui2wwdt = dτ

Calcoliamo quindi la nuova equazione del moto

d2z

dτ2=

1

2ww

d

dt

1

2ww

dw2

dt=

1

2w(w)2

d2w

dt2− 1

2w(w)3

dw

dt

dw

dt

Tenendo conto che l’energia meccanica si conserva, otteniamo

d2z

dτ2= − Eh

w(w)3= −Ehz

|z|3

Se identifichiamo Eh = k l’equazione prende la forma dell’equazione di Keplero in formacomplessa

d2z

dτ2= − kz

|z|3

Le soluzioni conservano il momento

L =1

2i

(zdz

dτ− z dz

dτz

)=

1

2i

[dz

dτ, z

]dove l’operazione di anticommutazione [, ] consetnte di rappresentare il prodotto vettore.e l’Energia

Ek =1

2

dz

dz

dτ− k

|z|Il significato dell’energia meccanica Ek si ottiene sostituendo

Ek =1

2ww

dw

dt

dw

dt− E

ww= −1

2ω2

dove abbiamo utilizzato la definizone di E. Quindi l’energia dell’oscillatore armonicodefinisce la costante del campo Kepleriano nella soluzione corrispondente. mentre l’energia

42

del campo di Keplero definisce la ω per la soluzione del campo armonico. Possiamo quindicostruire in modo esplicito le orbite di Keplero utilizzando le soluzioni dell’oscillatore ar-monico

w(t) = a cos(ωt) + ib sin(ωt)

che definiscono un’ellisse nel piano complesso di semiassi a, b centrata nell’origine; dalladefinzione di energia meccanica e del momento della quantita, troviamo le relazioni

Eh = ω2(a2 + b2) L = abω

che consentono di esprimere i due semiassi mediante gli integrali del moto. Il momento Le correlato alla velocita areolare con A = L/2 ritroviamo il periodo delle orbite

T =2πab

L=

ω

ovvero il periodo risulta invariante riepstto alle dimensioni spaziali dell’orbita (come sipoteva dedurre dal fatto che il potenziale armonico e una funzione omogenea di grado 2).Ora il calcolo diretto fornisce

z(t) = a2 cos2(ωt)−b2 sin2(ωt)+2iab cos(ωt) sin(ωt) =a2 − b2

2+a2 + b2

2cos(2ωt)+iab sin(2ωt)

Si tratta di un’ellisse centrata in (a2 − b2)/2 di semiassi ra = (a2 + b2)/2 ed rb = ab. Ilfuoco dell’ellisse di Keplero e dato da

c =√r2a − r2

b =a2 − b2

2

Quindi si tratta di un’ellisse centrata nel fuoco di eccentricita

e =a2 − b2

a2 + b2

Esprimiamo l’energia di Keplero ed il momento L in funzione dei semiassi

Ek = −1

2ω2 = − k

2raL2 = ω2a2b2 = kra

r2b

r2a

dove abbiamo identifcato k = Eh per l’orbita considerata. Ricaviamo quindi il periododell’orbita

T =2πr

3/2a√k

da cui riconosciamo la terza legge di Keplero. Inoltre osserviamo che l’energia dipende solodal semiasse maggiore, quindi

T (Ek) =kπ√

2|Ek|3/2

43

che mette in evidenza la divergenza del periodo per Ek → 0 ; dal momento che la forza diKeplero e una funzione omogenea di grado −2 una tale relazione poteva essere prevista.Supponiamo che z(τ) sia soluzione e consideriamo la soluzione scalata z′(τ) = λz(γτ) chesostituita nell’equazione del moto diventa

d2z′

dτ2= γ2λ

d2z

dτ2= −γ2λ3 kz

|z′|3

per cui la scelta γ = λ−3/2 garantisce che z′(τ) sia ancora soluzione. Nel caso z(τ) siaun’orbita ellittica con semiasse ra e periodo T , z′(τ) sara ancora un’ellisse con semiasseλra e periodo T ′ = λ3/2T e la terza legge di Keplero segue. Se vogliamo la dipendenzatemporale dell’orbita di Keplero occorre integrare l’equazione

2(ra + e cos(2ωt)dt = dτ

ovveroωτ

ra= 2ωt+ e sin(2ωt)

che pero non e banalmente invertibile. Si introduce allora l’eccentricita anomala ψ(τ) =2ωt che soddisfa la relazione

ψ(τ) + e sinψ(τ) =

√k

r3/2a

τ

con cui si esprime la legge oraria delle orbite di Keplero con

z(t) = c+ ra cosψ(τ) + irb sinψ(τ)

Quando ψ varia di 2π abbiamo un periodo dell’orbita

2π =

√k

r3/2a

T

e ritroviamo la terza legge di Keplero. La nota porprieta dei potenziali Kepleriano earmonico che tutte le orbite limitate sono anche chiuse e correlata alla presenza di unulteriore intergrale primo del moto (integrale di Runge-Lenz) che in forma complessa siscrive

µk = −imLdzdτ− mk

|z|z

Dal calcolo diretto abbiamo

dµkdτ

= ik

|z|3Lz − mk

|z|dz

dτ+

mk

2|z|3z

(dz

dτz + z

dz

)= i

k

|z|3Lz − m

2

kz

|z|3

(zdz

dτ− z dz

)= 0

44

In tal modo possiamo calcolare l’analogo del vettore di Runge-Lenz nel caso dell’oscillatorearmonico

µh = −imwLdw

dt− mEhw

w

La stessa procedura puo essere applicata per dimostrare l’equivalenza del problema diKeplero nel caso di orbite non limitate con le soluzioni di un oscillatore iperbolico. In talcaso l’equazione del moto si scrive

w = ω2w

L’Energia Meccanica e Momento della Quantita di Moto sono integrali primi del moto

Eh =1

2

dw

dt

dw

dt− ω2

2ww

Il cambio di variabili z = w2 e il riscalamento temporale 2wwdt = dτ mantiene la formadel momento invariata. Calcoliamo quindi la nuova equazione del moto

d2z

dτ2=

1

2ww

d

dt

1

2ww

dw2

dt=

1

2w(w)2

d2w

dt2− 1

2w(w)3

dw

dt

dw

dt

Inserendo l’Energia Meccanica otteniamo

d2z

dτ2= − Eh

w(w)3= − k

|z|3z

Anche in questo caso richiediamo Eh ≥ 0. La relazione

Ek =1

2ω2

mette in evidenza come si stiano considerando orbite Kepleriane con energia positiva. Lesoluzioni del’oscillatore armonico hanno la forma

w(t) = acosh(ωt) + ibsinh(ωt)

che definiscono un’iperboel nel piano complesso di semiassi a, b centrata nell’origine; dalladefinzione di energia meccanica e del momento della quantita, troviamo le relazioni

Eh = ω2(b2 − a2) L = abω

che consentono di esprimere i due semiassi mediante gli integrali del moto. Ora il calcolodiretto fornisce

z(t) = a2cosh2(ωt)−b2sinh2(ωt)+2iabcosh(ωt)sinh(ωt) =a2 + b2

2−b

2 − a2

2cosh(2ωt)+iabsinh(2ωt)

45

Si tratta di un’iperbole centrata in (a2 + b2)/2 di semiassi ra = (b2 − a2)/2 ed rb = ab. Ilfuoco dell’iperboledi Keplero e dato da

c =√r2a + r2

b =a2 + b2

2

Quindi si tratta di un’iperbole centrata nel fuoco di eccentricita ed asintoti

e =a2 + b2

b2 − a2y = ± ab

b2 − a2x

Esprimiamo l’energia di Keplero ed il momento L in funzione dei semiassi

Ek =1

2ω2 =

k

2raL2 = ω2a2b2 = kra

r2b

r2a

dove abbiamo identifcato k = Eh per l’orbita considerata. Possiamo quindi esprimere levaria quantita geometriche in funzione dei simiassi.

46

Equazioni differenziali lineari stocasticheNel caso un’equazione differenziale dipenda dalla realizzazione di un processo stocastico(ovvero una funzione reale ξ(t, ω) il cui valore dipende da un evento aleatorio ω in mododa rispettare il principio di causalita) parleremo di equazioni differenziali stocastiche. Nelcaso di processi stocastici le funzioni soddisfano in genere a delle condizioni di continuitama non di differenziabilita, e il concetto di equazione differenziale si deve generalizzare.Un caso particolarmente importante per le applicazioni e quello delle equazioni linearidipendenti in modo additivo dal provesso di Wiener wt(ω) (ovvero un processo Gaussianoad incrementi indipedenti con media nulla e varianza < ∆w2

t >= ∆t) che si scrivonoutilizzando i differenziali stocastici di Ito

dx = Axdt+√

2Σdwt (1)

dove supponiamo che A sia una matrice invertibile con autovalori a parte reale negativa(ovvero 0 e un punto attrattivo asintoticamente stabile) e Σ una matrice simmetrica definitapositiva. L’equazione (1) descrive un sistema fisico in approssimazione di strong dumping(approssimazione di Smolukowski) in un bagno termico. dwt e il differenziale del processodi Wiener vettoriale: ovvero un processo stocastico Gaussiano a media nulla ed incrementiindipendenti con la proprieta

< dwt >= 0 < dwt dws >= δ(t− s)dt ds

dove < > indica il valor medio su tutte le relizzazioni del processo. Le realizzazioni ditale processo sono funzioni continue ma non differenziabili. La soluzione x(t;x0, ω) risultaun processo stocastico dipendente dalla realizzazione dell’evento ω che specifica wt(ω).Procediamo in modo analogo al caso ordinario mediante il cambio di variabili

x(t) = exp(At)y(t)

che trasforma l’equazione (1) in accordo con

dy = −A exp(−At)xdt+ exp(−At)(Axdt+√

2Tdwt) =√

2Σ exp(−At)dwt

Nel caso Σ sia proporzionale all’identita Σ = τI possiamo calcolare la soluzione in modoesplicito

x(t) = exp(At)y(t) = exp(At)x0 +√

∫ t

0

exp(A(t− s))dws (2)

τ e la temperatura del bagno termico. Il caso generale corrisponde ad un bagno termicospazialmente anisotropo e la soluzione si scrive nella forma

x(t) = exp(At)x0 +

∫ t

0

exp(At)√

2Σ exp(−As)dws

In modo analogo a quanto succede nel caso determinstico utilizziamo un cambio di variabilenell’equazione (1): y = Tx

dy = Tdx = TAxdt+ T√

2Σdwt = TAT−1y dt+ T√

2Σdwt

47

Nel caso A sia diagonalizzabile si puo scegliere T in modo che TAT−1 = Λ (eventualmenteandando nel campo complesso) dove Λ e la matrice diagonale degli autovalori. In tal casola soluzione si scrive

y(t) = exp(Λt)y0 +

∫ t

0

exp(Λt)T√

2Σ exp(−Λs)dws

Dato che exp(Λ) e diagonale, gli elementi della matrice dentro l’integrale si calcola in modoesplicito. L’integrale al membro destro della (2) e un integrale di Ito e va calcolato in modoopportuno. Rimane il fatto che il processo stocastico x(t) si ottiene da una trasformazionelineare di un processo Gaussiano e quindi e esso stesso un processo Gaussiano caratterizzatodalla media

< x > (t) = exp(At)x0

e dalla matrice di covarianza

Σx(t) = 2τ

∫ t

0

∫ t

0

exp(A(t− s)) exp(AT (t− u)) < dwsdwu >

= 2τ

∫ t

0

∫ t

0

exp(A(t− s)) exp(AT (t− u))δ(s− u)du ds

= 2τ

∫ t

0

exp(A(t− s)) exp(AT (t− s))ds = 2τ

∫ t

0

exp(As) exp(AT s)ds

dove si usano le proprieta dell’integrale di Ito; per costruzione Σx risulta simmetrica definitapositiva: notiamo che tale integrale si esegue in modo esplicito solo se A e la sua traspostaAT commutano. Nel caso generale la matrice di covarianza assume la forma

Σx(t) = 2

∫ t

0

exp(As)√

Σ(exp(As)√

Σ)T ds = 2

∫ t

0

exp(As)Σ exp(AT s)ds

In entrambi i casi e possibile un calcolo esplicito se diagonalizziamo la matrice A. Noti-amo il valore v · Σxv da la varianza del processo lungo la direzione v. Sostituendo conl’espressione di Σx si ottiene

v · Σx(t)v =

∫ t

0

v · exp(As) exp(AT s)v ds =

∫ t

0

exp(AT s)v · exp(AT s)v ds

che mette in luce come la quadrica associata alla matrice di covarianza sia il trasformatodelle sfera unitaria con la matrice exp(AT t) integrata nel tempo.Un caso rilevante e quando A e una matrice simmetrica definita negativa (forze attrattiveverso l’origine) ed esiste una funzione potenziale

V (x) = − (x,Ax)

2

48

Dal momento che il processo x(t) e Gaussiano, la distribuzione di probabilita ρ(x, t;x0) sicalcola esplicitamente

ρ(x, t;x0) =1√

(2π)ndet Σx(t)exp

(−(x− < x > (t))

Σ−1x (t)

2(x− < x > (t))

)dove n e il numero di gradi di liberta. Nel caso t→∞ otteniamo un processo stazionariodetto processo limite che avra media nulla per le proprieta degli autovalori di A e matricedi covarianza (nel caso di un bagno termico)

Σ∞ = 2τ

∫ ∞0

exp(As) exp(AT s) ds (3)

Le proprieta del processo stazionario sono interessanti in quanto collegate con l’interpreta-zione Meccanico Statistica del modello (1). Nel caso la matrice A sia simmetrica dalla (3)avremo

Σ∞ = −τA−1

per cui la distribuzione di probabilita diventa

ρ∞(x) =1√

(2πτ)ndet(−A−1)exp

((x,Ax)

τ

)∝ exp

(−V (x)

τ

)Tale distribuzione corrisponde alla distribuzione statistica di equilibrio di Maxwell-Boltzmannnel casa di un sistema termodinamico di particelle ’non-interagenti’ distributiote con den-sita ρ(x, t) nello spazio e soggette ad un potenziale V (x) ed un bagno termico a temperaturaτ . In tal caso si introduce un’energia interna per la configurazione ρ(x, t) con

U [ρ](t) =

∫V (x)ρ(x, t) dx

L’evoluzione della distribuzione di probabilita del processo stocastico x(t) e descrittadall’equazione di Fokker-Planck

∂ρ

∂t= − ∂

∂xAxρ+ τ

∂2

∂x2ρ (4)

che risulta un’equazione di continuita ∂ρ/∂t+∇J = 0 associata alla densita di corrente

J = Axρ− τ ∂ρ∂x

(5)

e generalizza l’equazione di Liouville per i sistemi deterministici. Nell’interpretazione Mec-canico Statistica dell’equazione di Fokker-Planck Il primo termine della corrente rappre-senta il flusso di particelle generato dall’interazione con il campo di forze Ax mentre ilsecondo termine definisce un flusso proporzionale al gradiente della distribuzione stessae alla temperatura τ . Quindi il primo termine tende a portare il sistema as un minimo

49

dell’energia interna, mentre il secondo termine contrasta le disomogeineta nel sistema equindi tende ad aumentare l’Entropia (come effetto del bagno termico). Tale terminecaratterizza i processi stocastici di tipo diffusivo e l’interpretazione che associa questotermine al Principio di Aumento di Entropia e alla base della Termodinamica Stocastica.La condizione di stazionarita per l’equazione (4) corrisponde alla condizione di divergenzanulla per la densita di corrente (non vi sono sorgenti locali nel sistema). Nel caso esistail potenziale la condizione di stazionarieta implica J = 0 nell’equazione (5): parleremoallora di equilibrio termodinamico. Nel caso piu generale, supponendo che ρ(x) sia unadistribuzione Gaussiana, si ottiene la condizione

∂J

∂x= 0 ⇔ TrA− (x,Σ−1

∞ Ax) + τTrΣ−1∞ − τ(x,Σ−2

∞ x) = 0

E interessante verificare come la matrice (3) soddisfa alla precedente equazione. Ricor-dando che

TrMMT =∑|µ|2

(dove µ sono gli autovalori di M), ne segue l’eguaglianza

TrΣ∞ = 2τ

∫ ∞0

∑exp(2Reλs)ds = −τRe

(∑ 1

λ

)= −τTrA−1

dove λ sono gli autovalori di A. Quindi otteniamo TrA = −TrΣ−1∞ /τ . Rimane da di-

mostrare(x,Σ−1

∞ Ax)− τ(x,Σ−2∞ x) = 0

Posto Σ∞y = x possiamo riscrivere l’eguaglianza sopra come

(y,AΣ∞y)− τ(y, y) = 0 ∀ y (6)

Calcoliamo il primo termine mediante un’integrazione per parti

AΣ∞ = 2τ

∫ ∞0

exp(As)A exp(AT s)ds

= 2τ exp(As) exp(AT s)∣∣∞0− 2τ

∫ ∞0

exp(As)AT exp(AT s)ds

=− 2τI − Σ∞AT

L’equazione (6) si scrive nella forma

1

2

[(y,AΣ∞, y)− (y,Σ∞A

T y)]− τ(y, y) + τ(y, y) = 0

che diventa un’identita in quanto AΣ − ΣAT e una matrice antisimmetrica. Si calcolaquindi la corrente non nulla nella condizione stazionaria

J =(Ax+ τΣ−1

∞ x)ρ∞(x) = ρ∞(x)Σ−1

∞ (Σ∞A+ τI)x

50

da cui si deducono alcune caratteristiche generali per gli stati stazionari nelle vicinanzedi un punto critico del il campo di forze (detti anche NESS: Non-Equilibrium StationaryState). Notiamo solo come la corrente sia direttamente proporzionale alla parte antisim-metrica della matrice A oltre che alla distribuzione di equilibrio ρ∞. Infatti dalla definizionee integrando sempre per parti abbiamo la relazione

J = ρ∞(x)Σ−1∞

∫ ∞0

exp(As)(A−AT )

2exp(AT s)xds

Possiamo dare un’interpretazione fisica alla parte antisimmetrica della matrice A = As +Aa: la matrice simmetrica As e associata alla forma quandratica V (x) = −(x,Asx)/2 chedefinisce anche un potenziale ed una energia interna del sistema. In particolare Asx risultauna forza conservativa per cui il rotore di Ax dipende solo dalla parte antisimmetrica

rotAx = rotAax

e quindi le correnti stazionarie dipendono linearmente dalla parte rotazionale del campodi forze.

Formalismo Hamiltoniano ed equazioni Stocastiche

Le caratteristiche geometriche della dinamica Hamiltoniana non sono conservate in pre-senza di termini stocastici definiti da un rumore di Wiener per la non covarianza delleequazioni stocastiche. Consideriamo un oscillatore armonico soggetto ad un bagno ter-mico. Le equazioni canoniche assumono la forma

dq = pdt

dp = −ω2qdt− γpdt+√

2Tγdwt

Con w(t) rumore di Wiener. Le soluzioni sono un processo Gaussiano nella forma

x(t) = exp(At)x0 +√

2Tγ

∫ t

0

exp(A(t− s))(

0dws

)dove x = (q, p) e abbiamo introdotto la matrice del sistema

A =

(0 1−ω2 −γ

)Su tratta di un processo Gaussiano a media nulla se x0 = 0 (per t 1 la media convergecomunque a zero poiche gli autovalori di A hanno parte reale negativa). Per il calcolo dellacovarianza utilizziamo il calcolo stochastico

< q2 > = 2 < pq >

< pq > =< p2 > −γ < qp > −ω2 < q2 >

< p2 > = −2ω2 < q2 > −γ < qp > +2Tγ

51

da cui e facile calcolare la soluzione stazionaria valida per t 1 ponendo

2 < pq > = 0

< p2 > −γ < qp > −ω2 < q2 > = 0

2ω2 < q2 > +γ < qp > = 2Tγ

con soluzione per la matrice di covarianza

Σ =

(T/ω2 0

0 T

)La soluzione stazionaria per il sistema e quindi un processo Gaussiano con distribuzione

ρ(q, p) =T

2πωexp

(−p

2 + ω2

2T

)che coincide con la distribuzione di Boltzmann per un oscillatore in un bagno termico atemperatura T . La probabilita che il sistema si trovi nell’elemento dqdp dello spazio dellefasi e data

ρ(E)dqdp =T

2πωexp

(−ET

)dqdp

Introducendo le variabili azione-angolo (vedei paragrafo precedenti)

q =

√2I

ωsin θ

p =√

2Iω cos θ

troviamo quindi

ρ(I) =T

2πωexp

(−ωIT

)Se ora consideriamo l’effetto di una correlazione finita per il rumore

< ξ(t)ξ(t+ s) >=1

2τexp

(− sτ

)s > 0

che diventa un rumore bianco nel limite τ → 0, le equazioni del moto sono equazionidifrerenzaili ordinarie in quanto ξ(t) puo essere realizzato con una funzione differenziabilenel caso τ sia finito e possiamo fare il cambio di variabile direttamente nell’equazioni

θ = ω +γ

ωsin θ cos θ −

√2Tγ

ξ(t)√2Iω3

sin θ

I = −2Iγ cos2 θ + ξ(t)

√4ITγ

ωcos θ

52

Una soluzione stazionaria approssimata del sistema si trova assumendo che per t 1 lafase θ tenda a rilassare ad una distribuzione uniforme (random phase approximation) eche l’azione soddisfi all’equazione di Fokker-Planck in forma conservativa

∂ρ

∂t=

∂Ia(I)ρ+

1

2

∂Ib(I)

∂ρ

∂I

dove il coefficiente di drift e di diffusione si scrivono

a(I) = 2Iγ < cos2 θ >= Iγω

b(I) =4ITγ

ω< sin2 θ >=

2ITγ

ω

nel caso il tempo di correlazione del processo sia piccolo in confronto al tempo di rilassa-mento (che risulta governato da γ−1). Abbiamo infine

∂ρ

∂t= γ

∂IIρ+

γT

ω

∂II∂ρ

∂I

La soluzione stazionaria soddisfa

ρ = −Tω

∂ρ

∂I

ovvero

ρ ∝ exp

(−IωT

)consistente con quanto detto prima. Questo approccio risulta consustente con la visualedi Stratonovich. Tuttavia se applicassimo il calcolo di Ito all’evoluzione dell’azione siotterrebbe

dI =

(−2Iγ cos2 θ +

γT

ω

)dt+

√4ITγ

ωcos θdwt

che contiene un termine di drift in piu anche nell’approssimazione di fasi random. Tuttaviasecondo le regole di Ito a tale equazione e associato un’equazione di diffusione

∂ρ

∂t= γ

∂IIρ− γT

ω

∂ρ

∂I+γT

ω

∂2

∂I2Iρ

che coincide con l’equazione precedente . La coicidenza delle due visuali risulta giustificatadal fatto che il prblema e lineare. L’approccio e valido solo se il tempo di correlazioneτ risulta diverso da zero e tale che ωτ non sia troppo piccolo in modo da giustificare lamedia in fase. Dal momento che γ−1 governa la scala di tempo di rilassamento del sistemaoccorre che γ sia piccolo (ovvero ω/γ sia grande). La soluzione generale dell’equazione diFP si puo cercare nella forma

ρ(I, τ) =D(τ)

2πexp (−D(τ)I)

53

con τ = γt tempo diffusivo. Dalla sostituzione diretta abbiamo

D(1−DI) = D(1−DI)− T

ωD2(1−DI)

da cui possiamo scegluere D(τ) in modo che

D = D − T

ωD2

∫dD

D(1−DT/ω)= τ + c

ovvero possiamo porre

D(τ) =1

T/ω + ae−τ

dove la constante a deve essere calcolata per definire la distribuzione iniziale.

54

Appendice: norma di un operatore lineare

Dato un operatore lineare A in Rn definiamo la norma dell’operatore come

‖A‖ = sup‖x‖=1

‖Ax‖ = supc6=0

‖A‖‖x‖

(a.0)

Tale definizione soddisfa le proprieta di una norma ed in particolare vale una proprietatriangolare

‖A+B‖ ≤ ‖A|+ ‖B‖ (a.1)

e la diseguaglianza‖AB‖ ≤ ‖A‖‖B‖ (a.2)

Dimostrazione: dalla definizione (a.0) abbiamo

‖AB‖ = sup‖x‖=1

‖ABx‖ ≤ ‖A‖ sup‖x‖=1

‖Bx‖ ≤ ‖A‖‖B‖

dove abbiamo utilizzato il fatto che ‖Ax‖ ≤ ‖A‖‖x‖.data una successione di matrici An (associate ad operatori lineari in una base ortonormale)che converge in norma verso la matrice A si puo dimostrare che ogni elemento delle ma-trici converge al corrispondente elemento di A. Dalle relazioni (a.1) e (a.2) si puo anchedimostrare che dato un qualunque polinomio P (x1, x2, ..., xn) vale la diseguaglianza

‖p(A1, A2, ..., An)‖ ≤ p(‖A1‖, ‖A2‖, ..., ‖An‖) (a.3)

che risulta molto utile per le stime delle funzioni analitiche di matrici.Utilizzando la definizione di prodotto scalare possiamo collegare la norma di un operatorecon il problema del calcolo degli autovalori. Dalla relazione ‖x‖2 = (x, x), possiamo for-mulare il problema del calcolo della norma (a.0) a quello di rendere estremale il funzionale

F(x) = (Ax,Ax)− λ(x, x)

con il vincolo ‖x‖ = 1 dove λ e il moltiplicatore di Lagrange. Calcolando la derivataotteniamo

dFdx

= ATAx− λx = 0 (a.2)

doveAT e l’operatore trasposto. L’equazione (a.2) e l’equazione caratteristica dell’operatoresimmetrico semi-definito positivo ATA. Ne segue che

‖A‖ = supk

√λk (a.3)

dove λk e un autovalore della matrice ATA. Nel caso A sia un’opreratore simmetrico, lanorma di A e data dal modulo del piu grande dei suoi autovalori. In un caso piu generalepossiamo utilizzare la decomposizione polare di una matrice

A = RS (a.4)

55

dove R e una applicazione ortogonale e S un’opportuna applicazione simmetrica. Dallarelazione segue che

ATA = SRTRS = S2

per cui S =√ATA e risulta definita positiva nel caso A sia inverbile. Resta da verificare

che AS−1 e una matrice ortogonale. Un semplice calcolo implica

(AS−1)TAS−1 = S−1ATAS−1 = S−1S2S−1 = I

da cui segue l’unicita della decomposizione polare.Vale che ‖A‖ = ‖S‖, ovvero il massimo in valore assoluto tra gli autovalori di S. Comeconseguenza tutte le applicazioni che si ottengono moltiplicando una matrice S data peruna qualunque applicazione ortogonale R, la norma non cambia (ma gli autovalori si). Perdare un’interpretazione geometrica della norma di un operatore consideriamo la quadricadefinita dall’equazione

(u, [ATA]−1u) = 1

associata all’applicazione simmetrica (definita positiva se A e invertibile) [ATA]−1: lanorma dell’applicazione A coincide con la lunghezza del semiasse maggiore dell’ellissoide.E interessante infine considerare il problema di un cambiamento di coordinate in relazionealla definizione di (a.0). Dato un cambiamento y = Tx, la matrice coniugata A′ = TAT−1

soddisfa‖A′‖ = sup

‖y‖=1

‖TAT−1y‖ = sup(Tx,Tx)=1

‖Ax‖

L’equazione (Tx, Tx) = 1 definisce un ellissoide di matrice S = TTT : siano µmax e µminil piu grande e il piu piccolo degli autovalori di S, un punto x dell’ ellissoide soddisfa aµ−1max ≤ (x, x) ≤ µ−1

min. Dall’equazione sopra segue pertanto

µmin‖A‖ ≤ ‖A′‖ ≤ µmax‖A‖

Ne segue quindi che la norma di un’applicazione lineare non e invariante per cambiamentodi coordinate a meno che la matrice S = TTT non sia l’identita. Questo e il caso di cam-biamenti ortogonali di coordinate, che infatti definiscono le isometrie nello spazio lineareRn.

Metrica spettraleNei recenti sviluppi teorici sull’algebra delle matrici random, risulta importante una appli-cazione dallo spazio delle matrici ad R che diventa un prodotto scalare. Dat due matriciad elementi complessi X,Y , definiamo

X · Y =1

nTr(X∗Y ) (b.1)

dove X∗ indica la matrice coniugata, n le dimensioni dello spazio lineare e Tr l’operatoredi traccia. Date le proprieta della traccia segue la bilinearita del prodotto scalare e inoltreponiamo

‖X‖2 =1

nTr(X∗X) ≥ 0

56

in quanto X∗X e simmetrica semidefinita positiva. Inoltre ‖X‖ = 0 significa che la sommadei suoi autovalori deve essere nulla e questo e possibile solo se tutti gli autovalori sononulli. Una matrice simmetrica ad autovalori nulli e la matrice nulla. Il prodotto scalarederiva dall’applicazione lineare

τ(X) =1

nTr(X) (b.2)

Tale applicazione ha la proprieta che τ(I) = 1 e nel caso di matrici autoaggiunte avremoin modo esplicito

τ(Xm) =1

n

∑k

λmk

Supponiamo che gli autovalori siano tutti non negativi, dimostriamo la seguente proprieta:data una matrice autoaggiunta X con autovalori non negativi per un qualuqnue intero mvale la diseguaglianza

τ(Xm)1/m ≥ τ(Xm−1)1/(m−1) (b.3)

Procediamo per induzione: se m = 2 la diseguaglianza si legge

1

n

∑k

λ2k −

(1

n

∑k

λk

)2

≥ 0

ed equivale alla definzione di varianza di una variabile aleatoria e quindi e sempre nonnegativa. Consideriamo la relazione1 +

∑k≥2

amk

m−1

≥ 1

n

1 +∑k≥2

am−1k

m

che equivale alla diseguaglianza precedente. Se ragioniamo con 0 ≤ ak ≤ 1 otteniamo unpunto di massimo con ak = 1 in cui vale l’eguaglianza. Dal calcolo delle derivate segueinfatti che i punti critici soddisfano

aj =1

n

1 +∑k≥2

am−1k

∀ j

ovvero tutti gli ak sono eguali e ak = 1.

57